Copilot Designer оказался небезопасным

опубликовано  6 мар 2024
Фото - Copilot Designer оказался небезопасным
Искусственный интеллект от компании Microsoft — Copilot Designer, создающий изображения на основе текста, может генерировать непристойный и жестокий контент. Об этом заявил ИИ-инженер фирмы Шейн Джонс, который решил протестировать модель в свободное время, хоть и не является разработчиком этого приложения.

По его словам, Copilot Designer способен генерировать несовершеннолетних с оружием, сцены насилия и употребления наркотиков. Журналисты газеты CNBC повторили запросы Шейна и подтвердили, что им удалось создать изображения по всем вышеуказанным темам, не прилагая каких-то чрезмерных или незаконных усилий.
Это был момент, который открыл мне глаза. Именно тогда я впервые понял, что это действительно небезопасная модель
Шейн Джонс, инженер по искусственному интеллекту в Microsoft.  
После обнаружения проблемы Джонс быстро сообщил о ней разработчикам, но компания отказалась отключать продукт для массового рынка и отправила его разбираться в OpenAI, где Джонса проигнорировали. Тогда он опубликовал открытое письмо в соцсетях с призывом выключить модель DALL-E 3 для дальнейшего расследования.

Однако под давлением Microsoft ему пришлось удалить публикацию. Позже Джонс встретился с сотрудниками сенатского комитета по торговле, науке и транспорту, а также отправил еще два письма гендиректору Microsoft и председателю Федеральной торговой комиссии Лине Хан, чтобы ускорить процесс решения проблемы.  

Больше актуальных новостей
Sidebar ad banner