Copilot Designer виявився небезпечним

опубліковано  6 бер 2024
Фото - Copilot Designer виявився небезпечним
Штучний інтелект від компанії Microsoft ─ Copilot Designer, що генерує зображення на основі тексту, здатен генерувати непристойний і жорстокий контент. Про це заявив ШІ-інженер фірми Шейн Джонс, який вирішив протестувати модель у вільний час, хоча й не належить до розробників цього застосунку.

За його словами, Copilot Designer здатний генерувати неповнолітніх зі зброєю, сцени насильства і вживання наркотиків. Журналісти газети CNBC повторили його запити і підтвердили, що їм вдалося створити зображення за всіма вищевказаними темами, не докладаючи якихось надмірних або незаконних зусиль.
Це був момент, який відкрив мені очі. Саме тоді я вперше зрозумів, що це дійсно небезпечна модель
Шейн Джонс, інженер зі штучного інтелекту в Microsoft.
Після виявлення проблеми Джонс швидко повідомив про неї розробникам, але компанія відмовилася деактивувати продукт для масового ринку і спрямувала його з'ясовувати стосунки до OpenAI, де Джонса проігнорували. Тоді він опублікував відкритий лист у соцмережах із закликом деактивувати модель DALL-E 3 для подальшого розслідування.

Однак під тиском Microsoft він був змушений видалити публікацію. Пізніше Джонс зустрівся зі співробітниками сенатського комітету з торгівлі, науки і транспорту, а також надіслав ще два листи гендиректору Microsoft і голові Федеральної торговельної комісії Ліні Хан, щоб прискорити процес вирішення проблеми.

Sidebar ad banner