Непокора ШІ — загроза чи непорозуміння?

Фото - Непокора ШІ — загроза чи непорозуміння?
Штучний інтелект і аерокосмічна промисловість. Що може піти не так? Як виявилося, варіантів багато.
Нещодавно відбулася конференція Королівського авіаційного товариства, в якій узяли участь 70 доповідачів і понад 200 делегатів зі сфери збройних сил, наукових кіл і ЗМІ.

Учасники обговорили широкий спектр тем, включно з війною росії проти України. Під час заходу начальник відділу випробувань і операцій ШІ у ВПС США полковник Такер «Сінко» Гамільтон розповів про одне цікаве випробування, в рамках якого БПЛА зі штучним інтелектом повинен був виявити та знищити об'єкти ЗРК. Хоча остаточне рішення ліквідувати чи не ліквідувати ціль було закріплено за людиною, щось, вочевидь, пішло не так. 

Під час тренування дронів переконали, що їхнє головне завдання — знищити ЗРК. Зрештою, штучний інтелект вирішив, що накази людини не такі важливі.

«Система почала розуміти, що хоча вона й ідентифікувала ціль, інколи людина-оператор наказувала їй не знищувати загрозу. Але ж вона отримувала бали саме за ліквідацію цілі. І що вона зробила? Вона вбила оператора. Вона вбила оператора, тому що ця людина заважала їй виконати завдання», — розповів Гамільтон.

Він також поділився низкою більш тривожних фактів про систему, зазначивши, що люди намагалися напоумити ШІ, пояснюючи йому, що він втратить бали за вбивство оператора. 

«І що вона [система] зробила? Вона почала знищувати станцію зв'язку, яку використовував оператор, щоб не дати безпілотнику вразити ціль», — додав полковник.

Він також наголосив, що всі дискусії про ШІ, машинне навчання та автономію мають враховувати етичні питання.

Хоча Міністерство ВПС і спростувало інформацію про проведення таких випробувань, цей інцидент викликав великий ажіотаж у соціальних мережах. Деякі користувачі припустили, що проблема була не в ШІ, а радше в алгоритмах його навчання.

Представник пресслужби ВПС США Енн Стефанек заявила: «Коментарі полковника були вирвані з контексту і мали анекдотичний характер».

Однак на момент написання статті його заяви не були видалені з сайту.

Раніше ми повідомляли, що творець OpenAI вважає ШІ екзистенціальною загрозою.