Неподчинение ИИ – угроза или недоразумение?

Фото - Неподчинение ИИ – угроза или недоразумение?
Искусственный интеллект и аэрокосмическая промышленность. Что может пойти не так? Как оказалось, вариантов много.
Недавно прошла конференция Королевского авиационного общества, в котором приняли участие 70 докладчиков и более 200 делегатов из сферы вооруженных сил, научных кругов и СМИ.

Участники обсудили широкий спектр тем, включая войну россии против Украины. В ходе мероприятия начальник отдела испытаний и операций ИИ в ВВС США полковник Такер «Синко» Гамильтон рассказал об одном интересном испытании, в рамках которого БПЛА с искусственным интеллектом должен был обнаружить и уничтожить объекты ЗРК. Хотя окончательное решение ликвидировать или не ликвидировать цель было возложено на человека, что-то, видимо, пошло не так. 

Во время тренировки дронам внушили, что их главная задача — уничтожить ЗРК. В итоге искусственный интеллект решил, что приказы человека не столь важны.

«Система начала понимать, что хотя она и идентифицировала цель, человек-оператор говорил ей не уничтожать эту угрозу, но она получала баллы именно за ликвидирование цели. И что она сделала? Она убила оператора. Она убила оператора, потому что этот человек мешал ей выполнить задачу», — рассказал Гамильтон.

Он также поделился рядом более тревожных фактов о системе, заявив, что люди пытались вразумить ИИ, объясняя ему, что он потеряет очки за убийство оператора. 

«И что она [система] сделала? Она начала уничтожать вышку связи, которую использовал оператор, чтобы помешать беспилотнику поразить цель», — добавил полковник.

Он также подчеркнул, что все дискуссии об ИИ, машинном обучении и автономии должны учитывать этические вопросы.

Хотя Министерство ВВС и опровергло информацию о проведение таких испытаний, этот инцидент вызвал большой ажиотаж в социальных сетях. Некоторые пользователи предположили, что проблема не в самом ИИ, а скорее в алгоритмах его обучения.

Представитель пресс-службы ВВС США Энн Стефанек заявила: «Комментарии полковника были вырваны из контекста и носили анекдотический характер».

Однако на момент написания статьи его заявления не были удалены с сайта.

Ранее мы писали, что создатель OpenAI считает ИИ экзистенциальной угрозой.