В G7 согласовывают принципы снижения рисков ИИ

Фото - В G7 согласовывают принципы снижения рисков ИИ
На рынке искусственного интеллекта вновь поднят вопрос о введении т.н. водяных знаков и дополнительных проверок. Страны Большой семерки – Канада, Франция, Германия, Италия, Япония, Великобритания и США – предложили технологическим компаниям обратить внимание на 11 руководящих принципов применения ИИ. Их соблюдение пока что будет добровольным.
Идея дополнительной маркировки ИИ-контента (как текстового, так и изображений, видео и пр.) витает в воздухе довольно давно. Основной аргумент необходимости введения таких маркеров – это защита авторских прав. Но есть еще и такие факторы как противодействие размещению манипулятивного, фейкового контента, предотвращение незаконного использования биометрических данных и т.д. 

При этом решение, предложенное G7, введением “водяных знаков” на ИИ-контенте не ограничилось. Страны поставили перед собой более широкую задачу унификации и объединения разных подходов к регулированию сферы искусственного интеллекта. В качестве основной цели представители крупнейших экономик мире назвали снижение рисков, присущих системам ИИ, и одновременное развитие инновационного потенциала этой сфере. Иными словами, страны G7 изначально задекларировали двойственную сущность ИИ-технологии: она и “двигатель прогресса” и потенциальный источник серьезных проблем. 

После чего попытались найти баланс между страстью к инновациям и жестким контролем над ними. 

11 руководящих принципов авторства G7 охватывают широкий спектр мер, призванных обеспечить ответственную разработку и внедрение технологий искусственного интеллекта. К ним относятся, например, внешнее тестирование продуктов искусственного интеллекта перед развертыванием, публичное раскрытие мер безопасности и надежные меры контроля защиты интеллектуальной собственности. Также в перечень принципов входят необходимость инвестиций в исследования безопасности ИИ и приоритетность решения проблем здравоохранения, образования и климатического кризиса. И, собственно, идентификация контента, созданного ИИ.

Среди прочих есть и пункт о необходимости принятия международных стандартов регулирования сферы ИИ. И вот здесь, как говорят, нашла коса на камень. Страны Большой семерки сделали серьезный шаг в создании единого подхода к регулированию, но разногласия по некоторым пунктам все равно остались. 

В частности, США выступают против какого-либо надзора над соблюдением перечисленных принципов. То есть Америка – за  добровольных подход соблюдению разработанных G7 принципов. Вот и на национальном уровне администрация Байдена вроде бы активно продвигает регулирование ИИ. Но необходимость получать одобрение Конгресса на все принятые решения в значительной мере тормозит регуляторный процесс. Таким образом, правительственные учреждения и регуляторная система плетутся в хвосте быстро развивающейся ИИ-индустрии.

В Европе на этот вопрос смотрят иначе. ЕС настаивает на введении жесткого мониторинга и контроля за соблюдением разработанных Большой семеркой правил и публичного выявления нарушителей. Вероятнее всего, именно ЕС сможет первым на правительственном уровне установить обязательные правила для разработчиков ИИ. Речь о Закона об ИИ (AI Act). Он находится на заключительной стадии обсуждения и, вполне возможно, будет утвержден уже к концу 2023 года. 
Описанные разногласия показывают, насколько сложно будет внедрить регулирования ИИ в глобальном масштабе. Ведь речь пока идет всего о семи странах, в перечень которых не входит, например, Китай.