Віталік Бутерін: нам буде складно подолати ризики використання AI

Фото - Віталік Бутерін: нам буде складно подолати ризики використання AI
У Чорногорії відбулася онлайн дискусія щодо майбутнього людства у зв'язку з розвитком штучного інтелекту. Увага спільноти була прикута до діалогу Віталіка Бутеріна та засновника НДІ машинного інтелекту Нейта Соареша
Два геніальні техно-філософи вперше серйозно обговорювали потенційну загрозу для людства, яку представляє AI. Вони наполягали на необхідності обережного поводження з цією технологією і попереджали, що надання машинам богоподібних якостей може зіграти з людьми злий жарт.

Як Бутерін та Соареш оцінюють вплив AI на людство?

Бутерін відверто говорить, що ми всі зіткнулися з ще не усвідомленими екзистенційними ризиками та оцінює ймовірність того, що AI спричинить загибель цивілізації у 0,5-1%. Це може здатися надто малою величиною — ризик ядерної війни зараз набагато вищий. Але з погляду Віталіка, ми не можемо ігнорувати загрози, яких легко уникнути. А основна небезпека полягає у тому, що розробники автоматизують процес розвитку Штучного Інтелекту.

Тобто зараз ми зайшли до небезпечної зони, де машина навчає машину того, в чому суть добробуту людини.
 

Це замкнене коло, з якого люди навряд чи зможуть знайти вихід, тому що вони опиняться під жорстким контролем нелюдського розуму, що може вважати пріоритетом майбутнє Всесвіту, а не окремо взяту людину. Уявлення AI про добро може суперечити нашим мріям про добробут людства. І що станеться, якщо у нас не знайдеться аргументів, щоб переконати машину?

Один із найвизнаніших дослідників AI на планеті Соареш прямо заявив, що швидкий розвиток машинного розуму під час гонки озброєнь та війни – це абсолютно невиправданий ризик. Ми не можемо гарантувати, що надрозум у цій ситуації не вирішить, що справжнім благом для людства буде його зникнення. Це пов’язано з тим, що вчені досі що неспроможні зрозуміти алгоритм, за допомогою якого AI визначає доцільність своїх дій. Розуміння людських переваг надто далеке від логіки обчислювальної техніки, тому важливо спочатку аизначитися з уявленнями про категорії добра/зла у машини та людини. А це завдання зараз ніхто не береться розв’язувати.
Між розумінням наших мотивів і тим, що нас хвилює, існує величезна прірва
стверджує Соареш
Тобто він упевнений, що поки ми самі не з’ясуємо, чого насправді прагнемо, небезпечно довіряти AI приймати рішення щодо нашого майбутнього. 

Бутерін також сумнівається, що люди можуть навчити машину розуміти, що таке добро. Хоча великі системи AI можуть зрозуміти тонкощі людських уподобань, їм може бракувати вродженого прагнення діяти відповідно до них.

Він застеріг від припущення, що інтелект самодостатніх комп'ютерних систем автоматично гарантує щиру турботу про добробут людства. Все може скластися навпаки.

Адже цінності, якими дорожать люди, не обов'язкові для всіх. Та й сама людська мораль — лише продукт наших предків, які віддавали перевагу репродуктивним функціям і виживанню, а не абстрактним уявленням про загальне щастя. Тому досконалий AI має відповідати колективному прагненню людства до радості, щастя та процвітання. І доки ми не зрозуміємо остаточно, що є для нас добро, небезпечно делегувати розв’язання цього питання машині.

Втім, є й добрі новини.

Співрозмовники впевнені, що сучасні системи AI, такі як ChatGPT, ще не досягли такого рівня можливостей. Тому на найближчі пару років ми можемо видихнути і не переглядати "Матрицю" та "Повстання машин", щоб навчитися відбиватися від божевільних роботів.