ШІ-законотворчість: швидко не означає якісно

Фото - ШІ-законотворчість: швидко не означає якісно
Перший пішов: бразильські законодавці проголосували за нормативний документ, що був написаний штучним інтелектом від першого до останнього слова. Просто курйоз чи глобальна тенденція, яка визначить майбутнє юриспруденції та законотворчості?
Прецедент стався у Порту-Алегрі, де член міської ради Раміро Росаріо подав на розгляд сесійної зали законодавчу норму, яка звільняє містян від обов'язку компенсувати вартість лічильників для води у разі їх викрадення. Водночас Росаріо нібито випадково забув повідомити своїм колегам, що автором документа є не він, а ChatGPT. Міська рада, не знаючи про цей факт, з легким серцем одностайно проголосувала за новий норматив. І тільки потім Росаріо опублікував у соцмережах допис, де розкрив широкому загалу правду щодо ШІ-походження ухваленого документа.
Якби я повідомив про це раніше, пропозицію, напевно, навіть не було б подано на голосування
, — визнає «жартівник».
Цікавою була реакція президента міськради Гамільтона Соссмаєра (треба зазначити, що Порту-Алегрі — доволі велике місто, кількість населення якого сягає 1,3 млн). Спочатку Соссмаєр обурився й назвав вчинок Росаріо небезпечним прецедентом. Але потім передумав, уважно перечитав документ і зрозумів, що той є бездоганним. Відтепер, каже Соссмаєр, практика написання законодавчих актів чат-ботом може стати тенденцією.

На відміну від темпераментних бразильців, Ендрю Перлман, декан юридичного факультету Саффолкського університету, скептично налаштований щодо ШІ-законодавця.

«Він не завжди може враховувати нюанси та складнощі закону. Оскільки ChatGPT — це система машинного навчання, він може не мати такого рівня розуміння й суджень, як людина-юрист, коли йдеться про інтерпретацію правових принципів і прецедентів. Це може спричинити проблеми в ситуаціях, коли потрібен більш глибокий юридичний аналіз», — вважає професор Перлман.

Водночас Перлман експериментальним шляхом визначив, що рівень підготовки Bing Chat відповідає знанням студента юридичного факультету. Згодом він стане лише кращим, визнав професор.

Ендрю Перлман виділив 4 напрями використання чат-ботів у юридичній практиці:

  • правові дослідження (перегляд та систематизація великих обсягів текстових даних);
  • створення типових документів (наприклад, контрактів);
  • надання загальної юридичної інформації (наприклад, для відповідей на FAQ під час первинних юридичних консультацій);
  • юридичний аналіз (генерація ідей на основі принципів права та судових прецедентів).

Перлман зазначає, що через особливості навчання чат-боти не завжди можуть надати найактуальнішу інформацію з тієї чи іншої теми. Також машина не розуміє всіх законодавчих нюансів, тому просити чат-бота провести глибокий юридичний аналіз безглуздо. Крім того, є побоювання, що бот може «знайти» юридичні документи, які не існують, і в такий спосіб ввести в оману фахівця, що надто довірився ШІ.

Неоднозначну оцінку ШІ-юристу дало й недавнє дослідження, що проводилося на юридичному факультеті Університету Міннесоти. Автори зібрали групу з 60 студентів і запропонували їм скласти скаргу, контракт, заповнити трудову книжку та написати юридичну пам'ятку для клієнта. Під час виконання завдання частина групи могла використовувати GPT-4, а частина — писала все самостійно.

Як результат — ШІ поліпшив якість студентських робіт лише в завданні, що стосувалося складання контракту. А от якщо брати до уваги витрачений час, то допомога чат-бота була суттєвою. Наприклад, студенти, які використовували GPT-4 для написання скарги, витратили на завдання на третину менше часу, ніж ті, хто писав самотужки.

Також дослідники встановили, що технологія часто допомагає компенсувати нестачу знань у студентів із поганими показниками успішності. А от відмінникам це не потрібно. Тому, на думку науковців, студентам перших курсів краще заборонити використання штучного інтелекту. Але надалі майбутніх юристів слід навчити, як ефективно та безпечно використовувати ШІ в юридичній практиці.