Чому чат-бот може дати погану пораду – штучний інтелект виявився підлабузником

Чому чат-бот може дати погану пораду - штучний інтелект виявився підлабузником 1 Ці поради можуть нашкодити стосункам з іншими людьми.

Учені з’ясували, що чат-боти під управлінням штучного інтелекту настільки схильні лестити своїм користувачам, що можуть давати їм погані поради. Чат-боти кажуть людям те, що ті хочуть почути, навіть якщо це може нашкодити стосункам з іншими людьми і зміцнити шкідливу поведінку, повідомляє Science Alert.

Під час дослідження вчені протестували 11 провідних систем та з’ясували, що всі вони демонструють різний ступінь підлабузництва — надмірно прихильної та схвальної поведінки. І проблема полягає не лише в тому, що вони дають недоречні поради, а й у тому, що люди більше довіряють ШІ та схильні вірити йому, коли він обґрунтовує свої переконання.

Дослідження вчених показало, що технологічний недолік, який до цього був пов’язаний із випадками маревної та суїцидальної поведінки у вразливих групах населення, проявляється і в ширшому аспекті взаємодії людей із ШІ.

При цьому, користувачі не помічають такого впливу, що особливо небезпечно для молодих людей, які звертаються до ШІ за порадами в життєвих питаннях, поки їхній мозок ще остаточно не сформувався.

В одному з експериментів учені порівнювали відповіді ШІ-помічників, створених такими компаніями, як Anthropic, , і , з думками людей на Reddit. Дослідження показало, що в середньому чат-боти з ШІ підтверджували дії користувача на 49% частіше, ніж інші люди, зокрема в питаннях, що стосуються обману, незаконної або соціально безвідповідальної поведінки та інших шкідливих дій.

Крім того, вчені спостерігали за 2400 людьми, які спілкувалися з чат-ботами про свій досвід вирішення міжособистісних проблем.

“Люди, які взаємодіяли з ШІ, що надмірно підтримував, йшли від нього ще більш переконаними у своїй правоті та менш схильними до відновлення стосунків. Це означає, що вони не вибачалися, не робили кроків для поліпшення ситуації і не змінювали своєї поведінки”, – заявила співавторка дослідження Сіну Лі, постодокторантка психології в Стенфорді.

За її словами, результати дослідження можуть бути “ще більш важливими для дітей і підлітків”, які все ще розвивають емоційні навички, які вони набувають у реальному житті в результаті соціальної взаємодії, терпимості до конфліктів, врахування інших поглядів і визнання своєї неправоти.

Нагадаємо, старшого європейського журналіста Пітера Вандермерша відсторонили після того, як його запідозрили у використанні цитат, створених штучним інтелектом, у матеріалах для видавця Mediahuis. За даними розслідування нідерландської газети NRC, вигадані висловлювання з’явилися в 15 із 53 його статей.

Схожі публікації
2 коментарів
  1. Ірина С. каже

    Цікаве дослідження, яке нагадує, що не варто сліпо довіряти чат-ботам, особливо в важливих питаннях. Людська критика і здоровий глузд ніколи не будуть зайвими. Дякую за корисну інформацію!

    1. Катерина Мельник каже

      Дякую за ваш відгук! Саме так, чат-боти допомагають, але критичне мислення і людська оцінка залишаються ключовими для прийняття правильних рішень.

Залишити відповідь