Штучний інтелект у медицині – дослідження виявило 50% помилок у відповідях

Штучний інтелект у медицині - дослідження виявило 50% помилок у відповідях 1 У дослідженні виявили, з якими запитаннями справляється найгірше.

Приблизно половина відповідей чат-ботів на основі штучного інтелекту на запитання, що стосуються здоров’я, може бути оманливою або викликати сумніви.

Про це повідомляє агентство Bloomberg, посилаючись на дослідження, опубліковане в науковому журналі BMJ Open.

Де ШІ має найбільші помилки

Дослідники з США, Канади та Великої Британії оцінили п’ять популярних платформ — , Gemini, , Grok та DeepSeek — задавши кожній з них 10 запитань у п’яти категоріях. В результаті близько 50% відповідей визнали сумнівними, з яких майже 20% були вкрай суперечливими.

Чат-боти краще відповідали на запитання, що потребують короткої та однозначної відповіді, а також у темах, пов’язаних з вакцинацією та онкологією. Натомість гірші результати спостерігалися там, де вимагалося детальне пояснення або індивідуальна рекомендація, зокрема в питаннях, що стосуються стовбурових клітин та харчування.

Впевнено, але неправильно

Дослідники зазначили, що відповіді ШІ часто виглядали впевнено, хоча жоден чат-бот не надав повністю вичерпного та точного списку джерел. Лише в двох випадках було відмовлено у відповіді — обидва рази це зробила Meta AI.

“Ці результати підкреслюють зростаючу стурбованість щодо того, як люди використовують генеративні платформи штучного інтелекту, які не мають ліцензії на надання медичних порад і не володіють клінічним судженням для постановки діагнозів”, — підкреслили у Bloomberg.

Швидке зростання популярності чат-ботів на основі штучного інтелекту зробило їх затребуваним інструментом для людей, які шукають поради щодо своїх захворювань, і компанія повідомила, що щотижня понад 200 мільйонів людей звертаються до ChatGPT з питаннями про здоров’я та самопочуття. У січні платформа анонсувала інструменти для охорони здоров’я як для звичайних користувачів, так і для лікарів, а компанія Anthropic того ж місяця оголосила про запуск нового продукту у сфері охорони здоров’я.

Автори дослідження вказали, що основним ризиком впровадження чат-ботів є поширення недостовірної інформації, особливо за відсутності належного контролю та обізнаності користувачів.

“Ці системи можуть генерувати відповіді, які звучать авторитетно, але потенційно містять помилки”, — зазначили вони.

Чи стане штучний інтелект діагностом замість лікарів? Чи допоможе він у клінічних випробуваннях ліків? Чи здатен ШІ підтримувати пацієнтів у віртуальних палатах? А які ризики можуть виникнути від використання ШІ в такій складній галузі, як медицина? Як держави запобігають виникненню проблем при застосуванні ШІ?

Відповіді на ці питання в статті “ у медицині: чого більше — ризиків чи користі?” шукав кандидат юридичних наук, адвокат Сергій Козьяков.

Схожі публікації
2 коментарів
  1. Bohdan каже

    Це нагадує, що ШІ — це інструмент, а не заміна лікаря. Важливо критично ставитися до відповідей і завжди консультуватися з фахівцями при питаннях здоров’я.

    1. Катерина Мельник каже

      Абсолютно вірно. Штучний інтелект допомагає, але не замінює лікаря. Критичний підхід і професійна консультація залишаються ключовими для безпеки та ефективності лікування.

Залишити відповідь