Штучний інтелект у медицині – дослідження виявило 50% помилок у відповідях
У дослідженні виявили, з якими запитаннями ШІ справляється найгірше.
Приблизно половина відповідей чат-ботів на основі штучного інтелекту на запитання, що стосуються здоров’я, може бути оманливою або викликати сумніви.
Про це повідомляє агентство Bloomberg, посилаючись на дослідження, опубліковане в науковому журналі BMJ Open.
Де ШІ має найбільші помилки
Дослідники з США, Канади та Великої Британії оцінили п’ять популярних платформ — ChatGPT, Gemini, Meta AI, Grok та DeepSeek — задавши кожній з них 10 запитань у п’яти категоріях. В результаті близько 50% відповідей визнали сумнівними, з яких майже 20% були вкрай суперечливими.
Чат-боти краще відповідали на запитання, що потребують короткої та однозначної відповіді, а також у темах, пов’язаних з вакцинацією та онкологією. Натомість гірші результати спостерігалися там, де вимагалося детальне пояснення або індивідуальна рекомендація, зокрема в питаннях, що стосуються стовбурових клітин та харчування.
Впевнено, але неправильно
Дослідники зазначили, що відповіді ШІ часто виглядали впевнено, хоча жоден чат-бот не надав повністю вичерпного та точного списку джерел. Лише в двох випадках було відмовлено у відповіді — обидва рази це зробила Meta AI.
“Ці результати підкреслюють зростаючу стурбованість щодо того, як люди використовують генеративні платформи штучного інтелекту, які не мають ліцензії на надання медичних порад і не володіють клінічним судженням для постановки діагнозів”, — підкреслили у Bloomberg.
Швидке зростання популярності чат-ботів на основі штучного інтелекту зробило їх затребуваним інструментом для людей, які шукають поради щодо своїх захворювань, і компанія OpenAI повідомила, що щотижня понад 200 мільйонів людей звертаються до ChatGPT з питаннями про здоров’я та самопочуття. У січні платформа анонсувала інструменти для охорони здоров’я як для звичайних користувачів, так і для лікарів, а компанія Anthropic того ж місяця оголосила про запуск нового продукту у сфері охорони здоров’я.
Автори дослідження вказали, що основним ризиком впровадження чат-ботів є поширення недостовірної інформації, особливо за відсутності належного контролю та обізнаності користувачів.
“Ці системи можуть генерувати відповіді, які звучать авторитетно, але потенційно містять помилки”, — зазначили вони.
Чи стане штучний інтелект діагностом замість лікарів? Чи допоможе він у клінічних випробуваннях ліків? Чи здатен ШІ підтримувати пацієнтів у віртуальних палатах? А які ризики можуть виникнути від використання ШІ в такій складній галузі, як медицина? Як держави запобігають виникненню проблем при застосуванні ШІ?
Відповіді на ці питання в статті “Штучний інтелект у медицині: чого більше — ризиків чи користі?” шукав кандидат юридичних наук, адвокат Сергій Козьяков.
Це нагадує, що ШІ — це інструмент, а не заміна лікаря. Важливо критично ставитися до відповідей і завжди консультуватися з фахівцями при питаннях здоров’я.
Абсолютно вірно. Штучний інтелект допомагає, але не замінює лікаря. Критичний підхід і професійна консультація залишаються ключовими для безпеки та ефективності лікування.