AI Overviews від Google поширює дезінформацію в масштабах, небезпечних для людства, — дослідження
Depositphotos
Нещодавнє дослідження, здійснене стартапом Oumi на замовлення The New York Times, показало, що резюме, створені штучним інтелектом AI Overviews, які з’являються над результатами пошуку Google, є точними приблизно в 91% випадків.
У певному сенсі це може виглядати як вражаюча цифра. Але ось ще більш вражаюча: 5 трильйонів. Це приблизна кількість пошукових запитів, які Google обробляє щороку, що призводить до десятків мільйонів неправильних відповідей, які AI Overviews надають щогодини — і сотні тисяч щохвилини, згідно з оцінками дослідження. Іншими словами, Google створив кризу дезінформації.
Дослідження показали, що люди схильні беззастережно довіряти тому, що говорить їм ШІ; один звіт виявив, що лише 8% користувачів насправді перевіряли відповіді ШІ. Інший експеримент показав, що користувачі все ще слухали ШІ, навіть коли він надавав неправильну відповідь, майже в 80% випадків — тривожна тенденція, яку дослідники охрестили “когнітивною капітуляцією”.
Великі мовні моделі набирають авторитетний тон і можуть впевнено представляти вигадану інформацію як факт, коли не можуть негайно надати точну відповідь. Додайте до цього зручність, яку пропонують AI Overviews від Google, і легко уявити безліч користувачів, які сприймають ці резюме за істину.
“Проблема з ненадійними AI Overviews закладена в їхній самій конструкції. Вони створені для швидкості, а не для точності, що призводить до помилок у медичній інформації, які можуть бути небезпечними для життя”, — зазначає Джина Нефф, професорка відповідального ШІ в Університеті Королеви Мері, для видання The Guardian.
Oumi провела аналіз за допомогою тесту під назвою SimpleQA — широко використовуваного в індустрії еталону точності ШІ, розробленого OpenAI. Перший раунд тестів, проведений у жовтні, використовував версію AI Overviews на базі моделі Google Gemini 2. Наступна перевірка в лютому протестувала функцію після її переходу на Gemini 3, її розрекламоване оновлення.
Кожен раунд тестів включав 4 326 пошукових запитів у Google. Gemini 3 виявилася точнішою моделлю, надаючи фактично обґрунтовану відповідь у 91% випадків. Gemini 2 показала значно гірші результати — лише 85% точності. З одного боку, це свідчить про те, що моделі вдосконалюються. З іншого боку, це вказує на те, що Google був готовий нав’язати своїй базі користувачів модель, яка була ще більш схильна до галюцинацій, у триваючому експерименті, який досі дезінформує сотні мільйонів людей. Google назвав аналіз помилковим.
“Це дослідження має серйозні прогалини. Воно не відображає те, що люди насправді шукають у Google”, — заявив репортерам NYT речник Google Нед Адріанс.
Проте власні тести Google малюють не менш нищівну картину, зазначається у звіті. В одному з внутрішніх аналізів Gemini 3 було виявлено, що ШІ-модель видавала неправильну інформацію у 28% випадків. Google, однак, стверджує, що AI Overviews є точнішими, оскільки вони спираються на результати пошуку Google перед тим, як надати відповідь.
Покращення між Gemini 2 та Gemini 3 може маскувати більш серйозний недолік. В аналізі Oumi Gemini 2 надавала відповіді, які були “необґрунтованими” у 37% випадків, що означає, що AI Overviews посилалися на вебсайти, які не підтверджували надану ними інформацію. Але з Gemini 3 цей показник підскочив до 56%. Це вказує на те, що ШІ бере факти “зі стелі”, а необґрунтовані відповіді ускладнюють для користувачів перевірку тверджень ШІ.
СпецпроєктиЯк перетворити заощадження на дохід: досвід покупки корпоративних облігацій за кілька хвилинРетельне миття підлоги замість пасивного протирання: огляд серії роботів-пилососів Aqua 10 від Dreame
“AI Overviews від Google тепер розташовані над кожним синім посиланням. Читачі отримують відповідь. Вони закривають вкладку. Ви не отримуєте кліку, перегляду реклами чи доходу. Це екзистенційна загроза для видавців”, — йдеться у звіті коаліції журналів The Magazine Coalition, за квітень 2026.
Окрім ризиків дезінформації, впровадження AI Overviews спровокувало глибоку кризу в екосистемі цифрових медіа. Аналітичні дані свідчать, що поява ШІ-відповідей над результатами пошуку призводить до падіння органічного трафіку для видавців на 30-60%, оскільки користувачі отримують необхідну інформацію безпосередньо в Google, не переходячи на першоджерела.
Це явище, відоме як “нульовий клік”, позбавляє медіа та незалежних авторів рекламних доходів, ставлячи під загрозу існування нішевих ресурсів, які роками створювали контент, на якому тепер навчаються ці самі моделі. Зокрема, деякі спеціалізовані блоги вже повідомили про втрату до 90% відвідувачів після глобального розгортання функції. Але є і більш небезпечна проблема.
“AI Overviews можуть видати список текстів жирним шрифтом, через що читачам дуже легко пропустити той факт, що ці цифри можуть бути навіть не тими, що стосуються їхнього конкретного випадку. Це фальшиве заспокоєння може завдати реальної шкоди здоров’ю”, — розповідає Памела Хілі, виконавча директорка British Liver Trust, коментуючи гучний кейс з помилками ШІ в аналізах крові.
Особливе занепокоєння викликає вибірковий підхід алгоритмів до джерел: у більшості випадків AI Overviews надають перевагу великим агрегаторам, таким як Wikipedia, Reddit або YouTube, ігноруючи менші, але більш експертні видання. Навіть коли ШІ надає фактично правильну відповідь, відсутність видимих посилань на джерела у першому екрані перегляду створює ілюзію, що знання належать самій корпорації Google.
Це не лише підриває економіку творців контенту, але й створює небезпечний інтелектуальний монополізм, де “усереднена” відповідь нейромережі стає єдиною доступною істиною для мільярдів людей, витісняючи критичне мислення та різноманітність думок.
Письменник Чак Вендіг переконав Google AI Overview, що в нього є кіт Сер Мяулінгтон фон Піссбрет, котрий розмовляє кантонською
Джерело: Futurism
Дуже тривожно, що довіра до ШІ настільки висока, а перевірка інформації майже відсутня. Це справжній виклик для суспільства і потребує негайних рішень.
Ви абсолютно праві. Висока довіра до ШІ без достатньої перевірки інформації створює серйозні ризики. Необхідно впроваджувати ефективні механізми контролю та освіту користувачів для мінімізації поширення дезінформації.