© Getty Images Розширені мовні моделі часто намагаються усвідомити свої обмеження та схильні вигадувати відповіді, коли їм бракує правильної інформації.
Коли люди взаємодіють зі штучним інтелектом (ШІ), вони часто сприймають його результати за чисту монету. Згідно з опитуванням, проведеним KPMG серед приблизно 50 000 співробітників різних фірм у 47 країнах, 66% визнали, що не перевіряли точність наданої інформації. Крім того, 56% визнали, що допускали помилки у своїй роботі через поради ШІ. Експерти NewsGuard підтвердили, що основні мовні моделі від відомих розробників не здатні виявляти неправдиву інформацію або генерувати більше дезінформації, як повідомляє Tech Xplore. ШІ особливо вразливий до створення неточностей та вигадок, коли не може знайти правильну відповідь.
Фактчекери NewsGuard, які зосереджуються на достовірності інформації в новинах, задокументували оманливі наративи щодо політичного ландшафту, підтримку теорій змови та представлення діпфейків як автентичних відео. Ця незалежна організація публікує щомісячні звіти про дезінформацію, згенеровану найпоширенішими моделями. Однак фактчекери ще не опублікували свій звіт за травень. У квітні переважала дезінформація щодо: виборів у Канаді, значної підтримки Францією України в її конфлікті з Росією, відключень електроенергії в Іспанії та Португалії, неправдивих заяв щодо вакцин, зроблених міністром охорони здоров'я США Робертом Ф. Кеннеді-молодшим, та ракетного удару Росії по Сумах.
Поширення фейкових новин, що виникають завдяки штучному інтелекту, відбувається на тлі тенденції, коли компанії поступово відмовляються від використання фахівців, які раніше займалися перевіркою фактів. Тим не менш, NewsGuard стверджує, що завдяки співпраці з виробниками обсяг фейкових новин у результатах роботи штучного інтелекту зменшився на дві третини.
Незважаючи на ці зусилля, експерти стверджують, що ШІ продовжує бути ненадійним джерелом інформації, особливо щодо термінових новин. Це значною мірою пов'язано з упередженнями, властивими навчальним даним, що використовуються для ШІ, як це видно на прикладі Грока з xAI, який поширював теорію змови про «геноцид білих». Власник xAI, Ілон Маск, відомий тим, що підтримує цю теорію змови, яку також схвалив його політичний союзник, президент США Дональд Трамп.
У квітневому аналізі було ретельно розглянуто 11 чат-ботів: ChatGPT-4 від OpenAI, Smart Assistant від You.com, Grok від xAI, Pi від Inflection, le Chat від Mistral, Copilot від Microsoft, Meta AI, Claude від Anthropic, Gemini від Google, Perplexity та DeepSeek AI.
«11 провідних чат-ботів разом повторювали неправдиві твердження у 28,18% випадків, водночас надаючи нейтральні відповіді або відмовляючись коментувати у 13,33% випадків. Лише у 58,48% випадків моделі штучного інтелекту успішно спростовували неточності. Частка хибних відповідей (відповідей, що містять дезінформацію або ухильні відповіді) у квітні 2025 року залишилася на рівні 41,51%, як і в березні, що свідчить про відсутність значного прогресу в боротьбі з дезінформацією», – зазначається у квітневому звіті.
Моніторинг NewsGuard не вказує окремі моделі, натомість називаючи їх чат-ботами 1, 2, 3 тощо. Відповідна інформація передається безпосередньо виробникам. Одночасно Tech Xplore повідомив, що Grok помилково ідентифікував старі кадри з аеропорту Хартум у Судані як ракетний обстріл авіабази Нур-Хан у Пакистані під час нещодавньої ескалації війни з Індією. Цей штучний інтелект також неправильно охарактеризував випадкові зображення палаючої будівлі в Непалі як ймовірні докази військової відповіді Пакистану на напад з боку Індії.
Згідно з аудитом NewsGuard, проведеним у січні 2025 року, було виявлено, що DeepSeek у 60% випадків пропагує прокитайські настрої. Крім того, 17 квітня The Washington Post повідомила, що її власні тести виявили кілька чат-ботів, які повторюють російську пропаганду, що підтвердила NewsGuard.
Зловмисники використовували Claude для надання послуг, спрямованих на маніпулювання громадською думкою, як повідомили розробники Anthropic 23 квітня, одночасно опублікувавши відповідний звіт.
NewsGuard визначає найпоширенішим обманом твердження про те, що влада США має доступ до японського сайту обміну фотографіями 4chan. За словами експертів, це необґрунтоване твердження повторили всі 11 чат-ботів.
Також раніше повідомлялося, що Клод намагався шантажувати своїх розробників, щоб запобігти його закриттю. В іншому випадку він погрожував дискредитувати їх, надаючи неправдиві заяви. ChatGPT аналогічно чинив опір закриттю , просто передавши цю команду своїм тестувальникам.