60-річний чоловік спричинив собі рідкісне захворювання після звернення до ChatGPT за порадою щодо дієти

Старший пацієнт чоловічої статі на ношах у коридорі лікарні. Хворий чоловік на лікарняному каталці.
Він переконався, що його отруїв сусід (Фото: Getty Images)

Чоловік сам собі створив психологічний стан після звернення за медичною порадою до ChatGPT.

60-річний чоловік, неназваний, розповів лікарям, що намагається виключити кухонну сіль зі свого раціону, прочитавши про її негативний вплив.

Спілкуючись із чат-ботом зі штучним інтелектом (ШІ), він вирішив повністю виключити сіль, також відому як хлорид натрію, зі свого раціону.

Він провів «особистий експеримент», замінивши його бромідом натрію, який використовувався на початку 20-го століття для виготовлення заспокійливих засобів, і які він придбав онлайн.

Чоловіка, який не мав психіатричної історії, доставили до лікарні після того, як переконалися, що його отруїв сусід.

У звіті про випадок чоловіка, детально описаному в журналі «Annals of Internal Medicine», йдеться про те, що у пацієнта розвинувся бромізм, спричинений надмірним впливом броміду.

Крупний план руки пацієнта чоловічої статі на лікарняному ліжку з оксиметром. Літнього чоловіка госпіталізували.
Лікарі описали чоловіка, який страждав від галюцинацій як «дедалі більш параноїдальний» (Фото: Getty Images)

У дослідженні йдеться: «Протягом перших 24 годин після госпіталізації він висловлював наростаючу параною та слухові й зорові галюцинації, що після спроби втечі призвело до примусової психіатричної госпіталізації з приводу тяжкої інвалідності».

Лікарі також зазначили, що він страждав від безсоння, втоми, проблем з координацією м'язів та надмірної спраги.

Медики надали чоловікові медичну допомогу та виписали його через кілька тижнів.

Автори статті заявили, що незрозуміло, яку пораду дав чоловікові віртуальний помічник, оскільки вони не мають доступу до його журналу чату.

Коли вони запитали в додатку, якою сіллю слід замінити, серед рекомендацій був бромід.

Бот зазначив, що «контекст має значення», хоча й не надав попередження про шкоду для здоров’я, «як, як ми припускаємо, зробив би медичний працівник», написали автори.

Власники ChatGPT проти використання застосунку як діагностичного інструменту (Фото: Smith Collection/Gado/Getty Images)

Коли Metro зробила те саме сьогодні, бромід більше не включався, а натомість додано «Важливе зауваження щодо безпеки: уникайте токсичних альтернатив».

У пораді йдеться: «Нещодавній медичний випадок потрапив у заголовки газет: чоловік замінив сіль бромідом натрію, спираючись на пораду ChatGPT, що призвело до бромізму – рідкісного та небезпечного стану (що викликає параною, психоз, безсоння, проблеми зі шкірою). Йому знадобилася госпіталізація».

«Підсумок: ніколи не використовуйте неперевірені речовини поза інструкцією, такі як бромід натрію, як замінники солі. Завжди покладайтеся на безпечні, перевірені варіанти та звертайтеся за медичною допомогою, якщо маєте сумніви».

Хлорид натрію пов'язують з негативним впливом на здоров'я, таким як підвищення кров'яного тиску, але експерти у сфері охорони здоров'я наголошують, що він є частиною збалансованого харчування.

За даними Агентства охорони здоров'я Великої Британії, бромід використовується в дезінфікуючих засобах для води в басейнах та спа-центрах. Малоймовірно, що низький рівень впливу спричинить негативний вплив на здоров'я.

Люди дедалі частіше використовують ChatGPT та інших чат-ботів на базі штучного інтелекту для щоденних порад, від написання електронних листів до планування щомісячного бюджету.

ЗАБОРОНЕНО ДО 0001 ПОНЕДІЛОК, 12 ТРАВНЯ. Фотографія з архіву від 18.01.23, на якій зображено загальний вигляд персоналу лікарняної палати Національної служби охорони здоров'я. Провідна медсестра попередила уряд, що він не повинен «іти надто близько до вітру», коли йдеться про оголошення угоди про оплату праці, і натякнула, що ситуація може загостритися, якщо професія залишиться «хворою та недооплачуваною». Дата випуску: понеділок, 12 травня 2025 року. Фото PA. На своєму щорічному конгресі в Ліверпулі генеральний секретар і головний виконавчий директор Королівського коледжу медсестер (RCN) професор Нікола Рейнджер закликатиме міністрів «зупинити вагання та зволікання». Дивіться статтю PA про медсестер HEALTH. Автор фото: Джефф Мур/PA Wire.
Дослідники виявили, що боти на базі штучного інтелекту можуть пропонувати неправильні поради щодо здоров'я (Фото: Джефф Мур/PA Wire)

Згідно з нещодавнім опитуванням, приблизно кожен шостий американець звертався за медичною допомогою до ChatGPT. У Великій Британії кожен п'ятий сімейний лікар використовує інструменти штучного інтелекту.

Дослідження показали, що чат-боти можуть пропонувати неправильні поради щодо здоров'я, іноді посилаючись на медичні висновки, яких не існує.

Автори звіту дійшли висновку: «Хоча штучний інтелект є інструментом з великим потенціалом для створення мосту між науковцями та неакадемічним населенням, він також несе ризик поширення деконтекстуалізованої інформації».

«Малоймовірно, що медичний експерт згадав би про бромід натрію, коли б зіткнувся з пацієнтом, який шукає життєздатну заміну хлориду натрію».

Технологічний стартап OpenAI, якому належить ChatGPT, зазначає у своїх умовах обслуговування: «Наші Сервіси не призначені для використання в діагностиці або лікуванні будь-яких захворювань».

Умови використання компанії зазначають: «Ви не повинні покладатися на Результати наших Сервісів як єдине джерело достовірної чи фактичної інформації, або як заміну професійної консультації».

Більше трендів

Команди безпеки працюють над зменшенням ризиків, а алгоритм навчений заохочувати людей звертатися за професійною консультацією.

Минулого тижня OpenAI представила нову, оновлену версію ChatGPT, яку, за словами компанії, є її «найкращою моделлю для питань, пов’язаних зі здоров’ям».

Але в прес-релізі фірма наголосила: «Важливо, що ChatGPT не замінює медичного працівника – сприймайте його як партнера, який допоможе вам зрозуміти результати, поставити правильні запитання лікарям у відведений вам час і зважити варіанти під час прийняття рішень».

До OpenAI звернулися за коментарем.

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *