
Чоловік сам собі створив психологічний стан після звернення за медичною порадою до ChatGPT.
60-річний чоловік, неназваний, розповів лікарям, що намагається виключити кухонну сіль зі свого раціону, прочитавши про її негативний вплив.
Спілкуючись із чат-ботом зі штучним інтелектом (ШІ), він вирішив повністю виключити сіль, також відому як хлорид натрію, зі свого раціону.
Він провів «особистий експеримент», замінивши його бромідом натрію, який використовувався на початку 20-го століття для виготовлення заспокійливих засобів, і які він придбав онлайн.
Чоловіка, який не мав психіатричної історії, доставили до лікарні після того, як переконалися, що його отруїв сусід.
У звіті про випадок чоловіка, детально описаному в журналі «Annals of Internal Medicine», йдеться про те, що у пацієнта розвинувся бромізм, спричинений надмірним впливом броміду.

У дослідженні йдеться: «Протягом перших 24 годин після госпіталізації він висловлював наростаючу параною та слухові й зорові галюцинації, що після спроби втечі призвело до примусової психіатричної госпіталізації з приводу тяжкої інвалідності».
Лікарі також зазначили, що він страждав від безсоння, втоми, проблем з координацією м'язів та надмірної спраги.
Медики надали чоловікові медичну допомогу та виписали його через кілька тижнів.
Автори статті заявили, що незрозуміло, яку пораду дав чоловікові віртуальний помічник, оскільки вони не мають доступу до його журналу чату.
Коли вони запитали в додатку, якою сіллю слід замінити, серед рекомендацій був бромід.
Бот зазначив, що «контекст має значення», хоча й не надав попередження про шкоду для здоров’я, «як, як ми припускаємо, зробив би медичний працівник», написали автори.

Коли Metro зробила те саме сьогодні, бромід більше не включався, а натомість додано «Важливе зауваження щодо безпеки: уникайте токсичних альтернатив».
У пораді йдеться: «Нещодавній медичний випадок потрапив у заголовки газет: чоловік замінив сіль бромідом натрію, спираючись на пораду ChatGPT, що призвело до бромізму – рідкісного та небезпечного стану (що викликає параною, психоз, безсоння, проблеми зі шкірою). Йому знадобилася госпіталізація».
«Підсумок: ніколи не використовуйте неперевірені речовини поза інструкцією, такі як бромід натрію, як замінники солі. Завжди покладайтеся на безпечні, перевірені варіанти та звертайтеся за медичною допомогою, якщо маєте сумніви».
Хлорид натрію пов'язують з негативним впливом на здоров'я, таким як підвищення кров'яного тиску, але експерти у сфері охорони здоров'я наголошують, що він є частиною збалансованого харчування.
За даними Агентства охорони здоров'я Великої Британії, бромід використовується в дезінфікуючих засобах для води в басейнах та спа-центрах. Малоймовірно, що низький рівень впливу спричинить негативний вплив на здоров'я.
Люди дедалі частіше використовують ChatGPT та інших чат-ботів на базі штучного інтелекту для щоденних порад, від написання електронних листів до планування щомісячного бюджету.

Згідно з нещодавнім опитуванням, приблизно кожен шостий американець звертався за медичною допомогою до ChatGPT. У Великій Британії кожен п'ятий сімейний лікар використовує інструменти штучного інтелекту.
Дослідження показали, що чат-боти можуть пропонувати неправильні поради щодо здоров'я, іноді посилаючись на медичні висновки, яких не існує.
Автори звіту дійшли висновку: «Хоча штучний інтелект є інструментом з великим потенціалом для створення мосту між науковцями та неакадемічним населенням, він також несе ризик поширення деконтекстуалізованої інформації».
«Малоймовірно, що медичний експерт згадав би про бромід натрію, коли б зіткнувся з пацієнтом, який шукає життєздатну заміну хлориду натрію».
Технологічний стартап OpenAI, якому належить ChatGPT, зазначає у своїх умовах обслуговування: «Наші Сервіси не призначені для використання в діагностиці або лікуванні будь-яких захворювань».
Умови використання компанії зазначають: «Ви не повинні покладатися на Результати наших Сервісів як єдине джерело достовірної чи фактичної інформації, або як заміну професійної консультації».
Більше трендів
Щось дивне помітили щодо комети, що мчить до Сонця
Технології 3 дні тому
- Microsoft Outlook не працює, через що користувачі не можуть надсилати та отримувати електронні листи
- Найбільший витік даних Google ставить під загрозу 2 500 000 000 користувачів Gmail – ось як захистити себе
- Spotify представляє нову революційну функцію, яка розділяє користувачів
Команди безпеки працюють над зменшенням ризиків, а алгоритм навчений заохочувати людей звертатися за професійною консультацією.
Минулого тижня OpenAI представила нову, оновлену версію ChatGPT, яку, за словами компанії, є її «найкращою моделлю для питань, пов’язаних зі здоров’ям».
Але в прес-релізі фірма наголосила: «Важливо, що ChatGPT не замінює медичного працівника – сприймайте його як партнера, який допоможе вам зрозуміти результати, поставити правильні запитання лікарям у відведений вам час і зважити варіанти під час прийняття рішень».
До OpenAI звернулися за коментарем.