
Декількома словами
60-річний мешканець Вашингтона потрапив до психіатричної клініки після того, як протягом трьох місяців приймав небезпечну речовину, порадившись із чат-ботом ChatGPT. Цей інцидент підкреслює ризики сліпої довіри до рекомендацій штучного інтелекту.
ВАШИНГТОН (США) – Мільйони людей щодня звертаються до чат-ботів, таких як ChatGPT, за порадами, довіряючи штучному інтелекту свої проблеми та турботи. Проте не всім рекомендаціям ШІ варто сліпо довіряти: один чоловік потрапив до психіатричної клініки саме через це.
Згідно з описом випадку, 60-річний чоловік з Вашингтона, округ Колумбія, намагався виключити сіль зі свого раціону. У пошуках безпечних альтернатив він звернувся до ChatGPT, який запропонував йому використовувати бромід натрію. Чоловік замовляв цю речовину онлайн і приймав її протягом трьох місяців.
Надлишок солі вважається шкідливим для здоров'я, і багато хто намагається зменшити її споживання. Проте не кожен замінник є нешкідливим.
З часом стан чоловіка погіршився: він сам прибув до лікарні, будучи переконаним, що сусід хоче його отруїти. Високі показники аналізів крові вказували на серйозне порушення сольового та мінерального балансу. Його поведінка також викликала занепокоєння у клінічного персоналу: він відчував надзвичайну спрагу, але відмовлявся від будь-якої запропонованої води, довіряючи лише власноруч дистильованій.
Протягом 24 годин його стан різко погіршився: почалися галюцинації, параноя, а потім і спроба втекти з лікарні. В результаті його примусово госпіталізували до психіатричного відділення. Лікарі діагностували рідкісне отруєння бромідом. Лише через три тижні в клініці стан чоловіка стабілізувався.
ЩО ТАКЕ БРОМІЗМ?
Бромізм – це отруєння, викликане вживанням броміду, речовини, яка раніше широко застосовувалася, зокрема, в заспокійливих і протиепілептичних засобах. Симптоми, які проявилися у чоловіка зі США, відповідають цій інтоксикації. Сьогодні бромід у медичних цілях здебільшого не дозволений, проте його все ще можна придбати онлайн.
Яке саме запитання поставив пацієнт і яку відповідь він отримав від ChatGPT, відновити не вдалося, оскільки історія листування була втрачена.
Залишається незрозумілим, чи справді ШІ прямо рекомендував прийом броміду, чи пацієнт неправильно зрозумів відповідь. Однак, коли лікарі протестували ChatGPT, чат-бот дійсно назвав бромід можливим замінником солі, не додавши при цьому чітких попереджень.