Мужчина получил бромизм и психоз, следуя рекомендациям ChatGPT

10 августа 2025
Время чтения 2 мин.
37 Просмотров

Недавний случай, произошедший в медицинском учреждении Вашингтонского университета, привлёк всёобщее внимание к возможным рискам использования искусственного интеллекта в сфере здравоохранения. В центре истории — мужчина, который в течение трёх месяцев принимал бромид натрия по рекомендации ChatGPT, что привело к серьёзным медицинским осложнениям, включая психоз и отравление. Этот инцидент стал первым подобным случаем, демонстрирующим потенциальные опасности, связанные с неправильной интерпретацией советов искусственного интеллекта.

Мужчина обратился к ChatGPT с целью уменьшить потребление соли, желая найти альтернативное решение. ИИ предложил заменить обычный поваренной солью, хлорид натрия, на бромид натрия, который ранее широко использовался в медицине для лечения различных состояний. Вдохновлённый этим советом, мужчина начал приобретать бромид натрия онлайн и принимать его в течение трёх месяцев, полагая, что это поможет ему снизить содержание соли в пище. Однако спустя некоторое время у него появились галлюцинации, паранойя и другие психические расстройства, что вызвало необходимость госпитализации.

В стационаре, врачи диагностировали бромизм — редкое отравление, связанное с токсичностью бромида. Несмотря на тяжелую симптоматику, пациент быстро получил необходимое лечение — внутривенные вливания и антипсихотические препараты. Благодаря своевременному вмешательству, через три недели состояния мужчины улучшились, и он был выписан из больницы. Этот случай стал важным напоминанием о том, что использование искусственного интеллекта в медицине должно осознавать свои ограничения и не заменять консультацию квалифицированных специалистов.

Эксперты подчеркивают, что ИИ, такой как ChatGPT, может распространять некорректные или опасные рекомендации, особенно в отсутствии контекста и профессиональной оценки. В данном случае совет, основанный на неверных предположениях, привёл к серьёзным последствиям для здоровья человека. Медицинские специалисты настоятельно рекомендуют не полагаться абсолютно на алгоритмы ИИ при принятии решений, особенно связанных с лечением и медикаментами. Важность критического мышления и обращения к лицензированным врачам невозможно переоценить.

Этот инцидент также подчеркивает необходимость постоянного обновления и регулирования технологий искусственного интеллекта в медицине. Текущие системы могут не отличать потенциально опасные рекомендации от безопасных, если они не настроены должным образом или не проходят строгий контроль. В будущем важно внедрять механизмы проверки и подтверждения советов ИИ врачами или квалифицированными специалистами, чтобы избегать подобных трагедий. Кроме того, пользователи должны осознавать, что ИИ — это инструмент, а не окончательный источник медицинских решений.

Образовательные кампании и информационная работа необходимы для повышения уровня осведомленности населения о рисках самостоятельного применения советов, полученных из таких платформ. В случае сомнений относительно рекомендаций ИИ лучше обратиться за профессиональной консультацией, чтобы избежать опасных ошибок. Этот случай ярко иллюстрирует, что технологии могут быть мощным помощником, но только в комбинации с человеческим контролем, знаниями и опытом. В конечном итоге, здоровье и безопасность человека должны оставаться приоритетом при использовании новых технологий.

Выйти из мобильной версии