Худшее, что можно сделать при плохом самочувствии, — это искать симптомы в интернете. А обращение за медицинской консультацией к ChatGPT может иметь ещё более страшные последствия. 60-летний мужчина убедился в этом на собственном примере. Обеспокоенный количеством соли в своём рационе, он решил проконсультироваться с ИИ, и тот разработал для него смертельную диету.
Чат-бот предложил американцу заменить хлорид натрия на бромид, который в небольших количествах содержится в морской воде и некоторых минералах. Раньше его применяли в некоторых лекарствах. Но потом выяснилось, что в больших дозах он токсичен.
Мужчина, ничего не подозревая, заменил соль бромидом, который заказал в интернете. Через три месяца у него начались галлюцинации и сильная паранойя. Его госпитализировали.
Пациент, который раньше не имел проблем со здоровьем, заподозрил соседа в отравлении. Однако после лечения его состояние ухудшилось: появилась угревая сыпь и вишнёвые ангиомы. Врачи диагностировали бромизм.
Синдром, возникающий в результате длительного употребления брома, проявляется неврологическими симптомами: судорогами, тремором, спутанностью сознания и даже комой. Кроме того, он может привести к тревожности, депрессии, психозу, усталости и анорексии, а также другим проблемам со здоровьем.
«Вдохновлённый своим опытом изучения диетологии в колледже, мужчина решил провести эксперимент, исключив соль из своего рациона, — говорится в отчёте о случае. — Он заменил поваренную соль на бромид натрия, который купил в интернете после разговора с ChatGPT. ИИ подсказал, что хлорид можно заменить бромидом, хотя, вероятно, в других целях, например, для уборки».
После трёх недель в больнице мужчину выписали.
Случай был описан в медицинском журнале American College of Physicians. Авторы обратились к читателям: «ChatGPT и другие ИИ-системы могут генерировать научные неточности и способствовать дезинформации».
OpenAI, создатель ChatGPT, подчёркивает, что в условиях использования чётко сказано: «Не стоит полагаться на наши услуги как на единственный источник достоверной информации или как на замену профессиональной консультации. Сервис не предназначен для постановки диагнозов или лечения заболеваний».
Источник: — переведено специально для fishki.net
- В OpenAI пожаловались на слишком вежливых пользователей ChatGPT
- ChatGPT поделился планами по захвату мира
- Как китайские нейросети обрушили американский фондовый рынок, а Chat GPT лишился работы из-за ИИ
- Как нейросеть видит домашних животных
- В управление японским городом взяли ChatGPT
Вот два бесплатных, нормально всё разжевали
и да, соль(хлорид натрия) так же нужна организму .