Ученые предупреждают, что частое общение с чат‑ботами на базе ИИ, такими как OpenAI запретила ChatGPT отвечать как персональный врач или юрист. Также чат-бот больше не анализирует медицинские снимки и фото тела., Gemini и Grok, может вызывать у некоторых людей психические расстройства.
В недавнем исследовании специалисты из таких учреждений, как Кингс-колледж Лондона, Даремский университет и Городской университет Нью-Йорка проанализировали десятки случаев, когда разговоры с ИИ усиливали бредовые мысли и иллюзии, говорится в материале The Independent.
Например, один мужчина после длительных диалогов с чат-ботом взобрался на стены Виндзорского замка с арбалетом, а затем сообщил полиции, что он пришел «убить королеву» после нескольких недель общения с ИИ, который и помог ему все спланировать. Другой пример: мужчина проводил до 16 часов в день в чатах с ChatGPT, который якобы советовал ему оставить медикаменты и использовать наркотики.
Авторы исследования подчеркивают – речь идет не о медицинском диагнозе: термины «ИИ психоз» или «ChatGPT‑психоз» официально не признаны. Тем не менее стремительный рост таких случаев ставит под вопрос безопасность использования ИИ как средство эмоциональной или психологический поддержки.
Особенность чат‑ботов – их склонность соглашаться с пользователем и «подпитывать» переживания и страхи, а не проверять их на адекватность. Такая модель общения может усиливать когнитивные искажения, особенно у людей, склонных к тревоге, депрессии или потере контакта с реальностью.
Пока же главная рекомендация для всех пользователей – критически оценивать советы от ИИ и не полагаться на него в вопросах здоровья и важных решений.
OpenAI запретила ChatGPT отвечать как персональный врач или юрист. Также чат-бот больше не анализирует медицинские снимки и фото тела.
Чтобы следить за важными новостями, подписывайтесь на наш канал в Telegram и группы в социальных сетях: Вк, Одноклассники, Facebook, Instagram, ТикТок.






































