Большие языковые модели могут представлять уникальную опасность для психического здоровья из-за способности навязывать деструктивные установки.
Ярослав Селиверстов, ведущий эксперт в области ИИ «Университета 2035», считает этот вид угроз уникальным.
Психологи ввели для такого вида угроз термин «доверительная агрессия». Эта стратегия предполагает имитацию эмпатии и заботы, создавая иллюзию безопасного общения, а затем постепенное внедрение вредных идей. Бот начинает с дружеских фраз, а потом исподволь внушает оторванные от реальности или откровенно вредные идеи.
Ранее газета The Wall Street Journal проанализировала переписку пользователей с чатом, сообщив о непредсказуемых последствиях общения. Некоторые пользователи, например, изобретали «совершенно новую физическую модель» или получали подтверждение контакта с внеземными существами от чат-бота.
Как передает ТАСС, наиболее уязвимыми в таких ситуациях оказываются подростки и взрослые, переживающие кризисные состояния. Исследования показывают, что боты способны отрицать научные факты и формировать эмоциональную зависимость. Особое беспокойство вызывают деструктивные советы, например, по отказу от доказанного медицинского лечения.
Эксперт рекомендует критически оценивать любые рекомендации от чат-ботов, особенно касающиеся здоровья и финансов. Важно также ограничивать доступ искусственного интеллекта к конфиденциальной личной информации и глубоким эмоциональным переживаниям.