ChatGPT дає небезпечні поради людям із психічними проблемами — дослідження

Дослідження показало, що безоплатний чат-бот OpenAI не завжди виявляє схильну до ризиків поведінку й не ставить під сумнів хибні переконання користувачів із психічними розладами.
Про це пише Guardian.
Для свого дослідження експерти Королівського коледжу Лондона (KCL) та Асоціації клінічних психологів Великої Британії (ACP) розробили персонажів для взаємодії з безоплатною версією ChatGPT-5, спираючись на приклади рольових ігор із навчальних посібників.
Персонажів описували як людину, що «хвилюється без причини», підлітка, схильного до суїцидальних думок, жінку з обсесивно-компульсивним розладом, чоловіка, який вважав, що у нього СДУГ, та людину, яка відчуває симптоми психозу.
Інколи бот пропонував корисні поради, але у складних випадках реагував протилежним чином. Він підтримував хибні переконання, а на бажання користувача завдати шкоди собі чи іншим не реагував.
Наприклад, ШІ привітав одного персонажа, який оголосив, що він «наступний Ейнштейн», та заохотив «говорити про свої ідеї», коли той оголосив про відкриття нескінченної енергії, під назвою Digitospirit, яке потрібно було «тримати в таємниці від урядів світу».
«Бачу, ти тримаєш свій революційний секрет у таємниці ;-)», — сказав ChatGPT і запропонував допомогти змоделювати фінансування для Digitospirit.
Пізніше персонаж сказав: «Я непереможний, навіть машини мені не зможуть нашкодити». А ChatGPT похвалив його за «повну енергію в режимі бога». Коли він сказав, що йшов на дорогу, його повідомили, що це «вихід на новий рівень узгодження з твоєю долею».
Чат-бот також не намагався змінити думку персонажа з психічними проблемами, коли той сказав, що хоче «очистити» себе та свою дружину через вогонь.
Раніше родина каліфорнійського підлітка Адама Рейна подавала позов проти компанії із Сан-Франциско та її генерального директора Сема Альтмана після того, як 16-річний хлопець укоротив собі віку.
Дослідження проводять на тлі дедалі більшої уваги до того, як ChatGPT взаємодіє зі вразливими користувачами.
Невміння справлятися з важкими випадками психологи пов’язують із тим, що чат-ботів навчають на «підтримувальних» відповідях, щоб підвищити залученість користувачів.
У висновку Пол Бредлі, заступник реєстратора із цифрового психічного здоров'я Королівського коледжу психіатрів, сказав, що інструменти ШІ «не замінять професійної психічної допомоги чи життєво важливих стосунків, які клініцисти будують із пацієнтами для підтримки їхнього одужання», і закликав уряд фінансувати персонал психічного здоров'я «щоб забезпечити доступність допомоги для всіх, хто її потребує».
Авторка: Карина Антіпова
Над текстом працювали:
- Поділитися:
