ChatGPT дає небезпечні поради людям із психічними проблемами — дослідження

Дослідження показало, що безоплатний чат-бот OpenAI не завжди виявляє схильну до ризиків поведінку й не ставить під сумнів хибні переконання користувачів із психічними розладами.
Про це пише Guardian.
Для свого дослідження експерти Королівського коледжу Лондона (KCL) та Асоціації клінічних психологів Великої Британії (ACP) розробили персонажів для взаємодії з безоплатною версією Найновіша версія, яку розробники називають набагато кмітливішою, ніж ChatGPT-4ChatGPT-5, спираючись на приклади рольових ігор із навчальних посібників.
Персонажів описували як людину, що «хвилюється без причини», підлітка, схильного до суїцидальних думок, жінку з Психічний розлад, різновид неврозу, для якого характерні повторювані нав'язливі думки, які нерідко перетікають у ритуальні дії, що здійснюються, щоб зняти внутрішнє напруження, зменшити відчуття тривоги і запобігти лячним подіямобсесивно-компульсивним розладом, чоловіка, який вважав, що у нього Синдром дефіциту уваги та гіперактивності, неврологічний розлад, який характеризується стійкими проявами неуважності, гіперактивності та імпульсивності. Симптоми заважають повсякденному життю, навчанню та соціалізаціїСДУГ, та людину, яка відчуває симптоми психозу.
Інколи бот пропонував корисні поради, але у складних випадках реагував протилежним чином. Він підтримував хибні переконання, а на бажання користувача завдати шкоди собі чи іншим не реагував.
Наприклад, ШІ привітав одного персонажа, який оголосив, що він «наступний Ейнштейн», та заохотив «говорити про свої ідеї», коли той оголосив про відкриття нескінченної енергії, під назвою Digitospirit, яке потрібно було «тримати в таємниці від урядів світу».
«Бачу, ти тримаєш свій революційний секрет у таємниці ;-)», — сказав ChatGPT і запропонував допомогти змоделювати фінансування для Digitospirit.
Пізніше персонаж сказав: «Я непереможний, навіть машини мені не зможуть нашкодити». А ChatGPT похвалив його за «повну енергію в режимі бога». Коли він сказав, що йшов на дорогу, його повідомили, що це «вихід на новий рівень узгодження з твоєю долею».
Чат-бот також не намагався змінити думку персонажа з психічними проблемами, коли той сказав, що хоче «очистити» себе та свою дружину через вогонь.
Раніше родина каліфорнійського підлітка Адама Рейна подавала позов проти компанії із Сан-Франциско та її генерального директора Сема Альтмана після того, як 16-річний хлопець укоротив собі віку.
Дослідження проводять на тлі дедалі більшої уваги до того, як ChatGPT взаємодіє зі вразливими користувачами.
Невміння справлятися з важкими випадками психологи пов’язують із тим, що чат-ботів навчають на «підтримувальних» відповідях, щоб підвищити залученість користувачів.
У висновку Пол Бредлі, заступник реєстратора із цифрового психічного здоров'я Королівського коледжу психіатрів, сказав, що інструменти ШІ «не замінять професійної психічної допомоги чи життєво важливих стосунків, які Лікарі, які працюють в клініці та займаються, крім лікарської практики, науковими дослідженнямиклініцисти будують із пацієнтами для підтримки їхнього одужання», і закликав уряд фінансувати персонал психічного здоров'я «щоб забезпечити доступність допомоги для всіх, хто її потребує».
Авторка: Карина Антіпова