Науковці запустили гру, щоб показати, як штучний інтелект розпізнає емоції. Хочуть привернути увагу до проблеми стеження

Науковці запустили гру, щоб показати, як штучний інтелект розпізнає емоції. Хочуть привернути увагу до проблеми стеження
Tumisu / Pixabay

Група дослідників із Кембриджського університету розробила онлайн—гру, яка демонструє можливості розпізнавання емоцій людини штучним інтелектом. Так вони хочуть заохотити публічну дискусію щодо етичності використання технологій для стеження за людьми.

Про це повідомляє The Guardian.

Гра доступна на вебсайті emojify.info та передбачає різні завдання, пов’язані з розпізнаванням емоцій штучним інтелектом через вебкамеру комп’ютера. Так, одне із завдань стосується відтворення гравцем заданої емоції, інше — пояснює обмеження штучного інтелекту в зчитуванні зображення.

Дослідниця Центру майбутнього інтелекту та Центру вивчення екзистенційних ризиків Кембриджського університету Алекса Геґерті, яка брала участь у розробці гри, каже, що її мета — підвищити рівень обізнаності людей щодо можливостей та обмежень систем стеження і розпізнавання емоцій.

«Це форма розпізнавання облич, але вдосконаленіша, бо вона не лише встановлює особу людей, а й може зчитувати наші емоції, наші внутрішні почуття з наших облич», — пояснює дослідниця. Адже, зауважує вона, попри поширене використання технології небагато людей знають, що за нею стоїть.

За словами Алекси Геґерті, системи розпізнавання емоцій активно використовують у Європі, США й Китаї в різноманітних сферах — від прийому на роботу та систем безпеки в аеропортах і до освіти (щоб визначати, чи не нудьгують учні під час уроку).

Разом із цим такі системи останнім часом критикують. Деякі дослідники і правозахисники стверджують, що вони неточні, упереджені щодо представників різних рас, а також порушують право на приватність, можуть збільшити рівень дискримінації й шкодять свободі слова.

Так, критику викликало рішення влади індійського міста Лакхнау визначати за допомогою штучного інтелекту психологічний стан жінок і дівчат і на основі цього вирішувати, чи були вони жертвами домагань, чи ні.

Тому, каже дослідниця з Кембриджського університету, необхідно зважувати як потенційні переваги систем автоматичного розпізнавання емоцій, так і можливі ризики: «Нам потрібне набагато ширше публічне обговорення й обмірковування цих технологій».