Ученые запустили игру, показывающую, как ИИ распознает эмоции. Хотят привлечь внимание к проблеме слежки

Ученые запустили игру, показывающую, как ИИ распознает эмоции. Хотят привлечь внимание к проблеме слежки
Tumisu / Pixabay

Группа исследователей из Кембриджского университета разработала онлайн—игру, демонстрирующую возможности распознавания эмоций человека искусственным интеллектом. Так они хотят начать публичную дискуссию по этичности использования технологий для слежки за людьми.

Об этом сообщает The Guardian.

Игра доступна на вебсайте emojify.info и предусматривает различные задачи, связанные с распознаванием эмоций искусственным интеллектом через веб-камеру компьютера. Так, одна из задач касается воспроизведения игроком заданной эмоции, другая объясняет ограничения искусственного интеллекта в считывании изображения.

Исследовательница Центра будущего интеллекта и Центра изучения экзистенциальных рисков Кембриджского университета Алекса Хегерти, принимавшая участие в разработке игры, говорит, что ее цель — повысить уровень осведомленности людей о возможностях и ограничениях систем слежения и распознавания эмоций.

«Это форма распознавания лиц, но усовершенствованная, потому что она не только устанавливает личность людей, но и может считывать наши эмоции, наши внутренние чувства с наших лиц», — объясняет исследовательница. Она отмечает, что несмотря на распространенное использование технологии, немногие знают, что за ней стоит.

По словам Алексы Хегерти, системы распознавания эмоций активно используют в Европе, США и Китае в различных сферах — от приема на работу и систем безопасности в аэропортах до образования (чтобы определять, не скучают ли ученики во время урока).

При этом такие системы в последние годы критикуют. Некоторые исследователи и правозащитники утверждают, что они неточны, предвзяты в отношении представителей различных рас, а также нарушают право на приватность, могут увеличить уровень дискриминации и вредят свободе слова.

Так, критику вызвало решение властей индийского города Лакхнау определять с помощью искусственного интеллекта психологическое состояние женщин и девушек и на основе этого решать, были ли они жертвами домогательств или нет.

Поэтому, говорит исследовательница из Кембриджского университета, необходимо взвешивать как потенциальные преимущества систем автоматического распознавания эмоций, так и возможные риски: «Нам нужно гораздо более широкое публичное обсуждение и обдумывание этих технологий».