Лондонский метрополитен с помощью ИИ обнаруживал нарушителей в реальном времени

Станция Willesden Green Лондонского метрополитена. Иллюстративное фото
Станция Willesden Green Лондонского метрополитена. Иллюстративное фотоWikimedia Commons

На одной из станций Лондонского метрополитена камеры видеонаблюдения соединили с искусственным интеллектом для отслеживания нарушений правил пользования метрополитеном. Во время испытания было выдано более 44 тысяч уведомлений, большинство из которых касались уклонения от оплаты проезда.

Об этом пишет Wired.

С октября 2022 года до конца сентября 2023 года транспортная компания TfL, которая управляет Лондонской сетью метро, тестировала алгоритмы ИИ для распознавания событий на видео. Тестирование проходило на станции Willesden Green, что на северо-западе города.

Программное обеспечение соединили с прямой трансляцией камер видеонаблюдения, чтобы попробовать выявлять агрессивное поведение и размахивание оружием или ножами, а также искать людей, которые падают на пути метро или уклоняются от оплаты проезда.

Это первый случай в Великобритании, когда транспортный орган объединил искусственный интеллект и видео в реальном времени для создания оповещений, которые получал персонал станции. Во время испытания было выдано более 44 000 оповещений, 19 000 — доставлено в режиме реального времени.

Больше всего предупреждений выдали в отношении людей, которые уклонялись от оплаты за проезд — 26 тысяч. По данным TfL, убытки от неуплаты проезда достигают до 130 млн фунтов стерлингов (более 150 млн евро) в год.

Глава службы общественной безопасности TfL Мэнди МакГрегор говорит, что на станции не было никаких табличек, которые бы упоминали об испытаниях инструментов слежения ИИ, чтобы пассажиры вели себя естественно.

Значительная часть анализа была направлена на то, чтобы помочь персоналу понять, что происходит на станции, и оперативно реагировать на инциденты. Система прислала 2200 предупреждений о людях, которые выходят за желтые линии безопасности, 39 о людях, которые перегибаются через край платформы, и почти 2000 предупреждений о людях, которые длительное время сидят на скамейке.

Издание пишет, что ИИ допускал ошибки во время испытаний. Например, обозначал детей, которые следовали за своими родителями через турникеты, как потенциальных неплательщиков. Офицеры полиции также помогали с настройкой системы. Полицейские держали мачете и ружье в поле зрения камер, чтобы помочь системе лучше распознавать оружие.

Во время всех тестирований изображения лиц людей были размыты, а данные хранились максимум 14 дней. Однако через шесть месяцев после начала тестирования системы эти данные решили хранить дольше — из-за большого количества оповещений, на которые не успевали реагировать сотрудники.

Тестирование также имело целью выяснить, может ли искусственный интеллект обнаружить велосипеды и скутеры. «ИИ не мог отличить велосипед в сложенном состоянии от обычного, а также электросамокат от детского самоката», — говорится в статье.

Автор: Иван Дьяконов