Илон Маск, Стив Возняк и более тысячи подписантов призывали приостановить разработку искусственного интеллекта

Группа специалистов по искусственному интеллекту и топ—менеджеров IT—отрасли призвали сделать шестимесячную паузу в разработке мощных систем искусственного интеллекта из—за возможных рисков для общества.

Об этом говорится в открытом письме, которое опубликовал Институт будущей жизни (Future of Life Institute).

Письмо подписали более 1,1 тысячи человек, среди которых гендиректор SpaceX, Tesla и Twitter Илон Маск, соучредитель Apple Стив Возняк, соучредитель Pinterest Эван Шарп, соучредитель Skype Яан Таллин и многие другие.

Подписанты призывают все лаборатории ИИ немедленно приостановить по крайней мере на полгода обучение систем ИИ, мощнее GPT-4 от компании OpenAI. Если такую паузу нельзя взять быстро, правительства должны вмешаться и ввести мораторий, считают авторы письма.

«Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу, чтобы совместно разработать и внедрить набор общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта», — говорится в письме.

Подписавшиеся подчеркнули, что это не означает приостановки развития искусственного интеллекта в целом, а просто «шаг назад от опасной гонки ко все более непредсказуемым моделям с чрезвычайными возможностями».

По данным Reuters, исполнительный директор OpenAI Сэм Альтман не подписывал это письмо.

Зачем это нужно?

По мнению подписантов, за последние месяцы лаборатории искусственного интеллекта вышли из-под контроля над разработкой и развертыванием все более мощных цифровых умов, «которых никто, даже их создатели, не может понять, прогнозировать или надежно контролировать».

«Мы должны спросить себя: должны ли мы позволить машинам заполнять наши информационные каналы пропагандой и ложью? Следует ли автоматизировать всю работу, включая ту, которая доставляет удовольствие? Должны ли мы развивать нечеловеческие умы, которые со временем могут превзойти, перехитрить и заменить нас? Следует ли рисковать потерей контроля над нашей цивилизацией?» — говорится в письме.

Авторы письма считают, что мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы будем уверены, что их эффект будет положительным, а риски управляемыми.