Искусственный интеллект уже используют для хакерства и дезинформации — канадский киберчиновник

Хакеры и пропагандисты используют искусственный интеллект (ИИ), чтобы создавать вредоносное программное обеспечение, составлять убедительные фишинговые электронные письма и распространять дезинформацию в интернете.

Об этом заявил руководитель Канадского центра кибербезопасности Сами Хоури в интервью Reuters.

Он заявил, что его агентство видело использование искусственного интеллекта «в фишинговых электронных письмах или более целенаправленном создании электронных писем во вредном коде и дезинформации».

Отмечается, что Хоури не предоставил подробности или доказательства. Но его утверждение о том, что киберпреступники уже используют искусственный интеллект, добавляет нотки беспокойства по поводу использования новой технологии мошенниками.

Киберчиновник сказал, что использование ИИ для разработки вредоносного кода все еще находится на начальной стадии, поскольку для его написания требуется много времени.

В то же время он отметил, что модели искусственного интеллекта развиваются достаточно быстро, поэтому трудно понять их вредный потенциал.

ИИ — опасен?

В последние месяцы несколько кибернадзорных групп опубликовали отчеты, в которых предупредили о гипотетических рисках искусственного интеллекта. Особенно быстро развиваются программы, использующие огромные объемы текста для создания убедительных диалогов, документов и т.п.

Британский национальный центр кибербезопасности ранее заявлял в своем сообщении в блоге о риске того, что преступники могут использовать ИИ для своих кибератак и выходить за пределы текущих возможностей.

На прошлой неделе один из бывших хакеров заявил, что попросил искусственный интеллект сложить убедительную попытку обманом заставить кого-то совершить денежный перевод. И ИИ написал пример электронного письма из трех абзацев с просьбой о помощи со срочным счетом-фактурой.