Искусственный интеллект «рисует» войну в Украине. Это плохо для нас?

Искусственный интеллект «рисует» войну в Украине. Это плохо для нас?
hromadske

Маленький ребенок с нахмуренными бровями и слезами, катящимися по щечкам, черным от пыли, осевшей на лице, и в зимней курточке. На фоне — одна из многоэтажек, поврежденных войной. Простая подпись: «Днепр».

Это фото облетело соцсети после очередной российской атаки, унесшей жизни десятков наших людей. Но это фейк, красивая картинка, сгенерированная искусственным интеллектом. Почему эта работа обеспокоила людей и какие этические вопросы об искусственном интеллекте подняла — разбиралось hromadske.

В последние годы невероятные возможности ИИ пытаются применить в самых разных сферах. Но, похоже, людям интереснее, когда искусственный интеллект используется в творчестве. Дописать десятую симфонию Бетховена, «снять» фильм, переписать Библию в БДСМ-стиле — все это оказалось по силам ИИ. Не без нюансов, конечно.

Настоящий бум популярности искусственного интеллекта произошел в 2022 году, когда пользователи получили доступ к инструментам, которые могут генерировать любые изображения по текстовому описанию.

Сама система преобразования «текста в картинку» существует уже давно. Принцип таков: ИИ собирает обширные наборы данных для анализа и выдает определенный результат. Инструменты с возможностями, которые у нас есть сегодня, до сих пор были доступны только компаниям. К примеру, Imagen от Google остается закрытой. А для доступа к DALL·E от OpenAI нужно было становиться в длинный список ожидания.

К тому же, разработчики не спешат обнародовать свой код или делиться данными, на которых были обучены их инструменты. Исключением стал Stable Diffusion от Stability AI, доступ к которому — открытый и бесплатный.

Так постепенно возможности ИИ-искусства перешли в руки энтузиастов, которые начали воплощать «на холсте» свои самые абсурдные идеи.

Этическая сторона вопроса

Поскольку ранее доступ к таким инструментам ИИ имели компании, в них вводили «корпоративные фильтры»: никакой порнографии и насилия.

У Stable Diffusion фильтров не было. Это позволило генерировать изображение с любым содержимым. Такие возможности могли навредить другим людям, например звездам, поэтому через три месяца после «премьеры» разработчики выпустили обновление с фильтром на NSFW.

Другой вопрос к ИИ-искусству, который вызвал много возмущения со стороны художников, — сохранение авторских прав. Для создания новых изображений ИИ «скармливают» картины, фото, иллюстрации, уже сделанные людьми.

Работы имеющего узнаваемый стиль цифрового художника и блогера Сэм Янга (SamDoesArts) неоднократно становились «вдохновением» для ИИ. Он рассказал, что на создание работ в собственном стиле уходят сотни часов. Однако с появлением работ по мотивам его творчества в ИИ люди начали спрашивать, не являются ли его собственные работы сгенерированными.

Произведение ИИ по мотивам работ Сэма Янга

Польский концептуальный художник Грег Рутковский, известный своими эпическими фантастическими картинами, также стал жертвой ИИ. Его стиль теперь — одна из наиболее используемых подсказок в Stable Diffusion. Он рассказал, что находит в интернете десятки ссылающихся на него картин, созданных ИИ, и беспокоится, что уже вскоре среди них не сможет найти свои.

Чтобы как-то помочь этому, создали инструмент Have I Been Trained? («На мне тренировались?»), чтобы помочь художникам узнать, были ли их произведения искусства среди «скормленных» искусственному интеллекту.

В борьбе за защиту авторских прав против разработчиков ИИ уже начались первые судебные процессы. Американское фотоагентство Getty Images судится с Stability AI. А группа художников и юристов подали в суд на Microsoft, ее «дочку» GitHub и OpenAI из-за GitHub Copilot — ИИ-инструмента, помогающего программистам писать код. Истцы говорят о «пиратстве программного обеспечения в беспрецедентных масштабах».

ИИ «рисует» войну в Украине

Фото мальчика из Днепра, сгенерированное искусственным интеллектомВерховная Рада / Twitter

Эта фотография ребенка облетела соцсети, когда спасатели еще искали реальных пострадавших под обломками днепровской многоэтажки, уничтоженной российской ракетой. В соцсетях уже распространились первые страшные кадры разбитого здания; людей, кричавших под обломками; жителей уничтоженных квартир, сигнализировавших о помощи фонариками.

Официальная страница Верховной Рады опубликовала изображение «ребенка из Днепра» с подписью: «Art: VISUALIZATIONS». Сообщение сразу набрало просмотры, а также комментарии о неуместности публикации. Пресс-служба парламента его удалила, но изображение уже появилось в других сообществах и аккаунтах. К примеру, на странице посла Украины в Японии Сергея Корсунского.

В Facebook изображение набрало еще больше просмотров, а также сочувствующих комментариев от украинцев, которые считают, что и «фото», и «ребенок» на нем реальные.

«Боже, возьми этого ребенка под свою опеку»; «Такой маленький невинный ангелочек, это чье-то маленькое солнышко...»; «Боже, молю, пусть это будет последняя ракета. Дай этому ребенку и всем остальным выдержать это», — только часть комментариев под такими сообщениями.

Из уточнения ВР о «визуализации» изображения многие сделали выводы, что это работа ИИ. Следовательно, для создания картины о месте очередного российского удара по Украине искусственный интеллект мог «вдохновиться» реальными фото.

Впрочем, проблема даже не в том, что за почти год войны и активной борьбы с фейками украинцы не распознают ненастоящее фото. А то, что после разъяснения ошибки некоторым все равно, настоящее ли оно.

«Это же близнец распятого мальчика в трусиках, которого тоже придумал своего рода искусственный интеллект — российская пропаганда, а затем даже после всех разоблачений и признаний мифологема распятого мальчика вдохновляла российских люмпенов на ненависть к Украине. Потому что если этого придумали, то другого точно распяли», — пишет медиакритик Отар Довженко.

Распространение, а затем опровержение «фото ребенка из Днепра» также дает основания пропагандистам продвигать нарратив о «фейках из Украины», а рядовым иностранцам сомневаться в реальности сообщений.

скриншот / Twitter / @_Glassocation_

«Мальчик из Днепра», как ни странно, не стал первым изображением ИИ на тему войны в Украине. Стартап Sirens запустил проект, где нейросеть генерирует художественные работы о важных событиях российско-украинской войны — битве за аэропорт в Гостомеле, атаке на остров Змеиный, подписании лен-длиза Джо Байденом и т.д.

Есть в галерее и работы, иллюстрирующие особенно болезненные для украинцев темы: обстрел Драмтеатра в Мариуполе и начало блокады города.

Некоторые картины имеют очевидное сходство с реальными фото из Украины, которые уже облетели весь мир и вошли в историю. Среди них — «Освобождение Киевской области», напоминающее фото из Бучи, и «Герои Азовстали держали оборону Мариуполя 85 дней», которая схожа со знаменитым фото Дмитрия «Ореста» Козацкого.

Зачем эти картины? Авторы проекта рассказывают, что продают их как NFT, а собранные средства передают на гуманитарную помощь Украине: помощь жертвам войны и восстановление пострадавших городов.

Это не единственный случай визуализации войны в Украине с помощью искусственного интеллекта. Насколько этично такое применение «ИИ-искусства» во время активной информационной войны — вопрос открытый.