Apple не будет смотреть ваши личные фото на iPhone. В компании заявили о недоразумении из-за анонса новых функций

Старший вице—президент Apple по разработке программного обеспечения Крейг Федериги объяснил ситуацию анонсированной функции усиления защиты детей от насилия. Он отметил, что никто не будет пересматривать частные фото пользователей на наличие там детской порнографии. Путаница произошла из—за анонса введения двух отдельных новых функций.

Об этом Федериги заявил в интервью изданию Wall Street Journal.

В частности, компания готовит введение двух инструментов: функции определения контента с сексуальным насилием над детьми в облачном хранилище iCloud и функции, которая отвечает за оповещение родителей о получении и отправке фотографий сексуального характера с устройства ребенка.

Так, первый инструмент может идентифицировать уже известные материалы о сексуальном насилии над детьми (CSAM). Эта функция будет работать только с фотографиями, которые загружаются в iCloud. То есть, если владелец iPhone отключает загрузку фото в облачное хранилище, защитная функция автоматически отключается.

Кроме того, само фото будут проверять на совпадение так называемых отпечатков нелегальных фото. Национальный центр США по делам без вести пропавших и эксплуатируемых детей (NCMEC) ведет базу данных известных незаконных изображений жестокого обращения с детьми. Эти данные сохраняют именно в форме цифровых «отпечатков» нелегального материала.

Сейчас уже несколько крупных платформ ㅡ Facebook, Google и Microsoft ㅡ проверяют изображения на соответствие этим данным, чтобы убедиться, что люди не распространяют CSAM.

Apple решила внедрить подобный процесс, но заявила, что сначала сделает соответствие изображений на iPhone или iPad пользователя, прежде чем загрузить его в iCloud.

Федериги заявил, что компания не будет проверять в iPhone фотографии пользователей вроде детей в ванне или искать порнографию. Система будет искать именно соответствие с цифровыми «отпечатками». Если такие найдутся ㅡ аккаунт пользователя обозначат, чтобы можно было просмотреть конкретные изображения устройства. Но перед тем, как это все же сделают, пользователь должен загрузить около 30 таких фото.

Другая функция, которую вводит Apple, касается фильтрации сообщений. В частности, это будет «родительский контроль», который пользователи могут активировать в учетных записях своих детей.

Эта функция позволит проверять фотографии, присланные ребенком или ребенку, через приложение Apple iMessage. Если на фото в сообщении обнаружит голое тело, его автоматически «размоют» и появится соответствующее предупреждение. Если ребенок нажмет «пересмотреть» такое фото, родители получат об этом уведомление.

Критика

Первым о планах Apple ввести новые функции сообщило издание Financial Times. Там отметили, что новая система может помочь правоохранительным органам в расследовании уголовных дел, но при этом может открыть путь к увеличению юридических и государственных требований к данным пользователей. А через несколько часов это подтвердили в самой компании.

Впрочем, в ответ компания получила волну критики от пользователей, должностных лиц и даже собственных сотрудников.

Сотрудники Apple написали во внутренний канал Apple Slack более 800 сообщений по поводу плана ввести новые функции. Многие высказывали опасения, что эта функция может быть использована репрессивными правительствами, которые стремятся найти другой материал для цензуры или арестов неугодных.

Одним из главных критиков этих нововведений выступил профессор криптографии из Университета Джонса Хопкинса Мэттью Грин. В частности, он назвал новые возможности «опасным прецедентом, создающим технологии слежения, которыми могут воспользоваться правительства».