Apple пока не будет сканировать фото на iPhone для поиска насилия над детьми. Все из-за критики функции

Компания Apple решила отложить запуск функции, которая должна сканировать фото на iPhone перед загрузкой на iCloud для поиска сексуального насилия над детьми.

Об этом говорится в заявлении Apple.

В компании отметили, что решили в ближайшие несколько месяцев усовершенствовать функцию. Говорят, что прибегли к такому шагу из-за отзывов пользователей и адвокатских групп.

Apple не указывает конкретно, как долго будет совершенствовать функцию. В то же время в компании полностью не отказываются от необходимости искать сексуальное насилие по фото.

Что предшествовало?

Первым о планах Apple ввести новые функции сообщило издание Financial Times, а через несколько часов подтвердила сама компания. В FT отметили, что новая система может помочь правоохранительным органам в расследовании уголовных дел, но и одновременно может открыть путь к увеличению юридических и государственных требований касаемо данных пользователей.

Сотрудники Apple заполнили внутренний канал Apple Slack более 800 сообщениями в отношении планов ввести новые функции. Многие высказывали опасения, что эта функция может быть использована репрессивными правительствами, которые стремятся найти другой материал для цензуры или арестов неугодных.

Сначала в Apple заявили о недоразумении из-за запуска двух функций, а также объяснили, как новая функция будет работать. Но в конце концов решили на некоторое время отложить запуск.