Компанія Apple почала автоматичне сканування завантажених на iCloud фотографій, щоб виявити зображення з насильством над дітьми.

Про це розповіла директорка з конфіденційності Apple Джейн Хорват, передає Telegraph.

Директорка не пояснила, як саме працює алгоритм. Втім видання припускає, що компанія використовує систему PhotoDNA, що порівнює зображення користувачів із базою даних заборонених знімків. Якщо виявляється збіг — його розглядають окремо, після чого акаунти з порушенням блокують.

PhotoDNA використовують Facebook, Twitter та Google.

Поділитись: