Новини
В Apple розтлумачили подробиці стосовно сканування телефонів на предмет матеріалів про дитяче порно
У компанії Apple розповіли про нову систему, яка скануватиме телефони на предмет пошуку матеріалів щодо сексуального насилля над дітьми та власного дитячого порно (CSAM). Пояснення опублікували після того, як виникла негативна реакція з боку клієнтів та захисників правил конфіденційності.
Вівторок, 10 серпня 2021, 22:11

Про це повідомляє ВВС.

Технологія CSAM шукає збіги з реальними матеріалами до того, як зображення перейдуть в сховище iCloud. На думку критиків нововведення, це може бути “чорний хід” для офіційного спостереження за користувачами. Через це понад 5 тисяч осіб підписали відкритий лист до компанії проти введення такої технології.

У відповідь в Apple пообіцяли, що “не розширюватимуть систему”.

Минулого тижня прихильники цифрової конфіденційності попередили, що “авторитарні уряди різних країн можуть використовувати цю технологію для підтримки анти-ЛГБТ-режимів чи придушення політичних дисидентів в країнах, де протести вважаються незаконними”.

У компанії пояснили, що інші уряди не можуть використовувати таку функцію, оскільки їм доведеться отримати спеціальний дозвіл від Apple.

В  Apple гарантують, що використовуватимуть CSAM тільки для пошуку зображень з жорстоким поводженням з дітьми.

В компанії додали, що CSAM скануватиме лише фото, які будуть в iCloud. Фото в “Галереї” не скануватимуть.

  • Apple пообіцяла, що не отримуватиме доступу до листувань користувачів через запровадження нових функцій, спрямованих на підвищення безпеки дітей під час користування iPhone, iPad та Mac.
  • Про те, які ще нововведення з’являться на пристроях Apple  — в матеріалі.
Теги: Apple, iCloud, насильство, порно

Межа у Telegram

Підписатись