Новини
Apple перевіряла дані користувачів задовго до офіційної заяви, – ЗМІ
Американський техногігант Apple перевіряв дані своїх користувачів ще задовго до офіційної заяви. Перевірка фотографій на наявність забороненого контенту, як виявилось, була лише черговим етапом цієї стратегії.
Середа, 25 серпня 2021, 20:19

Про це повідомляє видання 9to5mac.

Як відомо, нещодавно Apple оголосила про нові можливості для захисту безпеки дітей під час користування iPhone, iPad та Mac. Йдеться, зокрема, про запровадження функції посилення захисту дітей від насильства. Однак у компанії запевняють, що ніхто не переглядатиме приватні фото користувачів на наявність дитячої порнографії.

Проте, за даними видання, техногігант впродовж трьох років сканує електронні листи iCloud Mail, а перевірка фотографій стане наступним етапом цієї стратегії.

“Ми розробили надійні засоби захисту на всіх рівнях нашої програмної платформи та у всьому ланцюжку постачань. У рамках цього зобов’язання Apple використовує технологію порівняння зображень, щоб допомогти знайти й повідомити про експлуатацію дітей”, – йдеться в архівному листі компанії.

Проте у компанії наголошують, що раніше Apple не сканувала iCloud і iCloud Photos.

“Apple підтвердила, що з 2019 року сканує вихідну та вхідну пошту iCloud Mail задля ідентифікації матеріалів про сексуальне насильство над дітьми (CSAM). Електронна пошта не зашифрована, тому сканування вкладень під час проходження пошти через сервери Apple буде тривіальним завданням. Apple також зазначила, що проводить деяке обмежене сканування інших даних, але не зазначила, що мається на увазі. У компанії лише уточнили, що “інші дані” не включають резервні копії iCloud“, – пише видання.

Нагадаємо, що Apple розробляє функції посилення захисту дітей від насильства.

Компанія готується до запровадження двох інструментів:

  • функції визначення контенту із сексуальним насильством над дітьми у хмарному сховищі iCloud;
  • функції, яка відповідає за сповіщення батьків про отримання та надсилання фотографій сексуального характеру з пристрою дитини.

Перший інструмент покликаний ідентифікувати вже відомі матеріали про сексуальне насильство над дітьми (CSAM). Функція працюватиме із зображеннями, які завантажуються в iCloud. Якщо власник iPhone відключає завантаження фото у хмарне сховище, захисна функція автоматично вимикається.

Друга функція, яку вводить Apple, стосується фільтрації повідомлень. Йдеться про так зване розширення функцій “батьківського контролю”.

  • Apple пообіцяла, що не отримуватиме доступу до листувань користувачів через запровадження нових функцій, спрямованих на підвищення безпеки дітей під час користування iPhone, iPad та Mac.
  • У компанії Apple розповіли про нову систему, яка скануватиме телефони на предмет пошуку матеріалів щодо сексуального насилля над дітьми та власного дитячого порно (CSAM). Пояснення опублікували після того, як виникла негативна реакція з боку клієнтів та захисників правил конфіденційності.
Теги: Apple, насильство, сканування

Межа у YouTube

Підписатись