Apple опинилася в центрі судового позову через відмову впровадити інструменти для виявлення матеріалів, які містять сексуальне насильство над дітьми (CSAM), у своєму сервісі iCloud. Позов вимагає компенсації у розмірі понад 1,2 мільярда доларів для групи з 2680 постраждалих.
Про це розповідає ProIT
Плануючи запровадити сканування iCloud на виявлення CSAM у 2021 році, Apple мала намір повідомляти Національний центр зниклих і експлуатованих дітей про підозрілі зображення. Але після критики щодо можливих загроз конфіденційності компанія вирішила відмовитися від цих планів, що призвело до розчарування серед багатьох користувачів і громадських організацій.
Реакція Apple на звинувачення
На позов, поданий у Північній Каліфорнії, речник Apple Фред Сайнц відповів, що компанія залишається відданою боротьбі з матеріалами CSAM. Він наголосив на тому, що Apple активно працює над новітніми рішеннями, які не порушують конфіденційності користувачів. Наприклад, функція “Безпека комунікацій” здатна попереджати дітей про отримання чи надсилання зображень з оголеними тілами, що допомагає запобігти маніпуляціям, які можуть призвести до насильства.
Цей судовий процес виник через декілька місяців після того, як британське Національне товариство запобігання жорстокому поводженню з дітьми (NSPCC) звинуватило Apple у недооцінці масштабів розповсюдження матеріалів CSAM. Компанія наголошує на важливості впровадження технологічних рішень для захисту дітей, але водночас вважає за необхідне зберігати баланс між безпекою та конфіденційністю.
У сучасному інформаційному середовищі, питання захисту дітей від небезпечного контенту залишається важливим викликом для технологічних гігантів, і багато хто очікує від Apple активніших дій у цьому напрямку.