Онлайн-платформи соціальних мереж повинні виконати значну роботу, щоб відповідати вимогам Закону про безпеку в інтернеті Об’єднаного Королівства, та ще не впровадили всі необхідні заходи для захисту дітей і дорослих від шкідливого контенту. Таку заяву зробив комунікаційний регулятор Ofcom.
Про це розповідає ProIT
Коди практики та рекомендації Ofcom
У понеділок Ofcom опублікував коди практики та рекомендації, яким мають слідувати технологічні компанії для дотримання закону. В інакшому випадку їм загрожують значні штрафи або навіть закриття сайтів. Регулятор зазначив, що багато з рекомендованих ним заходів не дотримуються найбільшими та найризикованішими платформами.
“Ми не вважаємо, що жодна з них вживає всіх заходів,” – сказав Джон Хайам, директор з політики онлайн-безпеки Ofcom. “Ми думаємо, що є багато роботи.”
Кожен сайт та застосунок, на які поширюється дія закону, мають три місяці для оцінки ризику нелегального контенту на їх платформі. З 17 березня вони повинні почати впроваджувати заходи безпеки для усунення цих ризиків, а Ofcom буде стежити за прогресом. Коди практики і керівні принципи Ofcom визначають способи вирішення цих ризиків. Платформи, які їх приймуть, вважатимуться такими, що дотримуються цього закону.
Вимоги до платформ
Закон застосовується до сайтів і застосунків, що публікують контент, створений користувачами, для інших користувачів, а також великих пошукових систем, охоплюючи понад 100,000 онлайн-сервісів. У ньому визначено 130 “пріоритетних правопорушень” – типи контенту, які компанії мають активно усувати шляхом налаштування своїх систем модерації.
Коди та рекомендації Ofcom передбачають, наприклад, призначення старшого виконавчого директора, відповідального за дотримання закону; наявність належно укомплектованих та фінансованих команд модерації, які швидко усуватимуть нелегальний матеріал, та краще тестування алгоритмів для ускладнення розповсюдження нелегального матеріалу; видалення акаунтів, що належать терористичним організаціям.
Також очікується, що платформи матимуть “легкодоступні” інструменти для подачі скарг на контент, які визнають отримання скарги та вказують, коли вона буде розглянута. Великі платформи повинні надавати користувачам можливості блокувати та затишковувати інші акаунти, а також вимикати коментарі.
Крім того, Ofcom вимагає, щоб платформи запускали автоматизовані системи для виявлення матеріалів сексуального насильства над дітьми, включаючи так звані “хеш-матчинг” заходи, які можуть зіставляти підозрілий матеріал з відомими прикладами контенту. Нові коди і рекомендації також будуть застосовані до сервісів обміну файлами, таких як Dropbox і Mega, які вважаються “високоризикованими” для розповсюдження матеріалів насильства.
Однак кампанії з безпеки дітей стверджують, що оголошення Ofcom не пішло достатньо далеко. Фонд Моллі Роуз, створений сім’єю Моллі Рассел, яка вчинила самогубство після перегляду контенту про самогубство в соцмережах, заявив, що “здивований” відсутністю конкретних заходів для боротьби з контентом, що закликає до самопошкодження та самогубства, якому відповідала б кримінальна відповідальність.
Шахрайство, яке є поширеною проблемою в соціальних мережах, буде вирішуватися завдяки вимозі для платформ створювати спеціальні канали для звітування разом з такими органами, як Національне агентство по боротьбі зі злочинністю та Національний центр кібербезпеки, які можуть повідомляти про випадки шахрайства платформам.