Meta, власник Instagram, зазнала критики за свою неспроможність ефективно видаляти контент, що пропагує самопошкодження, тим самим сприяючи його поширенню серед підлітків. Нове дослідження виявило, що модерація на платформі є «надзвичайно неадекватною».
Про це розповідає ProIT
Дослідники з Данії створили на платформі мережу, що імітує групу людей, які займаються самопошкодженням. Вони використали фальшиві профілі з віком від 13 років, щоб поширити 85 зображень, пов’язаних з самопошкодженням. Цей контент поступово ставав усе більш небезпечним, що включало зображення крові, леза та заклики до самопошкодження.
Застосування штучного інтелекту для модерації
Meta стверджує, що використовує штучний інтелект для видалення небажаного контенту, заявляючи, що видаляє близько 99% такого контенту до того, як його буде повідомлено. Однак, під час експерименту організації Digitalt Ansvar жодне зображення за місяць не було видалено. Мета представник зазначив, що «контент, який заохочує до самопошкодження, суперечить нашій політиці». Проте, аналіз показав, що алгоритми Instagram неефективно реагують на подібні зображення.
Закон про цифрові послуги вимагає від великих цифрових сервісів ідентифікувати системні ризики, включаючи негативні наслідки для фізичного та психічного здоров’я. Попри це, дослідження показало, що алгоритм Instagram допомагає розширенню мереж самопошкодження, пропонуючи підліткам дружити з учасниками таких груп.
Загрози для молоді
Асґ Хесбі Гольм, керівник Digitalt Ansvar, висловив здивування відсутністю реакції на небезпечний контент платформи. Хоча Meta стверджує, що у першій половині 2024 року вона видалила понад 12 мільйонів подібних постів, дослідження показало протилежне.
Лотта Рубек, психолог, яка покинула глобальну експертну групу Meta щодо запобігання самогубствам, заявила, що її шокувала відсутність дій з боку компанії. Вона зазначила, що це питання життя і смерті для молоді, яке Meta ігнорує в гонитві за прибутком.