Мета създаде група за борба с материалите за сексуално малтретиране на деца

Мета създаде група за борба с материалите за сексуално малтретиране на деца
  • Публикация:  Ш.Меламед
  • Дата:  
    09.06.2023
  • Сподели:

Meta на Марк Зукърбърг създаде работна група за разследване на твърденията, че Instagram хоства разпространението и продажбата на самогенерирани материали за сексуално насилие над деца, като алгоритмите на платформата помагат за рекламирането на незаконно съдържание.
Ходът на компанията-майка на Facebook идва след доклад от Станфордската интернет обсерватория (SIO), който откри мрежа от акаунти в социалните медии, които изглежда се управляват от непълнолетни, рекламиращи самогенерирани материали за сексуално насилие над деца (SG-CSAM).
SIO каза „Instagram е в момента най-важната платформа за тези мрежи с активиращи функции като алгоритми за препоръки и директни съобщения, които свързват купувачи и продавачи на SG-CSAM".
SIO заяви, че е действала по сигнал от Wall Street Journal (WSJ), който описва подробно проблемите на Instagram SG-CSAM, заедно с констатациите на SIO, в разследване, публикувано в сряда.
SIO съобщи, че Instagram е позволил на потребителите да търсят термини, за които техните собствени алгоритми знаят, че могат да бъдат свързани със SG-CSAM, с изскачащ екран за потребителите с предупреждение, че „тези резултати може да съдържат изображения на сексуално насилие над деца". Екранът дава на потребителите опцията „да видят резултатите така или иначе". Instagram премахна опцията потребителите да преглеждат съдържанието, след като се свърза с WSJ.
В изявление говорител на Meta каза, че компанията е създала вътрешна работна група, която да се справи с твърденията в докладите. „Непрекъснато проучваме начини за активна защита срещу това поведение и създадохме вътрешна работна група, която да разследва тези твърдения и незабавно да се справи с тях", каза говорителят.
Докладът на SIO следва разследване на Guardian през април, което разкри как Meta не съобщава или открива използването на Facebook и Instagram за трафик на деца. В отговор на обвиненията на Guardian по това време, говорител на Meta каза: „Експлоатацията на деца е ужасяващо престъпление – ние не го позволяваме и работим агресивно, за да се борим с него на и извън нашите платформи."
SIO заяви, че нейното разследване е установило, че големи мрежи от акаунти в социалните медии открито рекламират самостоятелно генерирани материали за сексуално насилие над деца. Популярността на Instagram и „удобният за потребителя интерфейс" го правят предпочитана опция сред платформите. „Алгоритмите за препоръки на платформата ефективно рекламират SG-CSAM: тези алгоритми анализират поведението на потребителите и потреблението на съдържание, за да предложат свързано съдържание и акаунти, които да следват", казва SIO.
В доклада се казва, че SG-CSAM понякога може да се разпространява доброволно, но след това става широко разпространен публично. Може също така да се припокрива с интимни изображения без съгласие, наричани още „порнография за отмъщение", докато непълнолетните също могат да бъдат принудени да произвеждат сексуално съдържание. SIO добави, че през последните години SG-CSAM все повече се превръща в търговско начинание, включително публикуването на „менюта" на съдържание онлайн.
Meta вече е разгледала някои от констатациите на разследването, заявявайки в изявление, че е отстранила технически проблем, който не позволява на докладите за SG-CSAM да достигнат до зрителите на съдържание и актуализира насоките за прегледи на съдържание относно идентифицирането и премахването на хищнически акаунти. Вестникът съобщи, че на активист срещу педофилите е казано от Instagram, че едно изображение на оскъдно облечено момиче с графично сексуален надпис „не противоречи на нашите Правила на общността" и му е казано да скрие акаунта, за да избегне виждането на съдържанието му.
Meta каза в изявлението си, че също така е премахнало „хиляди" свързани със SG-CSAM термини за търсене и хаштагове в Instagram, след като изследователи от SIO установиха, че педофили търсят под термини като #pedobait и вариации на #mnsfw („малолетен, не е безопасен за работа").
Meta добави, че между 2020 г. и 2022 г. е демонтирала 27 злоупотребяващи мрежи, като през януари тази година е деактивирала повече от 490 000 акаунта за нарушаване на нейните политики за безопасност на децата.
В доклада на SIO се казва, че са необходими действия в цялата индустрия за справяне с проблема.

Станете почитател на Класа