We wtorek powołana przez firmę Meta (NASDAQ: META) Rada Nadzorcza wydała raport krytykujący wyjątkowe traktowanie polityków, celebrytów i partnerów biznesowych na Facebooku i Instagramie. Rada oświadczyła, że znalazła "kilka niedociągnięć".
Krytyka Rady Nadzorczej dotyczy programu "kontroli krzyżowej" Mety, po raz pierwszy opisanego przez The Wall Street Journal w 2021 roku.
Chociaż firma wprowadziła zmiany w programie, raport rady ujawnia, że system nadal sprawia, że posty naruszające politykę firmy są traktowane inaczej, jeśli autor ma wystarczająco dużą liczbę zwolenników. Obraźliwe posty zwykłych użytkowników są szybko usuwane, ale posty popularnych użytkowników, VIP-ów, często pozostają na platformach.
"Rada jest zaniepokojona tym, jak Meta nadała priorytet interesom biznesowym w moderacji treści" - napisano w raporcie, dodając, że firma "zapewniła dodatkową ochronę dla wypowiedzi niektórych użytkowników".
Meta powołała Radę Nadzorczą w 2020 roku, aby ta zajęła się moderacją wokół kwestii związanych z wolnością słowa i prawami człowieka, które pojawiły się po ataku z 6 stycznia na Kapitol. Grupa, składająca się z prawników, ekspertów od praw człowieka i naukowców, może zasugerować Mecie zmiany, ale firma niekoniecznie musi jej słuchać.
W swoim raporcie rada przedstawiła ponad dwa tuziny zaleceń dla Mety. Stwierdziła, że platformy powinny być "radykalnie" przejrzyste w kwestii tego, którzy użytkownicy są traktowani w sposób szczególny w procesie kontroli krzyżowej. Rada wzywa również Metę do ukrywania wszystkich postów podczas ich weryfikacji, niezależnie od tego, czy post został napisany przez popularnego użytkownika, czy nie.
Rada uznała również odpowiedzialność Mety za priorytetowe traktowanie wypowiedzi, które mają "szczególne znaczenie publiczne". Sugeruje, że firma powinna podzielić swój system moderacji treści pomiędzy weryfikacje mające na celu spełnienie "obowiązków Mety w zakresie praw człowieka", a inną przeznaczoną do ochrony użytkowników, którą firma uważa za "priorytet biznesowy".
"Aby w pełni zająć się liczbą zaleceń, uzgodniliśmy z radą, że dokonamy ich przeglądu i odpowiemy w ciągu 90 dni" - napisał Meta w oświadczeniu po ukazaniu się raportu rady.
W przypadku większości użytkowników decyzje o moderacji treści są zlecane podwykonawcom lub algorytmom, ale system kontroli krzyżowej przekierowuje posty publikowane przez VIP-ów do innego procesu. Dla tych "uprawnionych podmiotów" decyzje o potencjalnie problematycznych treściach są podejmowane przez pracowników i podwykonawców z pewną dozą "znajomości języka i regionu", w przeciwieństwie do zewnętrznej moderacji treści publikowanych przez zwykłych użytkowników.
"Stworzyliśmy system kontroli krzyżowej, aby zapobiec potencjalnemu nadmiernemu egzekwowaniu praw (gdy podejmujemy działania dotyczące treści lub kont, które w rzeczywistości nie naruszają naszych zasad) i aby podwójnie sprawdzać przypadki, w których może istnieć wyższe ryzyko błędu lub gdy potencjalny wpływ błędu jest szczególnie poważny" - napisała firma w oświadczeniu.