Facebook twierdzi, że zredukował widoczność mowy nienawiści o 50 proc.

Antoni ZaborskiSkomentuj
Facebook twierdzi, że zredukował widoczność mowy nienawiści o 50 proc.
To nie jest najlepszy czas dla Facebooka. Oprócz głośnej awarii, firma mierzy się z dużą falą krytyki po szokujących wyznaniach byłej pracownicy – Frances Haugen. Publicznie przyznała ona, że administracja portalu w większości działań kieruje się wyłącznie dobrem firmy, nie zważając na szkodliwość społeczną i negatywny wpływ na użytkowników. W skrócie, treści kontrowersyjne, z negatywnym przekazem są promowane, bo wywołują większe zaangażowanie, a zaangażowanie przekłada się na zyski.

Powyższe zeznania to dopiero początek sprawy, bo, Haugen jest podobno w posiadaniu obszernej dokumentacji, którą zamierza przekazać wymiarowi sprawiedliwości. Co więcej, w ofensywie są też dziennikarze The Wall Street Journal, którzy są autorami serii artykułów ujawniających szkodliwe praktyki portalu Marka Zuckerberga.

Jak można było przypuszczać, Facebook bardzo szybko zaczął negować zarzuty i przedstawiać swój punkt widzenia. Mark Zuckerberg wydał oświadczenie, w którym broni swojej firmy i stwierdza, że argumenty dziennikarzy nie mają sensu.

W końcu, na oficjalnym blogu Facebooka doczekaliśmy się podsumowania walki portalu z mową nienawiści i przedstawienia argumentów świadczących o tym, że serwis robi co może, aby wyświetlane treści miały głównie pozytywny efekt.

Facebook twierdzi

Źródło: Unsplash / Alex Haney

Tylko 0,05 proc. postów

W obszernym wpisie możemy przeczytać, że Facebook, nie dość, że nie wspiera, to aktywnie zwalcza mowę nienawiści. Według wewnętrznego raportu, dotyczącego egzekwowania standardów społeczności, treści tego typu stanowią obecnie zaledwie 0.05 proc. wyświetlanego ogółu, czyli 5 na każde 10 000. Ma to oznaczać spadek aż o 50 proc. w ciągu ostatnich 9 miesięcy.

Facebook używa podobno specjalnie opracowanych technologii, aktywnie wykrywających mowę nienawiści, przekazujących jej przypadki do moderatorów, którzy na bieżąco usuwają wszystko, co narusza zasady. Sprawnie działać ma też automatyczny system usuwania treści w oczywisty sposób naruszających regulamin.

Pracowaliśmy z międzynarodowymi ekspertami, aby opracować nasze wskaźniki. Jesteśmy również jedyną firmą, która zgłosiła się na ochotnika do przeprowadzenia niezależnego audytu.

We wpisie wspomniano również, że w 2016 roku opierano wykrywalność tylko na zgłoszeniach użytkowników, co nie było wystarczająco skuteczne, stąd pomysł opracowania zautomatyzowanych mechanizmów.

Źródło: Facebook / fot. tyt. Unsplash / Barefoot Communications

Udostępnij

Antoni ZaborskiW branży nowych technologii od ponad 10 lat. W tym czasie pisał dla kilku popularnych serwisów, a także na swój rachunek. Prywatnie fan motoryzacji, sportów walki i dobrego jedzenia.