Na Facebooku o połowę mniej hejtu?
Dziennikarze są innego zdania
Guy Rosen, wiceprezes ds. uczciwości na Facebooku, stwierdził w artykule w firmowym blogu, że występowania mowy nienawiści na Facebooku spadło o prawie 50%. Jeszcze w 2016 roku wysiłki giganta w zakresie moderacji nieodpowiednich treści opierały się głównie na zgłoszeniach użytkowników. „Dziś wspiera nas technologia" – pisze Rosen. Specjalnie opracowane algorytmy proaktywnie identyfikują treści naruszające zasady, zanim jeszcze zostaną one zgłoszone przez użytkowników. Zdaniem Rosena technika pozwala ograniczyć rozpowszechniania mowy nienawiści na kilka sposobów: nie tylko ją wykrywać, ale i kierować do moderatorów i usuwać, gdy narusza zasady. Wszystko to pozwala zmniejszyć dystrybucję hejtu oraz niepożądanych treści.
Dokumenty mówią swoje
Artykuł Rosena jest odpowiedzią na dziennikarskie doniesienia opublikowane w gazecie „The Wall Street Journal", zgodnie z którymi pracownicy Facebooka, których zadaniem jest utrzymywanie obraźliwych komentarzy z dala od platformy, nie wierzą, że firma jest w stanie rzetelnie sprawdzić wszystkie przypadki hejtu. Jak wynika z raportu WSJ, wewnętrzne dokumenty giganta pokazują, że dwa lata temu Facebook skrócił czas pracy moderatorów związany ze skargami dotyczącymi mowy nienawiści i wprowadził inne zmiany, które wpłynęły zmniejszyły liczbę zgłoszeń. Mogło to dać wrażenie, że sztuczna inteligencja Facebooka lepiej sobie radzi w egzekwowaniu zasad publikacji treści na platformie niż rzeczywiście ma to miejsce.
fot. Jerzy Górecki – Pixabay