Facebook odwleka walkę z kontrowersyjnymi treściami
Facebook ma od dłuższego czasu problem z treściami ekstremistycznymi.
Zjawisko miało się mocno nasilić po wyborach w USA w 2016 r. Jak podają w raporcie Jeff Horwitz i Deepy Seethearm z „The Wall Street Journal" (WSJ), Facebook już wtedy zauważył, że stosowany przez serwis algorytm stwarza problemy, ale nie zrobił nic, by go poprawić.
Zmiany (nie)potrzebne
O postawie twórców Facebooka ma świadczyć slajd z wewnętrznej prezentacji serwisu. Pokazuje on pracownikom, że algorytmy serwisu wykorzystują mechanizm przyciągania ludzkiej uwagi. Bez wprowadzenia zmian algorytm dostarczy użytkownikom więcej treści wywołujących podziały, co w efekcie wydłuży czas spędzany przez nich na platformie. Autorzy z WSJ uważają, że prezentacja została odłożona na bok, podobnie jak wspominane w niej zmiany.
Choć Facebook już w 2016 r. zapewniał, że wyciągnął wnioski (założył zespół ds. zaufania i uczciwości oraz zintensyfikował selekcję szkodliwych treści), to WSJ uważa, że platforma celowo odwleka wprowadzenie części zmian.
Między młotem a kowadłem
Już w 2016 r. badacze odkryli, że 64% osób dołącza do grup ekstremistycznych właśnie w efekcie działania algorytmów rekomendacji. Facebook miał różne pomysły na ograniczenie tych tendencji, jednak wszystkie miały być odrzucane jako hamujące wzrost statystyk serwisu.
Ogólny wniosek, jaki wynika z raportu, jest więc taki, że Facebook z jednej strony chciałby pozbyć się treści ekstremistycznych, z drugiej jednak obawia się skutków, jakie mogłyby wywołać bardziej stanowcze kroki.
fot. Wikipedia