Facebook usuwa z serwisu coraz więcej zabronionych treści. Ponad 90 procent wykrywa algorytm
Facebook poinformował, że w ramach egzekwowania standardów społeczności usuwa ze swojego ekosystemu coraz więcej zabronionych treści. W III kwartale 2019 roku wykryto i usunięto między innymi 11,6 mln materiałów związanych z nagością i wykorzystywaniem seksualnym dzieci oraz 4,4 mln treści dotyczących sprzedaży narkotyków. Facebook zaznacza, że obecnie za 90 procent wykrywania zabronionych wpisów odpowiadają algorytmy działające na platformie, po raz pierwszy też podano niektóre statystyki dotyczące Instagrama.
Facebook po raz czwarty opublikował raport dotyczący egzekwowania standardów społeczności, w którym szczegółowo przedstawia efekty działań w drugim i trzecim kwartale 2019 r. W obecnym raporcie Facebook po raz pierwszy informuje też o skuteczności egzekwowania zasad na Instagramie.
Coraz więcej usuniętych treści
W drugim kwartale br. na Facebooku podjęto działania w stosunku do około 2 mln treści dotyczących samobójstw i samookaleczeń, z czego 96,1 proc. wykryto samodzielnie. W trzecim kwartale usunięto 2,5 mln treści. Z kolei na Instagramie usunięto 835 tys. treści w drugim kwartale, a w trzecim było to 845 tys. materiałów.
Facebook twierdzi, że w zakresie nagości i wykorzystywania seksualnego dzieci w trzecim kwartale usunął 11,6 mln treści, podczas gdy w pierwszym kwartale 2019 było ich około 5,8 mln. Na Instagramie w drugim kwartale usunięto 512 tys. materiałów, zaś w trzecim kwartale 754 tys. treści, z czego 94,6 proc. wykryto w wyniku działań proaktywnych.
W trzecim kwartale 2019 r. z Facebooka usunięto 4,4 mln treści dotyczących sprzedaży narkotyków. Oznacza to wzrost w porównaniu z pierwszym kwartałem 2019 r., kiedy zablokowano 841 tys. treści tego rodzaju.
W trzecim kwartale Facebook usunął 2,3 mln treści dotyczących sprzedaży broni, z czego 93,8 proc. zostało wykrytych w wyniku działań algorytmów. To więcej niż w pierwszym kwartale 2019 r., kiedy usunięto 609 tys. tego typu treści.
Na Instagramie w trzecim kwartale 2019 r. usunięto 1,5 mln treści związanych ze sprzedażą narkotyków oraz 58,6 tys. wpisów dotyczących sprzedaży broni, z czego 91,3 proc. w wyniku własnej analizy.
Walka z mową nienawiści
Facebook zaznacza, że w ciągu ostatnich dwóch lat zainwestował w rozwiązania do wykrywania mowy nienawiści. Dzięki nim jest w stanie dotrzeć do tych treści zanim użytkownicy je zgłoszą, a czasem nawet zanim ktokolwiek je zobaczy.
Techniki wykrywania FB obejmują analizę tekstu i obrazów, dzięki czemu można zidentyfikować obrazy i identyczne ciągi tekstu, które zostały już wcześniej usunięte jako mowa nienawiści. Serwis twierdzi, że stosuje też klasyfikatory uczące się maszynowo, które analizują wyrażenia, a także reakcje i komentarze pod postem, dopasowując je do zazwyczaj spotykanych zwrotów, wzorców i rodzajów ataków, które zaobserwowano już wcześniej w treściach naruszających zasady dotyczące mowy nienawiści.
Facebook informuje, że początkowo używał tych systemów do proaktywnego wykrywania przypadków posługiwania się mową nienawiści i informował o nich zespoły analizujące treści, ponieważ ludzie potrafią lepiej ocenić kontekst, z czym sztuczna inteligencja sobie nie radzi.
Począwszy od drugiego kwartału 2019 r. zaczęto automatycznie usuwać niektóre posty, choć tylko w wybranych przypadkach – gdy treść jest identyczna lub prawie identyczna z wpisami lub obrazami naruszającymi zasady wcześniej usuniętymi przez zespół weryfikatorów lub w przypadku, gdy treść jest bardzo zbliżona do często spotykanych ataków.
Serwis zastrzega, że robi to wyłącznie w wybranych przypadkach i jest to możliwe tylko dzięki przeszkoleniu systemów na setkach tysięcy, a nawet milionach różnych przykładów treści naruszających zasady i popularnych ataków.
We wszystkich pozostałych przypadkach, gdy systemy wykryją potencjalny przypadek posługiwania się mową nienawiści, treść jest przekazywana do zespołów weryfikatorów w celu podjęcia decyzji. Według Facebooka dzięki zmianom wprowadzonym w systemach detekcji skuteczność samodzielnego wykrywania niedozwolonych treści wzrosła do 80 z 68 proc. z poprzedniego raportu.
W III kwartale 2019 roku Facebook zanotował przychód na poziomie ponad 17,6 miliardów dolarów, a zysk netto sięgnął ponad 6 miliardów dolarów. Liczba użytkowników odwiedzających co miesiąc społecznościowy portal to obecnie blisko 2,5 miliarda.
Dołącz do dyskusji: Facebook usuwa z serwisu coraz więcej zabronionych treści. Ponad 90 procent wykrywa algorytm