Algorytm Facebooka nagradza nienawiść. Zuckerberg nie chce zmian, boi się odwrotu użytkowników
Największe zaangażowanie użytkowników Facebooka generują treści negatywne i mowa nienawiści oraz posty obraźliwe - wynika z wewnętrznego raportu badaczy tej platformy. Jej szef Mark Zuckerberg ma być przeciwny jakimkolwiek zmianom algorytmów w obawie przed utratą zaangażowania użytkowników.
„The Wall Street Journal” opublikował wnioski z badań realizowanych przez badaczy pracujących dla Facebooka, które przedstawiane zostały w wewnętrznej komunikacji firmy. Wynika z nich, że platforma wprowadzała algorytmy, by Facebook był zdrowszym miejscem, ale zamiast tego stał się platformą „bardziej rozgniewaną”.
"WSJ" podaje, że jesienią 2018 r. Jonah Peretti, dyrektor naczelny internetowego wydawcy BuzzFeed, wysłał e-mail do Marka Zuckerberga. Poinformował go, że najbardziej kontrowersyjne treści, jakie wyprodukowali wydawcy, stały się wirusowe na platformie, tworząc zachętę do produkowania ich w jeszcze większej ilości.
Negatywne treści angażują bardziej
Wskazał na sukces posta BuzzFeed zatytułowanego „21 rzeczy, które prawie wszyscy biali ludzie są winni mówić”, który otrzymał 13 000 udostępnień i 16 000 komentarzy na Facebooku, w większości od osób krytykujących BuzzFeed za napisanie tego posta . Zdradził też, że inne, przyjazne treści produkowane przez firmę, od filmów informacyjnych po artykuły na temat samoopieki czy zwierząt, miały problemy z przebiciem się.
Według wewnętrznych dokumentów Facebooka przejrzanych przez „The Wall Street Journal”, Peretti obwinił Facebooka za „gruntowny remont”, którego dokonano na początku tego roku w algorytmie News Feed, aby zwiększyć „istotne interakcje społeczne” lub MSI między przyjaciółmi a rodziną.
BuzzFeed zbudował swoją działalność na tworzeniu treści, które stały się wirusowe na Facebooku i w innych mediach społecznościowych, więc był żywotnie zainteresowany wszelkimi zmianami w algorytmie, które szkodziłyby jego dystrybucji.
Szef Facebooka, Mark Zuckerberg, powiedział, że celem zmiany algorytmu jest wzmocnienie więzi między użytkownikami i poprawa ich samopoczucia. Facebook zachęcałby ludzi do częstszych interakcji z przyjaciółmi i rodziną oraz spędzania mniej czasu na biernym konsumowaniu profesjonalnie wyprodukowanych treści, które według badań były szkodliwe dla ich zdrowia psychicznego.
Sukces na Facebooku dają posty wywołujące oburzenie i sensację
Jednak pracownicy firmy mieli ostrzegać dyrektora generalnego, że zmiana przyniesie odwrotny skutek. To miało sprawić, że Facebook stał się „miejscem bardziej gniewnym”.
Badacze firmy odkryli, że wydawcy i partie polityczne przekierowują swoje posty w kierunku treści wywołujących oburzenie i sensację, bo ta taktyka wywołuje wysoki poziom komentarzy i reakcji, które przełożyły się na sukces na Facebooku.
„Nasze podejście miało ogromne skutki uboczne w ważnych treściach publicznych, takich jak polityka i wiadomości”, napisał zespół naukowców zajmujących się danymi, sygnalizując skargi Perettiego „To rosnąca odpowiedzialność” – napisał jeden z nich w kolejnej notatce.
Badacze doszli do wniosku, że duże znaczenie nowego algorytmu w udostępnianych materiałach w jego News Feed sprawiło, że krytyczne głosy stały się popularniejsze. „Dezinformacja, toksyczność i treści związane z przemocą są niezwykle popularne i szeroko rozpowszechniane wśród postów” – zauważyli badacze w wewnętrznych notatkach.
Według dokumentów, niektóre partie polityczne w Europie powiedziały Facebookowi, że algorytm zmusił je do zmiany stanowiska politycznego, dzięki czemu zyskały większy oddźwięk na platformie.
Użytkownicy FB rezygnują z interakcji z platformą
Pracownicy Facebooka omówili także inny, mniej nagłośniony motyw zmiany firmy: użytkownicy zaczęli mniej wchodzić w interakcję z platformą, co jest niepokojącym trendem.
Lars Backstrom, wiceprezes ds. inżynierii na Facebooku, powiedział w jednym z wywiadów, że każdy algorytm ryzykuje promowanie treści, które są nieodpowiednie lub szkodliwe dla niektórych użytkowników. „Podobnie jak każda optymalizacja, będą pewne sposoby, w jakie zostanie wykorzystana" - powiedział. „Dlatego mamy zespół ds. uczciwości, który stara się je wyśledzić i dowiedzieć się, jak je jak najskuteczniej łagodzić”.
Analitycy danych z tego zespołu ds. uczciwości - którego zadaniem jest poprawa jakości i wiarygodności treści na platformie - pracowali nad wieloma potencjalnymi zmianami, które miały ograniczyć tendencję zmodernizowanego algorytmu do nagradzania mowy nienawiści, oburzenia i kłamstw.
Zuckerberg nie chce poprawek
Mark Zuckerberg sprzeciwił się niektórym proponowanym poprawkom - jak wynika z dokumentów - ponieważ obawiał się, że mogą one zaszkodzić drugiemu celowi firmy – sprawieniu, by użytkownicy bardziej angażowali się w Facebooka.
Anna Stiepanow, która kierowała zespołem zajmującym się tymi problemami, przedstawiła wiosną 2020 roku Zuckerbergowi kilka proponowanych zmian mających na celu rozwiązanie problemu rozprzestrzeniania się fałszywych i dzielących treści na platformie. Jedna taka zmiana odebrałaby impuls, jaki algorytm nadał treściom, które najprawdopodobniej będą dalej udostępniane przez wielu użytkowników.
„Mark nie sądzi, że moglibyśmy pójść na całość” z tą zmianą - napisała do kolegów po spotkaniu. Pan Zuckerberg powiedział, że jest otwarty na przetestowanie tego podejścia, powiedziała, ale „nie uruchomimy go, gdyby istniał istotny kompromis z wpływem MSI”.
W zeszłym miesiącu, prawie półtora roku po tym, jak Stiepanow powiedziała, że Zuckerberg odrzucił pomysł szerokiego wprowadzenia podobnej poprawki, Facebook ogłosił, że „stopniowo rozszerza niektóre testy, aby kłaść mniejszy nacisk na sygnały, takie jak prawdopodobieństwo, że ktoś skomentuje lub udostępni treści polityczne”. Posunięcie to jest częścią szerszego nacisku , stymulowanego przez ankiety użytkowników, w celu zmniejszenia ilości treści politycznych na Facebooku po tym, jak firma została skrytykowana za sposób, w jaki protestujący przed wyborami wykorzystali platformę do kwestionowania wyników i organizowania protestów, które doprowadziły do zamieszek 6 stycznia na Kapitolu w Waszyngtonie.
Backstrom, który nadzoruje ranking treści w News Feed, powiedział, że Facebook dokonał ostatniej zmiany, ponieważ uznał, że wady polegania na wskaźnikach opartych na zaangażowaniu w przypadku wrażliwych kategorii treści, takich jak polityka, przeważają nad korzyściami.
"Pewne podziały istniały jeszcze przed mediami społecznościowymi"
Zmiana algorytmu z 2018 r. wpłynęła na główną funkcję Facebooka, kanał informacyjny, stale aktualizowany, spersonalizowany katalog zdjęć rodzinnych znajomych i linki do wiadomości. Prawie trzy miliardy użytkowników Facebooka spędzają większość czasu na platformie. Firma sprzedaje tę uwagę reklamodawcom, zarówno na Facebooku, jak i na siostrzanej platformie Instagram, odpowiadając za prawie wszystkie 86 miliardów dolarów przychodu w zeszłym roku.
Zastrzeżony algorytm kontroluje to, co pojawia się w kanale informacyjnym każdego użytkownika. Bierze pod uwagę, jakich znajomych mają użytkownicy, do jakich grup dołączyli, jakie strony im się podobają, jacy reklamodawcy zapłacili za kierowanie komunikatów do nich i jakie rodzaje historii są popularne lub zachęcają ich do rozmowy.
Znaczące zmiany w algorytmie mogą mieć poważne konsekwencje dla firmy, reklamodawców i wydawców. Facebook na przestrzeni lat wprowadził wiele poprawek w algorytmach. Przesunięcie w kierunku podkreślenia MSI było jednym z największych.
„Czy ranking zmienia źródło światowych podziałów? Nie” - przekazał rzecznik Facebooka Andy Stone w pisemnym oświadczeniu. „Badania pokazują, że pewne podziały w naszym społeczeństwie narastały od wielu dziesięcioleci, na długo przed pojawieniem się platform takich jak Facebook”.
Facebook ma pomagać w interakcji
W styczniu 2018 roku Facebook miał trudny okres. W Waszyngtonie platforma znajdowała się w defensywie wobec tego, co powiedzieli przedstawiciele amerykańskiego wywiadu, że Rosja wykorzystywała platformę do ingerowania w wybory prezydenckie w USA w 2016 roku.
Wtedy Mark Zuckerberg ogłosił, że zmienia cel menedżerów produktu Facebooka: z pomagania ludziom w znajdowaniu odpowiednich treści na pomaganie im w interakcji z przyjaciółmi i rodziną. Powiedział, że zmiana była spowodowana badaniami pokazującymi, że pasywna konsumpcja mediów na Facebooku – zwłaszcza wideo, które eksplodowało na platformie – nie była tak dobra dla dobrego samopoczucia, jak interakcja z innymi ludźmi.
„Teraz chcę powiedzieć jasno: wprowadzając te zmiany, spodziewam się, że czas, który ludzie spędzają na Facebooku i niektóre wskaźniki zaangażowania zmniejszą się” – napisał na Facebooku. „Ale spodziewam się też, że czas, który spędzasz na Facebooku, będzie bardziej wartościowy. Wierzę, że jeśli postąpimy właściwie, będzie to dobre dla naszej społeczności i naszej firmy w dłuższej perspektywie”.
Badacze i notatki wewnętrzne pokazują inny powód zmiany — rosnące zaniepokojenie firmy spadkiem zaangażowania użytkowników, które zazwyczaj odnosi się do działań takich jak komentowanie lub udostępnianie postów. Zaangażowanie jest postrzegane w firmie jako ważny znak dla funkcjonowania firmy.
Użytkownicy całkiem zrezygnują z Facebooka?
Slajd użyty w prezentacji szkoleniowej zatytułowanej „Kluczowe wskaźniki celu FAST” pokazuje, że komentarze, polubienia i udostępnienia spadły w 2017 r., a posty „oryginalnej transmisji” – akapit i zdjęcie, które osoba może opublikować np. po śmierci psa – kontynuowały wieloletni spadek, którego żadna interwencja nie była w stanie zatrzymać. Obawiano się, że w końcu użytkownicy mogą całkowicie przestać korzystać z Facebooka.
Jeden z naukowców zajmujących się danymi powiedział, że zespoły Facebooka przeanalizowały ten problem i „nigdy tak naprawdę nie zorientowały się, dlaczego wskaźniki spadły”. Członkowie zespołu ostatecznie doszli do wniosku, że prawdopodobnie częścią problemu jest rozpowszechnienie filmów wideo i innych profesjonalnie wyprodukowanych treści, a nie organicznych postów poszczególnych osób.
Celem zmiany algorytmu było odwrócenie spadku liczby komentarzy i innych form zaangażowania oraz zachęcenie do bardziej oryginalnych publikacji. Dokumenty pokazują, że algorytm nagradza posty, które zgromadziły więcej komentarzy i emotikonów, które były postrzegane jako bardziej znaczące niż polubienia.
Na wewnętrznym nagraniu szkoleniowym jeden z pracowników Facebooka powiedział, że oprócz „etycznego obowiązku” firmy, aby nie zamieniać użytkowników w zombie za pomocą zbyt dużej ilości materiałów wideo, firma miała powody biznesowe do interwencji. „Ludzie prawdopodobnie opuszczą aplikację, jeśli będzie to dla nich złe” - powiedział pracownik.
Udostępnienia rankingu
Rozwiązanie Facebooka polegało na stworzeniu formuły, która mierzyłaby, ile „znaczących” interakcji wywołał post, a następnie zorganizowaniu kanału informacyjnego, aby zachęcić do tego jak najwięcej osób. W wewnętrznym systemie punktowym używanym do mierzenia sukcesu „polubienie” było warte jeden punkt; reakcja, udostępnienie bez tekstu lub odpowiedź na zaproszenie była warta pięć punktów, zaś znaczący komentarz, wiadomość, udostępnienie lub RSVP, 30 punktów. Dodano dodatkowe mnożniki w zależności od tego, czy interakcja miała miejsce między członkami grupy, przyjaciółmi czy nieznajomymi.
Przykład tego, jak zmiana algorytmu potraktowałaby przykładowy post, taki jak nieszkodliwe zdjęcie: przyjaciele komentują to prostymi, w dużej mierze pozytywnymi wiadomościami. Przyciąga on głównie podstawowe kliknięcia przycisku Lubię to, każde warte jeden punkt. Pozostałe reakcje są warte pięć punktów.
Ktoś wprowadza kontrowersyjny temat i ludzie zaczynają wybierać przycisk reakcji złości, który za każdym razem jest wart pięć punktów. Wskaźnik MSI rośnie i coraz więcej użytkowników widzi to w swoim kanale informacyjnym.
Im więcej osób zobaczy post, tym więcej osób zostanie wciągniętych w kłótnię. Komentarze stają się dłuższe, gdy użytkownicy bronią swoich pozycji i używają przycisków reakcji innych niż przycisk Lubię to.
Facebook niemal natychmiast zmodyfikował nowy algorytm i nadal go zmienia
Z biznesowego punktu widzenia to zadziałało. Zgodnie z przewidywaniami Facebooka, czas spędzony na platformie zmniejszył się, ale wysiłki mające na celu maksymalizację interakcji między użytkownikami spowolniły swobodny spadek liczby komentarzy, a przede wszystkim poprawiły niezwykle ważny wskaźnik „codziennie aktywnych osób” korzystających z Facebooka, zgodnie z testami przeprowadzonymi w sierpniu 2018 r.
Zmiana przyniosła pewne pozytywne efekty. Według jednej notatki, treści udostępniane przez osoby bliskie były bardziej godne zaufania, a użytkownicy uznali je za bardziej znaczące niż materiały od bardziej odległych znajomych. Jednak korzyści te zostały zniwelowane przez aspekt zmiany algorytmu, który faworyzował działania użytkowników, takie jak udostępnianie i komentarze.
Kolejna wewnętrzna notatka na Facebooku z grudnia 2017 r. zatytułowana „Historia wyprowadzania wag metryk znaczących interakcji społecznych (badania UX i nauka o danych)”.
Dokumenty te pokazują, że latem 2018 r. naukowcy zajmujący się danymi z Facebooka wielokrotnie przeprowadzali ankiety wśród użytkowników i odkryli, że wielu z nich uważało, że jakość ich kanałów spadła.
Jak ostrzegał Facebook, zmiana ta zaszkodziła wielu wydawcom internetowym. W pierwszej połowie 2018 r. BuzzFeed odnotował 13 proc. spadek ruchu w porównaniu z poprzednimi sześcioma miesiącami, Breitbart stracił 46 proc., a ABC News stracił 12 proc., według firmy zajmującej się danymi Comscore. Topix, serwis informacyjny znany z forów społeczności lokalnych, stracił w tym okresie 53 proc. ruchu.
„Ranking MSI w rzeczywistości nie nagradza treści, które napędzają znaczące interakcje społeczne” - napisał dyrektor generalny Buzzfeed Jonah Peretti w e-mailu do Marka Zuckerberga.
Presja, by tworzyć złe treści
Kilkunastu dyrektorów wydawniczych opisało zmianę Facebooka jako ostatnią kroplę po kilku latach nieustannych zmian zasad, które przekonały ich, że nie mogą polegać na Facebooku w kwestii ruchu.
Peretti z Buzzfeed napisał w swoim e-mailu, że nowy algorytm wydaje się nieproporcjonalnie nagradzać podziały, w oparciu o to, co wydawca widział we własnych liczbach i jego obserwacjach na temat wyników postów innych wydawców.
„Ranking MSI w rzeczywistości nie nagradza treści, które prowadzą do znaczących interakcji społecznych”, napisał Peretti w swoim e-mailu do urzędnika Facebooka, dodając, że jego pracownicy odczuwali „presję, aby tworzyć złe treści lub osiągać gorsze wyniki”. Pisał, że nie tylko materiał wykorzystywał podziały rasowe, ale także „modną/nędzną naukę”, „niezwykle niepokojące wiadomości” i wulgarne obrazy.
Efekt polityczny także w Polsce
Jak wynika z wewnętrznych dokumentów Facebooka, w Polsce zmiany sprawiły, że debata polityczna na platformie była „jeszcze bardziej paskudna” - miały o tym poinformować polskie partie polityczne, jednak nie podano, które konkretnie. „Zespół zarządzający mediami społecznościowymi jednej ze stron szacuje, że zmienili proporcję swoich postów z 50/50 pozytywnych/negatywnych na 80 proc. negatywnych, wyraźnie jako funkcja zmiany algorytmu” - napisali dwaj badacze Facebooka w wewnętrznym raporcie z kwietnia 2019 roku.
Z dokumentów, do których dotarł WSJ wynika, że zaangażowanie w posty pozytywne i polityczne zostało poważnie zmniejszone, co sprawia, że partie są coraz bardziej uzależnione od postów prowokacyjnych i bezpośrednich ataków na konkurentów.
Nina Jankowicz, która bada media społecznościowe i demokrację w Europie Środkowo-Wschodniej jako stypendystka Woodrow Wilson Center w Waszyngtonie, powiedziała, że słyszała skargi od wielu partii politycznych w tym regionie, że zmiana algorytmu spowodowała, że bezpośrednia komunikacja z ich zwolennikami za pośrednictwem stron na Facebooku stała się trudniejsza. Stwierdziła, że ugrupowania mają teraz motywację do tworzenia postów, które gromadzą komentarze i udostępnianie – często poprzez wykorzystanie gniewu – aby uzyskać ekspozycję w kanałach użytkowników.
Ostre ataki polityczne budują największe zaangażowanie
Badacze Facebooka napisali w swoim raporcie, że w Hiszpanii partie polityczne prowadzą zaawansowane operacje, aby posty na Facebooku były udostępniane tak daleko i szybko, jak to możliwe.
„Nauczyli się, że ostre ataki na przeciwników skutkują największym zaangażowaniem” – napisali. „Twierdzą, że „starają się tego nie robić”, ale ostatecznie „używają tego, co działa”.”
Według badań przeprowadzonych przez Constella Intelligence, hiszpańską firmę zajmującą się ochroną przed zagrożeniami cyfrowymi, w ciągu 15 miesięcy po starciach w Hiszpanii z powodu katalońskiego separatyzmu odsetek obelg i gróźb na publicznych stronach Facebooka związanych z debatą społeczną i polityczną w Hiszpanii wzrósł o 43 proc. Badacze Facebooka napisali w swoim wewnętrznym raporcie, że słyszeli podobne skargi od partii z Tajwanu i Indii.
Brad Parscale, który był liderem strategii cyfrowej w kampanii prezydenckiej Donalda Trumpa w 2016 roku i chwalił się, że to Facebook jest miejscem, w którym Trump wygrał wybory, powiedział, że zaczął zauważać zmiany w algorytmie już w połowie 2017 roku, kiedy wyniki wideo o tematyce politycznej zaczęły spadać.
Przewodnicząca Republikańskiego Komitetu Narodowego Ronna McDaniel, ówczesny przywódca większości w Domu Kevin McCarthy (R., Kalifornia) i pan Parscale spotkali się z kierownictwem Facebooka w czerwcu 2018 r., aby zgłosić swoje uwagi. Na tym spotkaniu, w którym uczestniczył szef globalnej polityki publicznej Facebooka Joel Kaplan, Republikanom powiedziano, że zmiany w algorytmie miały na celu przeciwdziałanie rozprzestrzenianiu się tego, co firma uważała za dezinformację.
Proponowane poprawki
W kwietniu 2019 r. jeden z naukowców zajmujących się danymi z Facebooka zaproponował ograniczenie rozprzestrzeniania się „głębokich udostępnień”, co oznacza, że widz nie jest przyjacielem ani obserwatorem oryginalnego posta.
„Podczas gdy platforma FB oferuje ludziom możliwość łączenia się, dzielenia się i angażowania, niefortunnym efektem ubocznym jest to, że szkodliwe i wprowadzające w błąd treści mogą stać się wirusowe, często zanim zdołamy je złapać i złagodzić ich skutki” – napisał. „Urzędnicy polityczni i wydawcy mówią nam, że bardziej polegają na negatywności i sensacji w dystrybucji ze względu na ostatnie zmiany algorytmiczne, które faworyzują udostępnianie”.
Później naukowcy zajmujący się danymi z Facebooka skupili się na aspekcie zmodernizowanego algorytmu o nazwie „downstream MSI”, który zwiększał prawdopodobieństwo pojawienia się posta w kanale informacyjnym użytkownika, jeśli algorytm obliczył, że ludzie chętnie go udostępnią lub skomentują w miarę przekazywania.
Wczesne testy wykazały, w jaki sposób zmniejszenie tego aspektu algorytmu informacji obywatelskich i zdrowotnych pomogło zmniejszyć rozprzestrzenianie się fałszywych treści. Facebook dokonał zmiany w tych kategoriach wiosną 2020 roku.
Kiedy Anna Stiepanow przedstawiła Zuckerbergowi propozycję zespołu ds. uczciwości, aby rozszerzyć tę zmianę poza treści obywatelskie i zdrowotne - oraz kilka krajów, takich jak Etiopia i Birma, w których już dokonywano zmian - Zuckerberg powiedział, że nie chce tego kontynuować, jeśli zmniejszy to zaangażowanie użytkowników.
James Barnes, były pracownik Facebooka, który odszedł w 2019 roku, powiedział, że Facebook miał nadzieję, że nadanie priorytetu zaangażowaniu użytkowników w News Feed zbliży ludzi do siebie. Ale platforma stała się tak złożona, że firma nie rozumiała, że zmiana może przynieść odwrotny skutek.
W drugim kwartale br. Facebook osiągnął wzrost przychodów o 56 proc. do 29,08 mld dolarów i zysku netto z 5,18 do 10,39 mld dolarów. Koncern zaznaczył, że w drugim półroczu tempo wzrostu jego wyników może znacząco spaść.
Z należących do koncernu platform Facebook, Instagram i WhatsApp w zeszłym kwartale przynajmniej raz w miesiącu skorzystało 3,51 mld użytkowników, wobec 3,14 mld rok wcześniej. Liczba internautów korzystających z samego Facebooka zwiększyła się z 2,7 do 2,89 mld.
Dołącz do dyskusji: Algorytm Facebooka nagradza nienawiść. Zuckerberg nie chce zmian, boi się odwrotu użytkowników