Jak Facebook odróżnia głupotę od propagandy i dlaczego nie robi tego w Polsce? Wróciliśmy ze spotkania z przedstawicielką serwisu

News/Social media 21.06.2018
Jak Facebook odróżnia głupotę od propagandy i dlaczego nie robi tego w Polsce? Wróciliśmy ze spotkania z przedstawicielką serwisu

Jak Facebook odróżnia głupotę od propagandy i dlaczego nie robi tego w Polsce? Wróciliśmy ze spotkania z przedstawicielką serwisu

Tessa Lyons, product manager Newsfeedu w Facebooku, na spotkaniu z przedstawicielami mediów w Warszawie opowiadała, jak Facebook walczy z fake newsami i jak ma zamiar tę wojnę wygrać. Szkoda, że nie w Polsce.

Wojna z fake newsami rozgorzała na dobre dopiero niedawno. Choć już od czasu wyboru Trumpa na prezydenta, Facebook był oskarżany o to, że nie robi nic, żeby zabezpieczyć swoich użytkowników przed rozprzestrzeniającymi się viralowo fałszywymi informacjami, dopiero pod koniec 2016 r. Mark Zuckerberg przyznał światu rację i zadeklarował, że zacznie robić porządek we własnym ogródku.

Jak Facebook walczy z fake newsami i jak je rozpoznaje?

Żeby rozpoznać fake newsa, nie wystarczy ocenić jego prawdziwość. Ludzie się mylą, ludzie mają opinie, które mogą nam się nie podobać, ludzie mają różne interpretacje tych samych faktów. Na filmie opisującym walkę Facebooka z fake newsami pojawia się ciekawa koncepcja. Mamy wykres, na którym oś x określa prawdziwość, a oś y intencje publikującego. Ktoś publikujący nieprawdę robiąc to bez złych intencji po prostu się myli. Ktoś publikujący prawdę, ale chcący zmylić publikę, stosuje propagandę. Dopiero publikując kłamstwo tak, żeby zwieść odbiorców, tworzymy fake newsa.

W walce z fake newsami łączą siły ludzie i maszyny. Facebook stosuje szereg taktyk, które wspierają siebie nawzajem, żeby zminimalizować zasięg i liczbę fake newsów.

Po pierwsze człowiek.

Sojusznikami Facebooka są organizacje zajmujące się profesjonalnie sprawdzaniem prawdziwości treści, które otrzymały certyfikat Międzynarodowej Sieci Weryfikowania Informacji. Dziś ogłoszono, że Facebook zawiązał współpracę z tego typu organizacjami w 14 nowych krajach. Nie ma wśród nich Polski, ale firma zapowiada, że do końca roku ta liczba wzrośnie.

Ponadto poszerzono zakres materiału, którym mają się zajmować. Do tej pory były to teksty, teraz dochodzą do tego zdjęcia oraz filmy. Manipulowanie nimi robi się coraz łatwiejsze, także dzięki samemu Facebookowi, który ostatnio udoskonalił algorytm zmieniający określone elementy zdjęcia.

Po drugie maszyna.

Załóżmy, że weryfikatorzy orzekną, że należy usunąć dany artykuł z serwisu, bo jest on fake newsem. Do czasu, kiedy to zrobią, powstaną jego kopie, które różnią się od siebie jedynie kosmetyką. Za zidentyfikowanie ich i usunięcie będzie odpowiedzialny algorytm.

Facebook opisuje to na podstawie artykułu, który ukazał się we Francji. Autor twierdził, że można pomóc osobie mającej udar, nakłuwając opuszki jej palców aż poleci krew (serio). Zanim tekst został zidentyfikowany i usunięty, podłapało go ponad 20 domen, a główna teza pojawiła się w przeszło 1400 linkach.

Platforma zaczyna też korzystać ze Schema.org, dzięki czemu, jeśli ktoś zweryfikuje daną historię gdziekolwiek w sieci, ta informacja szybko dotrze szybko do Facebooka i platforma raz-dwa pozbędzie się jej z naszych aktualności.

Algorytm pomoże też zidentyfikować domeny i strony, które mają niepokojącą tendencję do mijania się z prawdą. Okazuje się, że przynajmniej część z nich łatwo jest rozpoznać, nawet nie analizując publikowanych przez nie treści. Takie strony mają tendencję do kierowania swoich wpisów do czytelników z zagranicy, blokowania czytelników ze swojego kraju, posiadania administratorów z fałszywymi kontami i skoordynowanego przyklejania od siebie nawzajem treści.

Po trzecie informacja i edukacja.

Facebook organizuje kampanie edukacyjne na temat fake newsów, ich rozpoznawania i ich szkodliwości. To jedna z nielicznych inicjatyw, która ma także miejsce w Polsce. Na razie jedynie na wydziałach dziennikarstwa kilku większych uczelni, ale to ma być dopiero początek.

W Stanach Zjednoczonych i w Wielkiej Brytanii Facebook udostępnia informację na temat źródła, które opublikowało daną wiadomość. W ten sposób chce pokazać, kto stoi za publikacją. Czy można mu zaufać i co o nim wiadomo. To niewątpliwie rozwiązanie, które promuje duże portale posiadające strony na swój temat w Wikipedii, bo stąd informacje na ich temat będą pobierane. Mniejsze portale mogą się bać, jeśli wierzą, że ta opcja będzie w ogóle wykorzystywana przez czytelników. Ja mam co do tego spore wątpliwości.

Już w kwietniu Facebook ogłosił, że daje dostęp do swoich danych akademikom. Mają oni sprawdzać, czy te wszystkie działania są skuteczne, które mają najwięcej sensu, a które robią więcej szkody niż pożytku tak jak sławetny czerwony znacznik wyświetlany jako ostrzeżenie, a w praktyce działający pobudzająco.

Lyons przyznaje, że wszyscy w firmie zdają sobie sprawę z tego, że walka z fake newsami i spamem to prawdziwy wyścig zbrojeń. Każde rozwiązanie stworzone przez Facebooka jest kontrolowane i obchodzone przez firmy, które próbują coś zyskać na sianiu dezinformacji. W firmie funkcjonują zespoły, które same próbują oszukać system i z wyprzedzeniem wymyślić.

Co z tą Polską?

Organizowanie takiej konferencji w Warszawie jest niemalże okrutne. Większość możliwości i rozwiązań, o których usłyszeliśmy, nie jest dostępna w naszym kraju. A kiedy będzie — tego nie wiadomo. Nie ma nawet kontekstu, czyli rozwiązania obecnego w innych krajach, a znanego w Polsce choćby z nowych Wiadomości Google, które obok głównego źródła podają kilka innych wypowiadających się na ten sam temat.

W oczach Facebooka leżymy gdzieś na peryferiach świata, a co gorsza mówimy językiem, którym posługuje się stosunkowo niewielu ludzi. Otwarcie Przestrzeni niewiele w tej sprawie zmieniło, choć miało nas upewnić, że gdzieś tam za wielką wodą o naszym kraju słyszeli. Nie jestem tego już taka pewna.

Dołącz do dyskusji