Facebook pod kontrolą botów? Nie, dziękujemy

Felieton/Media 15.10.2016
Facebook pod kontrolą botów? Nie, dziękujemy

Facebook zaczyna bardzo niebezpiecznie pogrywać z tym, co przedstawia użytkownikom w sekcji informacyjnej. I choć można było to przewidzieć, przed oczami rysuje się nam bardzo czarny scenariusz.

Z Facebooka korzysta ponad miliard użytkowników. I nie mówimy tu o kontach założonych i zapomnianych, lecz o aktywnie działających tam, żywych ludziach. Setki tysięcy z nich traktują Facebooka jako swój mały internet, z którego nawet nie czują potrzeby wychodzić.

Co więcej, jak wykazały ubiegłoroczne badania State of the News Media, w samych tylko Stanach Zjednoczonych Facebook stanowi aż 25% całego ruchu sieciowego. To niewyobrażalna skala operacji.

Od dłuższego czasu Facebook być również głównym źródłem informacji dla swoich użytkowników, by ci nie czuli potrzeby opuszczania platformy w poszukiwaniu bieżących wiadomości. Stąd powstanie Instant Articles, stąd też w końcu zakładka „Na czasie”.

Nad ową zakładką (niedostępną jeszcze w Polsce, dzięki Bogu) do niedawna czuwała ekipa redakcyjna złożona z ludzi, ale od kilkunastu tygodni treści przebierają w niej… boty.

Jak sobie z tym radzą? Bardzo dokładnie zbadał to Washington Post i wyniki nie pozostawiają złudzeń – źle się dzieje.

Facebook pod kontrolą botów nie jest ani wiarygodnym, ani rzetelnym źródłem informacji.

Ledwie trzy dni po tym, jak Facebook usunął ludzi z funkcji redaktorów zakładki „Trending”, w pokazywanym co godzinę newsletterze „trendowały” fałszywe wiadomości.

Z początku wydawało się, że to tylko jednorazowa wpadka, ale kolejne tygodnie wnikliwych badań Washington Post ujawniły, że stare lub fałszywe wiadomości przewijały się na Facebooku notorycznie, wprowadzając w błąd użytkowników, którzy brali wiadomości „na czasie” za pewnik.

W dodatku wielokrotnie dochodziło do sytuacji, kiedy wśród promowanych tematów i linków krążyły odnośniki do Medium.com czy nawet… do iTunes.

Jednego dnia wśród promowanych tekstów potrafił się pojawić artykuł upamiętniający ofiary ataku na WTC oraz artykuł promujący teorie spiskowe w temacie.

Wyobraźcie sobie, że w miejscu, z którego czerpiecie rzetelne informacje nagle zaczynają pojawiać się newsy z ASZdziennika lub The Onion, których nie sposób odróżnić od prawdziwych doniesień ze świata. Absurd!

Przedstawiciele Facebooka w rozmowie z Washington Post zapewnili, że pracują już nad lepszymi algorytmami filtracji treści, które mają działać na podobnej zasadzie jak np. Google News, czy choćby Facebook News (którego algorytmy nadal wspierane są przez ludzką redakcję), promując tylko treści od zaaprobowanych wydawców.

Tu jednak rodzi się kolejny problem.

Facebook wyraźnie faworyzuje konkretne źródła.

Jeśli ktoś się łudził, że Facebook, stając się wydawcą czy też pośrednikiem wydawców, będzie w tym obiektywny i będzie dzielił po równo – może już się tych złudzeń wyzbyć.

Prowadzone przez Washington Post badania wyraźnie pokazały, że Facebook wybierając artykuły do polecanych odczuwalnie faworyzuje jednych dostawców treści, ignorując bądź ograniczając innych.

Dotyczy to zarówno informacji ogólnych jak i dostawców specjalistycznych, np. wydawców serwisów technologicznych czy sportowych.

Jakby tego było mało, algorytmy Facebooka potrafiły zignorować treści roznoszące się organicznie wśród użytkowników, co wykazały porównania przeprowadzone przez zewnętrzną firmę śledzącą aktywności w mediach społecznościowych.

Wniosek? Z tego równania nie można zbyt prędko wykreślać człowieka.

Przy wszystkich możliwościach, jakie dają nam maszyny i algorytmy, nadal nie zawsze są one w stanie zastąpić człowieka w ostatecznym rozrachunku. Maszyna nie potrafi rozpoznać ironii i sarkazmu, więc napisany w ten sposób news weźmie za dobrą monetę, podczas gdy człowiek na pierwszy rzut oka pozna się na żarcie.

Maszyna nie zawsze potrafi dobrać kontekst treści do wydarzeń, rozpoznać najbardziej wartościowe materiały dotyczące konkretnego tematu, wyróżnić tę treść, która wnosi najwięcej.

Badania Washington Post pokazują, że jest jeszcze stanowczo za wcześnie na to, by algorytm pozbawiony ludzkiego nadzoru serwował użytkownikom dzienną porcję informacji, bo prowadzi to – jak na razie – do chaosu, dezinformacji i rozprowadzania fałszywych wieści bez niezbędnej ich weryfikacji.

Jest jednak druga strona tego medalu. Algorytm Facebooka już teraz pokazał, że można go wykorzystać by odpowiednio uwypuklać pewne treści, jednocześnie ignorując inne.

Biorąc pod uwagę imperialistyczne zapędy Facebooka i samą liczbę korzystających z niego ludzi, takie narzędzie, w takich rękach, wykorzystane w niewłaściwy sposób, może być fatalnym mechanizmem manipulacji treścią.

Wizja, rzekłbym, fatalistyczna. Ale ze wszech miar realna.

Facebook kontynuuje rozwój swojego algorytmu, a Washington Post cały czas kontynuuje obserwację tego rozwoju. I lepiej jest mu się bacznie przyglądać, żebyśmy nie byli zdziwieni, gdy algorytm trafi też do nas i nagle – dziwnym trafem – okaże się, że w „trendach” znajdą się tylko ci wydawcy, którzy złożyli przez Zuckerbergiem największą górę złota.

Advertisement

Dołącz do dyskusji

Advertisement
Advertisement