REKLAMA

Szef Facebooka jak Wałęsa: „nie chcę, ale muszę”. Tak zapowiada ważne zmiany

Kilka dni temu Mark Zuckerberg tłumaczył się z zarzutów, że nieprawdziwe informacje z Facebooka mogły mieć wpływ na wynik wyborów. Szef największego serwisu społecznościowego świata stwierdził, że zdecydowana większość treści (99 proc.), które użytkownicy widzą w aktualnościach, jest autentyczna.

19.11.2016 17.22
Facebook prawdę ci powie. Chce walczyć fałszywymi informacjami
REKLAMA
REKLAMA

Problem ma znaczenie wizerunkowe, bo kilka godzin temu Zuckerberg opublikował kolejny status, w którym opisuje, jak Facebook walczy z nieprawdziwymi informacjami.

Przede wszystkim - zapewnia Zuck - Facebook ma poważnie traktować problem. Jak zwykle we wpisie możemy przeczytać gładkie zdania o misji łączenia ludzi, odpowiedzialności itp. To zrozumiałe. Zuckerberg przypomina, że serwis oparł się na użytkownikach, którzy mogą zgłaszać fałszywe treści. Te sygnały mają być analizowane, by pomóc zrozumieć mechanizm dezinformacji. “Podobnie do clickbaitów, spamu i oszustw możemy karać tego rodzaju treści w aktualnościach” - pisze Zuckerberg. Zwraca jednak uwagę, że problem jest złożony nie tylko technicznie, ale i filozoficznie.

Facebook między młotem a kowadłem.

Zatrzymajmy się w tym miejscu, bo to dość ciekawy fragment wypowiedzi i trudno odmówić słuszności CEO Facebooka. Poniekąd mamy do czynienia z sytuacją, gdy administratorzy znajdują się między młotem a kowadłem. Z jednej strony istotą serwisu jest dzielenie się treścią, nie tylko zdjęciami, złotymi myślami Paulo Coelho, ale też linkami. Innymi słowy Facebook musi pozwolić użytkownikom dzielić się tym, co chcą. Przyjmowanie roli arbitra, rozstrzygającego o tym, co jest prawdziwe stawia serwis w niefortunnej sytuacji. Z drugiej strony brak reakcji naraża go na zarzuty podobne do tych z amerykańskiej kampanii prezydenckiej. W każdej sytuacji Facebook dostanie po głowie. Zarówno za reakcję, jak i jej brak.

W swoim wpisie Mark Zuckerberg przedstawił cele, jakie postawił przed serwisem w kwestii walki z dezinformacją. Najważniejszą rzeczą według niego jest poprawienie zdolności klasyfikacji treści nieprawdziwych. Chodzi o rozwiązania techniczne, które pozwolą wykryć tego typu materiały zanim zrobią to użytkownicy. Ułatwione ma zostać również zgłaszanie dezinformacji. Kolejny punkt jest chyba najbardziej interesujący. Jest to weryfikacja przez zewnętrzne (jak podkreśla: szanowane) instytucje, które zajmują się sprawdzaniem faktów. Zuckerberg twierdzi, że Facebook chce się uczyć od tego typu podmiotów. Następny na liście jest system ostrzeżeń, które miałyby pojawiać się przy treściach fałszywych. Co jeszcze? Poprawa mechanizmu linków powiązanych, dalsza walka ze spamem i farmami fanów.

Jaka dezinformacja? Ja tylko oglądam zdjęcia rodziny i przyjaciół.

Dla wielu osób korzystających z Facebooka, traktujących serwis głównie jako platformę kontaktu ze znajomymi czy rodziną problem może wydać się sztuczny. Łatwo jednak zauważyć, że najmniej świadomi użytkownicy, którzy niezbyt dobrze rozumieją mechanizmy działania serwisu, najłatwiej wpadają w pułapkę klikając "Lubię to!" czy udostępniając treści fałszywe, dezinformujące i będące sprytnym i nieuczciwym sposobem na pozyskanie w krótkim czasie dużej liczby fanów. To smutne, ale im mniej świadomy jest użytkownik tym bardziej wierzy w prawdziwość treści, które wyświetlają mu się w aktualnościach.

W sierpniu Facebook ogłosił walkę z clickbaitami w News Feedzie. Mark Zuckerberg ma ambicje, by dawać użytkownikom treści uczciwe i prawdziwe. Jego problem przypomina jednak to, co Lech Wałęsa wyraził niegdyś słynną wypowiedzią: "nie chcę, ale muszę" (czy też jak wolą złośliwi "nie chcem, ale muszem"). Dlaczego? Bo Mark wije się jak piskorz. Mówi, że nie zamierza być arbitrem i wskazuje etyczną naturę zjawiska. A przecież pisze też o algorytmie, który będzie arbitralnie rozstrzygał czy treść jest prawdziwa.

Facebook ma dziś na poziomie czysto ludzkim kłopot z rozstrzyganiem, czy dana treść narusza regulamin. Każdy, kto choć raz skorzystał z systemu zgłoszeń zapewne otrzymał odpowiedź, że serwis nie stwierdził, by naruszone zostały standardy społeczności. Algorytm nie będzie mądrzejszy od człowieka.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA