REKLAMA

W tym roku Facebook usunie tyle fałszywych kont, ile jest ludzi na świecie. Serio

Facebook opublikował raport, w którym pokazuje, jak pilnuje przestrzegania Standardów Społeczności. Po raz pierwszy znajdują się w nim także dane z Instagrama. 

14.11.2019 20.12
Fałszywe konta na Facebooku
REKLAMA
REKLAMA

Raport obejmuje trzeci kwartał 2019 r., czyli miesiące od lipca do września. W tym czasie firma skasowała aż 1,7 mld fałszywych kont, a możemy mieć pewność, że takich kont jest znacznie więcej.

Facebook podkreśla, że większość fałszywych kont w ogóle nie zostaje założona, bo jest blokowana już na etapie rejestracji, reszta zwykle żyje tylko kilka minut zanim ściągną je algorytmy. Firma może tu jednak mówić tylko o kontach, które udaje się jej wykryć, reszta pozostaje poza radarem i nie jest uchwycona w tych statystykach. Zakładane przez profesjonalnych trolli, a nie boty, profile są znacznie trudne do zidentyfikowania i zneutralizowania. A to, że istnieją, wiemy z pewnością, nie znamy tylko ich liczby i skali zjawiska. Łudzenie się, że jest ona mała jest… no właśnie łudzeniem się.

W sumie w ciągu całego tego roku z samego Facebooka usunięto aż 5,4 mld kont, a to przecież tylko jedno medium społecznościowe, ważne, ale nie jedyne. Co gorsza, te dane dotyczą tylko pierwszych 9 miesięcy roku. Pod koniec roku ta liczba będzie pewnie oscylować okół 7 mld. Dla przypomnienia - wszystkich ludzi na świecie jest około 7,6 mld.

Facebook wreszcie uwzględnił część danych z Instagrama w raporcie

Czekaliśmy od dawna na ten ruch. W danych obejmujących także młodszą z platform firmy znalazły się treści przedstawiające wykorzystywane seksualnie lub nagie dzieci, ich wykrywalność, jak chwali się Facebook znacznie wzrosła w ostatnich miesiącach po drobnej poprawie w sposobie ich wykrywania. W pierwszym kwartale tego roku algorytm wykrył na samym tylko Facebooku 6,9 mln takich treści, w trzecim zaś aż 11,6 mln. W wypadku Instagrama te liczby były odpowiednio mniejsze – 512 tys. i 754 tys.

Po raz pierwszy Facebook uwzględnił także w raporcie dane dotyczące treści zachęcających do samookaleczania się i samobójstwa. W drugim kwartale tego roku usunięto ich 2 mln, z czego 96 proc., zostało zidentyfikowanych przez algorytmy. W trzecim kwartale zwiększyła się w tym względzie rola algorytmu (ponad 97 proc.), co poskutkowało także większą liczbą usuniętych treści (2,5 mln). Znacznie mniejszą rolę pełni w tym wypadku algorytm Instagrama, który zidentyfikował w ostatnim kwartale tylko 79 proc. z 845 tys. usuniętych treści z tej kategorii. Resztę musieli zgłosić ludzie.

REKLAMA

Algorytmy wzięły się za mowę nienawiści

W ciągu ostatnich dwóch lat Facebook wprowadził zmiany w sposobie moderacji mowy nienawiści i także do jej wykrywania zaprzągł algorytmy. Do 2019 r. wykryte przez komputer treści były jednak przesyłane do ludzkiego moderatora, który mógł zgodzić się z decyzją maszyny lub ją zanegować. Od drugiego kwartału tego roku w niektórych wypadkach wyłączono z tej procedury człowieka. I tak w ostatnim kwartale Facebook usunął najwięcej w swojej karierze treści podpadających pod tę kategorię. Firma wyrzuciła z serwisu ponad 7 mln postów, obrazków lub komentarzy. W pierwszym kwartale tego roku, który do tej pory był rekordowy, było ich zaledwie 4,4 mln.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA