Szkodliwe zdjęcia i filmy dostaną cyfrowy odcisk palca. Facebook uwolnił potężne narzędzia do moderacji

News/Social media 05.08.2019
Szkodliwe zdjęcia i filmy dostaną cyfrowy odcisk palca. Facebook uwolnił potężne narzędzia do moderacji

Szkodliwe zdjęcia i filmy dostaną cyfrowy odcisk palca. Facebook uwolnił potężne narzędzia do moderacji

Facebook opublikował swoje dwa algorytmy. Firma chce, żeby dzięki nim organizacje pozarządowe i inne serwisy mogły łatwiej i szybciej identyfikować łamiące prawo materiały. 

Moderacja największego medium społecznościowego świata opiera się z jednej strony na ludziach z drugiej na algorytmach. Gdy w serwisie zostanie zauważony film, którego autor na przykład nawołuje do terroryzmu, moderator natychmiast usunie go z platformy, a narzędzia Facebooka przypiszą mu unikalny cyfrowy odcisk palca — hash. Dzięki niemu firma będzie w stanie rozpoznać identyczny lub bardzo podobny materiał do tego, który właśnie usunęła i też wyrzucić go z serwisu.

Facebook udostępnił na GitHubie dwa algorytmy odpowiedzialne za ten system. Mają one teraz nie tylko służyć do czyszczenia Facebooka, ale też większych połaci internetu.

Repozytorium treści zakazanych

PDQ odpowiada za dopasowywanie zdjęć, podczas gdy algorytm o wdzięcznej nazwie TMK+PDQF filmów. Dzięki udostępnieniu ich swoim partnerom, organizacjom nonprofit i innym programistom Facebook ma nadzieję stworzyć bazę niebezpiecznych hashy, którymi znacznie łatwiej jest się dzielić niż zwykłymi plikami. Dzięki temu rozpoznane na jednej platformie szkodliwe zdjęcia nie będą musiały od nowa przechodzić przez moderację na innej.

Jason Clark, CEO amerykańskiego Narodowego Centrum dla Zaginionych i Wykorzystywanych Dzieci (NCMEC) podaje, że w ciągu zaledwie jednego roku liczba zgłoszonych do CyberTipline filmów, na których dziecko jest wykorzystywane, wzrosła o 541 proc. Można się pocieszać, że to może być po prostu efekt wzrostu popularności tego narzędzia, ale i tak trudno nie mieć ciarek czytając takie dane.

Nie zawsze się udaje

Choć Facebook podkreśla, że jego algorytmy zostały stworzone specjalnie po to, by radzić sobie z dużą skalą materiałów, czasami ona nawet je przerasta. Po ataku w Christechurch Facebook musiał usunąć aż 1,5 mln filmów pokazujących masakrę. W przypadku 300 tys. materiałów algorytmu zawiodły i przepuściły koszmarne wideo. Facebook bił się wtedy w pierś. Firma obiecała, że postara się lepiej panować nad umieszczanymi na jej serwerach treściami i zacznie bliżej współpracować z innymi przedstawicielami branży, by w przyszłości nic takiego się nie powtórzyło.

To krok w dobrym kierunku.

Dołącz do dyskusji