REKLAMA

Microsoft kontra pedofilia. Sztuczna inteligencja pomoże w wykrywaniu zboczeńców

Rusza Project Artemis, a więc zmyślny mechanizm mający pomóc internetowym usługodawcom i odpowiednim służbom w zapobieganiu molestowania seksualnego dzieci w internecie. Narzędzie jest darmowe.

10.01.2020 11.03
Dzieci w mediach społecznościowych
REKLAMA
REKLAMA

Project Artemis to rozwiązanie, które Microsoft buduje już od długiego czasu. Jego zadaniem jest wykrywanie pedofilów polujących na młodocianych w przeróżnych usługach internetowych, w których komunikacja odbywa się za pomocą wiadomości tekstowych. Artemis to sztuczna inteligencja, która została nakarmiona przeróżnymi wzorcami zachowań, którymi cechują się polujący na nieletnich zboczeńcy.

Artemis, po wykryciu takiego zachowania, oznacza daną rozmowę oceną ryzyka (a więc szacuje prawdopodobieństwo, że właśnie wykrył molestowanie seksualne) a następnie wysyła zgłoszenie do administratora usługi, by ten mógł podjąć decyzję co dalej.

Narzędzie jest już od dwóch lat testowo wdrożone w niektórych internetowych usługach, do których należą gra wideo Roblox, komunikator Kik i usługi randkowe Skout, MeetMee i Lovoo. Artemis od pewnego czasu pilnuje też usług Skype i Xbox Live.

Jak podkreśla Microsoft, Project Artemis to tylko pomoc w walce z molestowaniem seksualnym nieletnich. Jego możliwości są ograniczone.

REKLAMA

Mechanizm nie gwarantuje pełnej skuteczności, czego zresztą nietrudno się domyślić. Badania przeprowadzane nad sztuczna inteligencją – a także nad zachowaniami pedofilów w Internecie – są nadal prowadzone. Na dziś nie sposób stworzyć narzędzie, które całkowicie rozwiąze problem molestowania dzieci w Sieci.

Project Artemis, po testowych wdrożeniach u wybranych partnerów i w wybranych usługach samego Microsoftu, jest już dostępny dla wszystkich zainteresowanych nieodpłatnie. Dystrybucją zajmie się Thorn, a więc nonprofitowa organizacja zajmująca się budowaniem cyfrowych rozwiązań do walki z molestowaniem najmłodszych.

REKLAMA
Najnowsze
REKLAMA
REKLAMA
REKLAMA