W San Francisco stworzyli technologie, które obdarły nas z prywatności. Teraz chcą ich zakazać. U siebie

News/Bezpieczeństwo 04.02.2019
W San Francisco stworzyli technologie, które obdarły nas z prywatności. Teraz chcą ich zakazać. U siebie

W San Francisco stworzyli technologie, które obdarły nas z prywatności. Teraz chcą ich zakazać. U siebie

San Francisco chce zakazać instytucjom publicznym korzystania z technologii rozpoznawania twarzy, ale tego dżina nie łatwo zapakować z powrotem do butelki.

San Francisco poważne rozważa zakazanie korzystania z technologii rozpoznawania twarzy instytucjom podlegającym miastu. Zasiadający w radzie miasta Aaron Peskin twierdzi, że nie ma dowodów, że korzystanie z niej jest rzeczywiście dobre dla miasta, a ewentualne zyski przeważają nad potencjalnymi zagrożeniami. Urzędnicy mają zbyt łatwy dostęp do ogromnej liczby danych, żeby połączenie go dodatkowo z systemem kamer rozpoznających twarz i w efekcie umożliwiających niemal ciągłą inwigilację, nie wywoływało na plecach obywateli kilku kropel zimnego potu.

Najpierw stworzymy, potem będziemy się martwić. Nawet w Dolinie Krzemowej musieli zauważyć, że technologia rozpoznawania twarzy może być problematyczna.

Pod koniec stycznia 85 grup aktywistów zaapelowało do największych firm technologicznych, żeby nie sprzedawały rozpoznawania twarzy urzędnikom. Argumentowano, że taka technologia w rękach rządów może zagrażać interesowi publicznemu i bezpieczeństwu. To potężne narzędzie, za którym idzie duża pokusa nadużyć. Dzięki niemu łatwo zidentyfikować i namierzyć protestujących, mniejszości etniczne czy przedstawicieli jakiejkolwiek grupy, która nie podoba się w danej chwili rządzącym lub jest na celowniku służb. Jeśli połączymy to z dużą liczbą kamer, dostaniemy jeszcze bardziej niepokojący obrazek. Ludzie nieustannie obserwowani i monitorowani zaczynają zachowywać się inaczej, i paradoksalnie, częściej mają poczucie zagrożenia, są też mniej aktywni społecznie i bardziej zachowawczy w swoich wyborach.

Firmy technologiczne różnie podchodzą do problemu. Amazon nie ma zamiaru się ograniczać. Firma wyznaje zasadę, że zagrożenie, jakie niesie ze sobą potencjalne niewłaściwe wykorzystanie technologii, nie może ograniczać jej rozwoju i dlatego mam zamiar dalej współpracować, z kim chce. System firmy jest testowany, chociażby przez policję w Orlando. Microsoft zgadza się, że ostrożność jest potrzebna, ale chciałby, żeby rząd wziął się za tworzenie regulacji dotyczących technologii rozpoznawania twarzy. Satya Nadella nawoływał do tego podczas ostatniego szczytu w Davos, argumentując, że potencjał tej technologii wykracza poza możliwości samoregulowania się firm. Najostrożniej do sprawy podchodzi Google. Firma obiecała, że nie będzie sprzedawała swojego rozwiązania tak długo, jak nie przemyśli potencjalnego zagrożenia związanego z wykorzystaniem go.

Rządowe rozpoznawanie twarzy to krok ku dystopii?

Mówiąc o technologii rozpoznawania twarzy, trudno pominąć system testowany w Chinach. On już teraz przypomina dystopijne wizje twórców science-fiction. Na podstawie ścisłego systemu oceny obywateli, który jest możliwy między innymi dzięki wykorzystaniu technologii rozpoznawania twarzy, przyznawane są kary i nagrody nie tylko konkretnym osobom, a także dla ich rodzinom. Rząd może odmówić synowi źle sprawującego się obywatela dostępu na studia, a samemu obywatelowi sprzedania biletu na samolot.

Nie łudźmy się, że to z naszej perspektywy kompletna abstrakcja. Na elementy systemu oceny obywateli sami się godzimy, choć w zachodnich społeczeństwach pieczę sprawują nad nim prywatne firmy, co ogranicza możliwość nadużyć. Ocena ryzyka kredytowego, nie na darmo w końcu nazywa się oceną.

Tymczasem technologia rozpoznawania twarzy forsuje sobie drogę do naszego codziennego życia, choćby dzięki jej wykorzystaniu w smartfonach czy na Facebooku. Krytycy mówią, że takie codzienne, pozornie niewinne korzystanie z niej, ma nas przede wszystkim z nią oswoić, tak żeby uśpić związane z nią lęki i uciszyć niepokojące głosy Kasandr. Nawet jeśli przeniosły się do San Francisco.

Dołącz do dyskusji