fbpx

"Każdy rząd pozbawiony krytyki jest skazany na popełnianie błędów"

7.5 C
Warszawa
wtorek, 16 kwietnia, 2024

"Każdy rząd pozbawiony krytyki jest skazany na popełnianie błędów"

SI wykryje przestępstwa w Chinach?

Sztuczną inteligencję (SI) możemy dziś wykorzystać do wielu wspaniałych rzeczy. Ale kiedy używa się jej do monitorowania obywateli, stawia prywatność w stan zagrożenia i podważa osobistą wolność. I nie ma znaczenia, czy robi się to dla zapewnienia bezpieczeństwa – ocenia hiszpański portal ABC. Tymczasem „The New York Times” podaje, że Chiny planują wdrożenie nowego systemu opartego na sztucznej inteligencji, który umożliwiałby przewidywanie przestępstw i protestów.

Warto przeczytać

System opierałby się na bazie danych uwzględniającej zwyczaje 1,4 mld Chińczyków i wykorzystywał funkcję rozpoznawania twarzy. Umożliwiałby wykrycie sytuacji, w której na przykład razem spacerowałyby trzy osoby mające już kartoteki kryminalne.

System ten dawałby też możliwość monitorowania ruchów aktywistów biorących udział w różnych protestach albo osób z zaburzeniami psychicznymi. SI alarmowałoby o wykryciu podejrzanego zachowania, co pozwalałoby skierować w dane miejsce odpowiednie służby.

Amerykańskie media poinformowały, że Chiny pracują nad rozwojem i wdrożeniem opisanej technologii już od jakiegoś czasu. „The New York Times” dotarł jednak do dokumentów, z których wynika, że technologia umożliwiałaby także wyłączenie monitoringu określonych osób – na przykład państwowych urzędników.

Aktualnie system rozwijany jest przez chiński startup Megvii. Jego założycielem i CEO jest  Yin Qi. Na pomysł zbudowania systemu umożliwiającego wykrycie przestępstwa przed jego popełnieniem wpadł w 2017 r.

Przeczytaj także:

„Byłoby to przerażające, gdyby faktycznie z drugiej strony kamery patrzyli ludzie, ale za tym stoi system komputerowy” – powiedział Yin w wywiadzie dla chińskich państwowych mediów. „To tak jak z wyszukiwarką, której używamy na co dzień do surfowania po Internecie: jest bardzo neutralna. Ma być dobrotliwa”. Zdaniem Yina wdrożenie jego systemu nadzoru sprawi, że „źli ludzie nie mieliby gdzie się ukryć”.

„New York Times” twierdzi, że z dokumentów projektu wynika, iż system opracowany przez Megvii analizowałby dane o obywatelach przekazywane przez chińską policję. W jego bazach znajdowałyby się m.in. „twarze, zdjęcia, samochody i akta spraw dotyczących incydentów”.

System nie jest jeszcze dokończony, ale chiński rząd dysponuje podobnymi programami opracowanymi przez innych dostawców. Na przykład firma Hikvision dostarczyła oprogramowanie pozwalające przewidywać wybuch protestów społecznych.

System ten zawiera bazę danych obywateli, którzy składali skargi na lokalnych urzędników do wyższych szczebli władzy. Ocenia prawdopodobieństwo ich przyjazdu do Pekinu (w celu protestowania). Jak wynika z dokumentacji, dane te mają w przyszłości posłużyć do budowania modeli uczenia maszynowego.

Chiny od dawna wykorzystują technologię do kontrolowania swoich obywateli. Duże zainteresowanie wykazują między innymi systemami rozpoznawania twarzy i ich implementacją w miejscach publicznych. Zagraniczni obserwatorzy alarmują, że tego typu technologie znajdują także zastosowanie przy kontroli mniejszości etnicznych.

Juan Ignacio Rouyet, profesor sztucznej inteligencji i robotyki na Międzynarodowym Uniwersytecie La Rioja (UNIR), powiedział ABC, że wykorzystanie nowych systemów SI do przewidywania przestępstw niesie ze sobą dwa zasadnicze zagrożenia. „Nie ma wątpliwości, że użycie SI tego typu wpływa na prywatność ludzi. Zbierane są dane, w których mieszają się informacje ze sfery publicznej, poprzez kamery, które państwo zainstalowało na ulicach, a także ze sfery prywatnej. Prywatność jednostki jest całkowicie naruszana”.

Natomiast drugie ryzyko wskazywane przez eksperta „polega na tym, że naruszają one podstawową ideę wolności jednostki. W tym sensie, że jednostka może myśleć o popełnieniu czynu zabronionego, ale gdy nadejdzie czas, zawsze jest możliwe, że zmieni zdanie. SI prawdopodobnie będzie działać na podstawie zdarzeń z przeszłości, ale oczywiście może popełniać błędy”.

Tendencja do takiego wykorzystywania systemów sztucznej inteligencji utrzymuje się od lat. Tak samo jak ostrzeżenia ekspertów od SI oraz prawników zajmujących się technologiami cyfrowymi. Obawy dotyczą także tego, że w przyszłości sądy mogą angażować maszyny do wygłaszania opinii o działaniach wskazanej osoby.

Unia Europejska też rozwija systemy SI, ale – inaczej niż Chiny – równolegle próbuje uregulować prawne ich wykorzystywanie. W maju 2021 r. Parlament Europejski zatwierdził klasyfikację systemów sztucznej inteligencji. Analizując niesione ryzyko, określił sytuacje i uprawnienia, z jakimi może być wykorzystywana.

SourceABC

Więcej artykułów

ZOSTAW ODPOWIEDŹ

Wpisz komentarz!
Wpisz imię

Najnowsze artykuły

Translate »