fbpx

"Każdy rząd pozbawiony krytyki jest skazany na popełnianie błędów"

16.2 C
Warszawa
niedziela, 26 maja, 2024

"Każdy rząd pozbawiony krytyki jest skazany na popełnianie błędów"

Policyjne programy przewidujące przestępczość muszą dostosować się do nowych realiów

Algorytmy oparte na sztucznej inteligencji potrafią przewidzieć wzrost przestępczości w pewnych obszarach miasta. Jednak mogą utwierdzać pewne uprzedzenia na tle ekonomicznym lub rasowym. Organy ścigania oraz rady miast muszą zdecydować, w jaki sposób – i czy w ogóle – korzystać z takich programów.

Warto przeczytać

Nowe technologie zmieniają sposób, w jaki żyjemy, pracujemy czy odpoczywamy. Rozwiązują – a przynajmniej zmieniają – problemy dotyczące naszej codzienności, finansów, zdrowia, życia w społeczeństwie. Sztuczna inteligencja powoli wypełnia nasze życie, a dla władz miejskich i policji użycie oprogramowania pozwalającego powstrzymać przestępstwa, zanim zostaną popełnione, jest niezwykle kuszącą wizją.

Firmy programistyczne twierdzą, że oparte na sztucznej inteligencji algorytmy potrafią analizować dane z raportów o wypadkach, pogodzie, czasie i innych parametrach, rozpoznawać zachodzące wzorce i podawać prognozy dużo szybciej, niż robią to policyjni analitycy. Wykorzystanie dużych zbiorów danych, aby wysłać policjantów we właściwe miejsce o właściwym czasie, mogłoby zmniejszyć skalę przestępczości.

Amerykańskie fundusze federalne pozwoliły na wprowadzenie tego rodzaju programów do departamentów policji w Los Angeles, Nowym Jorku i innych miastach już w 2010 roku. Jednak ostatnio zatrzymano ich działanie. Prawnicy ostrzegają bowiem, że dane zawierają nieproporcjonalną liczbę incydentów z udziałem osób o niskich dochodach lub o innym niż biały kolorze skóry. Może to wpływać na ich społeczną stygmatyzację i większe użycie siły wśród policji. Skuteczność tych programów jest również kwestionowana, przez niektórych naukowców.

W Santa Cruz w Kalifornii program dla policji – obecnie znany jako Geolitica – opracowała firma PredPol, ale zaprzestano jego używania już w 2017 roku. Po ubiegłorocznym zabójstwie George’a Floyda przez policjanta i demonstracjach Black Lives Matter, które miały miejsce na terenie całych Stanów Zjednoczonych, Santa Cruz stało się pierwszym amerykańskim miastem, w którym zakazano wykorzystywania tego rodzaju technologii. Zdaniem lokalnych urzędników sztuczna inteligencja może przyczynić się do profilowania rasowego, psując relacje policji z lokalną społecznością. Za zakazem stosowania podobnych narzędzi głosowali niedawno prawodawcy w Oakland w Kalifornii oraz Nowym Orleanie.

Oprogramowanie Geolitica wdrożono pierwszy raz w departamencie policji w Los Angeles, jednak zaprzestano tam jego używania w zeszłym roku. Powodem miały być cięcia budżetowe, a także poprzedzające je wezwanie organu nadzorczego do dokładniejszej analizy struktury wydatków. Policja w Los Angeles i Chicago zawiesiła więc programy służące przewidywaniu przestępstw, wśród potencjalnych recydywistów.

Firmy, które wcześniej zajmowały się predykcją policyjną – czyli przewidywaniem popełniania przestępstw – obecnie zmieniają przedmiot swojej koncentracji i skupiają się na analizowaniu… działań policji. Chodzi nie tylko o nadzór nad funkcjonariuszami, ale także o korelacje pomiędzy ich zachowaniami a zmniejszaniem przestępczości.

Mniej prognozowania, więcej śledzenia

Sarah Brayne, profesor University of Texas w Austin, przez pięć lat badała wykorzystanie sztucznej inteligencji do przewidywania przestępstw. W 2020 roku opublikowała książkę „Predict and Surveil: Data, Discretion, and the Future of Policing” („Przewiduj i śledź: dane, dyskrecja i przyszłość policji”). Uważa, że dowody na wyższą skuteczność oprogramowania predykcyjnego nad analitykami policyjnymi są dyskusyjne. 

„Część problemu polega na tym, że nikt nie ma dostępu do danych potrzebnych do przeprowadzenia niezależnej oceny” – mówi Brayne. Większość tego typu narzędzi prognostycznych powstaje w prywatnych firmach, z wyjątkiem departament policji w Nowym Jorku, który stworzył własny program. Brayne podkreśla, że trudne jest też wykazanie związku przyczynowego między programami a zmniejszeniem przestępczości.

Firma Geolitica z Santa Cruz nazywała się wcześniej PredPol, przez co pomogła spopularyzować termin „policja predykcyjna”. Zmiana nazwy nastąpiła w marcu, a jej celem było lepsze odzwierciedlanie wykorzystania oprogramowania przez policję, twierdzi dyrektor firmy Brian MacDonald. PredPol „było okropną nazwą” – mówi MacDonald, dodając, że z zamiarem zmiany nosił się od lat. „Tak naprawdę nie robiliśmy prognoz. Po prostu identyfikowaliśmy miejsca wysokiego ryzyka, które funkcjonariusze mogliby patrolować”.

MacDonald uważa, że dane, z których korzysta Geolitica – takie, jak raporty o włamaniach, strzelaninach i innych przestępstwach – nie są stronnicze. „To nie policja decyduje o popełnieniu przestępstwa” – mówi. „To ofiary mówią, że wydarzyło się przestępstwo”. Nie ma w tym zatem uprzedzeń. Natomiast faktycznie istniejące uprzedzenia rasowe w działaniach policji są – zdaniem MacDonalda – objawami głębszych nierówności społeczno-ekonomicznych.

Wydziały policji, które korzystają z programu Geolitica, często instalują systemy rozpoznające pozycję radiowozu lub radiotelefonu, dzięki czemu mogą śledzić obszar patrolowany przez funkcjonariuszy, a także porównywać go z rozmieszczeniem prognoz przestępczości. Platforma stworzona przez prywatną firmę obsługiwana jest przez 10 pracowników i używana przez około 50 działów.

„Mamy teraz kilku klientów, którzy w ogóle nie korzystają z naszych prognoz” – mówi McDonald. „Właściwie wyznaczają własne obszary patrolowe i wykorzystują nas do monitorowania i zarządzania funkcjonariuszami w terenie”.

Sarah Brayne i niektórzy przedstawiciele firm zajmujących się oprogramowaniem dla policji spodziewają się, że niedługo coraz częściej oddziały będą wykorzystywać technologię do monitorowania ruchów funkcjonariuszy, co mogłoby także zwiększyć ich odpowiedzialność.

Przyszłość wszystkiego – sztuczna inteligencja

Podobnych zmian dokonuje firma ShotSpotter z Newark w Kalifornii. Jej podstawowy produkt próbuje wykrywać strzały za pomocą czujników dźwiękowych zamontowanych w różnych dzielnicach. W 2018 roku nabyła oprogramowanie HunchLab do prognozowania przestępczości i uruchomiła produkt o nazwie ShotSpotter Missions.

W zeszłym roku firma zmieniła nazwę produktu na ShotSpotter Connect. Wzmocniła też funkcje zarządzania patrolami. Sam Klepper, starszy wiceprezes ShotSpotter ds. marketingu i strategii produktowej, twierdzi, że algorytmy oparte na sztucznej inteligencji wykrywają wzorce i trendy w zbiorach danych, aby pomóc dowódcom wysyłać patrole we właściwych miejscach. Celem jest śledzenie szczegółów pracy funkcjonariuszy – od zatrzymania ruchu po odwiedzanie lokalnych firm. „Dzięki raportom dowództwo może przeanalizować wyniki i powiedzieć: »Ta taktyka wpływa najskuteczniej na zmniejszenie przestępczości«, i mogą podwoić tego typu działania” – mówi Klepper.

ShotSpotter w tej chwili oferuje różne produkty około 120 klientom, do których należą także departamenty policji w Waszyngtonie i Wilmington w stanie Delaware. Zdaniem Kleppera program może być wykorzystywany, także do ukierunkowania pracy socjalnej i usług zdrowia psychicznego dla osób o wysokim poziomie ryzyka. Firma nie chce na razie podawać szczegółów takiego programu, ale ma nadzieję niedługo go przetestować.

Potencjalna stronniczość

Osobą, która miała duży wpływ na rozwój oprogramowania dla policji jest William Bratton. Działał intensywnie na rzecz wprowadzenia tego typu programów jako komisarz policji w Los Angeles w 2008 roku. Wcześniej, jeszcze w 1994 roku jako komisarz policji w Nowym Jork, pozwolił na uruchomienie CompStat – programu służącego do gromadzenia komputerowych statystyk i analizowania ich w celu wskazania „miejsc zapalnych” na mapie miasta. Jego zdaniem tego rodzaju rozwiązania są chętnie przyjmowane przez młodszych funkcjonariuszy. Uważa jednak, że należy wyjaśnić działanie algorytmu w ramach społeczności. „Nie oszukujmy się, policja nie była i nie jest idealną instytucją. W niektórych przypadkach nadużyliśmy narzędzi, które otrzymaliśmy” – mówi Bratton.

Geolitica i ShotSpotter nie wykorzystują w swoim oprogramowaniu takich technologii pozyskiwania danych jak na przykład rozpoznawanie twarzy, w ogóle nie wykorzystują do działania danych osobowych czy identyfikacyjnych. Opierają się na zgłoszonych incydentach, nie wykorzystują danych o aresztowaniach, ponieważ mogłyby one wykazać (i utrwalić) większą aktywność policji w społecznościach kolorowych.

Rashida Richardson, profesor Northeastern University, zajmuje się relacjami między gromadzonymi danymi (tzw. big data) a sprawiedliwością rasową. Krytykuje programy takie jak Geolitica i ShotSpotter, twierdząc, że zmiany nazw i niektórych funkcjonalności platform odciągają uwagę od fundamentalnych pytań dotyczących analityki predykcyjnej. Jak zauważa, analizowanie samych zgłoszeń bywa tendencyjne. Przypomina o tym, że w zeszłym roku z Central Parku pod numer alarmowy zadzwoniła kobieta, która fałszywie oskarżyła czarnoskórego mężczyznę o zagrażanie jej życiu. Okazało się, że mężczyzna obserwował ptaki. 

„A jednak ten zapis pojawi się w danych” – mówi Richardson. „Jak radzić sobie z zestawem samych danych, gdy nie znamy kontekstu każdego zgłoszenia?”.

Programy nie zbierają też informacji o przestępstwach, do których dochodzi w cyberprzestrzeni, ani tzw. przestępczości białych kołnierzyków, co może zmniejszyć wykrywalność tego typu incydentów.

W stronę nadzoru

Robert Cheetham, dyrektor generalny Azavea, firmy, która sprzedała HunchLab firmie ShotSpotter, uważa, że złożoność danych wykorzystywana przez te programy jest tak duża, że większość rządów nie jest gotowa do udzielania odpowiedzi. Jedyne, co mogą zrobić, to tworzyć grupy doradcze albo nadzorcze, które będą bardziej zorientowane.

„Skoro mamy komisje zagospodarowania przestrzennego, dlaczego nie mielibyśmy mieć obywatelskich komisji nadzorczych, w których skład wchodziliby ludzie rozumiejący potrzeby miast, a także naukowcy i praktycy?” – pyta Cheetham.

W kilku amerykańskich miastach faktycznie powstały w ostatnich latach organy badające rządowe algorytmy. Na przykład w Pittsburghu powołano publiczno-prywatną grupę Pittsburgh Task Force on Public Algorithms, która ma między innymi wydawać stosowne zalecenia dla technologii używanych przez policję. Na razie – od zeszłego roku – program predykcyjnych działań policyjnych jest tam zawieszony.

„Jeśli zamierzamy wdrożyć te programy, jedną z podstawowych rzeczy, które musimy zrobić, jest zbudowanie zaufania” – mówi David Hickton, były amerykański prawnik i dyrektor Instytutu Prawa, Polityki i Polityki Cybernetycznej Uniwersytetu w Pittsburghu. „Musimy ponownie przeanalizować dane historyczne, a nie tylko na nich polegać”.

W Santa Cruz rada miasta może dopuścić do użycia narzędzia prognozowania przestępstw i rozpoznawania twarzy, decyzję ma podjąć na podstawie przeglądu badań dotyczących ich ewentualnej stronniczości.

Justin Cummings, Radny i były burmistrz Santa Cruz, który w ubiegłym roku postulował ograniczenie użycia tych programów, jest zdania, że policja powinna najpierw poradzić sobie z istniejącymi uprzedzeniami, nim sięgnie po narzędzia, które mogą w niejasny sposób wprowadzić nowe uprzedzenia.

„Zapewnienie wszystkim równego traktowania zgodnie z prawem jest czymś, czym musimy się zająć w pierwszej kolejności” – mówi Cummings. „To naprawdę trudne”.

Więcej artykułów