Wersja audio
Weszli do windy. Gdy jechali nią na dół, Anderton powiedział:
– Pewnie zdajesz sobie sprawę z podstawowej prawnej wady systemu Prewencji. Krótko mówiąc, zajmujemy się ludźmi, którzy nie popełnili jeszcze przestępstwa.
– Ale z całą pewnością kiedyś to zrobią – odrzekł Witwer z przekonaniem.
– Na szczęście nie… bo łapiemy ich, zanim zdążą popełnić jakąkolwiek zbrodnię. I dlatego jej popełnienie to zupełna metafizyka. Twierdzimy, że są winni. Oni z kolei twierdzą, że są całkowicie niewinni. I w pewnym sensie mają rację” (przeł. Konrad Brzozowski).
W noweli Raport mniejszościPhilip K. Dick szkicuje świat, w którym wszelkie przestępstwa są przewidywane, a sprawcy ujmowani, zanim jeszcze dopuszczą się zabronionego czynu. Wizja ta rozpala wyobraźnię, ale też może budzić uśmiech politowania. Elementem fantastycznym u Dicka jest jednak nie sam fakt istnienia takiego systemu predykcji, ale mechanizm jego działania – decyzje zapadają tam na podstawie wizji trojga jasnowidzów. Brzmi abstrakcyjnie? W systemie sądowniczym dysponujemy czymś realnym, a jednak zadziwiająco podobnym do fantastycznych opowieści – sztuczną inteligencją. Jej wykorzystanie w policji czy sądownictwie z jednej strony może wyglądać jak science fiction, ale z drugiej jest znacznie bardziej ograniczone i przestarzałe, niż można by przypuszczać.
Co prawda pojęcie „realności” w kontekście sztucznej inteligencji (AI) jest mało precyzyjne. „Sztuczna inteligencja” to najczęściej termin-worek dla różnorodnych systemów, które zawierają w sobie różnego rodzaju zaawansowane algorytmy oparte między innymi na uczeniu maszynowym. Modele te są trenowane na dużych zbiorach danych historycznych, by na ich podstawie generować prognozy, na przykład dotyczące ryzyka kredytowego, przenoszenia chorób zakaźnych czy planowania popytu w handlu.
Prognozy takie mogą dotyczyć także ryzyka recydywy czy orzeczenia sądu. I również w ich przypadku im więcej danych i lepsza ich jakość (a więc kompletność, dokładność oraz aktualność), tym dokładniejsze wyniki, przynajmniej w teorii. W praktyce jednak algorytmy te dziedziczą nie tylko nasze dane, ale też uprzedzenia czy błędy poznawcze [o znaczeniu tych ostatnich w sądownictwie pisała Maja Hawranek, „Pismo” nr 7/2025 – przyp. red.]. Do tego dochodzą mniej lub bardziej wyrafinowane modele statystyczne, czyli równania matematyczne mające przewidywać wyniki na podstawie danych historycznych. Granica między klasyczną analityką …
Aby przeczytać ten artykuł, zaloguj się lub skorzystaj z oferty.
Czytaj i słuchaj treści, które poszerzają horyzonty, inspirują do rozmów i refleksji. Wypróbuj „Pismo” przez miesiąc. Możesz zrezygnować w każdej chwili.
Dostęp online
wersja audio i na czytniki,
dostęp do aplikacji i serwisu
14,99 / miesiąc
Prenumerata
co miesiąc papierowe wydanie,
dostęp online do aplikacji i serwisu
24,99 / miesiąc

Studiu ukazało się w listopadowym numerze „Pisma” (11/2025) pod tytułem Algorytmy sprawiedliwości.
Studium należy do cyklu Prawo do przyszłości.
Prawo do przyszłości to cykl tekstów o tym, jakie zmiany w różnych obszarach prawa są potrzebne już dziś, żebyśmy mogli zmierzyć się z wyzwaniami, które staną przed nami w najbliższych kilku dekadach. Więcej na magazynpismo.pl/prawo-do-przyszlosci
Partnerem cyklu Prawo do Przyszłości jest kancelaria prawnicza CMS.
