O SI Pan Profesor Wojciech Filipkowski z Pracowni Kryminalistyki Uniwersytetu w Białymstoku

Co kryje się pod pojęciem sztucznej inteligencji i jak jej zastosowanie może podnieść efektywność w walce z przestępczością?

O SI Pan Profesor Wojciech Filipkowski z Pracowni Kryminalistyki Uniwersytetu w Białymstoku

FT: Skąd narodziło się u Pana zainteresowanie sztuczną inteligencją?

WF: Był to rodzaj naturalnej ewolucji moich zainteresowań, dlatego że od kilkunastu lat interesuje się wykorzystaniem różnych rozwiązań technologicznych przez organy ścigania, służby specjalne i wymiar sprawiedliwości dla podnoszenia efektywności ich działań.  Od 2005 roku mam okazję współpracować z naukowcami z politechnik w Polsce, w szczególności bardzo intensywną współpracą nawiązałem z naukowcami z Akademii Górniczo-Hutniczej w Krakowie. Jej efektem był mój udział w pracy zbiorowej z 2009, która dotyczy wykorzystania metod sztucznej inteligencji w działaniach na rzecz bezpieczeństwa publicznego. 

FT: Algorytmy w walce z przestępczością. W jakim stopniu sztuczna inteligencja może wspierać wymiar sprawiedliwości?

WF: Sztuczna inteligencji w chwili obecnej rozwija się dynamicznie, w związku z tym naukowcy poszukują nowych obszarów aplikacyjnych. Koncepcja zastosowania SI w wymiarze sprawiedliwości pojawiła się właśnie z takiego powodu. Wsparcie może dotyczyć na przykład typowania osób do środków probacyjnych, czyli warunkowego umorzenia lub zawieszenia wyroku, na podstawie danych historycznych. 

FT: Ile lat wstecz wykorzystuje algorytm do analiz? 

WF: Może to być do kilku lat wstecz, ponieważ trzeba uwzględnić nowe, aktualne akty prawne, a dane muszą być zdigitalizowane. Z tym wiąże się podstawowe pytanie, czy dane historyczne nadają się do takich analiz. Podczas testowania algorytmów w Stanach Zjednoczonych pojawił się problem, że dane stanowiły emanację uprzedzeń rasowych i społecznych. 

FT: Wspominał Pan, że sztuczna inteligencja ma zwolenników, według których niesie szereg korzyści, ale także zagorzałych przeciwników. Z czego może wynikać tak skrajny podział, jakie głównie argumenty poruszane są podczas sporów? 

WF: Jest to technologia, która diametralnie zmienia rzeczywistość w sposób nieprzewidywalny – tzw. disruptive technology. Przeciwnicy mają obawy, czy nie będziemy w zbyt dużym stopniu uzależnieni od sztucznej inteligencji, czy nie będzie nas wyręczać we wszystkich czynnościach. Jednak nie zapominajmy, że to są algorytmy, które bazują na danych. Jeżeli są one nieprawidłowe, niespójne lub są przekłamania w sposobie ich wprowadzania do systemu, to wynik również będzie opatrzony pewnym ryzykiem błędu. W przypadku organów ścigania, czy nawet wymiaru sprawiedliwości potencjalne błędy mają bardzo poważne konsekwencje, wiążące się z odpowiedzialnością karną osób, których sytuacja jest analizowanych. Zwolennicy natomiast uważają, że SI pomoże ludziom, w tym znaczeniu, że przejmie na siebie takie działania, które wykraczają poza możliwości człowieka. Sztuczna inteligencja jest w stanie przetworzyć szybciej i więcej danych niż człowiek, poza tym potrafi znaleźć związki między zjawiskami a danymi, które nie były dotychczas odkryte. Entuzjaści zwykle pokazują plusy, możliwości przetwarzania niesamowitej ilości informacji i szukania bardzo delikatnych ulotnych związków między danymi. Proszę jednak mieć na uwadze, że to zapewne nie będzie od razu całkowitej automatyzacji. Koncepcji relacji między człowiekiem a SI, czy też obszarów wspierania człowieka przez sztuczną inteligencję jest wiele. Podstawowe obszary są trzy: pomoc w opisaniu rzeczywistości, odkrywanie relacji lub wspieranie procesu podejmowania decyzji – w oparciu o paletę opcji zaproponowanych przez SI. Krok dalej jest w momencie, gdy sztuczna inteligencja wszystkie te czynności wykonywać będzie autonomicznie, bez udziału człowieka lub udział człowieka będzie opierał się na czynnościach nadzorczych. Takich koncepcji jest wiele i w różnej mierze uwzględniają one kwestie prawne lub etyczne.

FT: Można rozumieć, że popkultura ma wpływ na to jak odbieramy pojęcie SI?

WF: W pewnej mierze jest to tak, że popkultura przedstawia nam zagrożenie, podświadome obawy związane ze Skynetem z Terminatora (przyp. red. Skynet – fikcyjny wojskowy system obronny z serii Terminator). Takie kreowanie sztucznej inteligencji tworzy obawy wśród społeczeństwa. Kiedyś ludzie obawiali się o swoje miejsca pracy w przypadku zautomatyzowania procesu wytwarzania dóbr, produkcji, teraz można powiedzieć, że jest nowa wersja tych obaw. Zakłada ona, że SI będzie kierować naszym życiem, aż po takie skrajności, że stanie się jakimś bóstwem. Poprzez filmy i seriale sci-fi, słysząc sztuczna inteligencja myślimy o androidach – robotach do złudzenia przypominających człowieka. Na dzień dzisiejszy mamy zaledwie wysoki poziom zautomatyzowania pewnych czynności. Rozwiązania już istniejące mogą w odległej przyszłości prowadzić do powstania świadomego, sztucznego tworu – ale to nie jest coś, co stanie się szybko. Prawdopodobnie, SI będzie naśladować w pewien sposób człowieka, bo to człowiek ją stworzył, więc może mieć wady i zalety ludzkiej natury. 

FT: Elon Musk w rozmowie z New York Times, porównał stworzenie sztucznej inteligencji do wynalezienia głowic nuklearnych. Co Pana zdaniem Musk miał na myśli? 

WF: Powinniśmy być konstruktywnie krytycznie nastawienie do tej technologii w odróżnieniu od entuzjastycznego, bez refleksyjnego podejścia nad nieograniczonym sposobem rozwoju tej technologii. Z jednej strony, faktycznie mogą to być jakieś chatboty, które tworzą opracowania naukowe, pomogą analizować, pisać artykuły, przetwarzać informacje, ale z drugiej, jeżeli będzie wyposażona w np. broń, czyli automatyczne roboty bojowe? Jest już to problem, którym zajmuje się ONZ. Istotną kwestią jest selekcja celów, czy chodzi o to, aby unieszkodliwić, zneutralizować, unieruchomić, czy zabić przeciwnika? Dodatkowe pytanie to, kim jest przeciwnik? czy inną maszyną, urządzeniem czy też dotyczy to ludzi. Jest to trudne etycznie, prawnie i moralnie zagadnienie. Powinniśmy wsłuchiwać się w głosy zarówno po jednej i po drugiej stronie. 

FT: W 2017 roku w Laboratorium Facebook Artificial Intelligence Research zaobserwowano, że chatboty zaczęły posługiwać się pomiędzy sobą niezrozumiałym dla człowieka językiem. Czy powinniśmy obawiać się, rodem z filmów sci-fi, buntów maszyn? 

WF: Jeżeli chatboty znalazły sposób komunikowania się pomiędzy sobą, to znaczy, że takie zadanie zostało postawione przed programistą. Celem informatyki jest podnoszenie efektywności w osiąganiu celów i właśnie to zrobiły te chatboty. Znalazł sposób komunikacji, który pomimo swojej niezrozumiałości dla ludzi, podniósł efektywność wzajemnego komunikowania się. Nie znam dokładnie tego przypadku. Był szeroko opisywany przykład chattbota, który wpierw analizowały, a następnie samodzielnie komentowały wpisy. Okazało się, że były to wpisy bardzo skrajne negatywne, szowinistyczne, o charakterze rasistowskim. Powodem było to, że były on „uczony” z użyciem danych właśnie z Twittera. Należy podkreślić, że bardzo dużo zależy od samych twórców, programistów, w którą stronę pokierują rozwojem tej technologii. 

FT: Naukowa weryfikacja przydatności sztucznej inteligencji w kryminalistyce i kryminologii powinna stanowić pierwszy krok, decydujący o jej zastosowaniu dla organów ścigania. Jakie wyniki przemawiałyby za zastosowaniem SI dla wymiaru sprawiedliwości?  


WF: Jestem bardzo ostrożny, jeśli chodzi o wymiar sprawiedliwości, bardziej skłaniałbym się do wykorzystania SI jako element wspierający proces badawczy lub decyzyjny przez organy ścigania. Również w obszarach kryminalistyki, czyli np. przygotowywanie opinii, czynności laboratoryjnych, identyfikacja śladów, a także osób na podstawie zgromadzonych śladów i dowodów, rozpoznanie materiału, z którego stworzony jest ślad, rekonstrukcja wydarzeń, weryfikacja wersji kryminalistycznych. SI powinna rozwijać się w kierunku stosowania rozwiązań typu tzw. whitebox’y, czyli jak w „pudełku”, do którego możemy „zajrzeć” i zrozumieć, jak działa ukryty w nim mechanizm.

Dziękuje Panie Profesorze za rozmowę i poświęcony czas