Kluczowe dania na wynos
- Firma programistyczna podobno zbiera informacje z mediów społecznościowych w celu tworzenia profili, które można wykorzystać do identyfikacji osób, które stanowią zagrożenie dla bezpieczeństwa.
- Voyager Labs podpisał znaczącą umowę z japońską agencją rządową.
- Ale eksperci ostrzegają, że oprogramowanie do przewidywania AI może zostać oszukane.
Twoje informacje online mogą zostać użyte do przewidzenia, czy możesz popełnić przestępstwo.
Voyager Labs podobno zbiera informacje z mediów społecznościowych w celu tworzenia profili, które można wykorzystać do identyfikacji osób, które stanowią zagrożenie dla bezpieczeństwa. Jest to część rosnącego wysiłku, aby wykorzystać sztuczną inteligencję (AI) do badania potencjalnych przestępców. Ale niektórzy eksperci twierdzą, że ruch jest pełen potencjalnych problemów.
„Bardzo trudno jest przewidzieć ludzkie zachowanie”, powiedział Matthew Carr, badacz bezpieczeństwa w Atumcell Group, w wywiadzie e-mailowym dla Lifewire. „Nie jesteśmy nawet w stanie przewidzieć własnego zachowania, nie mówiąc już o czyimś zachowaniu. Myślę, że sztuczna inteligencja mogłaby zostać wykorzystana do tego celu w przyszłości, ale obecnie jesteśmy dalecy od tego, by móc to zrobić. „
Tworzenie profili
Jak niedawno doniósł The Guardian, wydział policji w Los Angeles przyjrzał się możliwości wykorzystania oprogramowania do przewidywania przestępstw Voyager Lab. Firma ogłosiła również, że podpisała znaczącą umowę z japońską agencją rządową.
Japońska umowa zapewnia agencji rządowej platformę dochodzeniową opartą na sztucznej inteligencji, która analizuje ogromne ilości informacji z dowolnego źródła, w tym dane otwarte i głębokie.
„Cieszę się, że współpracujemy w walce z terroryzmem i przestępczością”, powiedziała Divya Khangarot, dyrektor zarządzająca APAC w Voyager Labs, w komunikacie prasowym. „Korzystając z najnowocześniejszych rozwiązań analitycznych Voyager Lab, nasi klienci zyskują unikalne możliwości proaktywnego identyfikowania i niszczenia potencjalnych zagrożeń. Wprowadzamy dodatkowe warstwy dogłębnych analiz śledczych, wykorzystując kombinację sztucznej inteligencji, uczenia maszynowego i OSINT, aby odkryć ukryte ślady, naruszone informacje, i źli aktorzy."
Nie tak mądre?
Ale w wywiadzie e-mailowym Matt Heisie, współzałożyciel Ferret.ai, który wykorzystuje sztuczną inteligencję do przewidywania przestępców, podał w wątpliwość niektóre twierdzenia Voyager Labs.
"Czy istnieje tak wyraźny związek między, powiedzmy, historią aresztowania a przyszłym zachowaniem przestępczym, jak na testach z czarną plamą i rozwojem guza?" powiedział. „Pomyśl o wszystkich potencjalnych komplikacjach, które wpadły w to aresztowanie – w jakiej dzielnicy mieszkała dana osoba, ilości i jakości, a nawet uprzedzeń policji w tym obszarze. Wiek osoby, jej płeć, wygląd fizyczny, wszystko to ma krzyżujący się wpływ na prawdopodobieństwo, że osoba ta ma historię aresztowania, całkowicie oddzielone od jej faktycznej skłonności do popełnienia przestępstwa, które próbujemy przewidzieć."
Oskarżeni z lepszymi prawnikami są bardziej skłonni do ukrywania danych przed upublicznieniem, powiedziała Heisie. Niektóre jurysdykcje ograniczają udostępnianie zdjęć policyjnych lub akt aresztowania, aby chronić oskarżonych.
"Komputer nauczy się na podstawie danych, które mu przekażesz, i uwzględni wszystkie błędy systematyczne, które zostały wprowadzone do tego zbioru danych…"
„Wszystko to dodaje dalsze uprzedzenia do algorytmów” – dodał. „Komputer będzie się uczyć na podstawie danych, które mu przekażesz, i uwzględni wszystkie uprzedzenia, które zostały wprowadzone do zbierania danych, do uczenia się i interpretacji”.
Podjęto kilka prób stworzenia przestępczości przewidującej sztuczną inteligencję, z często skandalicznymi skutkami, powiedziała Heisie.
COMPAS, algorytm używany przez organy ścigania do przewidywania ponownego popełnienia przestępstwa, jest często używany do określania wyroku i zwolnienia za kaucją. W 2016 r. stanęła w obliczu skandalu z powodu uprzedzeń rasowych, przewidując, że czarnoskórzy pozwani stwarzają większe ryzyko recydywy niż w rzeczywistości, i odwrotnie w przypadku białych oskarżonych.
Ponad 1000 technologów i naukowców, w tym naukowcy i eksperci AI z Harvardu, MIT, Google i Microsoftu, wypowiedziało się w 2020 r. przeciwko artykułowi, w którym twierdził, że naukowcy opracowali algorytm, który może przewidywać przestępczość na podstawie wyłącznie Heisie zauważyła, że publikowanie takich badań wzmacnia istniejące uprzedzenia rasowe w systemie sądownictwa karnego.
Chiny są największym i najszybciej rozwijającym się rynkiem tego typu technologii, głównie ze względu na powszechny dostęp do prywatnych danych, z ponad 200 milionami kamer monitorujących i zaawansowanymi badaniami nad sztuczną inteligencją skoncentrowanymi na tym problemie od wielu lat, powiedział Heisie.. Systemy takie jak CloudWalk Police Cloud są obecnie wykorzystywane do przewidywania i śledzenia przestępców oraz wskazywania organów ścigania.
„Jednakże są tam również zgłaszane znaczne uprzedzenia”, powiedziała Heisie.
Heisie dodał, że jego firma starannie zarządza danymi, które wchodzą, i nie korzysta z rejestrów policyjnych ani rejestrów aresztowań, „zamiast tego skupiając się na bardziej obiektywnych kryteriach”.
„Nasza sztuczna inteligencja uczyła się na podstawie wyselekcjonowanych danych, ale co ważniejsze, uczy się również od ludzi, którzy sami analizują, opiekują się i oceniają rekordy oraz mówią nam o swoich interakcjach z innymi” – dodał. „Utrzymujemy również pełną przejrzystość oraz bezpłatny i publiczny dostęp do naszej aplikacji (tak szybko, jak tylko możemy wprowadzić je do wersji beta) oraz zachęcamy do wglądu w nasze procesy i procedury”.