Kluczowe dania na wynos
- Evolv Technology twierdzi, że jej skaner AI może zastąpić konwencjonalne wykrywacze metalu, omijając potrzebę zatrzymywania i opróżniania kieszeni przez ludzi.
- Nowy Jork jest jednym z miast zajmujących się skanerami broni opartymi na sztucznej inteligencji w celu zwalczania przestępczości.
- Ale niektórzy eksperci twierdzą, że używanie sztucznej inteligencji do wykrywania broni może prowadzić do nadmiernego zasięgu.
Coraz więcej miast rozważa użycie skanerów broni zasilanych sztuczną inteligencją (AI) po głośnych masowych strzelaninach w ruchu, który budzi prywatność i inne obawy.
Burmistrz Nowego Jorku, Eric Adams, powiedział niedawno w Good Morning America, że chce zainstalować w metrze detektory broni oparte na sztucznej inteligencji. Firma Evolv Technology twierdzi, że jej skaner AI może zastąpić konwencjonalne wykrywacze metali, omijając potrzebę zatrzymywania i opróżniania kieszeni przez ludzi.
„Dzięki sztucznej inteligencji jesteśmy w stanie wykryć wiele różnych obiektów o różnych rozmiarach i typach. Wykrycie, czy ktoś nosi broń, może być bardzo korzystne w zapobieganiu atakom, a także w wykrywaniu sytuacji zagrażających”, Mikaela Pisani, Główny analityk danych firmy Rootstrap zajmującej się sztuczną inteligencją, powiedział Lifewire w wywiadzie e-mailowym. „To dałoby władzom więcej czasu na podjęcie działań, zanim sytuacja będzie się dalej eskalować”.
AI, która Cię sprawdza
Technologia Evolv wykorzystuje techniki emisji światła radaru i lidaru do tworzenia obrazów, które następnie bada sztuczna inteligencja. Firma twierdzi, że jej system może zidentyfikować ukrytą broń u osoby przechodzącej przez skaner i skłonić ochronę do interwencji.
Technologia „wykrywa ukrytą broń i inne zagrożenia za pomocą zaawansowanych czujników cyfrowych i sztucznej inteligencji”, pisze firma na swojej stronie internetowej. „Jest niezwykle dokładny i może przebadać do 3600 osób na godzinę – 10 razy szybciej niż tradycyjne wykrywacze metalu”.
Pisani powiedział, że najczęstszym podejściem do identyfikacji osób z bronią jest wykorzystanie modeli głębokiego uczenia się z wykorzystaniem CNN (konwolucyjnych sieci neuronowych). CNN są zaprojektowane do identyfikacji obrazów poprzez przetwarzanie danych pikseli. Modele uczenia maszynowego są szkolone na dużych zbiorach danych obrazów, w różnych sytuacjach, niezależnie od tego, czy ludzie noszą broń, czy nie.
„Dzięki tej metodzie budowane są systemy klasyfikacji w celu wykrywania sytuacji, w których używana jest broń” – dodał Pisani. „Można zastosować bardziej szczegółowe modele, takie jak segmentacja obiektów, aby określić, w której części obrazu znajduje się broń”.
Evolv nie dostarcza wielu publicznych informacji o tym, jak działa jego system. Ale Stephanie McReynolds, szefowa marketingu w Ambient.ai, firmie zajmującej się analizą wizji komputerowej, która automatyzuje operacje związane z bezpieczeństwem fizycznym, powiedziała Lifewire za pośrednictwem poczty elektronicznej, że podobne systemy analizują strumienie wideo z monitoringu na żywo, wykorzystując sztuczną inteligencję w połączeniu z algorytmami wizji komputerowej do wykrywania obiektów takich jak osoba lub broń palna. Komputer analizuje interakcje między tymi obiektami, które tworzą sygnatury ruchu lub zachowania fizycznego.
„Ta głęboka analiza sygnatur zagrożeń umożliwiona przez inteligencję wizji komputerowej może zapewnić bogaty kontekst, który wykracza poza lokalizację lub obecność broni palnej” – dodał McReynolds. „Respondenci wykorzystujący inteligencję wizji komputerowej mają tę zaletę, że oglądają nagranie wideo z incydentu, który rozwija się w czasie rzeczywistym, aby kontekstowo zrozumieć scenariusz i przygotować się do proaktywnego zaangażowania, w tym podczas incydentów związanych z bronią”.
Pomysł rozwiązania problemu z bronią w tym kraju za pomocą sztucznej inteligencji jest po prostu okropny.
Zobacz, co masz w kieszeni
Nie wszyscy są zwolennikami skanerów AI. Profesor Uniwersytetu Syracuse, Johannes Himmelreich, który bada etykę sztucznej inteligencji, powiedział Lifewire w wywiadzie e-mailowym, że „pomysł rozwiązania problemu z bronią w tym kraju za pomocą sztucznej inteligencji jest po prostu okropny”. Powiedział, że ta propozycja próbuje zastosować technologiczną poprawkę do problemu społecznego.
„Takie próby są generalnie chybione” – dodał. „Nawet gorzej: usuwają tlen z odpowiednich roztworów”.
Kolejnym problemem związanym z używaniem AI do każdego rodzaju ekranu jest równość, powiedział. „To, czego nie chcemy ponownie widzieć, to ludzie o kolorze skóry, którzy są niesłusznie oskarżani o ponowne noszenie w znacznie wyższym tempie niż inni. W zasadzie sztuczna inteligencja może zmniejszyć stronniczość. Ale w praktyce zwykle potęguje taką dyskryminację”.
Pozostaje też kwestia nadmiernego zasięgu. Jeśli skanery wykorzystujące sztuczną inteligencję zyskają na popularności, mogą być używane do rejestrowania ludzi przez cały czas, zauważył Pisani.„Więc nie tylko rejestrowaliby to, czy noszą broń, czy nie, ale także swoje zachowanie” – dodał. „Każda sekunda twojego życia zostanie zarejestrowana i będą ludzie, którzy będą czuć się niekomfortowo dzięki tej technologii. technologii, ważne jest, aby wziąć pod uwagę wszystkie konsekwencje dla prywatności i edukować ludzi na temat wpływu, jaki może mieć ta technologia."
Evolv nie odpowiedział od razu na prośbę Lifewire o komentarz.
Ale Nilay Parikh, dyrektor generalny firmy Be Global Safety, która produkuje oprogramowanie do monitorowania oparte na sztucznej inteligencji, broniła korzystania z AI. Powiedział, że w miejscach publicznych, w których broń może być zabroniona, a kamery już istnieją, wykorzystywanie sztucznej inteligencji do wykrywania broni nie jest naruszeniem prywatności.
„AI może mieć możliwość ochrony tożsamości posiadaczy broni lub może pomóc organom ścigania w identyfikacji podejrzanego”, dodał.