AI może przestać węszyć, przewidując, co powiesz

Spisu treści:

AI może przestać węszyć, przewidując, co powiesz
AI może przestać węszyć, przewidując, co powiesz
Anonim

Kluczowe dania na wynos

  • Naukowcy opracowali metodę mieszania rozmów w celu pokonania nieuczciwych mikrofonów przed przechwytywaniem naszych rozmów.
  • Ta metoda jest istotna, ponieważ działa w czasie rzeczywistym na strumieniowym przesyłaniu dźwięku i przy minimalnym szkoleniu.
  • Eksperci przyklaskują badaniom, ale uważają, że nie są one zbyt przydatne dla przeciętnego użytkownika smartfona.
Image
Image

Otaczają nas inteligentne urządzenia z mikrofonami, ale co jeśli zostały one zhakowane, aby nas podsłuchiwać?

W celu ochrony naszych rozmów przed szpiegami, naukowcy z Columbia University opracowali metodę Neural Voice Camouflage, która zakłóca automatyczne systemy rozpoznawania mowy w czasie rzeczywistym bez przeszkadzania ludziom.

„Wraz z inwazją [inteligentnych urządzeń aktywowanych głosem] w nasze życie, idea prywatności zaczyna wyparowywać, ponieważ te urządzenia podsłuchowe są zawsze włączone i monitorują to, co się mówi”, Charles Everette, dyrektor Cyber Advocacy, Deep Instinct, powiedział Lifewire w e-mailu. „Te badania są bezpośrednią odpowiedzią na potrzebę ukrycia lub zakamuflowania głosu i rozmów jednostki przed tymi elektronicznymi podsłuchami, znanymi lub nieznanymi na danym obszarze”.

Rozmowa

Naukowcy opracowali system, który generuje ciche dźwięki, które można odtwarzać w dowolnym pomieszczeniu, aby uniemożliwić nieuczciwym mikrofonom szpiegowanie rozmów.

Sposób, w jaki ten rodzaj technologii przeciwdziała podsłuchiwaniu, przypomina Everette słuchawki z redukcją szumów. Zamiast generować ciche dźwięki w celu wyeliminowania szumów tła, naukowcy emitują dźwięki tła, które zakłócają algorytmy sztucznej inteligencji (AI), które interpretują fale dźwiękowe w zrozumiały dźwięk.

Takie mechanizmy kamuflażu głosu osoby nie są wyjątkowe, ale to, co odróżnia Neural Voice Camouflage od innych metod, to fakt, że działa on w czasie rzeczywistym na strumieniowym przesyłaniu dźwięku.

„Aby operować na mowie na żywo, nasze podejście musi przewidywać [prawidłowe szyfrowanie dźwięku] w przyszłości, aby mogły być odtwarzane w czasie rzeczywistym”, zauważają naukowcy w swoim artykule. Obecnie metoda działa dla większości języka angielskiego.

Hans Hansen, dyrektor generalny Brand3D, powiedział Lifewire, że badania są bardzo ważne, ponieważ atakują główną słabość dzisiejszych systemów sztucznej inteligencji.

W rozmowie e-mailowej Hansen wyjaśnił, że obecne systemy głębokiego uczenia sztucznej inteligencji w ogóle, a w szczególności rozpoznawanie mowy naturalnej, działają po przetworzeniu milionów rekordów danych mowy zebranych od tysięcy mówców. W przeciwieństwie do tego Neural Voice Camouflage działa po samodzielnym uwarunkowaniu na zaledwie dwóch sekundach mowy wejściowej.

Osobiście, jeśli martwię się o urządzenia nasłuchujące, moim rozwiązaniem nie byłoby dodanie kolejnego urządzenia podsłuchowego, które będzie generować szumy w tle.

Niewłaściwe drzewo?

Brian Chappell, główny strateg ds. bezpieczeństwa w BeyondTrust, uważa, że badanie jest bardziej korzystne dla użytkowników biznesowych, którzy obawiają się, że mogą znaleźć się w środku zhakowanych urządzeń, które nasłuchują słów kluczowych wskazujących na wypowiadanie cennych informacji.

„Gdzie ta technologia mogłaby być potencjalnie bardziej interesująca, jest bardziej autorytarny stan nadzoru, w którym wykorzystuje się analizę wideo i głosu AI przeciwko obywatelom” – powiedział Lifewire James Maude, główny badacz ds. bezpieczeństwa cybernetycznego w BeyondTrust.

Maude zasugerowała, że lepszą alternatywą byłoby wdrożenie kontroli prywatności w zakresie przechwytywania, przechowywania i wykorzystywania danych przez te urządzenia. Co więcej, Chappell uważa, że przydatność metody badacza jest ograniczona, ponieważ nie została zaprojektowana, aby powstrzymać ludzkie podsłuchiwanie.

„W przypadku domu pamiętaj, że przynajmniej teoretycznie użycie takiego narzędzia spowoduje, że Siri, Alexa, Google Home i każdy inny system aktywowany wypowiadanym słowem wyzwalającym zignoruje Cię”, powiedział Kaplica.

Image
Image

Ale eksperci uważają, że wraz z rosnącym włączeniem technologii AI/ML do naszych inteligentnych urządzeń jest całkowicie możliwe, że ta technologia może znaleźć się w naszych telefonach w niedalekiej przyszłości.

Maude jest zaniepokojona, ponieważ technologie sztucznej inteligencji mogą szybko nauczyć się odróżniać hałas od prawdziwego dźwięku. Uważa, że chociaż system może początkowo odnieść sukces, może szybko przekształcić się w grę w kotka i myszkę, gdy urządzenie podsłuchowe nauczy się odfiltrowywać zagłuszające dźwięki.

Co bardziej niepokojące, Maude zauważyła, że każdy, kto go używa, może w rzeczywistości zwrócić na siebie uwagę, ponieważ zakłócenie rozpoznawania głosu mogłoby wydawać się niezwykłe i może wskazywać, że próbujesz coś ukryć.

„Osobiście, jeśli martwię się o urządzenia nasłuchujące, moim rozwiązaniem nie byłoby dodanie kolejnego urządzenia podsłuchowego, które będzie generować hałas w tle” – powiedziała Maude. „Zwłaszcza, że zwiększa to ryzyko zhakowania urządzenia lub aplikacji i umożliwienia słuchania mnie”.

Zalecana: