Jak AI może monitorować swoje niebezpieczne potomstwo

Spisu treści:

Jak AI może monitorować swoje niebezpieczne potomstwo
Jak AI może monitorować swoje niebezpieczne potomstwo
Anonim

Kluczowe dania na wynos

  • Nowy artykuł twierdzi, że sztuczna inteligencja może określić, które projekty badawcze mogą wymagać większej regulacji niż inne.
  • To część rosnącego wysiłku, aby odkryć, jaki rodzaj sztucznej inteligencji może być niebezpieczny.
  • Jeden ekspert twierdzi, że prawdziwym niebezpieczeństwem sztucznej inteligencji jest to, że może ona ogłupiać ludzi.

Image
Image

Sztuczna inteligencja (AI) oferuje wiele korzyści, ale także pewne potencjalne zagrożenia. A teraz naukowcy zaproponowali metodę monitorowania ich skomputeryzowanych dzieł.

Międzynarodowy zespół twierdzi w nowym artykule, że sztuczna inteligencja może określić, które typy projektów badawczych mogą wymagać większej regulacji niż inne. Naukowcy wykorzystali model, który łączy koncepcje z biologii i matematyki i jest częścią rosnących wysiłków zmierzających do odkrycia, jaki rodzaj sztucznej inteligencji może być niebezpieczny.

„Oczywiście, chociaż może pojawić się niebezpieczne użycie sztucznej inteligencji „sci-fi”, jeśli tak zdecydujemy […], to, co sprawia, że sztuczna inteligencja jest niebezpieczna, to nie sama sztuczna inteligencja, ale [jak jej używamy]”, Thierry Rayna, przewodniczący Technology for Change w École Polytechnique we Francji, powiedział Lifewire w e-mailowym wywiadzie. „Wdrażanie sztucznej inteligencji może być albo podnoszeniem kompetencji (na przykład wzmacnia znaczenie umiejętności i wiedzy człowieka/pracownika) albo niszczeniem kompetencji, tj. sztuczna inteligencja sprawia, że istniejące umiejętności i wiedza stają się mniej przydatne lub przestarzałe.”

Utrzymywanie kart

Autorzy ostatniego artykułu napisali w poście, że zbudowali model symulujący hipotetyczne zawody AI. Przeprowadzili symulację setki razy, aby spróbować przewidzieć, jak mogą wyglądać wyścigi AI w rzeczywistym świecie.

„Zmienną, którą uznaliśmy za szczególnie ważną, była „długość” wyścigu – czas, jaki zajęło naszym symulowanym wyścigom osiągnięcie celu (funkcjonalny produkt AI)” – napisali naukowcy. „Kiedy wyścigi AI szybko osiągnęły swój cel, odkryliśmy, że zawodnicy, których zaprogramowaliśmy, aby zawsze pomijali środki ostrożności, zawsze wygrywali”.

Z kolei naukowcy odkryli, że długoterminowe projekty sztucznej inteligencji nie były tak niebezpieczne, ponieważ zwycięzcami nie zawsze byli ci, którzy przeoczyli bezpieczeństwo. „Biorąc pod uwagę te ustalenia, ważne będzie, aby organy regulacyjne ustaliły, jak długo mogą trwać różne wyścigi AI, stosując różne przepisy w oparciu o przewidywane ramy czasowe” – napisali. „Nasze odkrycia sugerują, że jedna zasada dla wszystkich wyścigów AI – od sprintów po maratony – doprowadzi do pewnych wyników, które są dalekie od ideału”.

David Zhao, dyrektor zarządzający Coda Strategy, firmy zajmującej się doradztwem w zakresie sztucznej inteligencji, powiedział w e-mailowym wywiadzie dla Lifewire, że identyfikacja niebezpiecznej sztucznej inteligencji może być trudna. Wyzwania polegają na tym, że nowoczesne podejścia do AI przyjmują podejście głębokiego uczenia się.

„Wiemy, że uczenie głębokie daje lepsze wyniki w wielu przypadkach użycia, takich jak wykrywanie obrazów lub rozpoznawanie mowy” – powiedział Zhao. „Jednak ludzie nie są w stanie zrozumieć, jak działa algorytm głębokiego uczenia się i jak generuje swoje wyniki. Dlatego trudno jest stwierdzić, czy sztuczna inteligencja, która przynosi dobre wyniki, jest niebezpieczna, ponieważ ludzie nie są w stanie zrozumieć, co się dzieje. „

Oprogramowanie może być „niebezpieczne”, gdy jest używane w krytycznych systemach, które mają luki, które mogą zostać wykorzystane przez złych aktorów lub generować nieprawidłowe wyniki, powiedział za pośrednictwem poczty elektronicznej Matt Shea, dyrektor ds. strategii w firmie MixMode zajmującej się sztuczną inteligencją. Dodał, że niebezpieczna sztuczna inteligencja może również skutkować niewłaściwą klasyfikacją wyników, utratą danych, skutkami ekonomicznymi lub fizycznymi uszkodzeniami.

„W przypadku tradycyjnego oprogramowania programiści kodują algorytmy, które mogą być badane przez osobę, aby dowiedzieć się, jak zatkać lukę lub naprawić błąd, patrząc na kod źródłowy” – powiedział Shea.„Jednak w przypadku sztucznej inteligencji większa część logiki jest tworzona z samych danych, zakodowanych w strukturach danych, takich jak sieci neuronowe i tym podobne. Powoduje to, że systemy są „czarnymi skrzynkami”, których nie można zbadać w celu znalezienia i naprawienia luk w zabezpieczeniach jak normalne oprogramowanie."

Zagrożenia przed nami?

Podczas gdy sztuczna inteligencja została przedstawiona w filmach takich jak Terminator jako zła siła, która zamierza zniszczyć ludzkość, prawdziwe niebezpieczeństwa mogą być bardziej prozaiczne, twierdzą eksperci. Na przykład Rayna sugeruje, że sztuczna inteligencja może nas ogłupić.

„To może pozbawić ludzi treningu ich mózgów i rozwijania wiedzy” – powiedział. „Jak możesz zostać ekspertem w zakresie kapitału wysokiego ryzyka, jeśli nie spędzasz większości czasu na czytaniu aplikacji startupów? Co gorsza, sztuczna inteligencja jest notorycznie „czarną skrzynką” i mało wytłumaczalna. Niewiedza o tym, dlaczego podjęto konkretną decyzję AI, oznacza, że niewiele można się z niej nauczyć, podobnie jak nie można zostać ekspertem w bieganiu, jeżdżąc po stadionie na Segwayu.”

Trudno powiedzieć, czy sztuczna inteligencja, która przynosi dobre wyniki, jest niebezpieczna, ponieważ ludzie nie są w stanie zrozumieć, co się dzieje.

Prawdopodobnie najbardziej bezpośrednim zagrożeniem ze strony sztucznej inteligencji jest możliwość, że może ona dostarczyć stronniczych wyników, powiedział Lyle Solomon, prawnik, który pisze o prawnych konsekwencjach sztucznej inteligencji, w wywiadzie e-mailowym.

„Sztuczna inteligencja może pomóc w pogłębianiu podziałów społecznych. Sztuczna inteligencja jest zasadniczo zbudowana na podstawie danych zebranych od ludzi” – dodał Solomon. „[Ale] pomimo ogromnej ilości danych zawiera ona minimalne podzbiory i nie obejmuje tego, co wszyscy myślą. Zatem dane zebrane z komentarzy, wiadomości publicznych, recenzji itp., z nieodłącznymi uprzedzeniami, sprawią, że sztuczna inteligencja wzmocni dyskryminację i nienawiść”.

Zalecana: