Kluczowe dania na wynos
- Nowe badania sugerują, że może nie być możliwości kontrolowania superinteligentnej sztucznej inteligencji.
- Pismo prasowe twierdzi, że kontrolowanie sztucznej inteligencji wymagałoby znacznie bardziej zaawansowanej technologii niż obecnie.
- Niektórzy eksperci twierdzą, że naprawdę inteligentna sztuczna inteligencja może pojawić się wcześniej niż nam się wydaje.
Jeśli ludzie kiedykolwiek opracują superinteligentną sztuczną inteligencję, być może nie będzie możliwości kontrolowania jej, twierdzą naukowcy.
AI od dawna jest reklamowana jako lekarstwo na wszystkie problemy ludzkości lub jako apokalipsa w stylu Terminatora. Jak dotąd sztuczna inteligencja nie zbliżyła się nawet do inteligencji na poziomie człowieka. Ale trzymanie się smyczy z zaawansowaną sztuczną inteligencją może być zbyt złożonym problemem dla ludzi, jeśli kiedykolwiek zostanie rozwinięta, zgodnie z niedawnym artykułem opublikowanym w Journal of Artificial Intelligence Research.
„Super inteligentna maszyna, która kontroluje świat brzmi jak science fiction” – powiedział w komunikacie prasowym Manuel Cebrian, jeden ze współautorów gazety.
"Ale istnieją już maszyny, które wykonują pewne ważne zadania niezależnie, bez pełnego zrozumienia przez programistów, jak się tego nauczyli. Powstaje zatem pytanie, czy w pewnym momencie może to stać się niekontrolowane i niebezpieczne dla ludzkości."
Wkrótce w superkomputerze w pobliżu
Artykuł w czasopiśmie argumentuje, że kontrolowanie sztucznej inteligencji wymagałoby znacznie bardziej zaawansowanej technologii niż obecnie.
W swoich badaniach zespół opracował teoretyczny algorytm powstrzymywania, który zapewnia, że superinteligentna sztuczna inteligencja nie może szkodzić ludziom w żadnych okolicznościach, najpierw symulując zachowanie sztucznej inteligencji i powstrzymując ją, jeśli zostanie uznana za szkodliwą. Ale autorzy stwierdzili, że takiego algorytmu nie da się zbudować.
"Jeśli podzielisz problem na podstawowe zasady z teoretycznej informatyki, okaże się, że algorytm, który nakazał sztucznej inteligencji, aby nie niszczyła świata, może nieumyślnie zatrzymać własne operacje." Iyad Rahwan, dyrektor Centrum Ludzi i Maszyn w Instytucie Rozwoju Człowieka im. Maxa Plancka w Niemczech, powiedział w komunikacie prasowym.
"Gdyby tak się stało, nie wiedziałbyś, czy algorytm powstrzymywania wciąż analizuje zagrożenie, czy też przestał powstrzymywać szkodliwą sztuczną inteligencję. W efekcie algorytm powstrzymywania jest bezużyteczny."
Naprawdę inteligentna sztuczna inteligencja może pojawić się tutaj szybciej, niż nam się wydaje, przekonuje Michalis Vazirgiannis, profesor informatyki w École Polytechnique we Francji. „Sztuczna inteligencja jest ludzkim artefaktem, ale szybko staje się autonomiczną jednostką” – powiedział w e-mailu do Lifewire.
"Punktem krytycznym będzie to, czy/kiedy pojawi się osobliwość (tj. kiedy agenci AI będą mieli świadomość jako byt), a zatem będą twierdzić, że są niezależni, samokontroli i ostatecznie dominacji."
Nadchodzi osobliwość
Vazirgiannis nie jest osamotniony w przewidywaniu rychłego nadejścia super sztucznej inteligencji. Prawdziwi wierzący w zagrożenie AI lubią mówić o „osobliwości”, którą Vazirgiannis wyjaśnia, że sztuczna inteligencja zastąpi ludzką inteligencję i „algorytmy AI potencjalnie zdadzą sobie sprawę z ich istnienia i zaczną zachowywać się samolubnie i współpracując”.
Według Raya Kurzweila, dyrektora ds. inżynierii w Google, osobliwość pojawi się przed połową XXI wieku. „2029 to spójna data, którą przewidziałem, kiedy sztuczna inteligencja zda ważny test Turinga, a tym samym osiągnie ludzki poziom inteligencji” – powiedział Kurzweil Futurism.
Jeśli nie możemy posprzątać własnego domu, o jaki kod powinniśmy poprosić AI?
"Ustaliłem datę 2045 dla 'osobliwości', kiedy to pomnożymy miliard razy naszą efektywną inteligencję, łącząc się z inteligencją, którą stworzyliśmy."
Ale nie wszyscy eksperci AI uważają, że inteligentne maszyny są zagrożeniem. Sztuczna inteligencja, która jest w trakcie opracowywania, jest bardziej przydatna do opracowywania leków i nie wykazuje żadnej prawdziwej inteligencji, powiedział konsultant ds. AI Emmanuel Maggiori w wywiadzie e-mailowym. „Wokół sztucznej inteligencji panuje wielki szum, co sprawia, że brzmi to tak, jakby była naprawdę rewolucyjna” – dodał. „Obecne systemy sztucznej inteligencji nie są tak dokładne, jak publikowane i popełniają błędy, których człowiek nigdy by nie popełnił.”
Przejmij kontrolę nad sztuczną inteligencją, teraz
Regulowanie sztucznej inteligencji, aby nie wymknęło się naszej kontroli, może być trudne, mówi Vazirgiannis. To firmy, a nie rządy, kontrolują zasoby napędzające sztuczną inteligencję. „Nawet same algorytmy są zwykle produkowane i wdrażane w laboratoriach badawczych tych dużych i potężnych, zazwyczaj międzynarodowych podmiotów” – powiedział.
„Dlatego oczywiste jest, że rządy stanowe mają coraz mniejszą kontrolę nad zasobami niezbędnymi do kontrolowania sztucznej inteligencji”.
Niektórzy eksperci twierdzą, że aby kontrolować superinteligentną sztuczną inteligencję, ludzie będą musieli zarządzać zasobami obliczeniowymi i energią elektryczną. „Filmy science fiction, takie jak Matrix, prorokują o dystopijnej przyszłości, w której ludzie są wykorzystywani przez sztuczną inteligencję jako źródła bioenergii” – powiedział Vazirgiannis.
"Nawet pomimo odległych niemożliwości, ludzkość powinna zapewnić wystarczającą kontrolę nad zasobami obliczeniowymi (tj. klastrami komputerowymi, procesorami graficznymi, superkomputerami, sieciami/komunikacją) i oczywiście elektrowniami dostarczającymi energię elektryczną, która jest absolutnie szkodliwe dla funkcji AI."
Problem z kontrolowaniem sztucznej inteligencji polega na tym, że naukowcy nie zawsze rozumieją, w jaki sposób takie systemy podejmują decyzje, powiedział Michael Berthold, współzałożyciel i dyrektor generalny firmy KNIME zajmującej się oprogramowaniem do nauki danych, powiedział w rozmowie e-mailowej. „Jeśli tego nie zrobimy, jak możemy to 'kontrolować'?”
Dodał: „Nie rozumiemy, kiedy podejmowana jest zupełnie inna decyzja w oparciu o nieistotne dla nas dane wejściowe”.
Jedynym sposobem kontrolowania ryzyka związanego z wykorzystaniem sztucznej inteligencji jest upewnienie się, że jest ona używana tylko wtedy, gdy ryzyko to jest możliwe do opanowania, powiedział Berthold. „Innymi słowy, dwa skrajne przykłady: nie umieszczaj AI na czele swojej elektrowni jądrowej, gdzie mały błąd może mieć katastrofalne skutki uboczne” – dodał.
"Z drugiej strony sztuczna inteligencja przewiduje, że jeśli temperatura w pomieszczeniu powinna zostać nieco podniesiona lub obniżona, może być warte niewielkiego ryzyka na korzyść komfortu życia."
Jeśli nie możemy kontrolować sztucznej inteligencji, lepiej nauczmy jej manier, powiedział były inżynier komputerowy NASA Peter Scott w wywiadzie e-mailowym. „Ostatecznie nie możemy zapewnić kontroli nad sztuczną inteligencją, tak samo jak nie możemy zapewnić kontroli naszych dzieci” – powiedział.
"Wychowujemy je dobrze i mamy nadzieję na najlepsze; jak dotąd nie zniszczyły świata. Aby je dobrze wychować, potrzebujemy lepszego zrozumienia etyki; jeśli nie możemy posprzątać własnego domu, co kod mamy poprosić AI o śledzenie?"
Ale cała nadzieja nie jest stracona dla rasy ludzkiej, mówi badacz sztucznej inteligencji Yonatan Wexler, wiceprezes wykonawczy ds. badań i rozwoju w OrCam. „Chociaż postępy są rzeczywiście imponujące, moim osobistym przekonaniem jest, że nie należy lekceważyć ludzkiej inteligencji” – powiedział w wywiadzie e-mailowym. „Jako gatunek stworzyliśmy niesamowite rzeczy, w tym samą sztuczną inteligencję”.
Poszukiwanie coraz inteligentniejszej sztucznej inteligencji trwa. Ale może lepiej zastanowić się, w jaki sposób kontrolujemy nasze kreacje, zanim będzie za późno.