Kluczowe dania na wynos
- Naukowcy stworzyli techniki, które pozwalają użytkownikom oceniać wyniki zachowania modelu uczenia maszynowego.
- Eksperci twierdzą, że metoda pokazuje, że maszyny doganiają ludzkie zdolności myślenia.
- Postępy w sztucznej inteligencji mogą przyspieszyć rozwój zdolności komputerów do rozumienia języka i zrewolucjonizować sposób interakcji sztucznej inteligencji i ludzi.
Nowa technika, która mierzy siłę rozumowania sztucznej inteligencji (AI) pokazuje, że maszyny doganiają ludzi w ich zdolnościach myślenia, twierdzą eksperci.
Naukowcy z MIT i IBM Research stworzyli metodę, która umożliwia użytkownikowi klasyfikowanie wyników zachowania modelu uczenia maszynowego. Ich technika, zwana Wspólnym zainteresowaniem, obejmuje metryki, które porównują, jak dobrze myślenie modelu pasuje do myślenia ludzi.
„Obecnie sztuczna inteligencja jest w stanie osiągnąć (a w niektórych przypadkach przewyższyć) ludzką wydajność w określonych zadaniach, w tym rozpoznawanie obrazów i rozumienie języka”, Pieter Buteneers, dyrektor ds. inżynierii uczenia maszynowego i sztucznej inteligencji w komunikacji firma Sinch, powiedziała Lifewire w wywiadzie e-mailowym. „Dzięki przetwarzaniu języka naturalnego (NLP) systemy AI mogą interpretować, pisać i mówić językami tak samo, jak ludzie, a sztuczna inteligencja może nawet dostosować swój dialekt i ton, aby dostosować się do swoich ludzkich odpowiedników”.
Sztuczna inteligencja
AI często daje wyniki bez wyjaśniania, dlaczego te decyzje są prawidłowe. A narzędzia, które pomagają ekspertom zrozumieć rozumowanie modelu, często dostarczają tylko wglądu, tylko jednego przykładu na raz. Sztuczna inteligencja jest zwykle szkolona przy użyciu milionów danych wejściowych, co utrudnia człowiekowi ocenę wystarczającej liczby decyzji w celu zidentyfikowania wzorców.
W niedawnym artykule naukowcy stwierdzili, że wspólne zainteresowanie może pomóc użytkownikowi odkryć trendy w podejmowaniu decyzji przez model. Te spostrzeżenia mogą pozwolić użytkownikowi zdecydować, czy model jest gotowy do wdrożenia.
„Przy opracowywaniu wspólnego zainteresowania, naszym celem jest umożliwienie skalowania tego procesu analizy, tak abyś mógł zrozumieć na bardziej globalnym poziomie, jakie jest zachowanie twojego modelu”, Angie Boggust, współautorka artykułu, powiedział w komunikacie prasowym.
Wspólne zainteresowanie wykorzystuje technikę, która pokazuje, w jaki sposób model uczenia maszynowego podjął określoną decyzję, znaną jako metody istotności. Jeśli model klasyfikuje obrazy, metody istotności wyróżniają obszary obrazu, które są ważne dla modelu podczas podejmowania decyzji. Wspólny interes polega na porównaniu metod istotności z adnotacjami generowanymi przez człowieka.
Naukowcy wykorzystali Wspólne zainteresowanie, aby pomóc dermatologowi określić, czy powinien zaufać modelowi uczenia maszynowego zaprojektowanemu do diagnozowania raka na podstawie zdjęć zmian skórnych. Wspólne zainteresowanie umożliwiło dermatologowi szybkie zapoznanie się z przykładami poprawnych i błędnych prognoz modelu. Dermatolog uznał, że nie może ufać modelowi, ponieważ zawierał zbyt wiele przewidywań na podstawie artefaktów obrazu, a nie rzeczywistych zmian.
„Wartość polega na tym, że korzystając ze wspólnego zainteresowania, jesteśmy w stanie zobaczyć, jak te wzorce pojawiają się w zachowaniu naszego modelu. W ciągu około pół godziny dermatolog był w stanie zdecydować, czy zaufać modelowi i czy go wdrożyć” – powiedział Boggust.
Rozumowanie stojące za decyzją modelu jest ważne zarówno dla badacza uczenia maszynowego, jak i decydenta.
Pomiar postępu
Praca naukowców z MIT może być znaczącym krokiem naprzód dla postępu AI w kierunku inteligencji na poziomie człowieka, Ben Hagag, szef badań w Darrow, firmie wykorzystującej algorytmy uczenia maszynowego, powiedział, że powiedział Lifewire w wywiadzie e-mail.
„Rozumowanie stojące za decyzją modelu jest ważne zarówno dla badacza uczenia maszynowego, jak i decydenta” – powiedział Hagag. „Pierwszy chce zrozumieć, jak dobry jest model i jak można go ulepszyć, podczas gdy drugi chce rozwinąć poczucie zaufania do modelu, więc muszą zrozumieć, dlaczego przewidziano ten wynik”.
Ale Hagag ostrzegł, że badania MIT opierają się na założeniu, że rozumiemy lub możemy opisywać ludzkie rozumienie lub ludzkie rozumowanie.
„Jednak istnieje możliwość, że może to nie być dokładne, więc konieczna jest dalsza praca nad zrozumieniem procesu podejmowania decyzji przez ludzi” – dodał Hagag.
Postępy w sztucznej inteligencji mogą przyspieszyć rozwój zdolności komputerów do rozumienia języka i zrewolucjonizować sposób interakcji sztucznej inteligencji i ludzi, powiedział Buteneers. Chatboty mogą jednocześnie rozumieć setki języków, a asystenci AI mogą skanować treść tekstu w poszukiwaniu odpowiedzi na pytania lub nieprawidłowości.
„Niektóre algorytmy mogą nawet identyfikować, kiedy wiadomości są fałszywe, co może pomóc firmom i konsumentom w wyeliminowaniu spamu” – dodał Buteneers.
Ale, powiedzieli Buteneerzy, sztuczna inteligencja wciąż popełnia pewne błędy, których ludzie nigdy by nie popełnili. „Chociaż niektórzy obawiają się, że sztuczna inteligencja zastąpi ludzkie miejsca pracy, w rzeczywistości zawsze będziemy potrzebować ludzi współpracujących z botami AI, aby pomóc im utrzymać je w ryzach i utrzymać te błędy na dystans, jednocześnie zachowując ludzki kontakt w biznesie” – dodał.