Jak halucynacje mogą pomóc AI lepiej Cię zrozumieć

Spisu treści:

Jak halucynacje mogą pomóc AI lepiej Cię zrozumieć
Jak halucynacje mogą pomóc AI lepiej Cię zrozumieć
Anonim

Kluczowe dania na wynos

  • Nowy model uczenia maszynowego halucynuje obraz wyglądu zdania w języku, aby ułatwić tłumaczenie.
  • System sztucznej inteligencji, zwany VALHALLA, został zaprojektowany, aby naśladować sposób, w jaki ludzie postrzegają język.
  • Nowy system jest częścią rosnącego ruchu na rzecz wykorzystania sztucznej inteligencji do zrozumienia języka.
Image
Image

Ludzka metoda wizualizacji obrazów podczas tłumaczenia słów może pomóc sztucznej inteligencji (AI) lepiej Cię zrozumieć.

Nowy model uczenia maszynowego daje halucynację obrazu tego, jak zdanie wygląda w języku. Według niedawnego artykułu badawczego technika wykorzystuje wizualizację i inne wskazówki, aby pomóc w tłumaczeniu. To część rozwijającego się ruchu na rzecz wykorzystania sztucznej inteligencji do zrozumienia języka.

„Sposób, w jaki ludzie mówią i piszą, jest wyjątkowy, ponieważ wszyscy mamy nieco inne tony i style” – powiedziała Lifewire Beth Cudney, profesor analityki danych na Uniwersytecie Maryville, która nie była zaangażowana w badania.. „Zrozumienie kontekstu jest trudne, ponieważ przypomina radzenie sobie z nieustrukturyzowanymi danymi. Tutaj przydatne jest przetwarzanie języka naturalnego (NLP)., jako gałąź sztucznej inteligencji, nie skupia się po prostu na dosłownym znaczeniu słów, które wypowiadamy lub piszemy. Analizuje znaczenie."

Idź Zapytaj Alicję

Nowy system sztucznej inteligencji o nazwie VALHALLA, stworzony przez naukowców z MIT, IBM i Uniwersytetu Kalifornijskiego w San Diego, został zaprojektowany, aby naśladować sposób, w jaki ludzie postrzegają język. Według naukowców wykorzystanie informacji sensorycznych, takich jak multimedia, w połączeniu z nowymi i nieznanymi słowami, takimi jak fiszki z obrazami, poprawia przyswajanie i zapamiętywanie języka.

Te systemy zwiększają moc chatbotów, które są obecnie tylko przeszkolone i zdolne do prowadzenia konkretnych rozmów…

Zespół twierdzi, że ich metoda poprawia dokładność tłumaczenia maszynowego w porównaniu z tłumaczeniem samego tekstu. Naukowcy wykorzystali architekturę kodera-dekodera z dwoma transformatorami, rodzaj modelu sieci neuronowej dostosowanej do danych zależnych od sekwencji, takich jak język, który może zwracać uwagę na słowa kluczowe i semantykę zdania. Jeden transformator generuje halucynacje wzrokowe, a drugi wykonuje translację multimodalną, wykorzystując dane wyjściowe z pierwszego transformatora.

„W rzeczywistych scenariuszach możesz nie mieć obrazu w odniesieniu do zdania źródłowego”, powiedział w komunikacie prasowym Rameswar Panda, jeden z członków zespołu badawczego. „Naszą motywacją było więc w zasadzie: zamiast używania zewnętrznego obrazu podczas wnioskowania jako danych wejściowych, czy możemy użyć halucynacji wzrokowej – zdolności wyobrażania sobie scen wizualnych – do ulepszenia systemów tłumaczenia maszynowego?”

Zrozumienie AI

Rozważne badania koncentrują się na rozwoju NLP, zauważył Cudney. Na przykład Elon Musk jest współzałożycielem Open AI, który pracuje nad GPT-3, modelem, który może rozmawiać z człowiekiem i jest wystarczająco bystry, aby generować kod oprogramowania w Pythonie i Javie.

Google i Meta pracują również nad rozwojem konwersacyjnej sztucznej inteligencji za pomocą swojego systemu o nazwie LAMDA. „Systemy te zwiększają moc chatbotów, które są obecnie tylko przeszkolone i zdolne do prowadzenia konkretnych rozmów, co prawdopodobnie zmieni oblicze obsługi klienta i punktów pomocy” – powiedział Cudney.

Aaron Sloman, współzałożyciel CLIPr, firmy zajmującej się technologiami AI, powiedział w e-mailu, że duże modele językowe, takie jak GPT-3, mogą uczyć się na bardzo niewielu przykładach szkoleniowych, aby poprawić streszczenia tekstu na podstawie opinii ludzi. Na przykład, powiedział, możesz zadać dużemu modelowi językowemu problem matematyczny i poprosić sztuczną inteligencję, aby myślała krok po kroku.

„Możemy oczekiwać, że z dużych modeli językowych uzyskamy więcej wglądu i rozumowania, gdy dowiemy się więcej o ich zdolnościach i ograniczeniach” – dodał Sloman. „Spodziewam się również, że te modele językowe stworzą bardziej podobne do człowieka procesy, ponieważ modelarze opracowują lepsze sposoby dostrajania modeli do konkretnych interesujących zadań”.

Profesor informatyki Georgia Tech, Diyi Yang, przewidział w wywiadzie e-mailowym, że zobaczymy większe wykorzystanie systemów przetwarzania języka naturalnego (NLP) w naszym codziennym życiu, począwszy od spersonalizowanych asystentów opartych na NLP po pomoc przy e-mailach i rozmowach telefonicznych, do kompetentnych systemów dialogowych do wyszukiwania informacji w podróży lub opiece zdrowotnej.„A także sprawiedliwe systemy sztucznej inteligencji, które mogą wykonywać zadania i pomagać ludziom w odpowiedzialny i wolny od uprzedzeń sposób” – dodał Yang.

Ogromne modele sztucznej inteligencji wykorzystujące biliony parametrów, takich jak GPT-3 i DeepText, będą nadal dążyć do jednego modelu dla wszystkich aplikacji językowych, przewiduje Stephen Hage, inżynier uczenia maszynowego w firmie Dialexa, w rozmowie e-mailowej. Powiedział, że pojawią się również nowe typy modeli stworzonych do konkretnych zastosowań, takich jak zakupy online sterowane głosem.

Przykładem może być klient mówiący 'Pokaż mi ten cień do powiek w kolorze ciemnoniebieskim z większą ilością halo', aby pokazać ten odcień na oczach osoby z pewną kontrolą nad sposobem jego nałożenia”, dodał Hage.

Zalecana: