Więcej robotów podobnych do ludzi może prowadzić do lepszych interakcji

Więcej robotów podobnych do ludzi może prowadzić do lepszych interakcji
Więcej robotów podobnych do ludzi może prowadzić do lepszych interakcji
Anonim

Kluczowe dania na wynos

  • Nowe badania mogą nauczyć roboty, by wyglądały na bardziej ludzkie.
  • Naukowcy z MIT opracowali model AI, który rozumie podstawowe relacje między obiektami na scenie i pomaga robotom wykonywać złożone zadania.
  • Coraz więcej robotów zaprojektowano tak, aby zachowywały się jak ludzie.

Image
Image

Roboty nadchodzą, a naukowcy mają plan, aby wyglądały na bardziej ludzkie.

Naukowcy z MIT opracowali model sztucznej inteligencji (AI), który rozumie leżące u podstaw relacje między obiektami na scenie. Ta praca może być zastosowana w sytuacjach, w których roboty muszą wykonywać złożone zadania, takie jak montaż urządzeń. To także przybliża pole o krok do tworzenia maszyn, które mogą uczyć się od otoczenia i wchodzić z nim w interakcję, tak jak robią to ludzie.

„Roboty humanoidalne zaprojektowane z wykorzystaniem technologii sztucznej inteligencji, wykonują szereg ludzkich zadań i pełnią role recepcjonistek, asystentów osobistych, pracowników recepcji i nie tylko w wielu sektorach” – ekspert ds. sztucznej inteligencji Sameer Maskey, profesor informatyki i dyrektor generalny Fusemachines, powiedział Lifewire w wywiadzie e-mailowym. „U podstaw tych niemal ludzkich interakcji leżą algorytmy sztucznej inteligencji, które umożliwiają tym systemom, które zbudowane są tak, aby uczyć się więcej z każdą nową interakcją człowieka”.

Roboty, które rozumieją więcej

Ludzie mogą patrzeć na scenę i widzieć relacje między obiektami, ale modele AI mają problemy z wykonywaniem poleceń. Dzieje się tak, ponieważ nie rozumieją, na przykład, kiedy łopatka znajduje się po lewej stronie pieca.

Szczegółowo opisując swoje wysiłki na rzecz rozwiązania tego problemu, naukowcy z MIT opublikowali niedawno badanie opisujące model, który rozumie leżące u podstaw relacje między obiektami na scenie. Ich model reprezentuje indywidualne relacje pojedynczo, a następnie łączy te reprezentacje, aby opisać całą scenę.

„Kiedy patrzę na stół, nie mogę powiedzieć, że w lokalizacji XYZ znajduje się obiekt”, powiedział Yilun Du, współautor artykułu, w komunikacie prasowym. „Nasze umysły nie działają w ten sposób. W naszych umysłach, kiedy rozumiemy scenę, naprawdę rozumiemy ją w oparciu o relacje między obiektami. Uważamy, że budując system, który może zrozumieć relacje między obiektami, moglibyśmy użyć ten system, aby skuteczniej manipulować i zmieniać nasze środowiska."

Przesuń nad Roombas

Coraz więcej robotów projektuje się tak, by zachowywały się jak ludzie. Na przykład Kime, opracowany przez Macco Robotics, to robot serwujący napoje i jedzenie z inteligentnymi czujnikami, który zarządza zadaniami za pomocą procesów samouczących się i adaptacyjnej interakcji międzyludzkiej dzięki technologii AI.

Istnieje również T-HR3, wprowadzony przez Toyotę, humanoidalny robot trzeciej generacji, który naśladuje ruchy ludzkich operatorów, z możliwością pomocy ludziom w domu, w szpitalach, a nawet na obszarach dotkniętych katastrofą.

Amelia, konwersacyjne rozwiązanie AI, to cyfrowy humanoidalny robot opracowany w celu zapewnienia obsługi klienta podobnej do człowieka. Amelia elastycznie przełącza się między różnymi nieformalnymi kontekstami bez żadnych opóźnień, rozpoznając ludzkie intencje i stany emocjonalne.

Image
Image

Nowe materiały i czujniki nadają nawet robotom „twarz”, która sprawia, że wydają się bardziej realistyczne – powiedziała Lifewire Karen Panetta, profesor inżynierii elektrycznej i komputerowej na Uniwersytecie Tufts i członek IEEE. Postępy w nanotechnologii pozwalają na umieszczenie większej liczby czujników w twarzy robota, aby naśladować mimikę twarzy znacznie dokładniej niż kiedykolwiek wcześniej.

„Mózgi stojące za twarzami robotów wykorzystują moc modeli obliczeniowych wykorzystujących sztuczną inteligencję do przetwarzania wszystkich informacji, które wykrywają” – dodał Panetta.„Takie jak obrazy, dźwięki i warunki środowiskowe, aby pomóc wytrenować robota, aby odpowiednio reagował zarówno na słowa, jak i na działania fizyczne.”

U podstaw tych niemal ludzkich interakcji leżą algorytmy sztucznej inteligencji, które umożliwiają tym systemom…

Jednym z dużych rynków robotów humanoidalnych jest pomoc dla osób starszych. Panetta wyjaśnił, że te pomocnicze roboty mogą monitorować stan zdrowia pacjentów, pobierać parametry życiowe lub udzielać pacjentom wskazówek, jak pomóc w leczeniu leków lub rutynowych czynnościach medycznych. Mogą również monitorować bezpieczeństwo pacjenta i wezwać pomoc, jeśli wykryją, że pacjent upadł, nie poruszył się lub jest w niebezpieczeństwie.

„Sprawianie, że roboty wyglądają jak ludzie, ma sprawić, że interakcja z ludźmi będzie bardziej współczująca, mniej onieśmielająca i, miejmy nadzieję, bardziej angażująca poznawczo dla pacjenta” – dodał Panetta. „Mogą również pomagać pacjentom z demencją w angażowaniu ich w rozmowę i monitorowaniu ich bezpieczeństwa”.

Robotyka ewoluuje, a w przyszłości, wraz z większymi postępami w sztucznej inteligencji, roboty mogą być w stanie prezentować więcej ludzkich cech, powiedział Maskey. Jednak jako ludzie często mamy trudności ze zrozumieniem emocji i oceną reakcji.

„Więc umiejętność wychwytywania tych subtelnych niuansów i emocjonalnych sygnałów jest czymś, nad czym przemysł robotyki będzie pracował przez długi czas” – dodał.

Zalecana: