Więcej robotów podobnych do ludzi może prowadzić do lepszych interakcji

Spisu treści:

Więcej robotów podobnych do ludzi może prowadzić do lepszych interakcji
Więcej robotów podobnych do ludzi może prowadzić do lepszych interakcji
Anonim

Kluczowe dania na wynos

  • Nowe badania mogą nauczyć roboty, by wyglądały na bardziej ludzkie.
  • Naukowcy z MIT opracowali model AI, który rozumie podstawowe relacje między obiektami na scenie i pomaga robotom wykonywać złożone zadania.
  • Coraz więcej robotów zaprojektowano tak, aby zachowywały się jak ludzie.

Image
Image

Roboty nadchodzą, a naukowcy mają plan, aby wyglądały na bardziej ludzkie.

Naukowcy z MIT opracowali model sztucznej inteligencji (AI), który rozumie leżące u podstaw relacje między obiektami na scenie. Ta praca może być zastosowana w sytuacjach, w których roboty muszą wykonywać złożone zadania, takie jak montaż urządzeń. To także przybliża pole o krok do tworzenia maszyn, które mogą uczyć się od otoczenia i wchodzić z nim w interakcję, tak jak robią to ludzie.

„Roboty humanoidalne zaprojektowane z wykorzystaniem technologii sztucznej inteligencji, wykonują szereg ludzkich zadań i pełnią role recepcjonistek, asystentów osobistych, pracowników recepcji i nie tylko w wielu sektorach” – ekspert ds. sztucznej inteligencji Sameer Maskey, profesor informatyki i dyrektor generalny Fusemachines, powiedział Lifewire w wywiadzie e-mailowym. „U podstaw tych niemal ludzkich interakcji leżą algorytmy sztucznej inteligencji, które umożliwiają tym systemom, które zbudowane są tak, aby uczyć się więcej z każdą nową interakcją człowieka”.

Roboty, które rozumieją więcej

Ludzie mogą patrzeć na scenę i widzieć relacje między obiektami, ale modele AI mają problemy z wykonywaniem poleceń. Dzieje się tak, ponieważ nie rozumieją, na przykład, kiedy łopatka znajduje się po lewej stronie pieca.

Szczegółowo opisując swoje wysiłki na rzecz rozwiązania tego problemu, naukowcy z MIT opublikowali niedawno badanie opisujące model, który rozumie leżące u podstaw relacje między obiektami na scenie. Ich model reprezentuje indywidualne relacje pojedynczo, a następnie łączy te reprezentacje, aby opisać całą scenę.

„Kiedy patrzę na stół, nie mogę powiedzieć, że w lokalizacji XYZ znajduje się obiekt”, powiedział Yilun Du, współautor artykułu, w komunikacie prasowym. „Nasze umysły nie działają w ten sposób. W naszych umysłach, kiedy rozumiemy scenę, naprawdę rozumiemy ją w oparciu o relacje między obiektami. Uważamy, że budując system, który może zrozumieć relacje między obiektami, moglibyśmy użyć ten system, aby skuteczniej manipulować i zmieniać nasze środowiska."

Przesuń nad Roombas

Coraz więcej robotów projektuje się tak, by zachowywały się jak ludzie. Na przykład Kime, opracowany przez Macco Robotics, to robot serwujący napoje i jedzenie z inteligentnymi czujnikami, który zarządza zadaniami za pomocą procesów samouczących się i adaptacyjnej interakcji międzyludzkiej dzięki technologii AI.

Istnieje również T-HR3, wprowadzony przez Toyotę, humanoidalny robot trzeciej generacji, który naśladuje ruchy ludzkich operatorów, z możliwością pomocy ludziom w domu, w szpitalach, a nawet na obszarach dotkniętych katastrofą.

Amelia, konwersacyjne rozwiązanie AI, to cyfrowy humanoidalny robot opracowany w celu zapewnienia obsługi klienta podobnej do człowieka. Amelia elastycznie przełącza się między różnymi nieformalnymi kontekstami bez żadnych opóźnień, rozpoznając ludzkie intencje i stany emocjonalne.

Image
Image

Nowe materiały i czujniki nadają nawet robotom „twarz”, która sprawia, że wydają się bardziej realistyczne – powiedziała Lifewire Karen Panetta, profesor inżynierii elektrycznej i komputerowej na Uniwersytecie Tufts i członek IEEE. Postępy w nanotechnologii pozwalają na umieszczenie większej liczby czujników w twarzy robota, aby naśladować mimikę twarzy znacznie dokładniej niż kiedykolwiek wcześniej.

„Mózgi stojące za twarzami robotów wykorzystują moc modeli obliczeniowych wykorzystujących sztuczną inteligencję do przetwarzania wszystkich informacji, które wykrywają” – dodał Panetta.„Takie jak obrazy, dźwięki i warunki środowiskowe, aby pomóc wytrenować robota, aby odpowiednio reagował zarówno na słowa, jak i na działania fizyczne.”

U podstaw tych niemal ludzkich interakcji leżą algorytmy sztucznej inteligencji, które umożliwiają tym systemom…

Jednym z dużych rynków robotów humanoidalnych jest pomoc dla osób starszych. Panetta wyjaśnił, że te pomocnicze roboty mogą monitorować stan zdrowia pacjentów, pobierać parametry życiowe lub udzielać pacjentom wskazówek, jak pomóc w leczeniu leków lub rutynowych czynnościach medycznych. Mogą również monitorować bezpieczeństwo pacjenta i wezwać pomoc, jeśli wykryją, że pacjent upadł, nie poruszył się lub jest w niebezpieczeństwie.

„Sprawianie, że roboty wyglądają jak ludzie, ma sprawić, że interakcja z ludźmi będzie bardziej współczująca, mniej onieśmielająca i, miejmy nadzieję, bardziej angażująca poznawczo dla pacjenta” – dodał Panetta. „Mogą również pomagać pacjentom z demencją w angażowaniu ich w rozmowę i monitorowaniu ich bezpieczeństwa”.

Robotyka ewoluuje, a w przyszłości, wraz z większymi postępami w sztucznej inteligencji, roboty mogą być w stanie prezentować więcej ludzkich cech, powiedział Maskey. Jednak jako ludzie często mamy trudności ze zrozumieniem emocji i oceną reakcji.

„Więc umiejętność wychwytywania tych subtelnych niuansów i emocjonalnych sygnałów jest czymś, nad czym przemysł robotyki będzie pracował przez długi czas” – dodał.

Zalecana: