Kluczowe dania na wynos
- Nowe badania mogą nauczyć roboty, by wyglądały na bardziej ludzkie.
- Naukowcy z MIT opracowali model AI, który rozumie podstawowe relacje między obiektami na scenie i pomaga robotom wykonywać złożone zadania.
-
Coraz więcej robotów zaprojektowano tak, aby zachowywały się jak ludzie.
Roboty nadchodzą, a naukowcy mają plan, aby wyglądały na bardziej ludzkie.
Naukowcy z MIT opracowali model sztucznej inteligencji (AI), który rozumie leżące u podstaw relacje między obiektami na scenie. Ta praca może być zastosowana w sytuacjach, w których roboty muszą wykonywać złożone zadania, takie jak montaż urządzeń. To także przybliża pole o krok do tworzenia maszyn, które mogą uczyć się od otoczenia i wchodzić z nim w interakcję, tak jak robią to ludzie.
„Roboty humanoidalne zaprojektowane z wykorzystaniem technologii sztucznej inteligencji, wykonują szereg ludzkich zadań i pełnią role recepcjonistek, asystentów osobistych, pracowników recepcji i nie tylko w wielu sektorach” – ekspert ds. sztucznej inteligencji Sameer Maskey, profesor informatyki i dyrektor generalny Fusemachines, powiedział Lifewire w wywiadzie e-mailowym. „U podstaw tych niemal ludzkich interakcji leżą algorytmy sztucznej inteligencji, które umożliwiają tym systemom, które zbudowane są tak, aby uczyć się więcej z każdą nową interakcją człowieka”.
Roboty, które rozumieją więcej
Ludzie mogą patrzeć na scenę i widzieć relacje między obiektami, ale modele AI mają problemy z wykonywaniem poleceń. Dzieje się tak, ponieważ nie rozumieją, na przykład, kiedy łopatka znajduje się po lewej stronie pieca.
Szczegółowo opisując swoje wysiłki na rzecz rozwiązania tego problemu, naukowcy z MIT opublikowali niedawno badanie opisujące model, który rozumie leżące u podstaw relacje między obiektami na scenie. Ich model reprezentuje indywidualne relacje pojedynczo, a następnie łączy te reprezentacje, aby opisać całą scenę.
„Kiedy patrzę na stół, nie mogę powiedzieć, że w lokalizacji XYZ znajduje się obiekt”, powiedział Yilun Du, współautor artykułu, w komunikacie prasowym. „Nasze umysły nie działają w ten sposób. W naszych umysłach, kiedy rozumiemy scenę, naprawdę rozumiemy ją w oparciu o relacje między obiektami. Uważamy, że budując system, który może zrozumieć relacje między obiektami, moglibyśmy użyć ten system, aby skuteczniej manipulować i zmieniać nasze środowiska."
Przesuń nad Roombas
Coraz więcej robotów projektuje się tak, by zachowywały się jak ludzie. Na przykład Kime, opracowany przez Macco Robotics, to robot serwujący napoje i jedzenie z inteligentnymi czujnikami, który zarządza zadaniami za pomocą procesów samouczących się i adaptacyjnej interakcji międzyludzkiej dzięki technologii AI.
Istnieje również T-HR3, wprowadzony przez Toyotę, humanoidalny robot trzeciej generacji, który naśladuje ruchy ludzkich operatorów, z możliwością pomocy ludziom w domu, w szpitalach, a nawet na obszarach dotkniętych katastrofą.
Amelia, konwersacyjne rozwiązanie AI, to cyfrowy humanoidalny robot opracowany w celu zapewnienia obsługi klienta podobnej do człowieka. Amelia elastycznie przełącza się między różnymi nieformalnymi kontekstami bez żadnych opóźnień, rozpoznając ludzkie intencje i stany emocjonalne.
Nowe materiały i czujniki nadają nawet robotom „twarz”, która sprawia, że wydają się bardziej realistyczne – powiedziała Lifewire Karen Panetta, profesor inżynierii elektrycznej i komputerowej na Uniwersytecie Tufts i członek IEEE. Postępy w nanotechnologii pozwalają na umieszczenie większej liczby czujników w twarzy robota, aby naśladować mimikę twarzy znacznie dokładniej niż kiedykolwiek wcześniej.
„Mózgi stojące za twarzami robotów wykorzystują moc modeli obliczeniowych wykorzystujących sztuczną inteligencję do przetwarzania wszystkich informacji, które wykrywają” – dodał Panetta.„Takie jak obrazy, dźwięki i warunki środowiskowe, aby pomóc wytrenować robota, aby odpowiednio reagował zarówno na słowa, jak i na działania fizyczne.”
U podstaw tych niemal ludzkich interakcji leżą algorytmy sztucznej inteligencji, które umożliwiają tym systemom…
Jednym z dużych rynków robotów humanoidalnych jest pomoc dla osób starszych. Panetta wyjaśnił, że te pomocnicze roboty mogą monitorować stan zdrowia pacjentów, pobierać parametry życiowe lub udzielać pacjentom wskazówek, jak pomóc w leczeniu leków lub rutynowych czynnościach medycznych. Mogą również monitorować bezpieczeństwo pacjenta i wezwać pomoc, jeśli wykryją, że pacjent upadł, nie poruszył się lub jest w niebezpieczeństwie.
„Sprawianie, że roboty wyglądają jak ludzie, ma sprawić, że interakcja z ludźmi będzie bardziej współczująca, mniej onieśmielająca i, miejmy nadzieję, bardziej angażująca poznawczo dla pacjenta” – dodał Panetta. „Mogą również pomagać pacjentom z demencją w angażowaniu ich w rozmowę i monitorowaniu ich bezpieczeństwa”.
Robotyka ewoluuje, a w przyszłości, wraz z większymi postępami w sztucznej inteligencji, roboty mogą być w stanie prezentować więcej ludzkich cech, powiedział Maskey. Jednak jako ludzie często mamy trudności ze zrozumieniem emocji i oceną reakcji.
„Więc umiejętność wychwytywania tych subtelnych niuansów i emocjonalnych sygnałów jest czymś, nad czym przemysł robotyki będzie pracował przez długi czas” – dodał.