Czy sztuczna inteligencja może nas nauczyć być bardziej ludzkim?

Spisu treści:

Czy sztuczna inteligencja może nas nauczyć być bardziej ludzkim?
Czy sztuczna inteligencja może nas nauczyć być bardziej ludzkim?
Anonim

Kluczowe dania na wynos

  • Programy sztucznej inteligencji, takie jak Cogito, próbują nauczyć ludzi empatii w kontaktach z klientami.
  • Eksperci nie zgadzają się co do tego, czy maszyna może uczyć ludzi empatii, czy po prostu znajduje punkty danych.
  • Niektórzy eksperci obawiają się również, że nauczanie empatii AI może pozbawić ludzkość tej emocji.
Image
Image

Wyobraź sobie, że pracujesz w call center, a klient dzwoni. Odpowiadasz i od razu wszystko zaczyna się źle układać. Klient jest zły, napięcie rośnie.

Zaczynasz mówić rzeczy, których możesz później żałować. Nagle na ekranie komputera pojawia się komunikat. "Wskazówka empatii - Pomyśl o tym, jak czuje się klient. Spróbuj się powiązać."

To nie jest prawdziwa osoba, która mówi Ci, co masz robić. To wiadomość od Cogito, programu wykorzystującego sztuczną inteligencję, który ma pomóc pracownikom wczuć się w sfrustrowanych rozmówców i zwiększyć wydajność. Cogito jest jednym z rosnącej liczby programów AI, które próbują nauczyć ludzi empatii.

Tu jest oczywista ironia. Naukowcy od dziesięcioleci próbują stworzyć bardziej realistyczne komputery. Teraz maszyny mówią nam, jak się zachować. Ale czy oprogramowanie naprawdę może nauczyć nas, jak być bardziej empatycznym? Jest to problem, który może mieć poważne implikacje, ponieważ sztuczna inteligencja zaczyna przenikać do codziennego życia.

AI naśladuje ludzkie zachowanie

Z technicznego punktu widzenia jasne jest, że sztuczna inteligencja może wyłapać wskazówki na temat tego, jak ludzie się czują i przekazywać informacje zwrotne.

„Systemy sztucznej inteligencji i uczenia maszynowego są bardzo dobre w znajdowaniu wzorców w danych”, powiedział Adam Poliak, doktor habilitowany informatyki w Barnard College, w wywiadzie e-mailowym.

"Jeśli damy AI wiele przykładów empatycznego tekstu, AI może odkryć wzorce i wskazówki, które wywołują lub demonstrują empatię."

AI może być zaprogramowana tak, aby przełamać niektóre z ludzkich zachowań, które towarzyszą empatii i przypominać ludziom, aby je wykonywali, ale to nie jest nauczanie empatii.

AI, która analizuje ludzkie reakcje, może pomóc wypełnić rosnącą przepaść między ludźmi, gdy komunikujemy się cyfrowo, powiedział Bret Greenstein, ekspert ds. AI w Cognizant Digital Business, w wywiadzie e-mailowym.

„W ciągu ostatniego roku wideo, głos i przesyłanie wiadomości w czasie rzeczywistym rosły szybciej, niż ktokolwiek mógł sobie wyobrazić, a wraz z tym pojawiły się ogromne wyzwania w tworzeniu prawdziwie empatycznych relacji bez faktycznego spędzania czasu z ludźmi” dodano.

AI może pomóc w analizie i ocenie cech, takich jak ton i emocje w mowie, powiedział Greenstein. „Może to pomóc osobie odbierającej komunikaty w lepszym zrozumieniu, o co chodziło, i pomaga tej osobie „mówić” poprzez pokazanie, w jaki sposób można interpretować wiadomości” – dodał.

Podczas gdy firmy spieszą się, aby zarobić na oprogramowaniu szkoleniowym AI, takim jak Cogito, pytanie, czy sztuczna inteligencja może uczyć ludzi empatii, pozostaje otwarte. A odpowiedź może mieć tyle wspólnego z filozofią, co z technologią.

Ilia Delio jest teologiem z Uniwersytetu Villanova, którego praca koncentruje się na przecięciu wiary i nauki. Wierzy, że sztuczna inteligencja może uczyć empatii.

Image
Image

Delio zwrócił uwagę, że zespół z MIT zbudował roboty, które potrafią naśladować ludzkie emocje, takie jak szczęście, smutek i współczucie. „Podczas gdy emocje robota są zaprogramowane, roboty mogą wchodzić w interakcje z ludźmi, a tym samym ustanawiać lub wzmacniać wzorce neuronowe” – powiedziała.

Czy maszyna może zrozumieć empatię?

Eksperci definiują co najmniej trzy formy empatii, wszystkie obejmują zdolność rozumienia i odnoszenia się do innej osoby, powiedziała Karla Erickson, socjolog z Grinnell College w stanie Iowa i autorka książki Messy Humans: A Sociology of Relacje człowiek/maszyna, który bada nasze relacje z technologią.

„Nawiązywanie relacji nie jest czymś, co może zrobić sztuczna inteligencja i jest podstawą empatii” – powiedział Erickson w wywiadzie e-mailowym.

"AI może być zaprogramowana, aby rozkładać niektóre ludzkie zachowania, które towarzyszą empatii i przypominać ludziom, aby je wykonywali, ale to nie jest uczenie empatii. konieczny kontekst do odniesienia - przez to rozumiem, że "życie" AI nie obejmuje straty, tęsknoty, nadziei, bólu ani śmierci."

Jednak eksperci spierają się o to, czy sztuczna inteligencja może nauczyć nas empatii. Częściowo problem polega na tym, że nie wszyscy zgadzają się, co w ogóle oznacza „empatia” lub „sztuczna inteligencja”. Termin „sztuczna inteligencja” jest często rzucany, ale obecnie nie jest to rodzaj inteligencji, o której myślimy jako o człowieku.

To czysta praca inżynierska i nie mam złudzeń, że ta sztuczna inteligencja sama ma emocje lub naprawdę je rozumie.

„Wskazówki dotyczące empatii” nie mają nic wspólnego z empatią – powiedział Michael Spezio, profesor psychologii, neuronauki i data science w Scripps College, w wywiadzie e-mailowym.

"Są śladami głosów, które ludzie oceniający zaklasyfikowali jako głosy ludzi, którzy są zirytowani/zirytowani. Więc to po prostu wykorzystanie ludzkiej wiedzy w modelu matematycznym, a następnie twierdzenie, że model oparty na ludzkiej wiedzy jest inteligentne. Takie ograniczone podejścia do uczenia maszynowego są często reklamowane jako sztuczna inteligencja bez bycia inteligentnym."

W Rensselaer Polytechnic Institute laboratorium Selmera Bringsjorda buduje matematyczne modele ludzkich emocji. Badania mają na celu stworzenie sztucznej inteligencji, która może uzyskać wysokie wyniki w testach inteligencji emocjonalnej i zastosować je do ludzi. Jednak Bringsjord, ekspert od sztucznej inteligencji, twierdzi, że każde nauczanie, które prowadzi sztuczna inteligencja, jest nieumyślne.

„Ale to czysta praca inżynierska i nie mam złudzeń, że wspomniana sztuczna inteligencja sama ma emocje lub naprawdę je rozumie” – powiedział w wywiadzie e-mailowym.

Co może pójść nie tak?

Podczas gdy firmy takie jak Cogito widzą świetlaną przyszłość w zakresie szkolenia ludzi ze sztucznej inteligencji, inni obserwatorzy są bardziej ostrożni.

Supportiv, internetowa usługa zdrowia psychicznego, wykorzystuje sztuczną inteligencję do kierowania każdego użytkownika w czasie rzeczywistym na podstawie dowolnej myśli, którą wyraża, do grupy wsparcia rówieśników zajmującej się konkretnym tematem, która dynamicznie zbiera się dla użytkowników z podobnymi problemami.

Image
Image

Każda grupa ma „super-potężnego” moderatora, który utrzymuje czat tekstowy bezpieczny i wolny od trolli i może pojawiać się ponownie za pośrednictwem sztucznej inteligencji, odpowiednich zasobów, rekomendacji i skierowań bezpośrednio do rozmowy grupowej. Korzystając ze sztucznej inteligencji, Supportiv szkoli swoich moderatorów, aby byli biegli w dostrzeganiu intensywności potrzeb emocjonalnych.

„Empatia to mięsień, który budujemy”, powiedziała Zara Dana, analityk danych w Supportiv, w wywiadzie e-mailowym.

Jeśli zaczniemy używać kul do chodzenia, nasze mięśnie ulegną atrofii. Nie mogę się powstrzymać od zastanawiania się, czy pracownik niesamodzielny czułby się pewnie, gdyby pewnego dnia system sztucznej inteligencji nie był dostępny? Czy jest w stanie to zrobić skutecznie pracować? Jakie są długoterminowe skutki dla pracowników? Jak radziliby sobie w złożonych sytuacjach społecznych, w których nie ma sztucznej inteligencji?”

Nawet jeśli używanie sztucznej inteligencji do uczenia empatii działa, co się stanie, gdy zaczniemy zbytnio polegać na sztucznej inteligencji, aby trenować emocje? Jedną z możliwych wad jest to, że ludzie mogą być bardziej przywiązani do robotów niż do innych ludzi, ponieważ roboty nie mogą wybrać przeciwko swojemu programowi, zauważył Delio.

„Ludzka zdolność do wolnej woli stawia ludzką wolę w bardziej niejednoznacznej sytuacji” – powiedział Delio. „Człowiek może być współczujący jednego dnia i bezwzględny następnego; robot będzie konsekwentnie współczujący, chyba że zostanie przeszkolony, aby robić inaczej.”

Wiele rzeczy może pójść nie tak, jeśli sztuczna inteligencja uczy ludzi, jak zachowywać się jak ludzie, mówią eksperci.

Wyewoluowaliśmy, aby być zwierzętami społecznymi, a nasza empatia jest kluczowa dla naszej zdolności do łączenia się z innymi i dbania o kolektywy, do których należymy.

„Bez ludzkiego nadzoru uczeń może nauczyć się czegoś absolutnie szalonego”, powiedział Bringsjord.

"Ton i ton głosu są tylko korelacjami behawioralnymi, bez żadnej treści. Dolary do pączków mój głos podczas nauczania w klasie byłby czytany przez wielu… jako wskazanie, że jestem zdenerwowany, podczas gdy w rzeczywistości, ja' m po prostu namiętny i najmniej potrzebujący empatii."

Jeśli trening AI ludzi rozkwitnie, możemy zacząć na nim polegać. A to niekoniecznie jest dobre.

„Ten trening dewaluuje ludzkie umiejętności, które są znaczne, i przenosi uwagę na sztuczną inteligencję, tak jakby to oni byli ekspertami” – powiedział Erickson.„Wyewoluowaliśmy, aby stać się zwierzętami społecznymi, a nasza empatia ma kluczowe znaczenie dla naszej zdolności do łączenia się z innymi i dbania o kolektywy, do których należymy”.

Zalecana: