Kluczowe dania na wynos
- Snap planuje zintegrować opaskę na głowę z produktami rzeczywistości rozszerzonej, która pozwoli Ci sterować komputerem za pomocą myśli.
- Eksperci ostrzegają, że technologia interfejsu mózg-maszyna może powodować problemy z prywatnością.
- Interfejsy mózg-komputer również mogą pomóc osobom niepełnosprawnym.
Być może niedługo będziesz w stanie zrezygnować z ręcznych kontrolerów, aby sterować swoim umysłem zestawem słuchawkowym rzeczywistości rozszerzonej (AR), ale eksperci ostrzegają, że ta technologia może spowodować problemy z prywatnością.
Snap, firma stojąca za Snapchatem, przejęła neurotechnologiczny startup, którego opaska na głowę pozwala użytkownikowi kontrolować komputer za pomocą swoich myśli. Firma planuje zintegrować opaskę z trwającymi badaniami nad produktami rozszerzonej rzeczywistości (AR).
„Użycie myśli neuronowych, które można przełożyć na bezpośrednie polecenia, ma ogromne znaczenie dla aplikacji (i prywatności), ponieważ usunięcie elementu sprzętowego obniża całkowity koszt posiadania, aby umożliwić korzystanie z AR/VR”, Mark Vena, dyrektor generalny Firma konsultingowa SmartTech Research, powiedziała Lifewire w wywiadzie e-mailowym.
Czytnik myśli
NextMind to firma z siedzibą w Paryżu, znana z stworzenia malutkiego interfejsu mózg-komputer (BCI) o wartości 400 dolarów. W poście ogłoszonym Snap mówi, że NextMind pomoże w prowadzeniu „długoterminowych badań nad rzeczywistością rozszerzoną w Snap Lab”, zespołu sprzętowego firmy, który obecnie buduje urządzenia AR.
„Programy Snap Lab badają możliwości dla przyszłości Snap Camera, w tym Spectacles”, napisała firma.„Okulary to ewoluujący, iteracyjny projekt badawczo-rozwojowy, a najnowsza generacja została zaprojektowana, aby wspierać programistów w odkrywaniu technicznych granic rzeczywistości rozszerzonej”.
Najnowsze Spectacles Snap obejmują wyświetlacze do AR w czasie rzeczywistym, rozpoznawanie głosu, optyczne śledzenie dłoni i montowany z boku panel dotykowy do wyboru interfejsu użytkownika. Rzeczywistość rozszerzona to interaktywne doświadczenie rzeczywistego środowiska, w którym obiekty w świecie rzeczywistym są wzbogacane o informacje generowane komputerowo.
Vena nazwała funkcję NextMind „wczesnym prototypem, który pokazuje, co jest możliwe, i będzie w dużym stopniu zależny od silnej społeczności programistów, aby zbudować użyteczne i praktyczne aplikacje”. Powiedział, że nie spodziewa się działającego zestawu słuchawkowego AR sterowanego umysłem przez co najmniej 2 do 3 lat.
„Istnieją również drażliwe kwestie prywatności, które nieuchronnie będą musiały zostać rozwiązane, ponieważ konsumenci z pewnością nie będą lubili nieautoryzowanego monitorowania swoich fal neuronowych” – dodał Vena.
Nowa fala
Gabe Newell, współzałożyciel i prezes Valve, powiedział, że firma pracuje nad rozwojem oprogramowania interfejsu mózg-komputer o otwartym kodzie źródłowym. Jednym z możliwych zastosowań tej technologii byłoby umożliwienie ludziom większej łączności z oprogramowaniem do gier.
Interfejsy mózg-komputer mogą również pomóc osobom niepełnosprawnym. Na przykład urządzenie opracowane przez naukowców z Uniwersytetu w Tybindze w Niemczech pozwoliło niedawno 37-letniemu całkowicie sparaliżowanemu mężczyźnie komunikować się z rodziną. Po 107 dniach treningu pacjent nauczył się formułować zdania. W dniu 245 wypowiedział: „wili ch tool balbum mal laut hoerenzn”, które naukowcy przetłumaczyli z niemieckiego na „Chciałbym głośno posłuchać albumu Tool”.
Wykorzystywanie myśli neuronowych, które można przełożyć na bezpośrednie polecenia, ma ogromne znaczenie (i implikacje dla prywatności)…
Amir Bozorgzadeh, dyrektor generalny firmy VR Virtuleap, powiedział w e-mailowym wywiadzie, że można podzielić użyteczność doświadczeń VR opartych na EEG/falach mózgowych na dwie kategorie: pasywną i aktywną. Narzędzie pasywne jest widoczne, gdy pozwala immersyjnym doświadczeniom na automatyczne dostosowanie się do maksymalnego komfortu użytkownika i ustawień dostępności określonego użytkownika, tak aby na przykład rozmiar czcionki, kolor i ustawienia głośności można było dostosować bez konieczności ręcznego robienia tego przez użytkownika to same.
W przyszłości interfejs mózgu może umożliwić takie funkcje, jak dostosowywanie intensywności doświadczenia do poziomu preferencji użytkownika pod względem poziomu stresu i obciążenia poznawczego, powiedział Bozorgzadeh. A użytkownik może poruszać się po swoich wirtualnych awatarach i środowiskach za pomocą swoich myśli, bez konieczności fizycznego udziału w doświadczeniu.
„Wyobraź sobie Neo na końcu oryginalnego filmu Matrix i jak potrafił naginać czas i przestrzeń do woli jak bóg”, powiedział Bozorgzadeh. „To jest wewnętrzny potencjał doświadczeń opartych na neuronauce w kontekście VR i AR.”