Kluczowe dania na wynos
- Nowe funkcje ułatwień dostępu obejmują napisy na żywo generowane w czasie rzeczywistym dla dowolnego filmu lub rozmowy.
- Jeśli ta funkcja nie jest przeznaczona dla rzekomych okularów AR firmy Apple, zjemy nasz wirtualny kapelusz emoji.
- Apple ma historię testowania przyszłych funkcji produktów na obecnych urządzeniach.
Nowe napisy na żywo firmy Apple dodają napisy w czasie rzeczywistym do wszystkiego, w tym do osoby stojącej przed tobą.
Podobnie jak koncepcja Google AR Glasses, ogłoszona w tym tygodniu. Napisy na żywo firmy Apple umożliwiają natychmiastową transkrypcję przychodzącego dźwięku. Różnica polega na tym, że wersja Apple’a pojawi się „jeszcze w tym roku”, co prawdopodobnie oznacza, że pojawi się w jesiennym wydaniu iOS 16. Ale prawdziwą wiadomością jest to, że jest to najbardziej oczywisty cios Apple podczas testowania przyszłych funkcji okularów Apple w zasięgu wzroku.
„Jako ktoś, kto ma dwoje rodziców, którzy oboje mają problemy ze słyszeniem, może to być bardzo pomocne” – pisze skoncentrowany na Apple dziennikarz Dan Moren na swoim osobistym blogu Six Colors. „Jestem ciekaw, jak dobrze ta funkcja działa i jak obsługuje duże połączenie FaceTime z wieloma uczestnikami; Apple twierdzi, że przypisze dialog do konkretnych głośników”.
Zbieg ręki
Napisy na żywo, do których przejdziemy za sekundę, są dalekie od pierwszej funkcji okularów AR, którą wypróbował Apple. Najbardziej oczywistym jest włączenie kamer LIDAR do iPhone’ów i iPadów. Skanery te pomagają tworzyć dokładną mapę 3D świata na zewnątrz i pozwalają iPhone'owi na nakładanie modeli 3D na rzeczywisty świat pokazywany przez kamerę.
Nie jestem pewien, czy możemy ufać tłumaczeniu na żywo firmy Apple lepiej niż nowym okularom AR Google, ale myślę, że możemy ufać, że konkurencja pomoże uzyskać najlepsze wyniki.
Do tej pory ta technologia była używana do przeglądania nowych komputerów Apple na własnym biurku, grania w gry AR Lego, testowania mebli IKEA w salonie i tak dalej. Sprzęt LIDAR jest tak absurdalnie zbędny w iPhone'ach, że musi tam być tylko po to, aby Apple mógł udoskonalić sprzęt i oprogramowanie dla prawdziwej aplikacji AR: okularów Apple.
To nie tylko wizualna AR. AirPods od lat dodaje fajne funkcje AR. Najnowszy, Spatial Audio, nakłania nasze mózgi do myślenia, że dźwięki dobiegają z otoczenia i jest świetnym sposobem na oglądanie filmów lub słuchanie relaksujących pejzaży dźwiękowych. To świetna funkcja, ale będzie jeszcze lepsza, gdy będzie działać z oczekiwanym przez Apple produktem przyszłych okularów. Możliwość umieszczenia dźwięków w przestrzeni 3D w celu dopasowania do obiektów AR naprawdę sprzeda iluzję.
A co powiesz na Live Text, technologię iOS 15, która rozpoznaje i odczytuje tekst na zdjęciach oraz na żywo za pomocą aparatu iPhone'a? To kolejna funkcja, która idealnie nadaje się do czytania znaków, menu i innego tekstu przez okulary AR.
Napisy na żywo
Napisy na żywo przejmują mowę z połączeń FaceTime, aplikacji do obsługi wideokonferencji, strumieniowego przesyłania wideo i tak dalej. Twój telefon pobiera dźwięk i dokonuje jego transkrypcji w locie, udostępniając napisy, jak pokazano w tym filmie.
To świetnie, ale jeszcze lepsze jest to, że nic nie opuszcza Twojego iPhone'a. Napisy, jak twierdzi Apple, są generowane na urządzeniu, a nie wysyłane na serwer. Jest to nie tylko bardziej prywatne, ale także znacznie szybsze.
„Nie jestem pewien, czy możemy ufać tłumaczeniu na żywo firmy Apple lepiej niż nowym okularom AR Google, ale myślę, że możemy ufać, że konkurencja pomoże uzyskać najlepsze wyniki” – powiedziała Lifewire Kristen Bolig, założycielka SecurityNerd. poprzez e-mail.„Teraz, gdy konkurencja jest publiczna, a problemy związane z tego rodzaju technologią (prywatność, dokładność itp.) są dobrze znane, obie firmy będą nie tylko ścigać się, aby najpierw stworzyć najlepszy produkt, ale także stworzyć produkt, który najlepiej rozwiązuje te problemy."
Spodziewalibyśmy się również pewnego rodzaju wbudowanego automatycznego tłumaczenia, które można teraz uzyskać za pomocą aplikacji Navi innej firmy do automatycznego tłumaczenia rozmów FaceTime, lub być może sposobu na zapisanie tych transkrypcji podczas wywiadów dla łatwiejszy dostęp później.
Od dawna cieszymy się doskonałymi funkcjami ułatwień dostępu oferowanymi przez Apple, które pozwalają nam dostosowywać nasze urządzenia z systemem iOS w niemal absurdalny sposób. Od dostosowywania wyświetlacza, aby kolory i tekst były lepiej widoczne, po sterowanie całym interfejsem użytkownika za pomocą urządzeń zewnętrznych, po powiadamianie przez telefon, gdy ktoś zadzwoni do drzwi lub przyjedzie samochód dostawczy.
Teraz wszyscy czerpiemy korzyści ze wzmożonych badań Apple nad technologią rzeczywistości rozszerzonej. Możemy nie dbać o IKEA ani LEGO, ani nawet nie chcieć kupić pary legendarnych okularów AR firmy Apple, ale to nie znaczy, że nie wszyscy możemy cieszyć się owocami tych badań.