Belangrijkste afhaalrestaurants
- Nieuwe toegankelijkheidsfuncties zijn onder meer Live Captions die in re altime worden gegenereerd, voor elke video of elk gesprek.
- Als deze functie niet is gemaakt voor de AR-bril van Apple, zullen we onze virtuele emoji-hoed opeten.
- Apple heeft een geschiedenis in het testen van toekomstige productfuncties op huidige apparaten.
De nieuwe Live Captions van Apple voegen re altime ondertitels toe aan alles, inclusief de persoon die voor je staat.
Net zoals Google's concept AR-bril, deze week aangekondigd. De Live Captions van Apple kunnen inkomende audio opnemen en direct transcriberen. Het verschil is dat de versie van Apple "later dit jaar" zal verschijnen, wat waarschijnlijk betekent dat het in de iOS 16-release van dit najaar zal zijn. Maar het echte nieuws is dat dit Apple's meest voor de hand liggende poging is om toekomstige functies van Apple Glasses in het volle zicht uit te proberen.
"Als iemand met twee ouders die allebei moeite hebben met horen, is dit een grote hulp", schrijft Apple-gecentreerde journalist Dan Moren op zijn persoonlijke Six Colors-blog. "Ik ben benieuwd hoe goed de functie echt werkt en hoe het een groot FaceTime-gesprek met veel deelnemers afhandelt; Apple zegt dat het dialogen aan specifieke sprekers zal toewijzen."
Handigheid
Live Captions, waar we zo op terugkomen, is verre van de eerste AR-brilfunctie die Apple heeft uitgeprobeerd. Het meest voor de hand liggende is de opname van LIDAR-camera's in iPhones en iPads. Deze scanners helpen bij het maken van een nauwkeurige 3D-kaart van de buitenwereld en stellen de iPhone in staat om 3D-modellen over de echte wereld te leggen die door de camera wordt weergegeven.
Ik weet niet zeker of we de live vertaling van Apple beter kunnen vertrouwen dan de nieuwe AR-bril van Google, maar ik denk dat we erop kunnen vertrouwen dat de concurrentie de beste resultaten zal opleveren.
Tot nu toe is deze technologie gebruikt om je nieuwe Apple-computers op je eigen bureau te laten zien, AR Lego-games te spelen, IKEA-meubels in je woonkamer te testen, enzovoort. LIDAR-hardware is zo absurd overbodig in iPhones dat het er alleen maar mag zijn zodat Apple de hardware en software kan aanscherpen voor een echte AR-toepassing: Apple Glasses.
Het is ook niet alleen visuele AR. AirPods voegen al jaren handige AR-functies toe. De nieuwste, Spatial Audio, laat onze hersenen denken dat geluiden van overal om ons heen komen en is een geweldige manier om films te kijken of naar ontspannende soundscapes te luisteren. Het is een geweldige functie, maar het zal nog beter zijn als het werkt met het verwachte toekomstige brilproduct van Apple. In staat zijn om geluiden in een 3D-ruimte te plaatsen die bij de AR-objecten passen, zal de illusie echt verkopen.
Of wat dacht je van Live Text, de iOS 15-technologie die tekst in foto's herkent en leest, en live, via de camera van de iPhone? Dat is nog een functie die ideaal is voor het lezen van borden, menu's en andere tekst via een AR-bril.
Live bijschriften
Live Captions neemt spraak over van een FaceTime-oproep, videoconferentie-apps, streaming video, enzovoort. Je telefoon neemt de audio op en transcribeert deze on-the-fly, met ondertiteling, zoals te zien is in deze video.
Dat is geweldig, maar wat nog beter is, is dat niets ooit je iPhone verlaat. De bijschriften, zegt Apple, worden op het apparaat gegenereerd in plaats van naar een server te worden gestuurd. Dit is niet alleen meer privé, het is ook een stuk sneller.
"Ik weet niet zeker of we de live vertaling van Apple beter kunnen vertrouwen dan de nieuwe AR-bril van Google, maar ik denk dat we erop kunnen vertrouwen dat de concurrentie de beste resultaten zal opleveren", vertelde Kristen Bolig, oprichter van SecurityNerd, aan Lifewire via e-mail."Nu de concurrentie openbaar is en de problemen met dit soort technologie (privacy, nauwkeurigheid, enz.) bekend zijn, zullen beide bedrijven niet alleen in een race zijn om eerst het beste product te maken, maar ook om het product te maken dat het beste lost deze problemen op."
We verwachten ook een soort ingebouwde automatische vertaling zoals je die nu kunt krijgen met de app Navi van derden om je FaceTime-gesprekken automatisch te vertalen, of misschien een manier om deze transcripties op te slaan tijdens interviews voor later gemakkelijker toegang.
We hebben lang genoten van uitstekende toegankelijkheidsfuncties van Apple, waardoor we onze iOS-apparaten in een bijna absurde mate konden aanpassen. Van het aanpassen van het display om kleuren en tekst beter zichtbaar te maken, tot het bedienen van de volledige gebruikersinterface met externe apparaten, tot het laten weten van de telefoon wanneer iemand aanbelt of een bestelwagen buiten komt.
Nu profiteren we allemaal van het toegenomen onderzoek van Apple naar augmented reality-technologie. We geven misschien niet om IKEA of LEGO, en we willen zelfs nooit een paar legendarische AR-brillen van Apple kopen, maar dat betekent niet dat we niet allemaal kunnen genieten van de vruchten van dat onderzoek.