Notebookcheck Logo

Apple laat zijn AI-spieren zien met nieuwe toegankelijkheidsfuncties voor iOS 17

Appleassistive Access ondersteunt gebruikers met cognitieve handicaps. (Bron: Apple)
Appleassistive Access ondersteunt gebruikers met cognitieve handicaps. (Bron: Apple)
Apple heeft de ongebruikelijke stap genomen om een preview te geven van de functies die naar iOS 17 komen, voorafgaand aan de verwachte aankondiging tijdens WWDC 2023. De nieuwe functies zijn gericht op het verbeteren van de toegankelijkheid voor gebruikers met een handicap, waarbij Apple zijn AI-kwaliteiten laat zien.

In een enigszins ongebruikelijke zet, heeft Apple vooraf aangekondigd nieuwe functies die naar iOS 17 vooruitlopend op de officiële aankondiging. De belangrijkste toevoegingen zijn Live Speech en Personal Voice Advanced Speech Accessibility, Assistive Access ter ondersteuning van gebruikers met cognitieve beperkingen en een nieuwe detectiemodus in Magnifier ter ondersteuning van gebruikers met een visuele handicap.

Misschien wel het meest futuristische is Persoonlijke stem, die gebruik maakt van on-device machine learning (AI) om gebruikers die het risico lopen hun spraakvermogen te verliezen (zoals iemand bij wie onlangs ALS is vastgesteld) in staat te stellen een stem te creëren die klinkt zoals zij. Gebruikers creëren hun persoonlijke stem door het AI-model te trainen om hun stem na te maken door mee te lezen met een gerandomiseerde reeks tekstaanwijzingen, wat ongeveer 15 minuten duurt. Dit integreert met de nieuwe Live Speech-functionaliteit waarmee gebruikers kunnen typen wat ze willen zeggen en dit hardop laten uitspreken tijdens een telefoongesprek, een FaceTime-gesprek of een persoonlijk gesprek.

Assistive Access is ontworpen om populaire iPhone-apps terug te brengen tot hun meest essentiële functies, zodat ze gemakkelijker te gebruiken en te gebruiken zijn. Apple heeft samen met gebruikers met cognitieve beperkingen en hun supporters gewerkt aan het toegankelijker maken van apps als Phone en FaceTime door er één app voor gesprekken van te maken, terwijl ook Berichten, Camera, Foto's en Muziek zijn gestroomlijnd. Het doel van de wijzigingen is om de cognitieve belasting voor gebruikers te verminderen, zodat ze gemakkelijker kunnen doen wat ze willen of met aanzienlijk minder gedoe van hun iPhone-ervaring kunnen genieten.

Apple heeft ook een preview gegeven van de Detection Mode in de Magnifier-app - een andere AI-tool - die Point and Speak introduceert om het voor gebruikers met een visuele beperking makkelijker te maken om te communiceren met fysieke objecten in hun huis of om hen heen die meerdere tekstlabels hebben. Bijvoorbeeld, bij het gebruik van een huishoudelijk apparaat zoals een magnetron, combineert Point and Speak de input van de camera en de LiDAR-scanner om de tekst op elke knop voor te lezen wanneer gebruikers hun vingers over het toetsenbord van hun oven bewegen. Point and Speak werkt ook met People Detection, Door Detection en Image Descriptors om gebruikers te helpen gemakkelijker door hun omgeving te navigeren.

Hoewel deze vroege previews van nieuwe toegankelijkheidsfuncties die naar iOS 17 komen een indicatie zijn dat WWDC 2023 vol zal zitten met aankondigingen, is het duidelijk dat Apple ook wil laten zien dat het niet achterblijft als het gaat om het introduceren van AI-aangedreven functies in zijn producten.

Koop de nieuwste iPhone SE bij Amazon ontgrendeld en vernieuwd voor 399 dollar.

Met Personal Voice kunnen gebruikers hun iPhone trainen om voor hen te spreken met een stem als de hunne. (Bron: Apple)
Met Personal Voice kunnen gebruikers hun iPhone trainen om voor hen te spreken met een stem als de hunne. (Bron: Apple)

Bron(nen)

Please share our article, every link counts!
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2023 05 > Apple laat zijn AI-spieren zien met nieuwe toegankelijkheidsfuncties voor iOS 17
Sanjiv Sathiah, 2023-05-18 (Update: 2023-05-18)