Voordat Apple iOS 17 en alle andere nieuwe besturingssystemen op 5 juni onthult tijdens de WWDC-ontwikkelaarsconferentie, is het al klaar om te praten over de nieuwe toegankelijkheidsfuncties die dit najaar worden uitgebracht.
15 minuten om een digitale kopie van je stem te maken
Een van de meest opwindende dingen is dat de iPhone met iOS 17 je stem kan leren herkennen, zodat hij kan spreken zoals jij. De functie is vooral bedoeld voor mensen die het risico lopen hun stemvermogen te verliezen, zoals mensen met amyotrofische laterale sclerose.
“Persoonlijke audio is een gemakkelijke en veilige manier om er een te maken die op hen lijkt”, legt Apple uit, erop wijzend dat het opnieuw maken van audio op een iPhone of iPad 15 minuten duurt.
Met Live Speech op iPhone, iPad en Mac kunnen gebruikers typen wat ze willen zeggen en het vervolgens uitspreken tijdens telefoon- en FaceTime-gesprekken.Gebruikers kunnen ook veelgebruikte zinnen opslaan om snel te kunnen reageren tijdens livegesprekken met familie, vrienden en collega’s. Live Speech is ontwikkeld om miljoenen mensen over de hele wereld te ondersteunen die niet kunnen spreken of die na verloop van tijd hun spraak zijn kwijtgeraakt.”
Er zijn ook andere nieuwigheden, waaronder een die de apps van Apple verbetert met een veel eenvoudigere interface die eenvoudige, klikvriendelijke functionaliteit biedt:
“Amateur music practitioner. Lifelong entrepreneur. Explorer. Travel buff. Unapologetic tv scholar.”
More Stories
De online servers van Gran Turismo Sports worden in januari gesloten
Sony’s bod op een live-service roept mogelijk al zorgen op
Apple bevestigt hitteproblemen iPhone – Tek.no