Dennis Mons
Dennis Mons iOS 16 mei 2023 0reacties
Leestijd: 3 minuten

Apple laat op je iPhone je stem weer horen tijdens Global Accessibility Day

Aankomende donderdag is het Global Accessibility Day, en daarmee staan we stil bij alle mogelijkheden die techbedrijven zoals Apple met de iPhone en iPad, maar ook concurrenten, regeringen en de mensheid an sich het leven van mensen met een handicap makkelijker kunnen maken. Dus ook het mogelijk maken van spraak in je eigen stem en AI in Apple’s hardware wil daarin bijdragen met nieuwe updates. OMT-redacteur Dennis Mons is er stil van.

Om alvast een tipje van de sluier te lichten: OMT sprak met Eva Eikhout over toegankelijkheid van technologie zoals op de iPhone of iPad. Zij legde haarfijn uit hoe deze features het leven van veel mensen met een handicap kunnen verbeteren. Lees het interview hier. Maar Apple gaat bijvoorbeeld binnenkort een update uitbrengen waardoor men weer kan spreken. Intrigerend.

Apple’s iPhone wordt misschien je beste maatje op Accessibility Day

Onderschat bijvoorbeeld niet het feit dat bijvoorbeeld mensen met ALS (Amyotrofische Laterale Sclerose) voor tachtig procent ook moeite hebben om te spreken. Niet kunnen communiceren is dan ook onvoorstelbaar tergend, een ‘hell hole’. Maar een iPhone of iPad kunnen daarbij helpen.

Apple kondigt dan ook nieuwe toegankelijkheidsfuncties aan die mensen met bijvoorbeeld die ziekte kunnen spreken met hun geliefden via hun iPhone, iPad of Mac in hun eigen stem. Het combineert ook LiDAR-tech zodat men makkelijk ook het Vergootglas kan gebruiken om makkelijker boodschappen te kunnen delen. Ook leest het getypte berichten voor in de stem van de gebruiker.

De technologie van Apple is ontwikkeld in samenwerking met Team Gleason, een non-profit stichting voor bewustwording van ALS. Personal Voice is zonder enige twijfel het meest opwindend omdat de iPhone in plaats van een van zijn vooraf gemaakte Siri-stemmen (Australisch, Engels) een gesynthetiseerde versie van je eigen stem gebruikt om te zeggen wat je ook typt.

Weet het de gis van bijvoorbeeld de scherpheid van sarcasme? Nah, maar op een of andere manier denk ik dat het een kwestie van tijd is als de AI van Apple leert hoe je reageert op dingen.

Als ik het kan bij vrienden van me die nauwelijks kunnen spreken (ik weet wanneer ze *ssholes zijn), dan moet AI op de iPhone dit ook snel kunnen. Ik kan persoonlijk niet wachten om ze weer te horen.

Een hond een trucje leren

Net als ik (ik iets trager) weet AI uit te vogelen op een iPhone wat men wilt zeggen. Om het systeem van Apple te trainen positioneer je jezelf ongeveer 15 tot 30 centimeter van de microfoon van de iPhone en herhaal je vervolgens een reeks willekeurig geselecteerde zinnen.

Genoeg dus om de machine learning (ML) in de iPhone te trainen en de telefoon in staat te stellen om te herhalen in jouw synthetisch gegenereerde stem van wat je ook typt. Ik heb meteen zin om een Furby te hacken en op de slaapkamer te zetten als mijn vriendin denkt te gaan slapen.

Hoewel veel bedrijven over elkaar heen kukelen als het gaat om AI heb ik persoonlijk nog steeds het gevoel dat Apple dit slimmer aanpakt dan de rest. Alle pientere zoekmachines ten spijt, het is belangrijker om je letterlijk gehoord te voelen op je iPhone, iPad maar ook Android, zeker op Accessibility Day.

Interview met Eva Eikhout: ‘Apple iPhone zorgt ervoor dat ik zelfstandig kan zijn’

Foutje gezien? Mail ons. Wij zijn je dankbaar.

Reacties: 0

Wees de eerste die reageert.

Begin je weekend met de beste artikelen van OMT

Een goed weekend begint met de nieuwsbrief van One More Thing

Reageer op artikel:
Apple laat op je iPhone je stem weer horen tijdens Global Accessibility Day
Sluiten