Hoe gaan we om met spraakherkenningstechnologie?

Nieuws
Phoebe-Ohayon

Phoebe Ohayon van Whoozy Agency over ethische vraagstukken rondom spraakherkenningstechnologie

We praten tegen onze auto, onze telefoon en zelfs tegen ons huis. Spraakherkenningstechnologie is overal om ons heen en in de toekomst zullen we het steeds vaker gaan gebruiken. Maar dat brengt ook ethische vraagstukken met zich mee, zegt Phoebe Ohayon van Whoozy Agency. ‘We moeten uitkijken dat kinderen geen verkeerd gedrag aangeleerd krijgen.’ 

In de nok van het poortgebouw van het Marineterrein, waar vroeger de audiovisuele dienst van Defensie zat, staan nu de microfoons en opnameapparatuur van Whoozy. Het voicebranding- en sounddesignbureau helpt bedrijven en organisaties letterlijk hun eigen stem te vinden om zo de gebruikerservaring van diensten en apps te verbeteren. En daar komt veel bij kijken.

De juiste stem
‘Hoe klinkt Volkswagen?’, vraagt Phoebe Ohayon (28) zich hardop af. ‘En klinkt een Golf anders dan een Passat? We geven nu, en in de toekomst waarschijnlijk nog veel meer, onze auto allerlei opdrachten met onze stem. En de auto “praat” dan terug. Net zoals een beeldmerk of de kleuren die een bedrijf gebruikt, moet hoe die auto praat passen bij een merk. Wij helpen bedrijven de juiste stem en geluiden te vinden.’ 

Opmars spraakherkenningstechnologie
En die juiste stem wordt steeds belangrijker omdat spraakherkenningstechnologie aan een opmars bezig is. Apparaten worden steeds ‘slimmer’ en dus zullen we in de toekomst steeds meer met dingen om ons heen gaan praten, verwacht Phoebe. ‘Dankzij artificial intelligence (AI) en machine learning zijn apparaten steeds beter in staat ons te begrijpen als we ertegen praten en onze bevelen op te volgen, ook thuis. Met Google Home, bijvoorbeeld, kan je gekoppelde apparaten bedienen met je stem. De radio aanzetten, lampen aandoen, dingen opzoeken op Wikipedia, alles kan met een simpele spraakopdracht.’ 

Privacy en hacks
En net als bij alle nieuwe technologie brengt deze ontwikkeling bepaalde vraagstukken met zich mee, zegt Phoebe. ‘De privacy van gebruikers waarborgen is een van de belangrijkste punten. In hoeverre luistert een apparaat mee en wat registreert het? Hoeveel persoonlijke informatie mag een bedrijf gebruiken om de gebruikerservaring te verbeteren en wat doet het met die data? En ook het gevaar van hacks ligt op de loer: als criminelen toegang tot de slimme apparaten in iemands huis weten te krijgen, kunnen ze mogelijk meeluisteren of zelfs met de stem van een bepaalde dienst, zoals die van een bank, gegevens aan ze ontfutselen.’ 

Ethische valkuilen
Maar naast dit soort praktische uitdagingen zijn er volgens Phoebe ook ethische vraagstukken die in overweging moeten worden genomen. ‘De AI die spraaktechnologie mogelijk maakt “leert” op basis van bestaande teksten en data, en die informatie is gekleurd. En wanneer een AI-model bijvoorbeeld is getraind met data die traditionele genderrollen bevat, zal het deze ook in stand houden. Wat zie je bijvoorbeeld als je bij Google afbeeldingen zoekt van een CEO? Bijna uitsluitend foto’s van witte mannen in pak. Het zijn dit soort data vol stereotyperingen waarop spraaktechnologie nu gebaseerd is.’  

Agressieve kinderen
‘Daar komt bij dat uit onderzoek blijkt dat mensen het liefst een vrouwenstem als assistent hebben. Als alle bedrijven in die voorkeur meegaan, houd je het stereotype van een onderdanige vrouw in stand die thuis doet wat haar verteld wordt. En wat voor gedragsgevolgen heeft dat? Uit onderzoek is ook gebleken dat kinderen een vrouwelijke assistent makkelijker commanderen en daarbij ook de grens opzoeken. Als de spraaktechnologie dan aangeeft dat de inhoud van de bevelen te ver gaat, reageert een deel van de kinderen hier agressief op. We moeten dus uitkijken dat kinderen die met deze technologie opgroeien niet verkeerd taalgebruik en gedrag aangeleerd krijgen.’ 

Ethische ontwerprichtlijnen
Dat begint volgens Phoebe met het ontwerp van de spraaktechnologie en de data waarop het gebaseerd is. ‘Vroeger antwoordde Siri (de spraakassistent van iPhones, red.) met de woorden “I’d blush if I could” als je haar een slet noemde. Geen gewenste reactie als je kinderen duidelijk wil maken dat het niet oké is om vrouwen zo te noemen. Maar een adequaat antwoord lag niet besloten in de data die Siri geleerd had en was ook niet meegenomen in het interactieontwerp. Het begint dus bij de bron. Ik pleit daarom voor ethische ontwerprichtlijnen om een goede en inclusieve dataset te creëren, zodat we in de toekomst echt ons voordeel met deze technologie kunnen doen.’  

Tekst en fotografie: Sjoerd Ponstein