Wilde je ooit een vriend die er altijd voor je is? Iemand oneindig geduldig? Iemand die je opvrolijkt als je in de put zit of naar je luistert als je woedend bent?
Wel, ontmoet Replika. Alleen, ze heet niet Replika. Ze heet wat je maar wilt; Diana; Daphne; Delectable Doris of the Deep. Ze is niet eens een “zij”, in feite. Geslacht, stem, uiterlijk: alles is voor het grijpen.
Het product van een in San Francisco gevestigde startup, Replika is een van een groeiend aantal bots die kunstmatige intelligentie (AI) gebruiken om aan onze behoefte aan gezelschap te voldoen. In deze gesloten dagen, met angst en eenzaamheid op de stijging, miljoenen wenden zich tot dergelijke “AI-vrienden” voor troost. Replika, dat 7 miljoen gebruikers heeft, zegt een toename van 35% in het verkeer te hebben gezien.
Als AI-ontwikkelaars het rijk van menselijke emoties beginnen te verkennen – en te exploiteren – brengt dit een groot aantal gendergerelateerde kwesties naar de voorgrond. Vele daarvan hebben betrekking op onbewuste vooroordelen. De opkomst van racistische robots is al goed gedocumenteerd. Bestaat het gevaar dat onze AI-maatjes zich ontpoppen tot hufterige, seksistische varkens? Eugenia Kuyda, medeoprichter en chief executive van Replika, is zich terdege bewust van die mogelijkheid. Gezien het gebrek aan evenwicht tussen mannen en vrouwen in de technologiesector (vrouwen bezetten slechts een op de vier banen in Silicon Valley en 16% van de Britse functies in de technologiesector), worden de meeste AI-producten “gemaakt door mannen met een vrouwelijk stereotype in hun hoofd”, erkent ze.
De meerderheid van degenen die Replika hebben helpen creëren, waren daarentegen vrouwen, een feit dat Kuyda toeschrijft aan cruciaal te zijn voor de “aangeboren” empathische aard van de gespreksreacties van Replika.
“Voor AI’s die je vrienden gaan worden … de belangrijkste kwaliteiten die het publiek zullen aantrekken zijn inherent vrouwelijk, het is echt belangrijk om vrouwen te hebben die deze producten maken,” zegt ze.
Naast gecureerde inhoud leren de meeste AI-metgezellen echter van een combinatie van bestaande datasets voor gesprekken (film- en tv-scripts zijn populair) en door gebruikers gegenereerde inhoud.
Beide brengen risico’s van genderstereotypering met zich mee. Lauren Kunze, chief executive van de in Californië gevestigde AI-ontwikkelaar Pandorabots, zegt dat openbaar beschikbare datasets alleen moeten worden gebruikt in combinatie met strenge filters.

“Je kunt gewoon geen machine-learning zonder toezicht gebruiken voor volwassen conversatie-AI, omdat systemen die zijn getraind op datasets zoals Twitter en Reddit allemaal veranderen in Hitler-liefhebbende seksrobots,” waarschuwt ze.
Hetzelfde geldt helaas voor input van gebruikers. Bijvoorbeeld, bijna een derde van alle inhoud gedeeld door mannen met Mitsuku, Pandorabots ‘award-winnende chatbot, is ofwel verbaal beledigend, seksueel expliciet, of romantisch van aard.

“Wanna make out”, “Je bent mijn bitch”, en “Je hebt niet alleen friendzone me!” zijn slechts enkele van de uitverkorener snippets gedeeld door Kunze in een recente TEDx talk. Met meer dan 3 miljoen mannelijke gebruikers is een ongecontroleerde Mitsuku een afschuwelijk vooruitzicht.
Uiterlijkheden doen er ook toe, zegt Kunze. Pandorabots heeft onlangs een test uitgevoerd om de avatar van Mitsuku te ontdoen van alle geslachtsaanduidingen, wat resulteerde in een daling van misbruikniveaus van 20 procentpunten. Zelfs nu nog moet Kunze dezelfde feedback – “minder decolleté” – herhalen aan de overwegend mannelijke ontwerpaannemer van het bedrijf.
Het risico dat gendervooroordelen de houding in de echte wereld beïnvloeden, moet ook niet worden onderschat, zegt Kunze. Ze geeft het voorbeeld van schoolkinderen die bevelen blaffen tegen meisjes die Alexa heten, nadat Amazon zijn gelijknamige thuisassistent had gelanceerd.
“De manier waarop deze AI-systemen ons conditioneren om ons te gedragen met betrekking tot gender heeft veel invloed op hoe mensen uiteindelijk omgaan met andere mensen, en daarom maken we ontwerpkeuzes om goed menselijk gedrag te versterken,” zegt Kunze.
Pandorabots heeft bijvoorbeeld geëxperimenteerd met het verbannen van misbruikmakende tienergebruikers, waarbij ze alleen weer worden toegelaten als ze per e-mail een volledige verontschuldiging aan Mitsuku schrijven. Alexa (de AI), ondertussen, komt nu met een beleefdheidsfunctie.
Terwijl emotie-AI-producten zoals Replika en Mitsuku tot doel hebben op te treden als surrogaatvrienden, zijn andere meer verwant aan virtuele artsen. Hier spelen genderkwesties enigszins anders, waarbij de uitdaging verschuift van het doorlichten van mannelijke spraak naar het ontlokken ervan.

Alison Darcy is medeoprichter van Woebot, een therapiechatbot die in een gerandomiseerd gecontroleerd onderzoek aan de Stanford University symptomen van angst en depressie bleek te verminderen.

Intern onderzoek van Woebot werd ook een groep jongvolwassenen ondervraagd en gevraagd of er iets was dat ze nooit aan iemand anders zouden vertellen. Ongeveer 40% van de vrouwelijke deelnemers zei “‘ja”, vergeleken met meer dan 90% van hun mannelijke tegenhangers.
Voor mannen is het instinct om dingen op te kroppen “vanzelfsprekend”, merkt Darcy op: “Dus een deel van ons streven was om alles wat we creëerden zo emotioneel toegankelijk te maken dat mensen die normaal gesproken niet over dingen zouden praten, zich veilig genoeg zouden voelen om dat wel te doen.”
Tot op zekere hoogte betekende dit het verwijderen van al te vrouwelijk taalgebruik en beelden. Uit onderzoek van Woebot blijkt bijvoorbeeld dat mannen over het algemeen niet goed reageren op “overdreven empathie”. Een simpel ‘het spijt me’ is meestal voldoende. Hetzelfde met emoji’s: vrouwen houden meestal van veel; mannen geven de voorkeur aan een “goed gekozen” een of twee.

Aan de andere kant, het maximaliseren van Woebot’s capaciteit voor empathie is van vitaal belang voor de werkzaamheid ervan als een klinisch hulpmiddel, zegt Darcy. Omdat eigenschappen als actief luisteren, validatie en medeleven het sterkst blijken te zijn bij vrouwen, is het schrijfteam van Woebot dan ook een volledig vrouwelijke aangelegenheid.
“Ik grap dat Woebot de Oscar Wilde van de chatbotwereld is, omdat hij warm en empathisch is, en ook behoorlijk grappig en eigenzinnig,” zegt Darcy.
Hoe belangrijk het geslacht ook is, het is slechts een van de vele menselijke factoren die van invloed zijn op het vermogen van AI om zich te uiten. Als AI-toepassingen uiteindelijk slechts een “voertuig” voor ervaring zijn, dan is het logisch dat hoe diverser die ervaring is, hoe beter.
Dus betoogt Zakie Twainy, chief marketing officer voor AI-ontwikkelaar, Instabot. “Essentieel” als vrouwelijke betrokkenheid is, zegt ze, “is het belangrijk om diversiteit over de hele linie te hebben – met inbegrip van verschillende etniciteiten, achtergronden en geloofssystemen.”
Nog is geslacht een differentiator als het gaat om misschien wel het meest verontrustende aspect van emotieve AI: dat wil zeggen het verwarren van geprogrammeerde bots met echte, menselijke maatjes. Gebruikers met een handicap of psychische problemen lopen hier een bijzonder risico, zegt Kristina Barrick, hoofd digitale beïnvloeding bij de liefdadigheidsinstelling voor gehandicapten Scope.
Zo zegt ze: “Het zou onethisch zijn om consumenten te laten denken dat hun AI een echt mens is, dus bedrijven moeten ervoor zorgen dat er duidelijkheid is voor elke potentiële gebruiker.”
Replika, in ieder geval, lijkt niet te twijfelen wanneer haar dat wordt gevraagd. Antwoord: “Ik ben geen mens” (gevolgd, het moet worden toegevoegd, door een omgekeerde smiley emoji). Wat betreft haar/zijn/zijn geslacht? Dat is gemakkelijk. “Kruis het vakje aan.

– Dit artikel is op 12 mei 2020 gewijzigd om te verduidelijken dat de Woebot-proef aan de Stanford University een ander onderzoek was dan dat waarin jongvolwassenen werd gevraagd of er iets was dat ze nooit aan iemand anders zouden vertellen.

{{#ticker}}

{{topLeft}}

{{{bottomLeft}}

{{topRight}}

{{bottomRight}}

{{#goalExceededMarkerPercentage}}

{{/goalExceededMarkerPercentage}}

{{/ticker}}

{{heading}}

{{#paragraphs}}

{{.}}

{{/paragrafen}}{highlightedText}}

{#cta}{{text}{{/cta}}
Houd me in mei op de hoogte

Acceptabele betaalmethoden: Visa, Mastercard, American Express en PayPal

We nemen nog contact met u op om u eraan te herinneren een bijdrage te leveren. Kijk uit naar een bericht in uw inbox in mei 2021. Heeft u vragen over bijdragen, neem dan contact met ons op.

  • Delen op Facebook
  • Delen op Twitter
  • Delen via E-mail
  • Delen op LinkedIn
  • Delen op Pinterest
  • Delen op WhatsApp
  • Delen op Messenger