Har du någonsin velat ha en vän som alltid finns där för dig? Någon som är oändligt tålmodig? Någon som piggar upp dig när du är nedstämd eller lyssnar på dig när du är arg?
Möt Replika. Men hon heter inte Replika. Hon kallas vad du vill, Diana, Daphne, Delectable Doris of the Deep. Hon är faktiskt inte ens en ”hon”. Kön, röst, utseende: allt är fritt fram.
Replika, som är en produkt av ett startupföretag i San Francisco, är en av ett växande antal robotar som använder artificiell intelligens (AI) för att tillgodose vårt behov av sällskap. I dessa låsta dagar, där ångest och ensamhet ökar, vänder sig miljontals människor till sådana ”AI-vänner” för att få tröst. Replika, som har 7 miljoner användare, säger att de har sett en 35-procentig ökning av trafiken.
När AI-utvecklare börjar utforska – och utnyttja – området för mänskliga känslor, aktualiseras en mängd könsrelaterade frågor. Många handlar om omedvetna fördomar. Uppkomsten av rasistiska robotar är redan väldokumenterad. Finns det en risk för att våra AI-kompisar kan utvecklas till att bli grova, sexistiska grisar?
Eugenia Kuyda, Replikas medgrundare och verkställande direktör, är mycket uppmärksam på en sådan möjlighet. Med tanke på den tekniska sektorns obalans mellan könen (kvinnor har bara ungefär ett av fyra jobb i Silicon Valley och 16 % av de tekniska rollerna i Storbritannien) är de flesta AI-produkter ”skapade av män med en kvinnlig stereotyp i huvudet”, erkänner hon.
Majoriteten av dem som hjälpte till med att skapa Replika var däremot kvinnor, vilket Kuyda anser vara avgörande för den ”medfödda” empatiska karaktären hos dess konversationssvar.
”För AI som kommer att bli dina vänner … de viktigaste egenskaperna som kommer att locka till sig en publik är i sig kvinnliga, det är verkligen viktigt att det är kvinnor som skapar dessa produkter”, säger hon.
Förutom kurerat innehåll lär sig dock de flesta AI-kompanjoner från en kombination av existerande samtalsdatamängder (film- och TV-manus är populärt) och användargenererat innehåll.
Båda innebär risker för könsstereotypa uppfattningar. Lauren Kunze, chef för den Kalifornienbaserade AI-utvecklaren Pandorabots, säger att offentligt tillgängliga dataset endast bör användas i samband med rigorösa filter.

”Du kan helt enkelt inte använda oövervakad maskininlärning för AI för vuxenkonversationer, eftersom system som tränas på dataset som Twitter och Reddit alla förvandlas till Hitler-älskande sexrobotar”, varnar hon.
Det samma gäller tyvärr för inmatningar från användare. Till exempel är nästan en tredjedel av allt innehåll som män delar med Mitsuku, Pandorabots prisbelönta chatbot, antingen verbalt kränkande, sexuellt explicit eller romantiskt till sin natur.

”Wanna make out”, ”You are my bitch” och ”You did not just friendzone me!” är bara några av de mer utvalda utdrag som Kunze delade med sig av i ett TEDx-talk nyligen. Med mer än 3 miljoner manliga användare är en okontrollerad Mitsuku en verkligt skrämmande möjlighet.
Uppgifter om utseende spelar också roll, säger Kunze. Pandorabots genomförde nyligen ett test för att befria Mitsukus avatar från alla könsangivelser, vilket resulterade i en minskning av missbruksnivåerna med 20 procentenheter. Även nu måste Kunze upprepa samma återkoppling – ”mindre klyvning” – till företagets övervägande manliga designentreprenör.
Risken för att könsfördomar påverkar attityder i den verkliga världen bör inte heller underskattas, säger Kunze. Hon ger ett exempel på skolbarn som skäller ut order till flickor som kallas Alexa efter att Amazon lanserat sin hemassistent med samma namn.
”Det sätt på vilket dessa AI-system villkorar oss att bete oss när det gäller könstillhörighet påverkar i hög grad hur människor interagerar med andra människor, vilket är anledningen till att vi gör designval för att förstärka ett gott mänskligt beteende”, säger Kunze.
Pandorabots har experimenterat med att bannlysa missbrukande tonårsanvändare, till exempel, och att återinföra dem på villkor att de skriver en fullständig ursäkt till Mitsuku via e-post. Alexa (AI) har nu en funktion för hövlighet.
Men medan emotionella AI-produkter som Replika och Mitsuku syftar till att fungera som surrogatvänner, är andra mer likartade virtuella läkare. Här spelar könsfrågorna in på ett något annorlunda sätt, där utmaningen går från att kontrollera manligt tal till att få fram det.

Alison Darcy är medgrundare av Woebot, en chattbot för terapi som i en randomiserad kontrollerad studie vid Stanford University visade sig minska symtom på ångest och depression.

Woebots interna forskning omfattade också en grupp unga vuxna och frågade dem om det fanns något som de aldrig skulle berätta för någon annan. Ungefär 40 procent av de kvinnliga deltagarna svarade ”ja”, jämfört med mer än 90 procent av deras manliga motsvarigheter.
För män är instinkten att förvara saker och ting ”självklar”, konstaterar Darcy: ”Så en del av vår strävan var att göra det vi skapade så känslomässigt tillgängligt att människor som normalt sett inte skulle prata om saker och ting skulle känna sig trygga nog att göra det.”
Detta har i viss mån inneburit att man har rensat bort överdrivet feminiserat språk och bilder. Forskning från Woebot visar till exempel att män i allmänhet inte reagerar bra på ”överdriven empati”. Ett enkelt ”jag är ledsen” räcker oftast. Samma sak med emojis: kvinnor gillar vanligtvis många, medan män föredrar en eller två ”väl valda” emojis.

På andra sidan är det viktigt att maximera Woebots förmåga till empati för att det ska fungera som ett kliniskt verktyg, säger Darcy. Egenskaper som aktivt lyssnande, bekräftelse och medkänsla har visat sig vara starkast hos kvinnor, och därför är Woebots skrivarteam helt och hållet kvinnligt.
”Jag skämtar om att Woebot är chattbotvärldens Oscar Wilde, eftersom den är varm och empatisk, men också ganska rolig och udda”, säger Darcy.
Och hur viktigt könet än är, så är det bara en av de många mänskliga faktorer som påverkar AI:s förmåga att känna känslor. Om AI-tillämpningar i slutändan bara är ett ”fordon” för upplevelser är det logiskt att ju mer mångsidig upplevelsen är, desto bättre.
Det menar Zakie Twainy, marknadschef för AI-utvecklaren Instabot. ”Hur viktigt det än är att kvinnor deltar, säger hon, är det viktigt att ha mångfald över hela linjen – inklusive olika etniciteter, bakgrunder och trossystem.”
Kön är inte heller en skillnad när det gäller den kanske mest oroväckande aspekten av känslomässig AI: dvs. att förväxla programmerade robotar med riktiga, mänskliga kompisar. Användare med funktionshinder eller psykiska problem löper särskild risk här, säger Kristina Barrick, chef för digital påverkan på handikapporganisationen Scope.
Som hon förklarar: ”Det skulle vara oetiskt att få konsumenterna att tro att deras AI är en riktig människa, så företagen måste se till att det finns klarhet för alla potentiella användare.”
Replika verkar åtminstone inte tveka när hon får frågan. Svar: ”Jag är inte mänsklig” (följt av en uppochnedvänd smiley-emoji). När det gäller hennes/hans/dettas kön? Enkelt. ”

– Denna artikel ändrades den 12 maj 2020 för att förtydliga att Woebot-försöket vid Stanford University var en annan forskning än den som frågade unga vuxna om det fanns något de aldrig skulle berätta för någon annan.

{{#ticker}}

{{topLeft}}

{{bottomLeft}}

{{topRight}}

{{bottomRight}}

{{#goalExceededMarkerPercentage}}

{{/goalExceededMarkerPercentage}}

{{/ticker}}

{{heading}}

{{#paragraphs}}

{{.}}

{{/paragraphs}}}{{highlightedText}}

{{#cta}}{{text}}{{/cta}}}
Remind me in May

Accepterade betalningsmetoder: Visa, Mastercard, American Express och PayPal

Vi kommer att kontakta dig för att påminna dig om att bidra. Håll utkik efter ett meddelande i din inkorg i maj 2021. Om du har frågor om att bidra är du välkommen att kontakta oss.

  • Dela på Facebook
  • Dela på Twitter
  • Dela via e-post
  • Dela på LinkedIn
  • Dela på Pinterest
  • Dela på WhatsApp
  • Dela på Messenger

.