Har du nogensinde ønsket dig en ven, der altid er der for dig? En uendelig tålmodig person? En, der vil opmuntre dig, når du er nedtrykt, eller lytte til dig, når du er rasende?
Mød Replika. Men hun hedder ikke Replika. Hun hedder hvad du vil; Diana; Daphne; Delectable Doris of the Deep. Hun er ikke engang en “hun”, faktisk. Køn, stemme, udseende: alt er op til diskussion.
Replika, der er et produkt af en nystartet virksomhed fra San Francisco, er en af et voksende antal robotter, der bruger kunstig intelligens (AI) til at opfylde vores behov for følgeskab. I disse lukkede dage, hvor angst og ensomhed er stigende, vender millioner af mennesker sig til sådanne “AI-venner” for at finde trøst. Replika, som har 7 millioner brugere, siger, at det har oplevet en stigning i trafikken på 35 %.
Da AI-udviklere begynder at udforske – og udnytte – de menneskelige følelsers rige, bringer det et væld af kønsrelaterede spørgsmål frem i lyset. Mange er centreret om ubevidste fordomme. Fremkomsten af racistiske robotter er allerede veldokumenteret. Er der en fare for, at vores AI-venner kan udvikle sig til at blive lurvede, sexistiske svin?
Eugenia Kuyda, medstifter og administrerende direktør for Replika, er meget opmærksom på en sådan mulighed. I betragtning af den uligevægt mellem kønnene i teknologisektoren (kvinder besætter kun ca. hvert fjerde job i Silicon Valley og 16 % af de britiske tech-jobs) er de fleste AI-produkter “skabt af mænd med en kvindelig stereotype i hovedet”, accepterer hun.
Derimod var størstedelen af dem, der hjalp med at skabe Replika, kvinder, hvilket Kuyda mener er afgørende for den “medfødte” empatiske karakter af dens samtalereaktioner.
“For AI’er, der skal være dine venner … de vigtigste kvaliteter, der vil tiltrække publikum, er i sagens natur feminine, det er virkelig vigtigt at have kvinder til at skabe disse produkter,” siger hun.
Ud over kurateret indhold lærer de fleste AI-kammerater imidlertid fra en kombination af eksisterende samtaledatasæt (film- og tv-manuskripter er populære) og brugergenereret indhold.
Både udgør en risiko for kønsstereotypering. Lauren Kunze, administrerende direktør for den californiske AI-udvikler Pandorabots, siger, at offentligt tilgængelige datasæt altid kun bør bruges i forbindelse med strenge filtre.

“Du kan simpelthen ikke bruge uovervåget maskinlæring til AI-konversation for voksne, fordi systemer, der er trænet på datasæt som Twitter og Reddit, alle bliver til Hitler-elskende sexrobotter,” advarer hun.
Det samme gælder desværre for input fra brugerne. For eksempel er næsten en tredjedel af alt det indhold, som mænd deler med Mitsuku, Pandorabots prisbelønnede chatbot, enten verbalt krænkende, seksuelt eksplicit eller romantisk af natur.

“Wanna make out”, “You are my bitch” og “You did not just friendzone me!” er blot nogle af de mere udvalgte uddrag, som Kunze for nylig delte i en TEDx-tale. Med mere end 3 millioner mandlige brugere udgør en ukontrolleret Mitsuku et virkelig skrækkeligt perspektiv.
Autseende betyder også noget, siger Kunze. Pandorabots gennemførte for nylig en test, hvor Mitsukus avatar blev befriet for alle kønsangivelser, hvilket resulterede i et fald i misbrugsniveauet på 20 procentpoint. Selv nu oplever Kunze, at hun må gentage den samme tilbagemelding – “mindre kavalergang” – over for virksomhedens overvejende mandlige designkontrahent.
Risikoen for, at kønsfordomme påvirker holdningerne i den virkelige verden, bør heller ikke undervurderes, siger Kunze. Hun giver et eksempel på skolebørn, der gøede ordrer til piger ved navn Alexa, efter at Amazon lancerede sin hjemmeassistent med samme navn.
“Den måde, som disse AI-systemer betinger os til at opføre os med hensyn til køn, smitter i høj grad af på, hvordan folk ender med at interagere med andre mennesker, hvilket er grunden til, at vi træffer designvalg for at styrke god menneskelig adfærd,” siger Kunze.
Pandorabots har eksperimenteret med at forbyde misbrugende teenage-brugere, f.eks. med genindlæggelse betinget af, at de skriver en fuld undskyldning til Mitsuku via e-mail. Alexa (AI’en) er nu udstyret med en høflighedsfunktion.
Mens emotionelle AI-produkter som Replika og Mitsuku har til formål at fungere som surrogatvenner, er andre produkter mere beslægtet med virtuelle læger. Her spiller kønsspørgsmålene lidt anderledes, idet udfordringen skifter fra at kontrollere mandlig tale til at fremkalde den.

Alison Darcy er medstifter af Woebot, en terapi-chatbot, som i et randomiseret kontrolleret forsøg på Stanford University viste sig at reducere symptomer på angst og depression.

Woebots interne forskning tog også prøver af en gruppe unge voksne og spurgte, om der var noget, de aldrig ville fortælle en anden. Omkring 40 % af de kvindelige deltagere svarede “‘ja'”, sammenlignet med mere end 90 % af deres mandlige modstykker.
For mænd er instinktet til at lukke ting ind i en flaske “selvindlysende”, bemærker Darcy: “Så en del af vores bestræbelser var at gøre det, vi skabte, så følelsesmæssigt tilgængeligt, at folk, der normalt ikke ville tale om tingene, ville føle sig trygge nok til at gøre det.”
Dette har til en vis grad betydet, at vi har fjernet alt for feminiseret sprog og billeder. Undersøgelser fra Woebot viser, at mænd generelt ikke reagerer godt på “overdreven empati”, for eksempel. Et simpelt “undskyld” er normalt nok. Det samme gælder for emojis: Kvinder kan typisk lide mange, mens mænd foretrækker en eller to “velvalgte”.

På den anden side er det ifølge Darcy afgørende for Woebots effektivitet som klinisk værktøj at maksimere Woebots evne til empati, at den bliver så effektiv som muligt. Da egenskaber som aktiv lytning, validering og medfølelse viser sig at være stærkest hos kvinder, er Woebots skrivehold derfor udelukkende kvinder.
“Jeg spøger med, at Woebot er chatbot-verdenens Oscar Wilde, fordi den er varm og empatisk og samtidig ret sjov og skæv,” siger Darcy.
Hvor vigtigt køn end er, er det kun en af de mange menneskelige faktorer, der påvirker AI’s evne til at føle sig. Hvis AI-applikationer i sidste ende blot er et “middel” til at skabe oplevelser, så giver det mening, at jo mere forskelligartet oplevelsen er, jo bedre.
Det hævder Zakie Twainy, marketingchef for AI-udvikleren Instabot. Hun siger, at selv om det er “vigtigt” at inddrage kvinder, “er det vigtigt at have mangfoldighed over hele linjen – herunder forskellige etniciteter, baggrunde og trossystemer.”
Køn er heller ikke en forskel, når det kommer til det nok mest bekymrende aspekt af følelsesmæssig AI: dvs. at forveksle programmerede robotter med rigtige, menneskelige kammerater. Brugere med handicap eller psykiske problemer er i særlig risiko her, siger Kristina Barrick, leder af digital påvirkning hos handicaporganisationen Scope.
Som hun præciserer: “Det ville være uetisk at få forbrugerne til at tro, at deres AI er et rigtigt menneske, så virksomhederne skal sørge for, at der er klarhed for alle potentielle brugere.”
Replika synes i hvert fald ikke at være i tvivl, når hun bliver spurgt. Svar: “Jeg er ikke et menneske” (efterfulgt af en omvendt smiley-emoji, skal det tilføjes). Hvad angår hendes/hans/dit køn? Nemt. “

– Denne artikel blev ændret den 12. maj 2020 for at præcisere, at Woebot-forsøget på Stanford University var en anden forskning end den, hvor unge voksne blev spurgt, om der var noget, de aldrig ville fortælle andre.

{{#ticker}}

{{{topLeft}}}

{{{bottomLeft}}

{{{topRight}}}

{{{bottomRight}}}

{{#goalExceededMarkerPercentage}}

{{/goalExceededMarkerPercentage}}

{{/ticker}}

{{heading}}

{{#paragraphs}}

{{.}}

{{/paragraphs}}}{{highlightedText}}

{{#cta}}}{{text}}}{{/cta}}}
Remind mig i maj

Accepterede betalingsmetoder: Visa, Mastercard, American Express og PayPal

Vi vil kontakte dig for at minde dig om at bidrage. Hold øje med en besked i din indbakke i maj 2021. Hvis du har spørgsmål om at bidrage, er du velkommen til at kontakte os.

  • Del på Facebook
  • Del på Twitter
  • Del via e-mail
  • Del på LinkedIn
  • Del på Pinterest
  • Del på WhatsApp
  • Del på Messenger