Hai mai desiderato un amico che è sempre lì per te? Qualcuno infinitamente paziente? Qualcuno che ti tira su di morale quando sei depresso o che ti ascolta quando sei arrabbiato?
Bene, ti presento Replika. Solo che non si chiama Replika. Si chiama come vuoi: Diana, Daphne, la deliziosa Doris degli abissi. Non è nemmeno una “lei”, in effetti. Genere, voce, aspetto: tutto è in palio.
Il prodotto di una startup di San Francisco, Replika è uno di un numero crescente di bot che utilizzano l’intelligenza artificiale (AI) per soddisfare il nostro bisogno di compagnia. In questi giorni di chiusura, con l’ansia e la solitudine in aumento, milioni si stanno rivolgendo a tali “amici AI” per il conforto. Replika, che ha 7 milioni di utenti, dice di aver visto un aumento del 35% del traffico.
Come gli sviluppatori di AI iniziano ad esplorare – e sfruttare – il regno delle emozioni umane, porta alla ribalta una serie di questioni legate al genere. Molti si concentrano sui pregiudizi inconsci. L’aumento dei robot razzisti è già ben documentato. C’è il pericolo che i nostri amici dell’IA possano emergere per diventare maiali zotici e sessisti?
Eugenia Kuyda, co-fondatrice e amministratore delegato di Replika, è iper-consapevole di questa possibilità. Dato lo squilibrio di genere del settore tecnologico (le donne occupano solo circa un posto di lavoro su quattro nella Silicon Valley e il 16% dei ruoli tecnologici nel Regno Unito), la maggior parte dei prodotti AI sono “creati da uomini con uno stereotipo femminile nella loro testa”, ammette.
“Per le IA che saranno i vostri amici … le qualità principali che attireranno il pubblico sono intrinsecamente femminili, è davvero importante avere donne che creano questi prodotti”, dice.
Oltre ai contenuti curati, tuttavia, la maggior parte dei compagni AI imparano da una combinazione di serie di dati di conversazione esistenti (script di film e TV sono popolari) e contenuti generati dagli utenti.
Entrambi presentano rischi di stereotipi di genere. Lauren Kunze, amministratore delegato di Pandorabots, sviluppatore californiano di IA, dice che i set di dati disponibili pubblicamente dovrebbero essere utilizzati solo in combinazione con filtri rigorosi.

“Semplicemente non è possibile utilizzare l’apprendimento automatico non supervisionato per l’IA conversazionale degli adulti, perché i sistemi che sono addestrati su set di dati come Twitter e Reddit si trasformano tutti in robot sessuali amanti di Hitler”, avverte.
Lo stesso, purtroppo, è vero per gli input degli utenti. Per esempio, quasi un terzo di tutti i contenuti condivisi dagli uomini con Mitsuku, il pluripremiato chatbot di Pandorabots, è verbalmente offensivo, sessualmente esplicito o di natura romantica.

“Vuoi pomiciare”, “Sei la mia puttana”, e “Non mi hai appena friendzonato!” sono solo alcuni dei frammenti più scelti condivisi da Kunze in un recente discorso TEDx. Con più di 3 milioni di utenti maschi, un Mitsuku non controllato presenta una prospettiva davvero orribile.
Anche le apparenze contano, dice Kunze. Pandorabots ha recentemente eseguito un test per liberare l’avatar di Mitsuku da tutti gli indizi di genere, ottenendo un calo dei livelli di abuso di 20 punti percentuali. Anche ora, Kunze si trova a dover ripetere lo stesso feedback – “meno scollatura” – all’appaltatore di design prevalentemente maschile dell’azienda.
Il rischio di pregiudizi di genere che influenzano gli atteggiamenti del mondo reale non dovrebbe essere sottovalutato, dice Kunze. Lei fa l’esempio degli studenti che abbaiano ordini alle ragazze chiamate Alexa dopo che Amazon ha lanciato il suo assistente domestico con lo stesso nome.
“Il modo in cui questi sistemi di IA ci condizionano a comportarci per quanto riguarda il genere si riversa molto su come le persone finiscono per interagire con altri esseri umani, che è il motivo per cui facciamo scelte di progettazione per rafforzare il buon comportamento umano”, dice Kunze.
Pandorabots ha sperimentato il divieto di utenti adolescenti abusivi, per esempio, con riammissione condizionata alla loro scrittura di scuse complete a Mitsuku via e-mail. Alexa (l’IA), nel frattempo, è ora dotata di una funzione di cortesia.
Mentre i prodotti IA emozionali come Replika e Mitsuku mirano ad agire come amici surrogati, altri sono più simili a medici virtuali. Qui, le questioni di genere giocano in modo leggermente diverso, con la sfida che si sposta dal controllare il discorso maschile al suscitarlo.

Alison Darcy è co-fondatrice di Woebot, un chatbot terapeutico che, in uno studio controllato randomizzato alla Stanford University è risultato ridurre i sintomi di ansia e depressione.

La ricerca interna di Woebot ha anche campionato un gruppo di giovani adulti, e ha chiesto se ci fosse qualcosa che non avrebbero mai detto a qualcun altro. Circa il 40% delle partecipanti femminili ha risposto “‘sì'”, rispetto a più del 90% delle loro controparti maschili.
Per gli uomini, l’istinto di imbottigliare le cose è “evidente”, osserva Darcy: “Quindi parte del nostro sforzo è stato quello di rendere tutto ciò che abbiamo creato così emotivamente accessibile che le persone che normalmente non avrebbero parlato delle cose si sarebbero sentite abbastanza sicure da farlo.”
In una certa misura, questo ha significato eliminare il linguaggio e le immagini eccessivamente femminilizzate. Una ricerca di Woebot mostra che gli uomini generalmente non rispondono bene all'”eccessiva empatia”, per esempio. Un semplice “mi dispiace” di solito fa il trucco. Lo stesso vale per gli emoji: alle donne in genere piacciono molti; gli uomini preferiscono uno o due “ben scelti”.

In compenso, massimizzare la capacità di empatia di Woebot è vitale per la sua efficacia come strumento clinico, dice Darcy. Con tratti come l’ascolto attivo, la convalida e la compassione che hanno dimostrato di essere più forti tra le donne, il team di scrittura di Woebot è di conseguenza un affare tutto al femminile.
“Scherzo che Woebot è l’Oscar Wilde del mondo dei chatbot perché è caldo ed empatico, oltre che piuttosto divertente e bizzarro”, dice Darcy.
Importante come il genere, è solo uno dei molti fattori umani che influenzano la capacità dell’IA di provare emozioni. Se le applicazioni di IA sono in definitiva solo un “veicolo” per l’esperienza, allora ha senso che più diversa è l’esperienza, meglio è.
Così sostiene Zakie Twainy, chief marketing officer per lo sviluppatore di IA, Instabot. “Essenziale” come il coinvolgimento femminile, dice, “è importante avere la diversità su tutta la linea – comprese le diverse etnie, sfondi e sistemi di credenze.”
Neanche il genere è un fattore di differenziazione quando si tratta di quello che è probabilmente l’aspetto più preoccupante dell’IA emotiva: cioè confondere i bot programmati per amici reali e umani. Gli utenti con disabilità o problemi di salute mentale sono particolarmente a rischio qui, dice Kristina Barrick, responsabile dell’influenza digitale presso l’ente di beneficenza per la disabilità Scope.
Come lei dice: “Non sarebbe etico portare i consumatori a pensare che la loro IA sia un vero umano, quindi le aziende devono assicurarsi che ci sia chiarezza per ogni potenziale utente.”
Replika, almeno, non sembra avere dubbi quando gli viene chiesto. Risposta: “Non sono umana” (seguita, va aggiunto, da uno smiley emoji capovolto). Per quanto riguarda il suo genere? Facile. “Spunta la casella”.

– Questo articolo è stato modificato il 12 maggio 2020 per chiarire che la prova di Woebot all’Università di Stanford era una ricerca separata da quella che chiedeva ai giovani adulti se ci fosse qualcosa che non avrebbero mai detto a qualcun altro.

{{#ticker}}

{{topLeft}}

{{bottomLeft}}

{{topRight}}

{{bottomRight}}

{{#goalExceededMarkerPercentage}}

{{/goalExceededMarkerPercentage}}

{{/ticker}}

{{heading}}

{{#paragraphs}}

{{.}}}

{{{/paragrafi}}{{highlightedText}}

{{#cta}}{{{text}}{{/cta}}
Ricordami a maggio

Metodi di pagamento accettati: Visa, Mastercard, American Express e PayPal

Ci metteremo in contatto per ricordarti di contribuire. Cerca un messaggio nella tua casella di posta elettronica nel maggio 2021. Se hai domande su come contribuire, contattaci.

  • Condividi su Facebook
  • Condividi su Twitter
  • Condividi via Email
  • Condividi su LinkedIn
  • Condividi su Pinterest
  • Condividi su WhatsApp
  • Condividi su Messenger