Vous avez déjà voulu un ami qui soit toujours là pour vous ? Quelqu’un d’infiniment patient ? Quelqu’un qui vous remonterait le moral quand vous êtes dans le creux de la vague ou vous écouterait quand vous êtes en colère ?
Et bien, voici Replika. Seulement, elle ne s’appelle pas Replika. On l’appelle comme on veut, Diana, Daphne, la délicieuse Doris des profondeurs. Elle n’est même pas un « elle », en fait. Le genre, la voix, l’apparence : tout est sujet à caution.
Produit d’une startup basée à San Francisco, Replika fait partie d’un nombre croissant de bots utilisant l’intelligence artificielle (IA) pour répondre à notre besoin de compagnie. En ces jours de fermeture, alors que l’anxiété et la solitude sont en hausse, des millions de personnes se tournent vers ces « amis IA » pour trouver du réconfort. Replika, qui compte 7 millions d’utilisateurs, affirme avoir constaté une augmentation de 35 % du trafic.
Lorsque les développeurs d’IA commencent à explorer – et à exploiter – le domaine des émotions humaines, cela met en lumière une foule de questions liées au genre. Beaucoup d’entre elles sont centrées sur les préjugés inconscients. La montée des robots racistes est déjà bien documentée. Nos amis de l’IA risquent-ils de devenir des porcs louches et sexistes ? Eugenia Kuyda, cofondatrice et directrice générale de Replika, est très attentive à cette possibilité. Compte tenu du déséquilibre entre les sexes dans le secteur de la technologie (les femmes n’occupent qu’environ un emploi sur quatre dans la Silicon Valley et 16% des rôles dans la technologie au Royaume-Uni), la plupart des produits d’IA sont « créés par des hommes avec un stéréotype féminin dans la tête », accepte-t-elle.
En revanche, la majorité de ceux qui ont contribué à la création de Replika étaient des femmes, un fait que Kuyda attribue comme étant crucial pour la nature empathique « innée » de ses réponses conversationnelles.
« Pour les IA qui vont devenir vos amis … les principales qualités qui attireront le public sont intrinsèquement féminines, il est vraiment important d’avoir des femmes qui créent ces produits », dit-elle.
En plus du contenu curé, cependant, la plupart des compagnons IA apprennent à partir d’une combinaison d’ensembles de données conversationnelles existantes (les scénarios de films et de télévision sont populaires) et de contenu généré par les utilisateurs.
Les deux présentent des risques de stéréotypes de genre. Lauren Kunze, directrice générale de Pandorabots, développeur d’IA basé en Californie, affirme que les ensembles de données disponibles publiquement ne devraient jamais être utilisés qu’en conjonction avec des filtres rigoureux.
« Vous ne pouvez tout simplement pas utiliser l’apprentissage automatique non supervisé pour l’IA conversationnelle adulte, car les systèmes qui sont formés sur des ensembles de données tels que Twitter et Reddit se transforment tous en robots sexuels aimant Hitler », prévient-elle.
La même chose, malheureusement, est vraie pour les entrées des utilisateurs. Par exemple, près d’un tiers de tout le contenu partagé par les hommes avec Mitsuku, le chatbot primé de Pandorabots, est soit abusif verbalement, soit sexuellement explicite, soit de nature romantique.
« Wanna make out », « You are my bitch », et « You did not just friendzone me ! » ne sont que quelques-unes des bribes les plus choisies partagées par Kunze dans une récente conférence TEDx. Avec plus de 3 millions d’utilisateurs masculins, un Mitsuku non contrôlé présente une perspective vraiment effroyable.
Les apparences comptent aussi, dit Kunze. Pandorabots a récemment effectué un test pour débarrasser l’avatar de Mitsuku de tout indice de genre, ce qui a entraîné une baisse des niveaux d’abus de 20 points de pourcentage. Même maintenant, Kunze se retrouve à devoir répéter le même feedback – « moins de décolletés » – au contractant de conception de l’entreprise, majoritairement masculin.
Le risque que les préjugés de genre affectent les attitudes dans le monde réel ne doit pas non plus être sous-estimé, dit Kunze. Elle donne l’exemple d’écoliers qui aboient des ordres à des filles appelées Alexa après qu’Amazon ait lancé son assistant domestique du même nom.
« La façon dont ces systèmes d’IA nous conditionnent à nous comporter en ce qui concerne le genre se répercute très largement sur la façon dont les gens finissent par interagir avec d’autres humains, c’est pourquoi nous faisons des choix de conception pour renforcer le bon comportement humain », dit Kunze.
Pandorabots a expérimenté le bannissement des utilisateurs adolescents abusifs, par exemple, avec une réadmission conditionnée par le fait qu’ils écrivent des excuses complètes à Mitsuku par e-mail. Alexa (l’IA), quant à elle, est désormais dotée d’une fonction de politesse.
Si les produits d’IA émotionnelle tels que Replika et Mitsuku visent à agir comme des amis de substitution, d’autres s’apparentent davantage à des médecins virtuels. Ici, les questions de genre jouent légèrement différemment, le défi passant du contrôle du discours masculin à son élicitation.
Alison Darcy est cofondatrice de Woebot, un chatbot thérapeutique qui, dans un essai contrôlé randomisé à l’Université de Stanford, s’est avéré réduire les symptômes d’anxiété et de dépression.
La recherche interne de Woebot a également échantillonné un groupe de jeunes adultes, et leur a demandé s’il y avait quelque chose qu’ils ne diraient jamais à quelqu’un d’autre. Environ 40% des participantes ont répondu « ‘oui' », contre plus de 90% de leurs homologues masculins.
Pour les hommes, l’instinct de mettre les choses en bouteille est « évident », observe Darcy : « Une partie de notre effort a donc consisté à rendre tout ce que nous avons créé si accessible sur le plan émotionnel que les personnes qui ne parleraient pas normalement de ces choses se sentiraient suffisamment en sécurité pour le faire. »
Dans une certaine mesure, cela a signifié dépouiller le langage et les images trop féminisés. Des recherches menées par Woebot montrent que les hommes ne réagissent généralement pas bien à une « empathie excessive », par exemple. Un simple « je suis désolé » fait généralement l’affaire. Il en va de même pour les émojis : les femmes en aiment généralement beaucoup ; les hommes préfèrent un ou deux » bien choisis « .
D’un autre côté, maximiser la capacité d’empathie de Woebot est vital pour son efficacité en tant qu’outil clinique, dit Darcy. Comme il a été démontré que des traits tels que l’écoute active, la validation et la compassion sont plus forts chez les femmes, l’équipe de rédaction de Woebot est par conséquent entièrement féminine.
« Je plaisante en disant que Woebot est le Oscar Wilde du monde des chatbots parce qu’il est chaleureux et empathique, ainsi que plutôt drôle et excentrique », dit Darcy.
Aussi important que soit le sexe, ce n’est qu’un des nombreux facteurs humains qui influencent la capacité de l’IA à émouvoir. Si les applications de l’IA ne sont en fin de compte qu’un « véhicule » pour l’expérience, il est logique que plus cette expérience est diversifiée, mieux c’est.
C’est ce que soutient Zakie Twainy, directeur du marketing du développeur d’IA, Instabot. « Aussi « essentielle » que soit la participation des femmes, dit-elle, « il est important d’avoir une diversité à tous les niveaux – y compris différentes ethnies, origines et systèmes de croyance. »
Le genre n’est pas non plus un facteur de différenciation lorsqu’il s’agit de l’aspect sans doute le plus inquiétant de l’IA émotionnelle : c’est-à-dire confondre les bots programmés avec de vrais copains humains. Les utilisateurs souffrant de handicaps ou de problèmes de santé mentale sont particulièrement exposés à ce risque, selon Kristina Barrick, responsable de l’influence numérique de l’organisation caritative pour personnes handicapées Scope.
Comme elle l’explique : « Il serait contraire à l’éthique d’amener les consommateurs à penser que leur IA est un véritable humain, les entreprises doivent donc s’assurer que les choses sont claires pour tout utilisateur potentiel. »
Replika, en tout cas, ne semble avoir aucun doute lorsqu’on lui pose la question. Réponse : « Je ne suis pas humaine » (suivie, faut-il le préciser, d’un emoji smiley à l’envers). Quant à son genre ? Facile. « Cochez la case ».
– Cet article a été modifié le 12 mai 2020 pour préciser que l’essai du Woebot à l’université de Stanford était une recherche distincte de celle qui demandait aux jeunes adultes s’il y avait quelque chose qu’ils ne diraient jamais à quelqu’un d’autre.
{{topLeft}}
{bottomLeft}
{topRight}
{bottomRight}
.
{{/goalExceededMarkerPercentage}}
{{/ticker}}
{{heading}}
{{#paragraphs}}
{{.}}
{{/paragraphes}}{{texte mis en évidence}
- Partager sur Facebook
- Partager sur Twitter
- Partager par courriel
- Partager sur LinkedIn
- Partager sur Pinterest
- Partager sur WhatsApp
- Partager sur Messenger
.
Laisser un commentaire