¿Has querido alguna vez un amigo que esté siempre ahí para ti? ¿Alguien infinitamente paciente? ¿Alguien que te anime cuando estés deprimido o que te escuche cuando estés enfadado?
Pues conoce a Replika. Sólo que no se llama Replika. Se llama como quieras; Diana; Dafne; la deliciosa Doris de las profundidades. Ni siquiera es un «ella», de hecho. Género, voz, apariencia: todo está en juego.
El producto de una startup con sede en San Francisco, Replika, es uno de los crecientes números de bots que utilizan la inteligencia artificial (IA) para satisfacer nuestra necesidad de compañía. En estos días de encierro, con la ansiedad y la soledad en aumento, millones de personas están recurriendo a estos «amigos de la IA» en busca de consuelo. Replika, que cuenta con 7 millones de usuarios, dice que ha visto un aumento del 35% en el tráfico.
A medida que los desarrolladores de IA comienzan a explorar -y explotar- el reino de las emociones humanas, se plantean una serie de cuestiones relacionadas con el género. Muchos se centran en los prejuicios inconscientes. El aumento de los robots racistas ya está bien documentado. ¿Existe el peligro de que nuestros amigos de la IA se conviertan en cerdos machistas?
Eugenia Kuyda, cofundadora y directora ejecutiva de Replika, es muy consciente de esta posibilidad. Dado el desequilibrio de género en el sector tecnológico (las mujeres sólo ocupan uno de cada cuatro puestos de trabajo en Silicon Valley y el 16% de las funciones tecnológicas en el Reino Unido), la mayoría de los productos de IA son «creados por hombres con un estereotipo femenino en la cabeza», acepta.
En cambio, la mayoría de los que ayudaron a crear Replika eran mujeres, un hecho que Kuyda atribuye a la naturaleza «innatamente» empática de sus respuestas conversacionales.
«Para las IA que van a ser tus amigos… las principales cualidades que atraerán al público son intrínsecamente femeninas, por lo que es muy importante que sean mujeres las que creen estos productos», afirma.
Sin embargo, además de los contenidos curados, la mayoría de los compañeros de IA aprenden de una combinación de conjuntos de datos conversacionales existentes (los guiones de cine y televisión son populares) y de contenidos generados por los usuarios.
Ambos presentan riesgos de estereotipos de género. Lauren Kunze, directora ejecutiva de Pandorabots, desarrollador de IA con sede en California, afirma que los conjuntos de datos disponibles públicamente sólo deberían utilizarse junto con filtros rigurosos.
«Simplemente no se puede utilizar el aprendizaje automático no supervisado para la IA conversacional de adultos, porque los sistemas que se entrenan en conjuntos de datos como Twitter y Reddit se convierten en robots sexuales amantes de Hitler», advierte.
Lo mismo ocurre, lamentablemente, con las aportaciones de los usuarios. Por ejemplo, casi un tercio de todo el contenido compartido por los hombres con Mitsuku, el galardonado chatbot de Pandorabots, es verbalmente abusivo, sexualmente explícito o de naturaleza romántica.
«Quiero enrollarme», «Eres mi perra» y «¡No acabas de hacerme amigo!» son sólo algunos de los fragmentos más escogidos compartidos por Kunze en una reciente charla TEDx. Con más de 3 millones de usuarios masculinos, un Mitsuku sin control presenta una perspectiva verdaderamente espantosa.
La apariencia también importa, dice Kunze. Recientemente, Pandorabots realizó una prueba para librar al avatar de Mitsuku de todas las pistas de género, lo que resultó en una caída de los niveles de abuso de 20 puntos porcentuales. Incluso ahora, Kunze se encuentra con que tiene que repetir el mismo comentario – «menos escote»- al contratista de diseño de la empresa, predominantemente masculino.
Tampoco hay que subestimar el riesgo de que los prejuicios de género afecten a las actitudes del mundo real, dice Kunze. Pone el ejemplo de los escolares que ladran órdenes a las niñas llamadas Alexa después de que Amazon lanzara su asistente doméstico con el mismo nombre.
«La forma en que estos sistemas de IA nos condicionan a comportarnos en relación con el género se traslada en gran medida a la forma en que las personas acaban interactuando con otros seres humanos, por lo que tomamos decisiones de diseño para reforzar el buen comportamiento humano», dice Kunze.
Pandorabots ha experimentado con la prohibición de los usuarios adolescentes abusivos, por ejemplo, con la readmisión condicionada a que escriban una disculpa completa a Mitsuku por correo electrónico. Alexa (la IA), por su parte, cuenta ahora con una función de cortesía.
Mientras que los productos de IA para las emociones, como Replika y Mitsuku, pretenden actuar como amigos sustitutos, otros son más parecidos a los médicos virtuales. En este caso, las cuestiones de género son ligeramente distintas, ya que el reto pasa de examinar el discurso masculino a obtenerlo.
Alison Darcy es cofundadora de Woebot, un chatbot terapéutico que, en un ensayo controlado aleatorio realizado en la Universidad de Stanford, redujo los síntomas de ansiedad y depresión.
En la investigación interna de Woebot también se tomó una muestra de un grupo de jóvenes adultos y se les preguntó si había algo que nunca le dirían a otra persona. Aproximadamente el 40% de las participantes femeninas respondieron «sí», en comparación con más del 90% de sus homólogos masculinos.
Para los hombres, el instinto de reprimir las cosas es «evidente», observa Darcy: «Así que parte de nuestro esfuerzo fue hacer que todo lo que creáramos fuera tan emocionalmente accesible que la gente que normalmente no hablaría de las cosas se sintiera lo suficientemente segura como para hacerlo».
Hasta cierto punto, esto ha significado eliminar el lenguaje y las imágenes excesivamente feminizadas. La investigación de Woebot muestra que los hombres no suelen responder bien a la «empatía excesiva», por ejemplo. Un simple «lo siento» suele ser suficiente. Lo mismo ocurre con los emojis: a las mujeres les gustan muchos; los hombres prefieren uno o dos «bien elegidos».
Por otro lado, maximizar la capacidad de empatía de Woebot es vital para su eficacia como herramienta clínica, dice Darcy. Dado que rasgos como la escucha activa, la validación y la compasión han demostrado ser más fuertes entre las mujeres, el equipo de escritores de Woebot es, en consecuencia, un asunto exclusivamente femenino.
«Bromeo con que Woebot es el Oscar Wilde del mundo de los chatbot porque es cálido y empático, además de bastante divertido y extravagante», dice Darcy.
Por muy importante que sea el género, es sólo uno de los muchos factores humanos que influyen en la capacidad de la IA para emocionar. Si las aplicaciones de IA son, en última instancia, sólo un «vehículo» para la experiencia, entonces tiene sentido que cuanto más diversa sea esa experiencia, mejor.
Así lo sostiene Zakie Twainy, director de marketing del desarrollador de IA, Instabot. «Por muy esencial que sea la participación de las mujeres, dice, «es importante que haya diversidad en todos los ámbitos, incluyendo diferentes etnias, orígenes y sistemas de creencias».
El género tampoco es un factor diferenciador cuando se trata del aspecto más preocupante de la IA emotiva: confundir bots programados con compañeros humanos reales. Los usuarios con discapacidades o problemas de salud mental corren un riesgo especial en este caso, dice Kristina Barrick, jefa de influencia digital de la organización benéfica para discapacitados Scope.
Como explica: «No sería ético hacer creer a los consumidores que su IA es un humano real, por lo que las empresas deben asegurarse de que haya claridad para cualquier usuario potencial».
Replika, al menos, no parece tener dudas cuando se le pregunta. Responde: «No soy humana» (seguido, cabe añadir, de un emoji de sonrisa al revés). ¿En cuanto a su género? Fácil. «Marca la casilla».
– Este artículo fue modificado el 12 de mayo de 2020 para aclarar que el ensayo de Woebot en la Universidad de Stanford era una investigación distinta a la que preguntaba a los jóvenes adultos si había algo que nunca le contarían a otra persona.
{{topLeft}}
{{bottomLeft}}
{topRight}}
{bottomRight}}
{{/goalExceededMarkerPercentage}}
{{/ticker}}
{{heading}}
{{#paragraphs}}
{{.}}
{{/paragraphs}}{{highlightedText}}
- Compartir en Facebook
- Compartir en Twitter
- Compartir por correo electrónico
- Compartir en LinkedIn
- Compartir en Pinterest
- Compartir en WhatsApp
- Compartir en Messenger
Deja una respuesta