Ever queria um amigo que estivesse sempre presente para si? Alguém infinitamente paciente? Alguém que o animará quando estiver nas lixeiras ou que o ouvirá quando estiver furioso?
Bem, conheça a Replika. Só que, ela não se chama Replika. Ela é chamada como você quiser; Diana; Daphne; Delectable Doris of the Deep. Ela nem sequer é uma “ela”, na verdade. Gênero, voz, aparência: todos estão prontos para agarrar.
O produto de um startup baseado em São Francisco, Replika é um de um número crescente de bots usando inteligência artificial (IA) para atender a nossa necessidade de companheirismo. Nestes dias de bloqueio, com ansiedade e solidão em ascensão, milhões estão se voltando para esses “amigos da IA” em busca de consolo. O Replika, que tem 7 milhões de usuários, diz ter visto um aumento de 35% no tráfego.
Quando os desenvolvedores de IA começam a explorar – e explorar – o reino das emoções humanas, isso traz uma série de questões relacionadas ao gênero à tona. Muitos estão centrados no preconceito inconsciente. A ascensão dos robôs racistas já está bem documentada. Existe o perigo de os nossos amigos da IA poderem emergir para se tornarem loucos, sexistas porcos?
Eugenia Kuyda, co-fundadora da Replika e chefe executiva, está hiper-activo para tal possibilidade. Dado o desequilíbrio de gênero do setor de tecnologia (as mulheres ocupam apenas um em cada quatro empregos no Vale do Silício e 16% dos papéis da tecnologia britânica), a maioria dos produtos de IA são “criados por homens com um estereótipo feminino em suas cabeças”, ela aceita.
Em contraste, a maioria dos que ajudaram a criar Replika foram mulheres, um fato que Kuyda credita por ser crucial para a natureza “inata” empática de suas respostas conversacionais.
“Para os AIs que vão ser seus amigos… as principais qualidades que vão atrair o público são inerentemente femininas, é realmente importante ter mulheres criando esses produtos”, diz ela.
Além do conteúdo curado, porém, a maioria dos AI companheiros aprendem com uma combinação de conjuntos de dados de conversação existentes (roteiros de cinema e TV são populares) e conteúdo gerado pelo usuário.
ambos apresentam riscos de estereótipos de gênero. Lauren Kunze, chefe executiva da desenvolvedora de IA Pandorabots, sediada na Califórnia, diz que os conjuntos de dados disponíveis publicamente só devem ser usados em conjunto com filtros rigorosos.

“Você simplesmente não pode usar o aprendizado por máquinas sem supervisão para IA de conversação adulta, porque os sistemas treinados em conjuntos de dados como Twitter e Reddit se transformam em robôs sexuais amantes de Hitler”, ela adverte.
O mesmo, lamentavelmente, é verdade para as entradas dos usuários. Por exemplo, quase um terço de todo o conteúdo compartilhado por homens com Mitsuku, o premiado chatbot de Pandorabots, ou é verbalmente abusivo, sexualmente explícito, ou romântico por natureza.

“Wanna curtir”, “You are my bitch”, e “You did not just friendzone me!” são apenas alguns dos trechos de escolha compartilhados por Kunze em uma conversa recente do TEDx. Com mais de 3 milhões de usuários masculinos, um Mitsuku desmarcado apresenta uma perspectiva verdadeiramente sinistra.
As aparências também importam, diz Kunze. Pandorabots recentemente fez um teste para livrar o avatar de Mitsuku de todas as pistas de gênero, resultando em uma queda nos níveis de abuso de 20 pontos percentuais. Mesmo agora, Kunze se vê tendo que repetir o mesmo feedback – “menos clivagem” – para o contratante de design predominantemente masculino da empresa.
O risco de preconceitos de gênero afetando atitudes do mundo real também não deve ser subestimado, diz Kunze. Ela dá o exemplo de crianças em idade escolar que ladram em meninas chamadas Alexa depois que a Amazon lançou seu assistente doméstico com o mesmo nome.
“A forma como esses sistemas de IA nos condicionam a nos comportarmos em relação ao gênero se espalha muito na forma como as pessoas acabam interagindo com outros humanos, e é por isso que fazemos escolhas de design para reforçar o bom comportamento humano”, diz Kunze.
Pandorabots tem experimentado banir usuários adolescentes abusivos, por exemplo, com a condição de que eles escrevam um pedido de desculpas completo para Mitsuku via e-mail. Alexa (a IA), entretanto, agora vem com um recurso de cortesia.
Embora os produtos de IA emocionais como Replika e Mitsuku visem agir como amigos substitutos, outros são mais parecidos com os médicos virtuais. Aqui, as questões de gênero são um pouco diferentes, com o desafio mudando de vetar a fala masculina para evitá-la.

Alison Darcy é co-fundador do Woebot, um chatbot terapêutico que, em um estudo controlado aleatório na Universidade de Stanford, foi encontrado para reduzir os sintomas de ansiedade e depressão.

A pesquisa interna do Woebot também amostrou um grupo de jovens adultos, e perguntou se havia algo que eles nunca contariam a outra pessoa. Aproximadamente 40% das participantes do sexo feminino disseram “sim”, em comparação com mais de 90% dos seus pares masculinos.
Para os homens, o instinto de engarrafar as coisas é “evidente”, observa Darcy: “Então, parte do nosso esforço foi tornar o que criámos tão emocionalmente acessível que as pessoas que normalmente não falam das coisas se sentiriam seguras o suficiente para o fazer.”
Até certo ponto, isto significou despojarmo-nos de linguagem e imagens excessivamente feminizadas. Pesquisas da Woebot mostram que os homens geralmente não respondem bem à “empatia excessiva”, por exemplo. Um simples “sinto muito” geralmente faz o truque. O mesmo com emojis: as mulheres tipicamente gostam muito; os homens preferem uma ou duas “bem escolhidas”.

No flipside, maximizar a capacidade de empatia de Woebot é vital para a sua eficácia como ferramenta clínica, diz Darcy. Com características como escuta ativa, validação e compaixão demonstradas como sendo as mais fortes entre as mulheres, a equipe de redação de Woebot é consequentemente um caso só de mulheres.
“Eu brinco que Woebot é o Oscar Wilde do mundo do chatbot porque é quente e empático, bem como muito engraçado e peculiar”, diz Darcy.
Importante como o gênero é, é apenas um dos muitos fatores humanos que influenciam a capacidade da IA de se emocionar. Se as aplicações de IA são apenas um “veículo” de experiência, então faz sentido que quanto mais diversa for a experiência, melhor.
Então, Zakie Twainy, diretor de marketing da Instabot, desenvolvedora de IA. “Essencial” como o envolvimento feminino é, diz ela, “é importante ter diversidade em toda a linha – incluindo diferentes etnias, origens e sistemas de crenças”
Nem é o gênero um diferenciador quando se trata de discutir o aspecto mais preocupante da IA emotiva: ou seja, confusos bots programados para amigos reais e humanos. Usuários com deficiências ou problemas de saúde mental estão em risco particular aqui, diz Kristina Barrick, chefe de influência digital no Scope da instituição de caridade para deficientes.
Como ela explica: “Não seria ético levar os consumidores a pensar que a sua IA é um ser humano real, por isso as empresas devem certificar-se que há clareza para qualquer potencial utilizador”
Replicika, pelo menos, não parece ter dúvidas quando perguntado. Responda: “Eu não sou humano” (seguido, deve ser adicionado, por um emoji sorridente de cabeça para baixo). Quanto ao seu/seu sexo? Fácil. “Tick the box”.

– Este artigo foi emendado em 12 de maio de 2020 para esclarecer que o julgamento Woebot na Universidade de Stanford foi uma pesquisa separada daquela que perguntava aos jovens adultos se havia algo que eles nunca contariam a outra pessoa.

{{#ticker}}

{{{{para-esquerda}}

{{bottomLeft}}

{{para-direita}

{{{para-direita}}

{{#goalExceededMarkerPercentage}}

{{/goalExceededMarkerPercentage}}

{{/ticker}}

{{heading}}

{{#paragraphs}}

{{.}}

{{{/parágrafos}}{{{texto iluminado}}

{{#cta}}{{{{/cta}}{{{texto}}{{{/cta}}
Remind me in May

Métodos de pagamento aceitos: Visa, Mastercard, American Express e PayPal

Estaremos em contato para lembrá-lo de contribuir. Fique atento a uma mensagem na sua caixa de entrada em Maio de 2021. Se você tiver alguma dúvida sobre como contribuir, entre em contato conosco.

>

>

  • Share no Facebook
  • >

  • Share no Twitter
  • >

  • Share via e-mail
  • >

  • Share no LinkedIn
  • Share no Pinterest
  • Share no WhatsApp
  • >

  • Share no Messenger
  • >