Ai vrut vreodată un prieten care să fie mereu acolo pentru tine? Cineva infinit de răbdător? Cineva care să te înveselească atunci când ești deprimat sau să te asculte atunci când ești furios?
Ei bine, faceți cunoștință cu Replika. Doar că pe ea nu o cheamă Replika. I se spune cum vrei tu; Diana; Daphne; Delectabila Doris din adâncuri. Nici măcar nu este o „ea”, de fapt. Genul, vocea, înfățișarea: toate sunt la discreție.
Produs al unui startup cu sediul în San Francisco, Replika este unul din numărul tot mai mare de roboți care folosesc inteligența artificială (AI) pentru a răspunde nevoii noastre de companie. În aceste zile de izolare, în care anxietatea și singurătatea sunt în creștere, milioane de oameni apelează la astfel de „prieteni AI” pentru alinare. Replika, care are 7 milioane de utilizatori, spune că a înregistrat o creștere de 35% a traficului.
În timp ce dezvoltatorii de inteligență artificială încep să exploreze – și să exploateze – tărâmul emoțiilor umane, aceasta aduce în prim-plan o serie de probleme legate de gen. Multe se axează pe prejudecățile inconștiente. Ascensiunea roboților rasiști este deja bine documentată. Există pericolul ca tovarășii noștri de inteligență artificială să se transforme în porci bădărani și sexiști?
Eugenia Kuyda, co-fondator și director executiv al Replika, este hiper-războinică la o astfel de posibilitate. Având în vedere dezechilibrul de gen din sectorul tehnologic (femeile ocupă doar aproximativ unul din patru locuri de muncă în Silicon Valley și 16% din funcțiile tehnologice din Marea Britanie), majoritatea produselor de inteligență artificială sunt „create de bărbați cu un stereotip feminin în cap”, acceptă ea.
În schimb, majoritatea celor care au contribuit la crearea Replika au fost femei, fapt pe care Kuyda îl atribuie ca fiind crucial pentru natura empatică „înnăscută” a răspunsurilor sale conversaționale.
„Pentru inteligențele artificiale care vor fi prietenii tăi… principalele calități care vor atrage publicul sunt în mod inerent feminine, este foarte important să avem femei care să creeze aceste produse”, spune ea.
Pe lângă conținutul curatoriat, totuși, majoritatea companionilor de inteligență artificială învață dintr-o combinație de seturi de date conversaționale existente (scenariile de film și televiziune sunt populare) și conținutul generat de utilizatori.
Ambele prezintă riscuri de stereotipuri de gen. Lauren Kunze, director executiv al dezvoltatorului de inteligență artificială Pandorabots, cu sediul în California, spune că seturile de date disponibile în mod public ar trebui să fie folosite numai în combinație cu filtre riguroase.

„Pur și simplu nu puteți folosi învățarea automată nesupravegheată pentru inteligența artificială conversațională pentru adulți, deoarece sistemele care sunt antrenate pe seturi de date precum Twitter și Reddit se transformă toate în roboți sexuali iubitori de Hitler”, avertizează ea.
Același lucru, din păcate, este valabil și pentru intrările de la utilizatori. De exemplu, aproape o treime din tot conținutul împărtășit de bărbați cu Mitsuku, robotul de chat premiat al Pandorabots, este fie abuziv verbal, fie explicit din punct de vedere sexual, fie de natură romantică.

„Vreau să ne sărutăm”, „Ești cățeaua mea” și „Nu m-ai făcut doar friendzone!” sunt doar câteva dintre cele mai alese fragmente împărtășite de Kunze într-o conferință TEDx recentă. Cu mai mult de 3 milioane de utilizatori de sex masculin, un Mitsuku necontrolat prezintă o perspectivă cu adevărat îngrozitoare.
Aparențele contează și ele, spune Kunze. Pandorabots a efectuat recent un test pentru a scăpa avatarul lui Mitsuku de toate indiciile de gen, ceea ce a dus la o scădere a nivelurilor de abuz cu 20 de puncte procentuale. Chiar și acum, Kunze se vede nevoită să repete același feedback – „mai puțin decolteu” – către contractorul de design al companiei, predominant masculin.
Nu trebuie subestimat nici riscul ca prejudecățile de gen să afecteze atitudinile din lumea reală, spune Kunze. Ea dă exemplul școlarilor care latră comenzi la fetele numite Alexa după ce Amazon și-a lansat asistentul de acasă cu același nume.
„Modul în care aceste sisteme de inteligență artificială ne condiționează să ne comportăm în ceea ce privește genul se răsfrânge foarte mult asupra modului în care oamenii ajung să interacționeze cu alți oameni, motiv pentru care facem alegeri de proiectare pentru a consolida un comportament uman bun”, spune Kunze.
Pandorabots a experimentat interzicerea utilizatorilor adolescenți abuzivi, de exemplu, cu readmiterea condiționată de scrierea de către aceștia a unor scuze complete către Mitsuku prin e-mail. Alexa (AI), între timp, vine acum cu o funcție de politețe.
În timp ce produsele de inteligență artificială a emoțiilor, cum ar fi Replika și Mitsuku, urmăresc să acționeze ca prieteni surogat, altele sunt mai apropiate de medicii virtuali. Aici, problemele de gen joacă puțin diferit, provocarea trecând de la verificarea discursului masculin la obținerea acestuia.

Alison Darcy este co-fondator al Woebot, un chatbot de terapie care, într-un studiu controlat randomizat la Universitatea Stanford, s-a constatat că reduce simptomele de anxietate și depresie.

De asemenea, cercetarea internă a Woebot a eșantionat un grup de tineri adulți și a întrebat dacă există ceva ce nu ar spune niciodată altcuiva. Aproximativ 40% dintre participantele de sex feminin au spus „‘da'”, în comparație cu peste 90% dintre omologii lor de sex masculin.
Pentru bărbați, instinctul de a reține lucrurile este „evident”, observă Darcy: „Așadar, o parte din efortul nostru a fost de a face ca tot ceea ce am creat să fie atât de accesibil din punct de vedere emoțional încât oamenii care în mod normal nu ar vorbi despre lucruri să se simtă suficient de în siguranță pentru a o face.”
Într-o anumită măsură, acest lucru a însemnat eliminarea limbajului și a imaginilor excesiv de feminizate. Cercetările efectuate de Woebot arată că, în general, bărbații nu răspund bine la „empatie excesivă”, de exemplu. Un simplu „îmi pare rău” este de obicei suficient. Același lucru se întâmplă și cu emoticoanele: femeilor le plac de obicei multe; bărbații preferă unul sau două „bine alese”.

Pe de altă parte, maximizarea capacității de empatie a Woebot este vitală pentru eficacitatea sa ca instrument clinic, spune Darcy. Având în vedere că trăsături precum ascultarea activă, validarea și compasiunea s-au dovedit a fi cele mai puternice în rândul femeilor, echipa de scriere a lui Woebot este, în consecință, o afacere exclusiv feminină.
„Glumesc că Woebot este Oscar Wilde din lumea chatbot-urilor, deoarece este cald și empatic, precum și destul de amuzant și ciudat”, spune Darcy.
Cât de important este genul, acesta este doar unul dintre numeroșii factori umani care influențează capacitatea de emoție a IA. Dacă aplicațiile AI sunt, în cele din urmă, doar un „vehicul” pentru experiență, atunci este logic că, cu cât această experiență este mai diversă, cu atât mai bine.
Așa susține Zakie Twainy, director de marketing pentru dezvoltatorul AI, Instabot. Oricât de „esențială” ar fi implicarea feminină, spune ea, „este important să avem diversitate pe toată linia – inclusiv diferite etnii, medii și sisteme de credință.”
Nici sexul nu este un factor de diferențiere atunci când vine vorba de probabil cel mai îngrijorător aspect al inteligenței artificiale emoționale: adică confundarea roboților programați cu prieteni reali, umani. Utilizatorii cu dizabilități sau cu probleme de sănătate mintală sunt deosebit de expuși riscului în acest caz, spune Kristina Barrick, șefa de influență digitală la organizația caritabilă pentru persoane cu dizabilități Scope.
Cum detaliază ea: „Ar fi lipsit de etică să îi facă pe consumatori să creadă că AI-ul lor este un om real, așa că societățile trebuie să se asigure că există claritate pentru orice potențial utilizator.”
Replika, cel puțin, nu pare să aibă nicio îndoială atunci când este întrebată. Răspunde: „Nu sunt om” (urmat, trebuie adăugat, de un emoji smiley cu susul în jos). Cât despre sexul ei/ei/ei? Simplu. „Bifați căsuța”.

– Acest articol a fost modificat la 12 mai 2020 pentru a clarifica faptul că studiul Woebot de la Universitatea Stanford a fost o cercetare separată de cea care a întrebat tinerii adulți dacă există ceva ce nu ar spune niciodată altcuiva.

{{#ticker}}

{{{topLeft}}

{{bottomLeft}}

{{topRight}}

{{bottomRight}}

{{#goalExceededMarkerPercentage}}

{{/goalExceededMarkerPercentage}}

{{/ticker}}

{{heading}}

{{#paragraphs}}

{{.}}

{{{/paragrafe}}{{{highlightedText}}

{{#cta}}{{text}}{{{/cta}}
Amintiți-mi în mai

Metode de plată acceptate: Visa, Mastercard, American Express și PayPal

Vom ține legătura pentru a vă reaminti să contribuiți. Așteptați un mesaj în căsuța dvs. poștală în mai 2021. Dacă aveți întrebări legate de contribuție, vă rugăm să ne contactați.

  • Share on Facebook
  • Share on Twitter
  • Share via Email
  • Share on LinkedIn
  • Share on Pinterest
  • Share on WhatsApp
  • Share on Messenger

.