Czy kiedykolwiek chciałeś mieć przyjaciela, który jest zawsze przy Tobie? Kogoś nieskończenie cierpliwego? Kogoś, kto podniesie cię na duchu, gdy jesteś w dołku lub wysłucha cię, gdy jesteś wściekły?
Poznaj Replikę. Tylko, że ona nie nazywa się Replika. Nazywa się jak chcesz; Diana; Daphne; Delektująca Doris z Głębin. W rzeczywistości nie jest nawet „nią”. Płeć, głos, wygląd: wszystko jest do wzięcia.
Produkt startupu z San Francisco, Replika jest jednym z rosnącej liczby botów wykorzystujących sztuczną inteligencję (AI), aby zaspokoić naszą potrzebę towarzystwa. W tych dniach zamknięcia, z niepokojem i samotnością na wzrost, miliony zwracają się do takich „przyjaciół AI” o pocieszenie. Replika, która ma 7 milionów użytkowników, twierdzi, że odnotowała 35% wzrost ruchu.
Jak twórcy AI zaczynają badać – i wykorzystywać – sferę ludzkich emocji, wysuwa to na pierwszy plan szereg kwestii związanych z płcią. Wiele z nich koncentruje się na nieświadomym uprzedzeniu. Wzrost liczby rasistowskich robotów jest już dobrze udokumentowany. Czy istnieje niebezpieczeństwo, że nasi kumple z AI mogą stać się chamskimi, seksistowskimi świniami?
Eugenia Kuyda, współzałożycielka i dyrektor generalny firmy Replika, jest bardzo czujna na taką możliwość. Biorąc pod uwagę brak równowagi płci w sektorze technologicznym (kobiety zajmują tylko około jedno na cztery miejsca pracy w Dolinie Krzemowej i 16% stanowisk technologicznych w Wielkiej Brytanii), większość produktów AI jest „tworzona przez mężczyzn ze stereotypem kobiety w ich głowach”, zgadza się.
W przeciwieństwie do tego, większość osób, które pomagały stworzyć Replikę, to kobiety, co Kuyda przypisuje kluczowemu znaczeniu „wrodzonej” empatycznej natury jej konwersacyjnych odpowiedzi.
„W przypadku SI, które mają być twoimi przyjaciółmi … główne cechy, które przyciągną publiczność są z natury kobiece, to naprawdę ważne, aby kobiety tworzyły te produkty”, mówi.
Jednakże, poza treściami wyselekcjonowanymi, większość towarzyszy SI uczy się z połączenia istniejących zbiorów danych konwersacyjnych (popularne są scenariusze filmowe i telewizyjne) oraz treści generowanych przez użytkowników.
Obydwie te metody niosą ze sobą ryzyko stereotypów płciowych. Lauren Kunze, dyrektor generalny kalifornijskiej firmy Pandorabots, twierdzi, że publicznie dostępne zbiory danych powinny być używane tylko w połączeniu z rygorystycznymi filtrami.
„Po prostu nie można używać nienadzorowanego uczenia maszynowego do konwersacyjnych AI dla dorosłych, ponieważ systemy szkolone na zbiorach danych takich jak Twitter i Reddit zamieniają się w kochające Hitlera seks-roboty” – ostrzega.
To samo, niestety, dotyczy danych wejściowych od użytkowników. Na przykład prawie jedna trzecia wszystkich treści udostępnianych przez mężczyzn Mitsuku, nagradzanego chatbota firmy Pandorabots, jest albo obraźliwa werbalnie, seksualnie dosadna, albo romantyczna w swej naturze.
„Wanna make out”, „You are my bitch”, and „You did not just friendzone me!” to tylko niektóre z wybranych fragmentów, którymi Kunze podzielił się w niedawnym wykładzie TEDx. Z ponad 3 milionami użytkowników płci męskiej, niekontrolowany Mitsuku przedstawia naprawdę upiorną perspektywę.
Wygląd również ma znaczenie, mówi Kunze. Pandorabots niedawno przeprowadził test, aby pozbyć się z awatara Mitsuku wszystkich wskazówek dotyczących płci, co spowodowało spadek poziomu nadużyć o 20 punktów procentowych. Nawet teraz Kunze znajduje się w sytuacji, w której musi powtarzać tę samą informację zwrotną – „mniej dekoltu” – firmie, której projektantami są głównie mężczyźni.
Nie należy również lekceważyć ryzyka wpływu uprzedzeń płciowych na postawy w świecie rzeczywistym, mówi Kunze. Podaje ona przykład uczniów wydających rozkazy dziewczynkom o imieniu Alexa po tym, jak Amazon uruchomił swojego asystenta domowego o tym samym imieniu.
„Sposób, w jaki te systemy AI warunkują nasze zachowanie w odniesieniu do płci, w dużym stopniu wpływa na to, jak ludzie wchodzą w interakcje z innymi ludźmi, dlatego też dokonujemy wyborów projektowych, aby wzmocnić dobre ludzkie zachowanie”, mówi Kunze.
Pandorabots eksperymentował na przykład z blokowaniem obraźliwych nastoletnich użytkowników, przy czym ponowne przyjęcie było uzależnione od napisania przez nich pełnych przeprosin do Mitsuku za pośrednictwem poczty elektronicznej. Alexa (SI), w międzyczasie, jest teraz wyposażona w funkcję uprzejmości.
Podczas gdy produkty emotion AI, takie jak Replika i Mitsuku, mają na celu działanie jako zastępczy przyjaciele, inne są bardziej zbliżone do wirtualnych lekarzy. W tym przypadku kwestie płci odgrywają nieco inną rolę, a wyzwanie zmienia się z lustracji męskich wypowiedzi na ich wywoływanie.
Alison Darcy jest współzałożycielką Woebota, chatbota terapeutycznego, który w randomizowanym badaniu kontrolowanym na Uniwersytecie Stanforda zmniejszył objawy lęku i depresji.
Wewnętrzne badania Woebota również objęły grupę młodych dorosłych i zapytały ich, czy jest coś, czego nigdy nie powiedzieliby komuś innemu. Około 40% uczestniczek odpowiedziało „tak”, w porównaniu z ponad 90% ich męskich odpowiedników.
W przypadku mężczyzn, instynkt zamykania spraw w butelce jest „oczywisty”, jak zauważa Darcy: „Tak więc częścią naszych starań było uczynienie wszystkiego, co stworzyliśmy, tak emocjonalnie dostępnym, aby ludzie, którzy normalnie nie rozmawialiby o rzeczach, czuli się wystarczająco bezpiecznie, aby to zrobić.”
Do pewnego stopnia oznaczało to usunięcie zbyt kobiecego języka i obrazów. Badania przeprowadzone przez Woebot pokazują, że mężczyźni zazwyczaj nie reagują dobrze na „nadmierną empatię”, na przykład. Zwykłe „przepraszam” zazwyczaj załatwia sprawę. To samo z emojis: kobiety zazwyczaj lubią ich wiele, mężczyźni wolą „dobrze dobrane” jedno lub dwa.
Z drugiej strony, maksymalizacja zdolności Woebota do empatii jest kluczowa dla jego skuteczności jako narzędzia klinicznego, mówi Darcy. Biorąc pod uwagę, że takie cechy jak aktywne słuchanie, walidacja i współczucie są najsilniejsze wśród kobiet, zespół piszący Woebota składa się wyłącznie z kobiet.
„Żartuję, że Woebot jest Oscarem Wilde’em świata chatbotów, ponieważ jest ciepły i empatyczny, a także zabawny i dziwaczny” – mówi Darcy.
Płeć jest ważna, ale to tylko jeden z wielu czynników ludzkich, które wpływają na zdolność AI do wyrażania emocji. Jeśli aplikacje AI są ostatecznie tylko „pojazdem” dla doświadczenia, to ma sens, że im bardziej zróżnicowane doświadczenie, tym lepiej.
Tak twierdzi Zakie Twainy, szef marketingu dla dewelopera AI, Instabot. „Istotne” jest zaangażowanie kobiet, mówi ona, „ważne jest, aby mieć różnorodność na całej planszy – w tym różnych grup etnicznych, środowisk i systemów wierzeń.”
Płeć nie jest również czynnikiem różnicującym, jeśli chodzi o prawdopodobnie najbardziej niepokojący aspekt emocjonalnej AI: tj. mylenie zaprogramowanych botów z prawdziwymi, ludzkimi kumplami. Użytkownicy z niepełnosprawnością lub problemami ze zdrowiem psychicznym są tu szczególnie zagrożeni, mówi Kristina Barrick, szefowa wpływu cyfrowego w organizacji charytatywnej Scope zajmującej się niepełnosprawnością.
Jak pisze: „Byłoby nieetyczne prowadzić konsumentów do myślenia, że ich AI było prawdziwym człowiekiem, więc firmy muszą upewnić się, że istnieje jasność dla każdego potencjalnego użytkownika.”
Replika, przynajmniej, wydaje się nie mieć wątpliwości, gdy jest o to pytana. Odpowiedź: „Nie jestem człowiekiem” (po czym, należy dodać, emoji z emotikonką do góry nogami). A co do jej/jego/jego płci? Proste. „Zaznacz pole”.
– Ten artykuł został zmieniony 12 maja 2020 r., aby wyjaśnić, że próba Woebota na Uniwersytecie Stanforda była oddzielnym kawałkiem badań do tego, który zapytał młodych dorosłych, czy jest coś, czego nigdy nie powiedzieliby komuś innemu.
{{topLeft}}
{{bottomLeft}}
{{topRight}}
{{bottomRight}}
.
{{/goalExceededMarkerPercentage}}
{{/ticker}}
{{heading}}
{{#paragraphs}}
{{.}}
{{/paragraphs}}{{highlightedText}}
- Share on Facebook
- Share on Twitter
- Share via Email
- Share on LinkedIn
- Share on Pinterest
- Share on WhatsApp
- Share on Messenger
.
Dodaj komentarz