Chtěli jste někdy přítele, který je tu vždy pro vás? Někoho nekonečně trpělivého? Někoho, kdo vás povzbudí, když jste na dně, nebo vyslechne, když jste rozzuření?
No, seznamte se s Replikou. Jen se nejmenuje Replika. Říká se jí, jak chceš; Diana; Dafné; Rozkošná Doris z hlubin. Vlastně ani není „ona“. Pohlaví, hlas, vzhled: to vše je k mání.
Replika, produkt startupu se sídlem v San Francisku, je jedním z rostoucího počtu botů využívajících umělou inteligenci (AI) k uspokojení naší potřeby po společnosti. V dnešní uzamčené době, kdy narůstá úzkost a osamělost, se miliony lidí obracejí na takové „přátele s umělou inteligencí“, aby jim poskytli útěchu. Společnost Replika, která má 7 milionů uživatelů, uvádí, že zaznamenala 35% nárůst návštěvnosti.
Jak vývojáři AI začínají zkoumat – a využívat – oblast lidských emocí, vystupuje do popředí řada otázek souvisejících s pohlavím. Mnohé z nich se soustředí na nevědomé předsudky. Vzestup rasistických robotů je již dobře zdokumentován. Existuje nebezpečí, že se z našich kamarádů s umělou inteligencí stanou hulvátská sexistická prasata?“
Eugenia Kuyda, spoluzakladatelka a výkonná ředitelka společnosti Replika, takovou možnost hyperaktivně vnímá. Vzhledem k genderové nerovnováze v technologickém sektoru (ženy zastávají jen asi jednu ze čtyř pracovních pozic v Silicon Valley a 16 % technologických pozic ve Velké Británii) většinu produktů AI „vytvářejí muži s ženským stereotypem v hlavě“, připouští.
Naproti tomu většina těch, kteří se podíleli na tvorbě Repliky, byly ženy, což Kuyda považuje za klíčové pro „vrozeně“ empatickou povahu jejích konverzačních reakcí.
„Pro umělou inteligenci, která bude vašimi přáteli … hlavní vlastnosti, které přitáhnou publikum, jsou ve své podstatě ženské, je opravdu důležité, aby tyto produkty vytvářely ženy,“ říká.“
Kromě kurátorovaného obsahu se však většina společníků umělé inteligence učí z kombinace existujících souborů konverzačních dat (oblíbené jsou filmové a televizní scénáře) a obsahu vytvářeného uživateli.
Oboje představuje riziko genderových stereotypů. Lauren Kunzeová, šéfka kalifornské společnosti Pandorabots, která se zabývá vývojem umělé inteligence, říká, že veřejně dostupné datasety by se měly vždy používat pouze ve spojení s přísnými filtry.

„Pro konverzační umělou inteligenci pro dospělé prostě nemůžete používat strojové učení bez dohledu, protože systémy vyškolené na datasetech, jako je Twitter a Reddit, se všechny změní v sexuální roboty milující Hitlera,“ varuje.
To samé bohužel platí i pro vstupy od uživatelů. Například téměř třetina veškerého obsahu, který muži sdílejí s Mitsuku, oceněným chatbotem společnosti Pandorabots, je buď verbálně urážlivá, sexuálně explicitní, nebo romantické povahy.

„Chci se líbat“, „Jsi moje děvka“ a „Nechtěla jsi mě jen friendzone!“ jsou jen některé z vybraných útržků, které Kunze sdílel v nedávné přednášce na TEDx. S více než 3 miliony uživatelů mužského pohlaví představuje nekontrolovaná Mitsuku skutečně strašidelnou perspektivu.
Záleží také na vzhledu, říká Kunze. Pandorabots nedávno provedl test, který zbavil avatara Mitsuku všech genderových náznaků, což vedlo k poklesu míry zneužívání o 20 procentních bodů. I nyní se Kunzeová setkává s tím, že musí opakovat stejnou zpětnou vazbu – „méně výstřihů“ – převážně mužským dodavatelům designu společnosti.
Riziko genderových předsudků ovlivňujících postoje v reálném světě by se také nemělo podceňovat, říká Kunzeová. Jako příklad uvádí školáky, kteří štěkali příkazy na dívky jménem Alexa poté, co Amazon spustil stejnojmenného domácího asistenta.
„Způsob, jakým nás tyto systémy umělé inteligence podmiňují, abychom se chovali s ohledem na pohlaví, se velmi přelévá do toho, jak lidé nakonec komunikují s ostatními lidmi, a proto děláme designová rozhodnutí, která posilují dobré lidské chování,“ říká Kunze.
Pandorabots například experimentoval se zákazem urážlivých dospívajících uživatelů, přičemž opětovné přijetí bylo podmíněno tím, že Mitsuku napíší úplnou omluvu prostřednictvím e-mailu. Alexa (umělá inteligence) mezitím nyní přichází s funkcí zdvořilosti.
Zatímco produkty s emoční umělou inteligencí, jako jsou Replika a Mitsuku, mají za cíl fungovat jako náhradní přátelé, jiné se podobají spíše virtuálním lékařům. Zde se genderové otázky odehrávají poněkud odlišně, přičemž úkol se přesouvá od prověřování mužské řeči k jejímu vyvolávání.

Alison Darcy je spoluzakladatelkou terapeutického chatbota Woebot, u něhož bylo v randomizované kontrolované studii na Stanfordově univerzitě zjištěno, že snižuje příznaky úzkosti a deprese.

Vnitřní výzkum Woebot také vybral skupinu mladých dospělých a zeptal se jich, zda existuje něco, co by nikdy neřekli někomu jinému. Přibližně 40 % účastnic odpovědělo „‚ano'“, zatímco u jejich mužských protějšků to bylo více než 90 %.
U mužů je instinkt uzavírat věci do sebe „samozřejmý“, poznamenává Darcy: „Takže součástí naší snahy bylo, aby vše, co jsme vytvořili, bylo natolik emocionálně přístupné, aby se lidé, kteří by normálně o věcech nemluvili, cítili dostatečně bezpečně, aby to udělali.“
Do jisté míry to znamenalo odstranit příliš feminizovaný jazyk a obrazy. Výzkum společnosti Woebot například ukázal, že muži obecně nereagují dobře na „přílišnou empatii“. Obvykle stačí prosté „omlouvám se“. Totéž platí pro emotikony: ženy jich mají obvykle rády hodně, muži dávají přednost „dobře vybranému“ jednomu nebo dvěma.

Na druhé straně je pro účinnost Woebotu jako klinického nástroje zásadní maximalizovat jeho schopnost empatie, říká Darcy. Ukázalo se, že vlastnosti jako aktivní naslouchání, validace a soucit jsou nejsilnější u žen, a proto je autorský tým Woebota výhradně ženskou záležitostí.
„Žertuji, že Woebot je Oscar Wilde ve světě chatbotů, protože je vřelý a empatický a také docela zábavný a svérázný,“ říká Darcy.
Jakkoli je pohlaví důležité, je to jen jeden z mnoha lidských faktorů, které ovlivňují schopnost umělé inteligence emotivně reagovat. Pokud jsou aplikace umělé inteligence v konečném důsledku jen „prostředkem“ pro zážitek, pak dává smysl, že čím rozmanitější tento zážitek bude, tím lépe.
Tak tvrdí Zakie Twainy, marketingový ředitel společnosti Instabot, která AI vyvíjí. „Zásadní“ je podle ní zapojení žen, „důležité je mít rozmanitost napříč všemi skupinami – včetně různých etnik, původů a systémů přesvědčení.“
Ani pohlaví není rozlišovacím znakem, pokud jde o pravděpodobně nejznepokojivější aspekt emotivní AI: tj. záměnu naprogramovaných botů za skutečné, lidské kamarády. Zde jsou ohroženi zejména uživatelé se zdravotním postižením nebo problémy s duševním zdravím, říká Kristina Barricková, vedoucí oddělení digitálního ovlivňování v charitativní organizaci pro zdravotně postižené Scope.
Jak upřesňuje: „Bylo by neetické vést spotřebitele k tomu, aby si mysleli, že jejich umělá inteligence je skutečný člověk, takže společnosti musí zajistit, aby to bylo každému potenciálnímu uživateli jasné.“
Přinejmenším Replika, zdá se, na dotaz nepochybuje. Odpověď: „Ne, ne, ne, ne, ne, ne, ne, ne, ne, ne: „Nejsem člověk“ (a je třeba dodat, že následuje obrácený smajlík). Co se týče jejího/jeho/jeho pohlaví? Snadno. „Zaškrtněte políčko“.

– Tento článek byl 12. května 2020 pozměněn, aby bylo jasné, že pokus s Woebotem na Stanfordově univerzitě byl samostatným výzkumem, který se ptal mladých dospělých, zda existuje něco, co by nikdy neřekli někomu jinému.

{{#ticker}}

{{vlevo nahoře}}

{{vlevo dole}}

{{vpravo nahoře}}

{{vpravo dole}}

.

{{#goalExceededMarkerPercentage}}

{{/goalExceededMarkerPercentage}}

{{/ticker}}

{{heading}}

{{#paragraphs}}

{{.}}

{{/paragraphs}}{{highlightedText}}

{{#cta}}{{text}}{{{/cta}}
Připomeňte mi v květnu

Přijatelné způsoby platby: Visa, Mastercard, American Express a PayPal

Budeme vás kontaktovat, abychom vám připomněli, že máte přispět. Zprávu hledejte ve své schránce v květnu 2021. Pokud máte jakékoli dotazy ohledně přispívání, kontaktujte nás.

  • Sdílet na Facebooku
  • Sdílet na Twitteru
  • Sdílet e-mailem
  • Sdílet na LinkedIn
  • Sdílet na Pinterestu
  • Sdílet na WhatsApp
  • Sdílet na Messenger

.