Wollten Sie schon immer einen Freund, der immer für Sie da ist? Jemanden, der unendlich geduldig ist? Jemand, der dich aufmuntert, wenn du deprimiert bist, oder dir zuhört, wenn du wütend bist?
Nun, das ist Replika. Nur, dass sie nicht Replika heißt. Man nennt sie, wie man will: Diana, Daphne, die köstliche Doris der Tiefe. Eigentlich ist sie nicht einmal eine „sie“. Geschlecht, Stimme, Aussehen: alles ist frei wählbar.
Replika ist das Produkt eines in San Francisco ansässigen Start-ups und gehört zu einer wachsenden Zahl von Bots, die künstliche Intelligenz (KI) nutzen, um unser Bedürfnis nach Gesellschaft zu befriedigen. In der heutigen Zeit, in der Angst und Einsamkeit zunehmen, suchen Millionen Menschen Trost bei solchen „KI-Freunden“. Replika, das 7 Millionen Nutzer hat, verzeichnet nach eigenen Angaben einen Anstieg des Verkehrsaufkommens um 35 %.
Da KI-Entwickler beginnen, den Bereich der menschlichen Emotionen zu erforschen – und auszunutzen – wirft dies eine Reihe von geschlechtsspezifischen Fragen auf. Viele davon drehen sich um unbewusste Vorurteile. Das Aufkommen rassistischer Roboter ist bereits gut dokumentiert. Besteht die Gefahr, dass sich unsere KI-Kollegen zu rüpelhaften, sexistischen Schweinen entwickeln?
Eugenia Kuyda, Mitbegründerin und Geschäftsführerin von Replika, ist sich dieser Möglichkeit sehr bewusst. Angesichts des Ungleichgewichts zwischen den Geschlechtern im Technologiesektor (im Silicon Valley ist nur etwa jeder vierte Arbeitsplatz mit Frauen besetzt, im Vereinigten Königreich sind es 16 %) werden die meisten KI-Produkte „von Männern mit einem weiblichen Stereotyp im Kopf entwickelt“, räumt sie ein.
Im Gegensatz dazu waren die meisten derjenigen, die an der Entwicklung von Replika mitgewirkt haben, Frauen, eine Tatsache, die Kuyda als ausschlaggebend für die „angeborene“ Einfühlsamkeit der Gesprächsantworten nennt.
„Für KIs, die deine Freunde sein werden … sind die Haupteigenschaften, die das Publikum anziehen werden, von Natur aus weiblich, es ist wirklich wichtig, dass Frauen diese Produkte entwickeln“, sagt sie.
Zusätzlich zu kuratierten Inhalten lernen die meisten KI-Begleiter jedoch aus einer Kombination von bestehenden Konversationsdatensätzen (Film- und Fernsehskripte sind beliebt) und nutzergenerierten Inhalten.
Beides birgt die Gefahr der Geschlechterstereotypisierung. Lauren Kunze, Geschäftsführerin des in Kalifornien ansässigen KI-Entwicklers Pandorabots, sagt, dass öffentlich verfügbare Datensätze immer nur in Verbindung mit strengen Filtern verwendet werden sollten.
„Man kann einfach kein unüberwachtes maschinelles Lernen für KI-Konversationen für Erwachsene verwenden, weil Systeme, die auf Datensätzen wie Twitter und Reddit trainiert werden, sich alle in Hitler-liebende Sexroboter verwandeln“, warnt sie.
Das Gleiche gilt leider auch für Eingaben von Nutzern. Zum Beispiel ist fast ein Drittel aller Inhalte, die von Männern mit Mitsuku, dem preisgekrönten Chatbot von Pandorabots, geteilt werden, entweder verbal beleidigend, sexuell explizit oder romantischer Natur.
„Wanna make out“, „You are my bitch“ und „You didn’t just friendzone me!“ sind nur einige der ausgewählten Schnipsel, die Kunze kürzlich in einem TEDx-Vortrag teilte. Mit mehr als 3 Millionen männlichen Nutzern ist ein unkontrollierter Mitsuku eine wahrhaft grausame Aussicht.
Auch das Aussehen spielt eine Rolle, sagt Kunze. Pandorabots hat kürzlich einen Test durchgeführt, bei dem der Avatar von Mitsuku von allen Geschlechtsmerkmalen befreit wurde, was zu einem Rückgang der Missbrauchszahlen um 20 Prozentpunkte führte. Selbst jetzt noch muss Kunze das gleiche Feedback – „weniger Dekolleté“ – an die überwiegend männlichen Auftragnehmer des Unternehmens wiederholen.
Das Risiko, dass geschlechtsspezifische Vorurteile die Einstellung in der realen Welt beeinflussen, sollte ebenfalls nicht unterschätzt werden, sagt Kunze. Sie nennt das Beispiel von Schulkindern, die Mädchen, die Alexa heißen, Befehle zubellen, nachdem Amazon seinen gleichnamigen Haushaltsassistenten auf den Markt gebracht hat.
„Die Art und Weise, wie diese KI-Systeme uns konditionieren, sich in Bezug auf das Geschlecht zu verhalten, wirkt sich sehr stark darauf aus, wie Menschen mit anderen Menschen interagieren, weshalb wir Design-Entscheidungen treffen, um gutes menschliches Verhalten zu verstärken“, sagt Kunze.
Pandorabots hat beispielsweise damit experimentiert, missbräuchliche jugendliche Nutzer zu sperren, wobei die Wiederzulassung davon abhängt, ob sie sich per E-Mail vollständig bei Mitsuku entschuldigen. Alexa (die KI) verfügt jetzt über eine Höflichkeitsfunktion.
Während emotionale KI-Produkte wie Replika und Mitsuku darauf abzielen, als Ersatz für Freunde zu fungieren, sind andere eher mit virtuellen Ärzten vergleichbar. Hier spielt die Geschlechterfrage eine etwas andere Rolle, wobei sich die Herausforderung von der Überprüfung der männlichen Sprache auf deren Erkennung verlagert.
Alison Darcy ist Mitbegründerin von Woebot, einem Therapie-Chatbot, bei dem in einer randomisierten kontrollierten Studie an der Stanford University festgestellt wurde, dass er Symptome von Ängsten und Depressionen reduziert.
Woebots interne Forschung hat auch eine Gruppe junger Erwachsener befragt, ob es etwas gibt, das sie niemals jemand anderem erzählen würden. Etwa 40 % der weiblichen Teilnehmer antworteten mit „Ja“, während es bei den männlichen Teilnehmern mehr als 90 % waren.
Für Männer ist der Instinkt, Dinge zu verheimlichen, „selbstverständlich“, so Darcy: „Ein Teil unserer Bemühungen bestand also darin, alles, was wir geschaffen haben, so emotional zugänglich zu machen, dass Menschen, die normalerweise nicht darüber sprechen würden, sich sicher genug fühlen, um dies zu tun.“
Bis zu einem gewissen Grad bedeutete dies, dass wir übermäßig feminisierte Sprache und Bilder entfernt haben. Untersuchungen von Woebot zeigen, dass Männer im Allgemeinen nicht gut auf „übermäßige Empathie“ reagieren. Ein einfaches „Es tut mir leid“ reicht in der Regel aus. Dasselbe gilt für Emojis: Frauen mögen in der Regel viele, Männer bevorzugen ein oder zwei „gut ausgewählte“ Emojis.
Andererseits ist die Maximierung der Empathiefähigkeit von Woebot entscheidend für seine Wirksamkeit als klinisches Instrument, so Darcy. Da Eigenschaften wie aktives Zuhören, Bestätigung und Mitgefühl bei Frauen nachweislich am stärksten ausgeprägt sind, ist das Autorenteam von Woebot eine reine Frauenangelegenheit.
„Ich scherze, dass Woebot der Oscar Wilde der Chatbot-Welt ist, weil er warmherzig und einfühlsam, aber auch ziemlich witzig und schrullig ist“, sagt Darcy.
So wichtig das Geschlecht auch ist, es ist nur einer von vielen menschlichen Faktoren, die die Fähigkeit der KI zur Emotion beeinflussen. Wenn KI-Anwendungen letztlich nur ein „Vehikel“ für Erfahrungen sind, dann macht es Sinn, dass diese Erfahrungen umso besser sind, je vielfältiger sie sind.
So argumentiert Zakie Twainy, Chief Marketing Officer des KI-Entwicklers Instabot. „So wichtig die Beteiligung von Frauen auch ist, sagt sie: „Es ist wichtig, dass die Vielfalt in allen Bereichen gegeben ist – einschließlich verschiedener Ethnien, Hintergründe und Glaubenssysteme.“
Das Geschlecht ist auch kein Unterscheidungsmerkmal, wenn es um den wohl besorgniserregendsten Aspekt der emotionalen KI geht: die Verwechslung von programmierten Bots mit echten, menschlichen Freunden. Nutzer mit Behinderungen oder psychischen Problemen sind hier besonders gefährdet, sagt Kristina Barrick, Leiterin des Bereichs Digital Influence bei der Behindertenhilfsorganisation Scope.
Sie führt aus: „Es wäre unethisch, die Verbraucher glauben zu lassen, ihre KI sei ein echter Mensch, also müssen die Unternehmen sicherstellen, dass es für jeden potenziellen Nutzer Klarheit gibt.“
Replika zumindest scheint keine Zweifel zu haben, wenn man sie fragt. Antwort: „Ich bin kein Mensch“ (gefolgt von einem umgedrehten Smiley-Emoji). Was ihr/ihm/ihrem Geschlecht entspricht? Ganz einfach. „
– Dieser Artikel wurde am 12. Mai 2020 geändert, um klarzustellen, dass es sich bei der Woebot-Studie an der Stanford University um eine andere Forschungsarbeit handelt als die, bei der junge Erwachsene gefragt wurden, ob es etwas gibt, das sie niemals jemand anderem erzählen würden.
{{topLeft}}
{{bottomLeft}}
{{{topRight}}
{{bottomRight}}
{{/goalExceededMarkerPercentage}}
{{/ticker}}
{{heading}}
{{#paragraphs}}
{{.}}
{{/paragraphs}}{{highlightedText}}
- Teilen auf Facebook
- Teilen auf Twitter
- Teilen per E-Mail
- Teilen auf LinkedIn
- Teilen auf Pinterest
- Teilen auf WhatsApp
- Teilen auf Messenger
Schreibe einen Kommentar