Geschlechtsneutrale Sprachassistenten – Überkommen des Gender Bias in der Technik

By Published On: Januar 21st, 2021Categories: sprachassistenten & voice

In einer Welt, in der neue Technologien exponentiell wachsen, künstliche Intelligenz jeden Tag smarter wird, wir uns mit Maschinen unterhalten und die Anzahl der Sprachassistenten sich in den nächsten paar Jahren verdreifachen soll, wird das Thema Gender Bias in der Technik immer relevanter. Es stellt sich die Frage, ob Sprachassistenten ein Gender-Bias-Problem haben und wenn ja, was wir dagegen tun können.

Eine weibliche Stimme wird grundsätzlich als beruhigend, einladend und oft als bevorzugt angesehen. Dies sind die Hauptargumente, mit denen Sprachassistenten-Entwickler und Forscher rechtfertigen, dass so viele Sprachassistenten weiblich sind. Sie sagen, dass Menschen die weibliche Stimme insgesamt lieber mögen und wissen Sie was? Sie liegen nicht unbedingt falsch.

Ich hatte die Gelegenheit, geschlechtsneutrale Sprachassistenten und insbesondere die Wahrnehmung von Geschlechterstereotypen der Benutzer in Bezug auf digitale Assistenten im Rahmen meiner Masterarbeit zu untersuchen, und freue mich, die Ergebnisse in diesem Artikel mit Ihnen zu teilen.

 

Weshalb sind die meisten Sprachassistenten weiblich?

Dies ist eine berechtigte Frage. Wenn ich Sie bitte, sich eine Assistenz der Geschäftsführung in Ihrem Kopf vorzustellen, ist das höchstwahrscheinlich eine weibliche Person, habe ich Recht? Das ist aber nicht in jedem Land der Fall. In Großbritannien beispielsweise ist Siri standardmäßig männlich. Wenn Sie an einen Butler in einem britischen Film denken, macht dies auch Sinn. Hochkarätige Butler waren typischerweise männlich. Dieses Beispiel fließt auch in Geschlechterstereotypen mit ein und unterstützt, dass es einen Grund für die Dominanz weiblicher Sprachassistenten gibt.

Zunehmende Unterhaltungen über und Interaktionen mit Sprachassistenten hat unsere Wahrnehmung verändert, negative Stereotypen hervorzuheben und zu verstärken. Für die kontinuierliche Weiterentwicklung auf dem Gebiet der Mensch-Computer-Interaktion ist die Entwicklung eines besseren Verständnisses und Bewusstseins für die Wechselwirkung von Geschlecht und Technologie und insbesondere von Sprachassistenten von entscheidender Bedeutung.

Im Verlauf der Masterarbeit haben wir frühere Forschungen erweitert, indem wir die geschlechtsneutrale Option als Mittel zur Vermeidung von Geschlechterstereotypen in Sprachassistenten aufgenommen haben.

Auch interessant: Weshalb Google Assistant momentan die Nase vorne hat

Why Google Assistant Is Leading The Voice Assistant Race

 

Warum spielen Geschlechterstereotypen in der Technik eine Rolle?

Es gibt drei theoretische Konzepte, die uns helfen zu verstehen, warum Geschlechterstereotypen eine so wichtige Rolle spielen.

Erstens befasst sich Anthropomorphismus mit dem Zuschreiben menschenähnlicher geistiger Fähigkeiten (z.B. Denken und Fühlen) gegenüber Computern oder anderen Maschinen (z. B. virtuellen Assistenten).

Zweitens basiert die Dominanz weiblicher Sprachassistenten auf der Theorie, dass „Computer soziale Akteure sind“, die besagt, dass „Individuen soziale Regeln und Erwartungen sinnlos auf Computer anwenden“1. Aus diesem Grund betrachten wir ein System, das Sie unterbricht als unhöflich, ein System, das ein gebräuchliches Wort falsch ausspricht als dumm, und ein System, das sich nicht daran erinnert, was Sie gerade gesagt haben als vergesslich.

Na und – fragen Sie sich vielleicht. Warum kümmern wir uns überhaupt um Eigenschaften, die wir einem Objekt oder einem System zuschreiben? Hier kommt das dritte Konzept, das möglicherweise negative Auswirkungen haben kann, ins Spiel.

Geschlechterstereotypen sind nicht nur beschreibend, sondern auch vorschreibend. Dies bedeutet, dass die Geschlechterstereotypen, die Menschen „Frauen und Männern zuschreiben, tendenziell auch von Frauen und Männern verlangt werden“2. Die Gesellschaft betrachtet Frauen als warmherzig und fürsorglich, weshalb von Frauen erwartet wird, dass sie diesem Konzept entsprechen. Aus diesem Grund werden weibliche Agenten – und dabei spielt es keine Rolle, ob sie in Form von Robotern verkörpert oder wie Sprachassistenten körperlos sind – als beruhigend und einladend angesehen und helfen uns bei der Lösung unserer Probleme. Männliche Agenten hingegen gelten als durchsetzungsfähig und autoritativ, geben uns die Antwort auf unsere Probleme und sind die Quelle von Wahrheit und Information.

 

Übrigens, wenn Sie mehr darüber erfahren möchten, wie gehaltvolle Konversationen zwischen Mensch und Maschine ermöglicht werden, schauen Sie sich unser Whitepaper an. 

Onlim_Chatbot-Whitepaper

 

Geschlechtsneutrale Sprachassistenten – Sind sie die Lösung für das Gender-Bias-Problem?

Was wäre, wenn wir einen Agenten einsetzen würden, der nicht durch Geschlechtsnormen definiert ist? In den letzten Jahrzehnten haben die LGBTQ-, feministische und andere soziale Bewegungen binäre Geschlechterkategorien in Frage gestellt. Judith Butler zum Beispiel erklärte bekanntlich, dass Geschlecht ein soziales Konstrukt ist und nur existiert, wenn es ständig wiederholt wird3

Die Ergebnisse der Arbeit erläutern, wie geschlechtsneutrale Sprachassistenten im Vergleich zu männlichen und weiblichen Sprachassistenten wahrgenommen werden. Ziel ist es, bestehende Ansichten zu (hauptsächlich) weiblichen Sprachassistenten in Frage zu stellen und die Bedeutung eines Dialogs zwischen Technologie und Gesellschaft aufzuweisen.

Unsere Arbeit unterstützt in der Tat, dass geschlechtsneutrale Sprachassistenten keine geschlechtsstereotypischen Merkmale hervorrufen. Wir argumentieren daher, dass der Einsatz solcher Sprachassistenten die Attribution negativer Stereotypen verringert. Wie die Ergebnisse unserer quantitativen Forschung zeigen, vermeiden geschlechtsneutrale Sprachassistenten eine Zuordnung von geschlechtsstereotypischen Merkmalen. Wir haben festgestellt, dass dies im Gegensatz zu früheren Studien auch für männliche Sprachassistenten gilt. Weibliche Sprachassistenten, die in den meisten kommerziell verwendeten Systemen vorherrschen, sind jedoch eng mit ihrer geschlechtsstereotypischen Zuordnung von Merkmalen verbunden. Indem wir Sprachassistenten verantwortungsbewusst so gestalten, dass Geschlechterstereotypen nicht verstärkt werden, erreichen wir eine Abschwächung geschlechtsspezifischer Vorurteile.

 

Fazit

Es ist zwar eine enorme Herausforderung, geschlechtsspezifische Vorurteile in künstlicher Intelligenz zu beseitigen und das Vergrößern der Kluft zwischen den Geschlechtern zu verhindern, jedoch nicht unmöglich. Es gibt zahlreiche Projekte, die sich zum Ziel gesetzt haben, KI gerechter und weniger voreingenommen zu machen. 

Nichtdestotrotz ist es wichtig darauf hinzuweisen, dass die Verwendung geschlechtsneutraler Stimmen für digitale Assistenten mit Sicherheit nicht der Weg ist, um Geschlechterstereotypen in unserer Gesellschaft zu überkommen. Es ist vielmehr ein kleiner Schritt, um die Diskrepanz zwischen den Geschlechtern zu verringern. Das Anbieten von Stimmen, die nicht durch ein binäres Geschlechterkonstrukt eingeschränkt sind, ist jedoch ein Werkzeug zur Gestaltung der Gesellschaft und keine Waffe, um diese Vorurteile zu verstärken, indem sie in technologischen Artefakten neu erzeugt werden. Wenn wir KI in ein digitales Produkt einbeziehen, liegt es in der Verantwortung aller Beteiligten, sicherzustellen, dass Menschen nicht diskriminiert oder geschädigt werden.

Wenn Sie Fragen, Feedback oder Anmerkungen zum Thema haben, können Sie sich gerne an uns wenden. Mehr über unsere Conversational AI Lösungen finden Sie hier. 

 

Weitere Ressourcen: https://multivocal.org

 

Quellen:

1 Nass, C., & Moon, Y. (2000). Machines and Mindlessness: Social Responses to Computers. Journal of Social Issues (Vol. 56). Retrieved from http://www.coli.uni-saarland.de/courses/agentinteraction/contents/papers/Nass00.pdf
2 Prentice, D. A., & Carranza, E. (2002). What women and men should be, shouldn’t be, are allowed to be, and don’t have to be: The contents of prescriptive gender stereotypes. Psychology OfWomen Quarterly, 26, 269–281.
3 Butler, J. (1990). Gender Trouble: Feminism and the Subversion of Identity. Hereafter Cited in Text as GT, 15.

Mehr Beiträge