Spracherkennung funktioniert bei weiblichen Stimmen oft schlechter als bei männlichen
Diese Seite wurde seit 2 Jahren inhaltlich nicht mehr aktualisiert.
Unter Umständen ist sie nicht mehr aktuell.
BiblioMap
Bemerkungen
Ein Artikel auf der Auto-Website Autoblog zitiert eine Frau, die einen Ford Focus von 2012 gekauft hatte und merkte, dass die Sprachsteuerung nur auf ihren Mann hörte – obwohl der auf dem Beifahrersitz saß.
Von Caroline Criado Perez im Buch Unsichtbare Frauen (2019) 2016 untersuchte Rachel Tatman, Linguistin an der University of Washington, die Spracherkennungssoftware von Google und fand heraus, dass sie männliche Sprache mit 70 Prozent höherer Wahrscheinlichkeit erkennt als weibliche Sprache.
Von Caroline Criado Perez im Buch Unsichtbare Frauen (2019) Die Soziolinguistin Rachael Tatman berichtet auf ihrem Blog vom Juli 1016, dass das damals beste Spracherkennungssystem von Männern ausgesgesprochene Wörter statistisch signifikant besser erkennt als Äusserungen von Frauen.2017 wiederholte sie den Versuch und konnte zwisehen den Geschlechtern keinen Unterschied mehr feststellen. Dafür bemerkte sie bei neuen Experimenten, dass Menschen mit starkem Akzent, beispielsweise Südstaaten-Amerikaner, weniger gut verstanden wurden.
Von Katharina A. Zweig im Buch Ein Algorithmus hat kein Taktgefühl (2019) im Text Algorithmen, Diskriminierung und Ideologie auf Seite 214In einer wissenschaftlichen Untersuchung zeigte Tatman, dass der Dienst der Plattform YouTube, um automatische Untertitel bei hochgeladenen Videos zu erzeugen („automatic caption“), unterschiedliche Genauigkeiten aufweist, mit deutlich geringerer Genauigkeit der Erkennung der Sprache von Frauen und für Videos mit Personen mit schottischem Dialekt. Der Dienst beruht auf einem maschinellen Lernverfahren. Als einen der möglichen Gründe vermutet die Autorin unzureichende Trainingsdaten (Tatman 2017: 57).
Von Carsten Orwat im Buch Diskriminierungsrisiken durch Verwendung von Algorithmen (2019) Das Problem sind natürlich nicht die Frauenstimmen, sondern unsere gute Bekannte, die geschlechterbezogene Datenlücke. Spracherkennungssoftware wird mit sogenannten Korpora geschult, das sind große Datenbanken mit Stimmaufnahmen. Diese Korpora enthalten hauptsächlich männliche Stimmen – wenigstens ist das zu vermuten: Die meisten Korpora schlüsseln ihre Stimmen nicht nach Geschlechtern auf, was selbstverständlich eine erneute Datenlücke erzeugt. Tatmans Untersuchung des Geschlechterverhältnisses von Sprachkorpora ergab, dass nur TIMIT (»das beliebteste Sprachkorpus im Linguistic Data Consortium«) nach Geschlecht aufgeschlüsselte Daten zur Verfügung stellt. Sie waren zu 69 Prozent männlich.
Von Caroline Criado Perez im Buch Unsichtbare Frauen (2019) Rachael Tatman weist die Behauptung zurück, das Problem seien die Stimmen der Frauen und nicht die Technik, die diese Stimmen nicht erkennt: Studien zufolge ist die Verständlichkeit weiblicher Sprache »signifikant höher«, vielleicht weil Frauen eher längere Vokallaute produzieren und meist etwas langsamer sprechen als Männer. Männer dagegen haben häufiger »einen unsteten Sprachfluss, produzieren Wörter mit leicht kürzerer Sprechdauer und verwenden öfter abweichende (›unsaubere‹) Aussprache.« Angesichts dessen sollte Spracherkennungssoftware Frauenstimmen eigentlich besser erkennen als Männerstimmen. Tatsächlich habe Tatman »Klassifizierungssoftware mit Sprachdaten von Frauen geschult, und es funktionierte reibungslos.«
Von Caroline Criado Perez im Buch Unsichtbare Frauen (2019) Zum Glück für die frustrierten Frauen auf der ganzen Welt hat Tom Schalk, Vizepräsident der Sparte für Spracherkennung bei dem Auto-Navigationssystemhersteller ATX , eine neue Lösung für die »vielen Probleme mit Frauenstimmen«. Frauen bräuchten demnach ein »langes Training« – wären sie doch nur willens, sich diesem zu unterziehen. Das seien sie aber nicht, seufzt Schalk. Vergleichbar mit den bockigen Frauen aus Bangladesch, die die falschen Herde kaufen, erwarten Frauen unvernünftigerweise, dass die Entwicklerinnen und Entwickler von Spracherkennungssystemen ein Produkt in ihre Autos einbauen, das funktioniert. Dabei ist es doch offensichtlich, dass die Frauen selbst das Problem sind. Warum nur können Frauen den Männern nicht ähnlicher sein?
Von Caroline Criado Perez im Buch Unsichtbare Frauen (2019) Zitationsgraph
4 Erwähnungen
- Gender and Dialect Bias in YouTube’s Automatic Captions (Rachael Tatman) (2017)
- Unsichtbare Frauen - Wie eine von Daten beherrschte Welt die Hälfte der Bevölkerung ignoriert (Caroline Criado Perez) (2019)
- Diskriminierungsrisiken durch Verwendung von Algorithmen - Eine Studie, erstellt mit einer Zuwendung der Antidiskriminierungsstelle des Bundes. (Carsten Orwat) (2019)
- Ein Algorithmus hat kein Taktgefühl - Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können (Katharina A. Zweig) (2019)