Bild nicht mehr verfügbar.

Bei der Studie wurden Produkte von Amazon, Apple, Google, IBM und Microsoft getestet.

Foto: Reuters

Spracherkennungssoftware hat ein Problem, die Stimmen afroamerikanischer Nutzer korrekt zu transkribieren, im Gegensatz zu Stimmen weißer Nutzer. Das geht aus einer aktuellen Studie der Universität Stanford hervor.

Microsoft bestes Ergebnis, Apple schlechtestes

Getestet wurden Spracherkennungstools von Apple, Amazon, Google, IBM und Microsoft. Die jeweilige Software sollte 42 Interviews weißer Menschen und 73 Interviews schwarzer Menschen transkribieren. Das Ergebnis: Sie schnitten wesentlich schlechter ab bei der Transkription der Interviews von schwarzen Personen. Unter anderem wurden 19 Prozent der Wörter Weißer, 35 Prozent der Wörter Schwarzer falsch transkribiert, wie "The Verge" berichtet.

In der Stanford-Studie schnitt Microsoft am besten, Apple am schlechtesten ab. "The Verge" betont, dass es sich bei den Programmen nicht zwangsweise um jene handeln muss, die bei Cortana und Siri zum Einsatz kommen.

Herausforderung, Sprachmuster zu erkennen

"Fairness ist eines unserer KI-Kernprinzipien, und wir sind bemüht, Fortschritte in diesem Gebiet zu machen", sagte ein Google-Sprecher. Man arbeite seit einigen Jahren daran, unterschiedliche Sprachmuster besser zu erkennen.

"IBM wird die Sprachverarbeitungsmethoden weiterentwickeln und verbessern, um eine bestmögliche Funktionalität von IBM Watson für Business-Kunden zu gewährleisten", erklärte ein IBM-Sprecher. Rückfragen bei anderen Firmen blieben laut dem Bericht noch unbeantwortet.

"Algorithmus-Trainings-Bias"

Wie es zu der Diskrepanz kommt? Die Spracherkennungsalgorithmen werden anfangs mit einer riesigen Datenbank an Audioclips gefüttert. Sollte diese Datenbank zum größten Teil aus Gesprächsfetzen weißer Menschen bestehen, könnte das die Fehlerquoten zur Folge haben. Die Forscher bitten dringend darum, dass man Spracherkennungssoftware gezielter auf verschiedene Formen der englischen Sprache und Akzente trainieren soll. (emko, 21.5.2020)