Haben Künst­liche In­tel­li­gen­zen Vor­ur­teile?

Wissenschaftler der Universität Paderborn untersuchen algorithmische Voreingenommenheit

Wenn Menschen argumentieren, kommen nicht selten bewusste oder unbewusste Vorurteile gegenüber Geschlechtern, Ethnizitäten oder anderen Personengruppen zum Tragen. Man spricht vom sogenannten sozialen Bias. Algorithmen, die Sprachdaten im Kontext Künstlicher Intelligenz verarbeiten, können diesen Bias übernehmen und sogar verstärken. Das haben Wissenschaftler der Universität Paderborn empirisch belegt. In einer Studie haben sie untersucht, welche Arten von Voreingenommenheit in argumentativen Datensätzen enthalten sind. Die Forschung findet im Rahmen des Projekts „Bias von KI-Modellen bei der Informationsbildung" statt, das vom Land NRW seit März 2020 an den Universitäten Paderborn und Bielefeld gefördert wird.

„Anerkannte, wissenschaftlich fundierte Bias-Maße zeigen, dass insbesondere junge männliche Personen mit europäischen Namen häufig positiver dargestellt werden als etwa Menschen mit afroamerikanischen Namen. Das geht aus unseren Daten hervor und ist auf bestimmte Vorurteile zurückzuführen“, erklärt Jun.-Prof. Dr. Henning Wachsmuth vom Paderborner Institut für Informatik. Sein Doktorand Maximilian Spliethöver und er haben für die Studie „Argument from Old Man’s View: Assessing Social Bias in Argumentation" den Best Paper Award des siebten internationalen Workshops zum Thema „Argument Mining“ erhalten, u. a. unterstützt von IBM.

Die Wissenschaftler haben Daten aus Online-Portalen wie Debattier- und Diskussionsforen untersucht. Wachsmuth zufolge legen die Auswertungen u. a. nahe, dass Männer z. B. eher positiv im beruflichen Kontext hervorgehoben werden, während Frauen häufiger in Kombination mit Begriffen aus dem häuslichen Umfeld in Erscheinung treten.

Die Ergebnisse sollen den Grundstein für einen besseren algorithmischen Umgang mit Vorurteilen in argumentativen Kontexten legen. Dazu Wachsmuth: „Unser Projekt ist dadurch motiviert, dass KI-Modelle Datenkorrelationen anstelle tatsächlicher Kausalitäten widerspiegeln. Auch dann, wenn es sich um einen nicht zu rechtfertigenden, nur historisch bedingten Zusammenhang handelt. Beispiele sind eine Vorhersage der Rückfallwahrscheinlichkeit Krimineller auf Basis ihres ethnischen Hintergrunds oder die Empfehlung zur Einstellung einer Person aufgrund ihres Geschlechts. Da KI verstärkt alle Bereiche der Gesellschaft, Wirtschaft und Wissenschaft durchdringt, kann Bias in KI-Modellen unsere Gesellschaft nachhaltig verändern.“ 

Die Wissenschaftler der beiden Universitäten untersuchen deshalb, wie solche Vorurteile in zugrundeliegenden Daten das Lernen und die Konfiguration von KI-Modellen beeinflussen. Ein Fokus der Paderborner Forschung liegt auf Bias in menschlicher Sprache und dessen Auswirkungen auf die Meinungsbildung, zum Beispiel in sozialen Medien. Ziel ist es dabei nicht nur, das Phänomen zu erkennen, sondern auch die Auswirkungen auf KI-Modelle zu minimieren, insbesondere auf diejenigen zur automatischen Sprachverarbeitung.

Weitere Informationen: http://argmining2020.i3s.unice.fr

Nina Reckendorf, Stabsstelle Presse, Kommunikation und Marketing 

Foto (Universität Paderborn): Wissenschaftler der Universität Paderborn untersuchen algorithmische Voreingenommenheit auf Basis von Sprachdaten.

Contact