Diesen Artikel teilen:

15. Jul 2024

|

Wirtschaft

Was KI wirklich klug macht - mit Christine Regitz

Journalist: Thomas Soltau

|

Foto: Altumcode/unsplash

„Vielfalt in der KI-Entwicklung“ – ein Gastbeitrag von Christine Regitz (Präsidentin der Gesellschaft für Informatik)

GI_27092023_1234_online.jpg Christine Regitz, Präsidentin der Gesellschaft für Informatik

Es ist eines der prägnantesten Beispiele für den Gender Data Gap: Schon 2015 forderten Forschende eine Anpassung der Richtwerte für Temperatur in Wohn- und Büroräumen. Denn das dahinterstehende Modell orientiere sich zu großen Teilen ausschließlich an Männern. Die Wohlfühltemperatur von Frauen liegt oft deutlich über den Werten, die vielerorts immer noch als Standard gelten.

Es gibt zahlreiche Beispiele dieser Art: von Crash Test Dummies mit ausschließlich männlichen Torsos bis zu unbekannten Auswirkungen von Medikamenten auf weibliche Körper. Und auch wenn das Bewusstsein für diese fehlenden Daten langsam in den Köpfen ankommt, wird es noch Jahre dauern, bis diese Wissenslücken geschlossen werden.

Ein Fehler, der uns nicht noch einmal passieren darf – und erst recht nicht bei KI: Doch auch wenn die großen Modelle rasant besser werden, gibt es einige Fälle, in denen sie nicht mit gleichem Maß messen: etwa, wenn sie Stereotypen reproduzieren oder bestimmte Gruppen diskriminieren. Das muss nicht nur an den Datensätzen liegen, auf denen sie trainiert werden. Verzerrungen können in allen Phasen des Entwicklungsprozesses von KI entstehen – und zum Teil schwere Folgen haben.

Die gute Nachricht: Es gibt einen einfachen Weg, solche Verzerrungen schneller sichtbar zu machen und im besten Fall auch direkt zu verhindern. Je diverser die Teams, die Modelle entwickeln, trainieren und testen, desto geringer die Chance, dass sich Vorurteile einschleichen.