Trends Markt News

iStock.com/designer491

Bundestagsstudie: Benachteiligung durch KI ist oft intransparent

Das geht aus einer aktuellen Studie des Büros für Technikfolgen-Abschätzung beim Bundestag (TAB) zu möglicher Diskriminierung durch algorithmische Entscheidungssysteme, Maschinelles Lernen und andere Formen von Künstlicher Intelligenz (KI) hervor. „Umso mehr Aufmerksamkeit erfahren Fälle, in denen algorithmische Entscheidungssysteme (AES) zum Nachteil von Einzelnen entschieden haben – insbesondere, wenn diese nachteiligen Entscheidungen gesellschaftliche Ungleichheiten spiegeln und fortschreiben“, hieß es. Dies könne etwa auftreten, wenn ein lernendes algorithmisches System potenzielle neue Mitarbeiter identifizieren soll und anhand der bisherigen Einstellungspraxis Männer gegenüber Frauen bevorzugt. Solche Fälle werfen demnach die Frage auf, ob vermeintlich objektive AES etwa das Risiko für soziale Diskriminierungen verändern.

Die Studie zeigt, wie herausfordernd es zum Teil sei, die Ursache für die jeweilige Ungleichbehandlung zu entdecken. Genannt wird ein Beispiel aus der Medizin, das deutlich mache, wie algorithmische Fehlschlüsse zustande kommen könnten, wenn wichtige Informationen nicht im AES System hinterlegt seien. So habe ein in einem Krankenhaus eingesetztes AES für Patienten mit Mehrfacherkrankungen und chronischen Krankheiten ein geringeres Sterberisiko berechnet als für Patienten, die nur an einer Lungenentzündung erkrankt gewesen seien. 

AES ordnete Schwerkranken geringeres Sterberisiko zu
„Dieser Fehlschluss entstand, da das AES mit Daten trainiert worden war, in denen chronisch und mehrfach erkrankte Personen eine intensive medizinische Behandlung erhalten hatten und deshalb eine geringe Sterblichkeit aufwiesen. Die intensive medizinische Betreuung war in den Trainingsdaten jedoch nicht so hinterlegt, dass sie in die Berechnung des Sterberisikos einfließen konnte. Folglich ordnete das AES schwer erkrankten Patienten ein geringeres Sterberisiko und damit einen geringen Betreuungsbedarf zu“, so die Studie.

Doch was sind Handlungsoptionen zur Diskriminierungsvermeidung? Eine Reihe von Vorschlägen ziele darauf ab, die Diskriminierungsrisiken von AES zu minimieren, hieß es weiter. Dabei stünden die Herstellung von Transparenz, eine Kontrolle und Evaluierung von AES sowie eine einheitliche Regulierung im Zentrum der Diskussion. So könne beispielsweise eine Kennzeichnungspflicht dazu beitragen, den Einsatz eines AES für die Betroffenen transparent zu machen. „Eine risikoadaptierte Bewertung von AES kann gesellschaftliche Folgewirkungen ex ante abschätzen und je nach Kritikalität verschiedene Kontrollmaßnahmen etablieren, und eine Förderung des kollektiven Rechtsschutzes mit der Möglichkeit der Verbandsklage kann eine einheitliche Regulierung begünstigen“, so das Fazit. (ud)

 

Stichworte

Verwandte Artikel

Anzeige

Lexikoneinträge