Themen des Artikels
Um Themen abonnieren und Artikel speichern zu können, benötigen Sie ein Staatsanzeiger-Abonnement.Meine Account-Präferenzen
Wenn der Algorithmus Vorurteile transportiert
Stuttgart. Viele verbinden mit KI-Anwendungen auch die Hoffnung auf rein sachliche, objektive Entscheidungen ohne Ansehen der Person. Ohne die Verzerrungen durch allzu menschliche Schwächen wie Vorurteile und Vorlieben. Nach Meinung der Antidiskriminierungsbeauftragten des Bundes, Ferda Ataman, zu Unrecht. Sie sieht im Einsatz von Künstlicher Intelligenz (KI) vielmehr gerade eine mögliche Quelle für Diskriminierung im Alltag.„Was auf den ersten Blick objektiv wirkt, kann automatisch Vorurteile und Stereotype reproduzieren“, sagte sie in der vergangenen Woche in Berlin bei der Vorstellung eines Rechtsgutachtens. „Die Gefahren digitaler Diskriminierung dürfen wir auf keinen Fall unterschätzen.“
- Ja 68%, 38 Stimmen38 Stimmen 68%38 Stimmen - 68% aller Stimmen
- Nein 25%, 14 Stimmen14 Stimmen 25%14 Stimmen - 25% aller Stimmen
- Mir egal 7%, 4 Stimmen4 Stimmen 7%4 Stimmen - 7% aller Stimmen
Das Gutachten trägt den Titel „Automatisch benachteiligt“. Seinen Verfassern zufolge ist der Einsatz von algorithmischer Entscheidungsfindung – oft kurz ADM genannt, vom englischen Begriff automated decision making – inzwischen im privaten wie öffentlichen Leben verbreitet.
Öffentliche Verwaltung hat besondere Sorgfaltspflicht
So etwa beim Zugang zu und der Teilhabe an öffentlichen und privaten Leistungen, bei Diagnostik- und Therapieentscheidungen und Beschlüssen zur Verteilung knapper Ressourcen, wie sie beispielsweise auch Verwaltungen zu treffen haben. Bei KI-Anwendungen oder automatisierten Systemen aber, so erläuterte Ataman, „werden Wahrscheinlichkeitsaussagen auf der Grundlage von pauschalen Gruppenmerkmalen getroffen.“ Das berge die Gefahr der „Diskriminierung durch Statistik“. So würden „strukturelle Ungleichheiten perpetuiert und neue geschaffen“.
Wie schätzt ein Verwaltungsexperte das Problem ein? „Gerade bei öffentlichen Verwaltungen dürfen Bürgerinnen und Bürger zu Recht ein besonders hohes Maß an Sorgfalt erwarten“, sagte Volkmar Mrass dem Staatsanzeiger. Er leitet das Institut für Digitales Verwaltungsmanagement und lehrt E-Government an der Hochschule für öffentliche Verwaltung und Finanzen Ludwigsburg. „Das gilt insbesondere, wenn es um KI für Entscheidungsunterstützung geht.“ Andernfalls könne das „zu falschen, unfairen Ergebnissen führen“, meint Mrass und verweist auf einen Fall in Polen. Dort hätten vermutlich KI-basierte Einordnungen von Arbeitslosen in Jobcentern in verschiedene Kategorien negative Folgen für deren Förderung gehabt.
Solche Vorkommnisse könnten der gesellschaftlichen Akzeptanz von KI besonders schaden, obwohl Menschen ja ebenfalls Fehler begingen. „Ein eventueller Einsatz von KI zur Entscheidungsunterstützung muss daher besonders sorgfältig erfolgen“, meint er.
Auch die Cybersicherheit kann mithilfe der KI erhöht werden
Gleichwohl liegen die Vorteile eines verstärkten KI-Einsatzes für Mrass auf der Hand, etwa in der Medizin, wo KI-basierte Diagnosen und Therapievorschläge denen von Menschen oft überlegen seien. Oder bei der Cybersicherheit: Die KI könne Anomalien in den Netzen und damit mögliche Bedrohungen aufspüren.
Wie ist dann aber sicherzustellen, dass keine Diskriminierung erfolgt? „Die Verantwortung für Entscheidungen kann und sollte nicht auf KI ,abgeschoben‘ oder delegiert werden, sondern muss bei Menschen bleiben“, ist für Mrass der erste und wichtigste Punkt. Das beinhalte beispielsweise auch schon „ein hohes Maß an Sorgfalt“ bei der Auswahl der Daten, mit denen die KI trainiert wird. „Die Daten müssen vorab auf ihre Qualität und Güte geprüft und bei Bedarf bereinigt werden.“
Zudem seien die Resultate der KI-Anwendung nicht einfach zu übernehmen, sondern zu überprüfen. „Mindestens Stichproben dazu, ob die seitens der KI vorgeschlagenen Einordnungen oder Entscheidungen auch im Einzelfall Sinn ergeben, sollten einem Vollzug vorgeschaltet werden.“ Mrass fordert die Anbieter von KI-basierten Entscheidungsprogramme dazu auf, mehr Transparenz zu schaffen, „beispielsweise durch Offenlegung des Programmcodes“.
Ziel all dieser Maßnahmen ist es, die Bürger vor struktureller Diskriminierung zu schützen. Es gebe schon jetzt Gesetze und Regelungen, um dies sicherzustellen. Würden weitere Regelungen eingeführt, wie Ataman das wünscht, so Mrass, „sollte das aber einheitlich auf EU-Ebene und nicht solitär in einem einzelnen EU-Land wie Deutschland erfolgen, um gleiche Rahmenbedingungen für alle Akteure zu gewährleisten.“
Ein KI-Modell kann leistungsfähig sein, aber „trotzdem eine Gruppe von Menschen aufgrund von Merkmalen wie Geschlecht oder ethnischer Herkunft benachteiligen“, heißt es auf der Website des Kompetenzzentrums Öffentliche KI in Berlin. Eine Lösung dafür heißt Human-in-the-Loop: Ein Mensch überprüft die algorithmischen Ergebnisse. Beim Ansatz „Erklärbare-KI“ werden Methoden entwickelt, die Begründungen für die Entscheidung eines KI-Modells liefern.