Themen des Artikels

Um Themen abonnieren und Artikel speichern zu können, benötigen Sie ein Staatsanzeiger-Abonnement.Meine Account-Präferenzen

KI und Verwaltung

Wenn der Algorithmus Vorurteile transportiert

KI-Anwendungen können nach Meinung der Antidiskriminierungsbeauftragten der Bundesregierung bestimmte Personen oder Gruppen strukturell benachteiligen. Doch gerade Verwaltungsmitarbeiter müssen alle gleich behandeln.  Ein Experte der Hochschule Ludwigsburg erklärt, wie der Einsatz von KI fair gestalten werden kann. 

KI hat nach Meinung von Kritikern Blindstellen und kann diskriminierend sein.

dpa/CHROMORANGE)

Stuttgart. Viele verbinden mit KI-Anwendungen auch die Hoffnung auf rein sachliche, objektive Entscheidungen ohne Ansehen der Person. Ohne die Verzerrungen durch allzu menschliche Schwächen wie Vorurteile und Vorlieben. Nach Meinung der Antidiskriminierungsbeauftragten des Bundes, Ferda Ataman, zu Unrecht. Sie sieht im Einsatz von Künstlicher Intelligenz (KI) vielmehr gerade eine mögliche Quelle für Diskriminierung im Alltag.„Was auf den ersten Blick objektiv wirkt, kann automatisch Vorurteile und Stereotype reproduzieren“, sagte sie in der vergangenen Woche in Berlin bei der Vorstellung eines Rechtsgutachtens. „Die Gefahren digitaler Diskriminierung dürfen wir auf keinen Fall unterschätzen.“

Bietet der Einsatz von KI in der Verwaltung mehr Chancen als Risiken?
  • Ja 68%, 38 Stimmen
    38 Stimmen 68%
    38 Stimmen - 68% aller Stimmen
  • Nein 25%, 14 Stimmen
    14 Stimmen 25%
    14 Stimmen - 25% aller Stimmen
  • Mir egal 7%, 4 Stimmen
    4 Stimmen 7%
    4 Stimmen - 7% aller Stimmen
Stimmen insgesamt: 56
14. September 2023 - 21. September 2023
Die Umfrage ist beendet.

Das Gutachten trägt den Titel  „Automatisch benachteiligt“. Seinen Verfassern zufolge ist der Einsatz von algorithmischer Entscheidungsfindung – oft kurz   ADM genannt, vom englischen Begriff automated decision making – inzwischen im privaten wie öffentlichen Leben verbreitet.

Öffentliche Verwaltung hat besondere Sorgfaltspflicht

So etwa beim Zugang zu und der Teilhabe an öffentlichen und privaten Leistungen, bei Diagnostik- und Therapieentscheidungen und Beschlüssen zur Verteilung knapper Ressourcen, wie sie beispielsweise auch Verwaltungen zu treffen haben.  Bei KI-Anwendungen oder automatisierten Systemen aber, so erläuterte Ataman, „werden Wahrscheinlichkeitsaussagen auf der Grundlage von pauschalen Gruppenmerkmalen getroffen.“ Das berge die Gefahr der „Diskriminierung durch Statistik“. So würden „strukturelle Ungleichheiten perpetuiert und neue geschaffen“.

Wie schätzt ein Verwaltungsexperte das Problem ein? „Gerade bei öffentlichen Verwaltungen dürfen Bürgerinnen und Bürger zu Recht ein besonders hohes Maß an Sorgfalt erwarten“, sagte Volkmar Mrass dem Staatsanzeiger. Er leitet das Institut für Digitales Verwaltungsmanagement und lehrt E-Government an der Hochschule für öffentliche Verwaltung und Finanzen Ludwigsburg. „Das gilt insbesondere, wenn es um KI für Entscheidungsunterstützung geht.“ Andernfalls könne das „zu falschen, unfairen Ergebnissen führen“, meint Mrass und verweist auf einen Fall in Polen. Dort hätten vermutlich  KI-basierte Einordnungen von Arbeitslosen in Jobcentern in verschiedene Kategorien negative Folgen für deren Förderung gehabt.

Solche Vorkommnisse könnten der gesellschaftlichen Akzeptanz von KI besonders schaden, obwohl Menschen ja ebenfalls Fehler begingen. „Ein eventueller Einsatz von KI zur Entscheidungsunterstützung muss daher besonders sorgfältig erfolgen“, meint er.

Auch die Cybersicherheit kann mithilfe der KI erhöht werden

Gleichwohl liegen die Vorteile eines verstärkten KI-Einsatzes für Mrass  auf der Hand, etwa in der Medizin, wo KI-basierte Diagnosen und Therapievorschläge denen von Menschen oft überlegen seien. Oder bei der Cybersicherheit: Die KI könne Anomalien in den Netzen und damit mögliche Bedrohungen aufspüren.

Wie ist dann aber sicherzustellen, dass keine Diskriminierung erfolgt? „Die Verantwortung für Entscheidungen kann und sollte nicht auf KI ,abgeschoben‘ oder delegiert werden, sondern muss bei Menschen bleiben“, ist für Mrass der erste und wichtigste Punkt. Das beinhalte beispielsweise auch schon „ein hohes Maß an Sorgfalt“ bei der Auswahl der Daten, mit denen die KI trainiert wird. „Die Daten müssen vorab auf ihre Qualität und Güte geprüft und bei Bedarf bereinigt werden.“

Zudem seien die Resultate der KI-Anwendung nicht einfach zu übernehmen, sondern zu überprüfen. „Mindestens Stichproben dazu, ob die seitens der KI vorgeschlagenen Einordnungen oder Entscheidungen auch im Einzelfall Sinn ergeben, sollten einem Vollzug vorgeschaltet werden.“ Mrass fordert die Anbieter von KI-basierten Entscheidungsprogramme dazu auf, mehr Transparenz zu schaffen, „beispielsweise durch Offenlegung des Programmcodes“.

Ziel all dieser Maßnahmen ist es, die Bürger vor struktureller Diskriminierung zu schützen. Es gebe schon jetzt Gesetze und Regelungen, um dies sicherzustellen. Würden weitere Regelungen eingeführt, wie Ataman das wünscht, so Mrass, „sollte das aber einheitlich auf EU-Ebene und nicht solitär in einem einzelnen EU-Land wie Deutschland erfolgen, um gleiche Rahmenbedingungen für alle Akteure zu gewährleisten.“

Ein KI-Modell kann leistungsfähig sein, aber „trotzdem eine Gruppe von Menschen aufgrund von Merkmalen wie Geschlecht oder ethnischer Herkunft benachteiligen“, heißt es auf der Website des Kompetenzzentrums Öffentliche KI in Berlin. Eine Lösung dafür heißt Human-in-the-Loop: Ein Mensch überprüft die algorithmischen Ergebnisse. Beim Ansatz „Erklärbare-KI“ werden Methoden entwickelt, die Begründungen für die Entscheidung eines KI-Modells liefern. 

Christoph Müller

Redakteur Bildung & Wissenschaft

0711 66601-182

Nutzen Sie die Vorteile unseres

Premium-Abos. Lesen Sie alle Artikel aus Print und Online für

0 € 4 Wochen / danach 167,00 € jährlich Nachrichten aus Wirtschaft, Politik und Verwaltung in Baden-Württemberg Jetzt abonnieren

Lesermeinungen

Bitte loggen Sie sich ein, um zu kommentieren.

Lesen Sie auch