KI-Expertin Pia Sombetzki im Interview
Ist eine neutrale KI möglich?
Pia Sombetzki ist Policy & Advocacy Managerin bei algorithmwatch.org und beschäftigt sich insbesondere mit algorithmischen Entscheidungssystemen im öffentlichen Dienst. Wir haben sie zur aktuellen Entwicklung der KI in Deutschland und Europa befragt.
Frau Sombetzki, welche Maßnahmen und Vorbereitungen müssen getroffen werden, damit KI weniger bis keine voreingenommenen Entscheidungen trifft?
KI-basierte Prognosen oder Entscheidungen sind nie neutral und können Verzerrungen enthalten. Mit diesem Wissen können vorbeugende Maßnahmen getroffen werden, um automatisierte Entscheidungen zu verhindern, die sich benachteiligend auswirken können. Es sollte zum Beispiel eine KI-Folgenabschätzung durchgeführt werden, um Problemstellen zu identifizieren. So sieht es auch die neue EU KI-Verordnung für öffentliche Stellen vor. Darüber hinaus sollte ein transparenter Umgang mit KI-Einsätzen gepflegt und in Kompetenzbildung im Umgang mit automatisierten Entscheidungssystemen investiert werden. Menschen sollten die Schwächen und Stärken von KI-basierten Anwendungen sicher auseinanderhalten können und ihre eigenen Prozesse der Entscheidungsfindung genau reflektieren.
Inwieweit kann der EU AI Act helfen, Diskriminierung zu reduzieren?
Die EU KI-Verordnung gibt als Produktsicherheitsregelwerk insbesondere Qualitäts- und Transparenzanforderungen vor, die u.a. dazu beitragen sollen, diskriminierende Ergebnisse in der Anwendung von KI-Systemen zu vermeiden. Die Kernproblemlage, dass einzelne Betroffene von Diskriminierung, im Zweifelsfall nichts davon mitbekommen und die Diskriminierung schwerlich nachweisen könnten, löst die KI-Verordnung allerdings nicht auf. Noch dazu sind Betroffene stark abhängig davon, ob eine nationale Beschwerdestelle, die ihre Fälle entgegennehmen soll, gut genug ausgestattet ist. Denn dies ist der einzige Beschwerdeweg, den die KI-Verordnung vorsieht.
Ist eine KI, die unvoreingenommen entscheidet, überhaupt möglich?
Eine unvoreingenommene KI ist schwerlich erreichbar, auch wenn es interessante technische Ansätze gibt, Verzerrungen besser zu erkennen und aufzulösen. Häufig stößt man dabei aber auch auf Zielkonflikte: Zum Beispiel in der Hinsicht, dass sobald viele „schlechte" Daten aussortiert werden, Modelle teils ungenauer funktionieren oder andere unvorhergesehene Effekte entstehen können. Noch dazu trägt solch eine „Bereinigung" nicht dazu bei, dass Probleme, die eher beim Menschen liegen, aufgelöst werden. Bekannt ist, dass Menschen ein übermäßiges Vertrauen in eine computerbasierte Vorhersage haben oder der benachteiligende Effekt bereits in der Zweckbestimmung der Anwendung versteckt ist. Die Anwendungsebene ist daher weiterhin eine der größten Risikoquellen für Diskriminierung.
Wir danken Frau Sombetzki für das Interview!