Wie unfair ist KI?
Dieser Frage ging Prof. Dr. Staab am vergangenen Freitagabend mit seinem Vortrag im Kunstverein Ludwigsburg nach. Im Kern seines Vortrags standen Entscheidungen, die Menschen betreffen, sei es der Zugang zu einem Studium, einem Darlehen oder einer Arbeitsstelle. Sowohl Menschen als auch eine KI können unfaire Entscheidungen treffen. Wenn eine KI aus Daten lernt, die auf unfairen Entscheidungen von Menschen beruht, wird die KI dieses unfaire Verhalten imitieren. Herr Prof. Dr. Staab erläuterte anhand von zahlreichen Beispielen drei Fairness-Konzepte, die mit unterschiedlichen Schwerpunkten und Anwendungen mit den Fragen nach Gleichheit und Gerechtigkeit umgehen:
- Individuelle Fairness: Dieses Konzept konzentriert sich darauf, dass ähnlich gelagerte Fälle konsistent und gleich behandelt werden. Hierbei geht es vor allem um die faire Behandlung von Individuen in vergleichbaren Situationen, um Diskriminierung zu vermeiden. Die Kernidee ist, dass Personen, die sich nur in geschützen Merkmalen unterscheiden (z.B. Hautfarbe, Religion, Herkunft), auch gleich behandelt werden sollten. Leider ist dieses Konzept oft nicht anwendbar, da man Menschen nicht immer vergleichen kann oder eine Entscheidung auch mal nur eine Person betreffen kann.
- Libertäre Fairness: In dieser libertären Version von Fairness werden Statistiken aufgestellt. Es sollen nur die erzielten Leistungen von Menschen beurteilt werden. Die Startchancen von Menschen spielen dabei keine Rolle. Das Leitbild ist die Gleichbehandlung von Menschen.
- Egalitäre Fairness: Dieses Konzept strebt eine gleichmäßige Verteilung von Chancen unter allen Beteiligten an. Es basiert auf der Idee, dass alle Menschen gleiche Möglichkeiten haben sollten. Egalitäre Fairness kann durch Umverteilungsmaßnahmen erreicht werden, um Ungleichheiten, die durch ungleiche Startbedingungen entstanden sind, auszugleichen.
Herr Prof. Dr. Staab kam zu dem Fazit, dass die Frage der Fairness immer wieder neu diskutiert werden muss, da die Auffassungen, was denn nun fair ist, sich im Laufe der Jahrzehnte verändern. Big Data erlaubt es, die verschiedenen Arten von Fairness zu messen. Damit kann man Diskriminierung nachweisen – egal ob diskriminierende Entscheidungen durch Menschen oder durch eine KI getroffen wurden. Dabei kann ein Mensch – im Prinzip – ein sehr viel weitreichenderes Verständnis einer individuellen Situation haben als eine KI und dieses Verständnis für eine faire Entscheidungsfindung nutzen. Diese prinzipielle Möglichkeit wird unter praktischen Gegebenheiten, z.B. in einer Behörde oder in einem Unternehmen, allerdings auch oft nicht realisiert.
Das Verständnis für Fairness ist eine kontinuierliche gesamtgesellschaftliche Aufgabe.
Der Abend endete mit einer Fragerunde der Besucher und der Möglichkeit eines Rundgangs durch die aktuelle Ausstellung des Kunstvereins.
Der Vortrag wurde aufgezeichnet und ist in seiner vollen Länge hier abrufbar.