Berliner Wirtschaft Dezember 2023

Trendschau Die ÖFIT-Trendschau verortet und bewertet neue Themenlandschaften in der öffentlichen IT: oefit.de/trendschau nicht bewusst. Dies kann bei der Entwicklung von Algorithmen eine wichtige Rolle spielen. Es existieren unterschiedliche Ansätze zur Gewährleistung von Gerechtigkeit bei algorithmischen Entscheidungen. Dazu gehören zum Beispiel die Ansätze „Erklärbare KI“ und „Human-in-the-Loop“. Bei „Human-inthe-Loop“ werden algorithmische Ergebnisse durch Menschen überprüft. Unter „Erklärbarer KI“ versteht man Methoden, die Begründungen für die Entscheidung eines KI-Modells liefern und daher Nachvollziehbarkeit ermöglichen. Als weiterer Ansatz werden verstärkt Fairness-Metriken diskutiert und entwickelt. Solche Metriken sollen die Fairness eines Algorithmus quantifizierbar und somit überprüfbar machen. Sie sind ein technisches Mittel, existierende Algorithmen zu prüfen und Gerechtigkeit bei der Entwicklung neuer Algorithmen zu berücksichtigen. Vergleich von Gruppenergebnissen Ein Beispiel einer Fairness-Metrik ist die sogenannte „Disparate Impact Ratio“. Hier wird gemessen, wie sich der Anteil günstiger Entscheidungen (etwa die Bewilligung eines Antrags) zwischen Gruppen von Menschen unterscheidet. Die Disparate Impact Ratio gehört damit zu den Ansätzen, die – im Gegensatz zu der sogenannten individuellen Fair- ness – die sogenannte Gruppenfairness adressieren, weil hier die Ergebnisse von Gruppen miteinander verglichen werden. Ein schlechter Wert bedeutet zwar noch nicht zwangsläufig, dass der Algorithmus tatsächlich ungerechte Entscheidungen trifft. Allerdings kann ein auffälliger Wert als Ausgangspunkt einer genaueren Überprüfung dienen. Fairness-Metriken sind in ihrer Aussagekraft jedoch limitiert. Sie messen stets nur einen gewählten Aspekt von Gerechtigkeit und sind darüber hinaus nur bedingt aussagekräftig. Daher sollte transparent gemacht werden, wie sie angewendet werden. Auch können sie Fehler oder Ungleichgewichte in Trainingsdaten nicht kompensieren. Fairness-Metriken sind von daher sicher kein Allheilmittel, sie können aber zu gerechteren Entscheidungen von Algorithmen beitragen und das Vertrauen in algorithmische Entscheidungen, etwa bei Kundinnen und Kunden, stärken. ■ Disparate Impact Ratio Mit dieser Fairness-Metrik werden die Anteile günstiger Entscheidungen bei einzelnen Gruppen verglichen Grafik: BW Quelle: ÖFIT Möglichkeiten ➜ Nachvollziehbare Algorithmen ➜ Breitere Akzeptanz von Entscheidungen durch Algorithmen ➜ Reduzierung von Ungleichbehandlung Wagnisse ➜ Schlechtere Performanz von Algorithmen ➜ Inkorrekte Anwendung von Fairness- Metriken (bewusst oder unbewusst) Pro & Contra Wie jede technologische Innovation bergen auch die Fairness-Metriken Chancen wie Herausforderungen Betrachtetes Merkmal (z. B. Geburtsland) Datenmenge Disparate Impact Ratio: Anteil günstiger Entscheidungen für A Anteil günstiger Entscheidungen für B Ergebnis weicht deutlich von 1 ab? Hinweis auf Fairness-Problem des Algorithmus Betrachtete Ausprägung des Merkmals (z. B. Italien) Datenmenge A: Alle Datensätze mit Merkmal betrachtete Ausprägung (z. B. Geburtsland = Italien) Anteil günstiger Entscheidungen des Algorithmus für Menge A: Anzahl günstiger Entscheidungen für A Anzahl aller Datensätze in A Anteil günstiger Entscheidungen des Algorithmus für Menge B: Anzahl günstiger Entscheidungen für B Anzahl aller Datensätze in B Datenmenge B: Alle Datensätze mit Merkmal betrachtete Ausprägung (z. B. Geburtsland ≠ Italien) Berliner Wirtschaft 12 | 2023 Digitalisierung | 55

RkJQdWJsaXNoZXIy MTk5NjE0NA==