Berliner Wirtschaft Dezember 2023

Der Autor Jan Dennis Gumz ist wissenschaftlicher Mitarbeiter am Kompetenzzentrum Öffentliche IT (ÖFIT) am Fraunhofer Institut FOKUS. Kontakt: jan.dennis. gumz@fokus.fraunhofer.de E ntscheidungen für und über Menschen werden immer häufiger von Algorithmen beeinflusst, etwa bei Kreditvergaben, Empfehlungen im Netz und bei personalisierten Preisen. Obwohl bei einem höheren Risiko, das heißt bei Entscheidungen, die Menschen betreffen, eine Überprüfung wiederum durch Menschen verpflichtend und notwendig ist, ist eine Tendenz zu stärker autonom agierenden Systemen erkennbar. Die Algorithmen, die bei solchen Systemen zum Einsatz kommen, sind häufig komplex, und die Entscheidungsfindung ist dementsprechend schwer durchschaubar. Die Frage ist, wie in diesem Kontext Gerechtigkeit gewährleistet werden kann, also zum Beispiel Diskriminierung aufgrund von Ethnie oder Geschlecht vermieden werden kann? Fairness-Metriken sind ein technischer Lösungsansatz für dieses Problem. Komplexer werdende Algorithmen, begünstigt besonders durch Fortschritte im Bereich des maschinellen Lernens, ermöglichen immer höhere Leistungsfähigkeit bei automatisierten Entscheidungsprozessen. Doch schnelle und vermeintlich hochwertige Resultate bedeuten nicht, dass diese gerecht sind. Ein KI-Modell kann bei etablierten Metri- ken für die Leistungsfähigkeit gut abschneiden und trotzdem eine Gruppe von Menschen aufgrund von einzelnen Merkmalen benachteiligen. Das kann beispielsweise daran liegen, dass Trainingsdaten existierende Ungerechtigkeiten widerspiegeln. Manchmal sind Menschen sich der Faktoren, die zu ungerechten Entscheidungen führen können, schlicht „Digital meets Mittelstand“: In der 13. Ausgabe der Serie, die IHK Berlin und ÖFIT gemeinsam konzipieren, geht es darum, wie mittels technischer Lösungsansätze versucht wird, Gerechtigkeit von Algorithmen zu erfassen von Jan Dennis Gumz Mit fairer KI zum Ziel ILLUSTRATION: GETTY IMAGES/ANDRIY ONUFRIYENKO service

RkJQdWJsaXNoZXIy MTk5NjE0NA==