Berliner Wirtschaft 12 | 2024 service „Digital meets Mittelstand“: In der 16. Ausgabe der Serie, die IHK Berlin und ÖFIT gemeinsam konzipieren, geht es um ein vielversprechendes neues Lernparadigma für künstliche Intelligenz von Dorian Wachsmann Kollektives datensicheres KI-Training Der Autor Dorian Wachsmann ist wissenschaftlicher Mitarbeiter im Kompetenz- zentrum Öffentliche IT (ÖFIT) am Fraunhofer Institut FOKUS. Kontakt: dorian.wachsmann@ fokus.fraunhofer.de Unternehmen arbeiten gemeinsam an künstlicher Intelligenz, ohne dabei ihre Daten teilen zu müssen – das ist unter anderem die Hoffnung, die in einem recht jungen Lernparadigma für künstliche Intelligenz (KI) steckt: „Federated learning“, auf Deutsch „föderales Lernen“ (FL), heißt der Ansatz. Er adressiert eine der größten Herausforderungen für das Training von KI: Es müssen ausreichend hochwertige Daten vorliegen, schließlich hängt die Qualität des Outputs wesentlich von diesen ab. Diese werden bei traditionellen Lernmethoden häufig aus vielen Quellen gesammelt und zen- tralisiert auf einem Server gespeichert. Was problematisch werden kann, wenn die Daten vertrauenswürdige Informationen beinhalten und nicht geteilt werden dürfen oder für Unternehmen kritisch sind, da sie Teil ihres Geschäftsmodells sind. Server ohne Zugriff auf Daten der Clients FL ist ein technischer Ansatz, bei dem die Zen- tralisierung der Daten entfällt und das KI-Modell dezentral über mehrere sogenannte „Clients“ trainiert wird. In der ursprünglichen Variante wird dieser Prozess durch einen zentralen „Server“ organisiert, der jedoch über das gesamte Training hinweg keinen Zugriff auf die Daten der Clients hat. Das Training läuft in mehreren Stufen ab, die in der Abbildung rechts oben zu sehen sind. Zuerst initialisiert ein Server ein globales Modell und sendet dieses den Clients. Diese trainieren das Modell ihrerseits selbstständig mit ihren lokalen Daten. Nach Abschluss des Trainingsvorgangs sendet jeder Client das trainierte Modell beziehungsweise die gewichteten Parameter zurück zum Server. Dieser aggre- giert die Trainingsparameter aller Modelle und erzeugt ein globales Modell, das dann den Clients zugesendet wird. So erhalten alle Clients ein Modell, das auf allen verteilten Daten gelernt wurde, ohne dass die Daten selbst geteilt werden mussten. Eine Variante, bei der auf den zentralen Server verzichtet wird, ist das DFL. Durch die Verteilung untereinander wird die Robustheit des Gesamtsystems verbessert. Damit werden FOTO: XXXXXXXX
RkJQdWJsaXNoZXIy MTk5NjE0NA==