News

AI Act der EU: Wie setzen Unternehmen ihn am besten um?

31.01.2025

Firmen sollen ihre KI-Systeme einfach darauf testen können, ob sie die neuen Vorgaben erfüllen. Forschende von LMU, TUM und UTN erarbeiten dafür ein System zur automatischen Verifikation. Das bayerische Digitalministerium fördert das Projekt.

Die europäische Gesetzesinitiative zur Regulierung von Künstlicher Intelligenz („AI Act“) ist bereits seit dem 1. August 2024 in Kraft. Ab dem 2. Februar 2025 erlangen erste Elemente aus dem komplexen Regelwerk Verbindlichkeit: Das ist eine Herausforderung vor allem für kleine und mittlere Unternehmen (KMU) und Start-ups, die von Künstlicher Intelligenz profitieren und Innovationen vorantreiben wollen. Ein neues Projekt unter wissenschaftlicher Federführung von LMU-Professorin Gitta Kutyniok soll sie dabei unterstützen, die neuen Vorgaben zu erfüllen, und damit Hürden für den Einsatz Künstlicher Intelligenz in Unternehmen senken. Dieser „Bavarian AI Act Accelerator“, gefördert vom Bayerischen Staatsministerium für Digitales, wird vom appliedAI Institute for Europe umgesetzt, wesentlich beteiligt sind zudem Wissenschaftlerinnen und Wissenschaftler der Technischen Universitäten München (TUM) und Nürnberg (UTN).

Weniger manueller Aufwand, mehr Transparenz

Mit dem neuen AI Act aus Brüssel sind beispielsweise KI-Systeme mit „inakzeptablem Risiko“ verboten. Zudem müssen Mitarbeiter oder externe Parteien, die KI-Systeme nutzen beziehungsweise anbieten, angemessen geschult werden, um über ein gewisses Maß an „KI-Wissen“ zu verfügen. An solchen Herausforderungen setzt das Projekt an, indem es Forschung, Bildung und technologische Innovation kombiniert: Bayerische Forschungsteams entwickeln im Rahmen des Projekts wissenschaftlich fundierte Ansätze, um die Anforderungen des AI Act praxisnah umzusetzen. Gleichzeitig entstehen zielgerichtete Bildungsangebote wie Trainings und Workshops, die Unternehmen auf die neuen Vorgaben vorbereiten. Die Unternehmen erhalten Hilfestellung bei Risikobewertung, Dokumentation, Auditierung und praxisnahe Lösungen zur Erfüllung regulatorischer Vorgaben. Automatisierte Verifikationssysteme sollen perspektivisch eine kontinuierliche und effiziente Überprüfung von KI-Systemen auf ihre Gesetzeskonformität ermöglichen. Diese Tools minimieren den manuellen Aufwand und erhöhen die Transparenz.

„Das Ziel des gemeinsamen Forschungsprojektes von LMU, TUM und UTN ist es, die rechtlichen Anforderungen des AI Acts zu formalisieren, weil damit die Erläuterung und Überprüfung des AI Acts sehr klaren Richtlinien folgen kann“, sagt LMU-Wissenschaftlerin Gitta Kutyniok, Inhaberin des Lehrstuhls „Mathematische Grundlagen von Künstlicher Intelligenz“. Ein darauf aufbauendes System zur automatischen Verifikation würde es dann allen Unternehmen, wie auch den Prüfstellen in ganz Europa, erlauben, sehr einfach und gleichzeitig konsistent und fair KI-Technologie zu bewerten. In Zusammenarbeit mit appliedAI könnten unsere Forschungsergebnisse zur Entwicklung technischer und rechtlicher Standards beitragen, die dann von der Europäischen Gesetzgebung berücksichtigt werden könnten.“

Wonach suchen Sie?