KI-compliance

der EU-AI act und seine regelwerke

der AI act in kürze

Die EU hat mit dem AI Act (Verordnung über künstliche Intelligenz) bereits einen umfassenden Rechtsrahmen für künstliche Intelligenz (KI) verabschiedet, der den Umgang mit KI branchenübergreifend regelt und den Verbraucherschutz in den Vordergrund stellt.

die absicht hinter dem AI act

Ziel des AI Acts ist die Förderung von vertrauenswürdiger und menschenzentrierter künstlicher Intelligenz über alle Branchen hinweg. Das beinhaltet ein hohes Schutzniveau für Gesundheit, Sicherheit und Grundrechte (inkl. Demokratie, Rechtsstaatlichkeit, Umweltschutz) in KI-Systemen. So soll gewährleistet werden, dass es keine schädlichen Auswirkungen aufgrund unangemessener, ethisch inkorrekter Nutzung gibt.

der AI act tritt stufenweise in kraft

Der AI Act ist initial am 01.08.2024 in Kraft getreten und gilt gesamthaft ab dem 02.08.2026. Bereits seit Februar 2025 gilt der AI Act für verbotene KI und seit August 2025 für GPAI-Modelle, die nach diesem Datum in Verkehr gebracht werden. Die weiteren Risikokategorien folgen sukzessive.

der AI act ist mittlerweile ein regelwerk zur stärkung der KI-compliance, welches weiter anwächst

Neben dem AI Act gibt es weitere Konkretisierungen und Guidelines, welche die Verordnung ergänzen, sowie Hilfestellungen und Erläuterungen für die Anwendung der Regulatorik liefern:

der AI act orientiert sich an einem risikobasierten ansatz

Die Einordnung von KI-Systemen ist ein zentrales Element des AI Acts und definiert die jeweiligen konkreten Anforderungen. Dabei ist die höchste Stufe verbotene KI. Hierunter fallen Anwendungen, die gegen Grundrechte verstoßen, wie beispielsweise Social Scoring. Der regulatorische Hauptfokus liegt auf der Hochrisiko-Einstufung. Dies betrifft KI-Systeme, die in sicherheitskritischen Bereichen eingesetzt werden und strengen Anforderungen hinsichtlich Risikomanagement und Dokumentation unterliegen. Auch für General Purpose Artificial Intelligence (GPAI) Modelle gelten besondere Transparenzpflichten, über die die Nutzer informiert werden müssen. KI-Systeme, für die keine speziellen Vorgaben gelten, fallen unter das minimale Risko – z.B. Spamfilter in E-Mail-Programmen.

auf dem weg zur produktiven KI sind standards, methoden und management im zusammenspiel

Um mit KI-Systemen langfristig Wert zu schaffen, ist eine gezielte Verbindung von Qualität, regulatorischer Konformität und Wachstumspotenzial entscheidend. Dafür braucht es anerkannte Standards, erprobte Methoden und geeignete Werkzeuge, die eine sichere sowie effiziente Entwicklung und Implementierung ermöglichen. Besonders wichtig sind dabei anpassungsfähige Systeme für das Managen von Daten und Risiken, die Organisationen dabei unterstützen, ihre KI-Anwendungen erfolgreich über den gesamten Lebenszyklus hinweg zu überwachen.

unser fazit und angebot: vorgehen beim AI act-check

Wir identifizieren entlang der Risikokategorien betroffene KI-Systeme, helfen bei der Einordnung und analysieren das regulatorische Delta.

Haben Sie Fragen zu den Auswirkungen des AI Acts auf Ihr Unternehmen?

Treten Sie in den Dialog mit uns - wir informieren Sie gerne unverbindlich und zeigen Ihnen individuelle Lösungen auf.

 

publikationen