Blog
Weitere Stufe des AI-Acts in Kraft
Die nächste Phase des AI Act ist gestartet: Pflichten für KI-Modelle,...

Sicherer und ganzheitlicher KI-Einsatz in Unternehmen.
KI verändert unsere Arbeitswelt und stellt Unternehmen dabei vor große Herausforderungen. Der wirtschaftliche und demografische Druck macht den KI-Einsatz alternativlos, während regulatorische Anforderungen, wie der EU AI Act die Hürden für die "License to Operate" drastisch erhöht. Gleichzeitig zeigt sich in Unternehmen und Belegschaften ein ambivalentes Spannungsfeld aus Effizienzpotenzialen, Sorgen, Chancen und notwendigem Wandel. Der Einsatz von KI wird die Arbeitswelt nachhaltig prägen:
KI ist keine Option, sondern wird zur notwendigen Voraussetzung, um dem Fachkräftemangel zu begegnen und im internationalen Wettbewerb bestehen zu können. Gleichzeitig erhöhen sich die Anforderungen an die IT-Sicherheit der Unternehmen und die regulatorischen Anforderungen massiv.
Unternehmen müssen technische, organisatorische und ethische Standards erfüllen, um weiterhin KI einsetzen zu dürfen.
Entscheidend ist daher die Befähigung der Organisationen und ihrer Mitarbeitenden, denn Akzeptanz, Verantwortungs- und Kompetenzlücken sind aktuell die größten Bremsfaktoren.
Unternehmen müssen KI daher strategisch verankern, eine umfassende Governance aufbauen und gleichzeitig neue Skills im Unternehmen entwickeln.
Unser Trusted AI-Framework bietet hierfür genau die richtigen Leitplanken für eine erfolgreiche und umfassende KI-Verankerung.
Der Aufbau und die Nutzung vertrauenswürdiger KI erfordert eine ganzheitliche Betrachtung, die über die technische Implementierung hinausgeht. Dabei ist es unabdingbar, stabile und zuverlässige Funktionen, selbst bei Störungen, Fehlern oder Angriffen zu gewährleisten. Integrität und Fairness sichern die Korrektheit der Daten, schützen vor Manipulation und verhindern Voreingenommenheit (Bias) und Diskriminierung durch KI-Entscheidungen. KI-Entscheidungen müssen für Menschen transparent und nachvollziehbar sein ("Black Box" auflösen).

Anbieter haben wesentlich höhere Anforderungen als Betreiber und andere Akteure. Bei wesentlichen Änderungen am Modell kann die Betreiberrolle in die Anbieterrolle übergehen. Es gibt außerdem weitreichende Anforderungen entlang der AI Act Risikoklassifizierungen. Je nach Klassifizierung gibt es Anforderungen an Risiko- und Qualitätsmanagement, Data Governance, technische Dokumentation, Cybersicherheit und Aufsicht.
Der Fokus liegt auf (besonderen) personenbezogenen Daten und Verzahnung mit dem AI Act. Die Sicherstellung der menschlichen Aufsicht und Nachvollziehbarkeit bei automatisierten Entscheidungen ist entscheidend.
Infrastruktur-Resilienz und –Verfügbarkeit müssen durch klassischen Schutz vor Cyberangriffen gewährleistet werden. Robuste System-Härtung und deren Validierung durch Pentesting (u.a. Red-Teaming, bzw. TLPT) auf die KI-Infrastruktur ist zwingend erforderlich. In der Finanzbranche gilt auch die Einhaltung der bestehenden DORA-Anforderungen.
Der Fokus liegt auf dem spezifischen Schutz des KI-Modells und der Trainingsdaten. Dabei sind die Abwehr neuartiger Bedrohungen wie Prompt Injection, Data Poisoning und Adversarial Attacks wesentlich. Die Modell-Robustheit steht im Vordergrund und muss gewährleistet sein.
Grundsätzlich müssen die gesamte KI-Toolchain und alle Modellartefakte entlang des Entwicklungs- und Betriebszyklus geschützt werden.
Wir betrachten die gesamte KI-Wertschöpfungskette von der Analyse der Ist-Situation, über die Identifizierung der Lücken hin zum ganzheitlichen Zielbild und verzahnen die regulatorisch-strategische Ebene mit der technisch-operativen Ebene, die integriert für einen ganzheitlichen organisationalen Ansatz elementar sind.

Trusted AI - 2-Pager
Trusted AI - 4-Pager