AI ACT GILT AB AUGUST 2026

AI Act Compliance
für Ihre Organisation

Strukturierter Bezugsrahmen für den Einsatz von KI in Ihrer Organisation.

EU AI Act

Der EU AI Act verschiebt KI von einer primär technischen zu einer unternehmerischen Einordnungsfrage. Nicht allein die Nutzung von KI ist relevant, sondern wie Organisationen Governance, Kontroll- und Bewertungsmechanismen in ihre Strukturen integrieren. Dieses Training arbeitet mit Grip (regulatorische Fakten, Risikokategorien, Dokumentationspflichten) und Sense (kulturelle Muster in KI-Systemen, implizite Bias-Logiken, ungeschriebene Organisationsregeln). Logik überführt beides in nachvollziehbare Handlungsrahmen.

deep.ground.

Regulatorische
Einordnung

Ab August 2026 wird nachweisbare KI-Kompetenz in Unternehmen erwartet. Ohne strukturierte Qualifizierungs- und Bewertungsprozesse besteht das Potenzial für regulatorische Unklarheiten mit rechtlichen und reputativen Implikationen. Was trägt und was nicht?

twist

Verborgene
Risikofaktoren

Voreingenommene Prompts, diskriminierende Outputs oder unreflektierte Datenlogiken können in KI-Systemen auftreten. Ohne belegte Bewertung und strukturierte Reflexion bleiben diese Felder schwer einordenbar. Wo entstehen Risiken, die in Checklisten nicht auftauchen?

+shift

Strategische
Verankerung

Organisationen, die KI-Systeme im Rahmen bestehender Governance- und Verantwortungsmodelle einordnen, schaffen eine Grundlage für interne und externe Beurteilungen. Die Auseinandersetzung mit Compliance-Anforderungen wird nachvollziehbare Entscheidungsgrundlage.

AI Act-Training

KI-Kompetenz in 7 Modulen

Das AI-Training orientiert sich am EU AI Act und dient der strukturierten Einordnung künftiger Compliance-Anforderungen. Im Fokus stehen Governance-, Risiko- und Entscheidungslogiken für den verantwortungsvollen Einsatz von KI sowie der reflektierte Umgang mit Bias.

deep.ground.

was betrifft uns?

Modul 1

AI Essentials

Systeme, Modelle, Kontexte

 KI- und GPAI-Modelle
Funktionsprinzipien
Chancen- und Risikofelder
Überblick aktuelle Werkzeuge

Modul 2

Digital Compliance

AI Act, Data Act & DSGVO

Einordnung rechtlicher Anforderungen
Risikokategorien und Bewertung
Transparenz-/Dokumentationspflichten
Sanktionsrahmen

Modul 3

Governance

Steuerungs- & Prüfstrukturen

Governance-Modelle
Rollen und Zuständigkeiten
Transparenz und Nachvollziehbarkeit
Dokumentation

twist.

Wo entstehen Risiken & Stellschrauben?

Modul 4

Prompt Design

Zwischen Daten & Entscheidungen

Strukturierte Prompt-Logiken
Nutzer- und Kontextbezug
Einordnung von KI-Outputs
Praxisnahe Beispiele

Modul 5

Entscheiden mit AI

Zwischen Mensch & Maschine

Einordnung von KI-Ergebnissen
Rolle menschlicher Entscheidung
Verantwortungslogiken
Datenbasierte Perspektiven

+shift.

Was verändert Verhalten im System?

Was verändert
Verhalten im System?

Modul 6

Coded Culture

Kulturelle Muster in KI

Stereotype in Text- und Bildsystemen
Vorurteile in Sprache und Modellen
Kulturelle Codierungen
Einordnung von Vielfalt

Modul 7

Coded Fairness

Bias & KI-Fairness

Fairness-Konzepte in KI
Bias im Machine Learning
Diskriminierungsrisiken
Bewertungsrahmen

AI Act-Training mit erweitertem Fokus

Von Compliance zu Verantwortung
Von Compliance zu Verantwortung

Während viele Trainings sich auf formale Checklisten konzentrieren, erweitert dieser Ansatz den Blick auf kulturelle und fairnessbezogene Einflussfaktoren in KI-Systemen. Coded Culture und Coded Fairness folgen der Blueprint-Logik. Sichtbar wird, wie kulturelle Bedeutungen in Code übersetzt werden, wo dabei Sinn verloren geht, erstarrt oder verzerrt und wo sich konkrete Handlungslogiken öffnen. 

Coded Culture

KI-Systeme arbeiten mit sprachlichen, kulturellen und impliziten Annahmen. In diesem Modul wird analysiert, wie Prompts, Trainingsdaten und Modelllogiken kulturelle Muster und Rollenbilder abbilden.

Adressiert

Coded Fairness

Fairness in KI ist eine Frage von Bewertungsrahmen und Organisationsentscheidungen. Dieses Modul betrachtet, wo Bias in Modellen und Daten entstehen kann und wie diese Felder eingeordnet werden.

Adressiert

Durchgeführt von Isabella (Isa) Andrić, freie Mitarbeiterin im OpenAI Red Teaming Network, höchste Standards im Bereich AI-Safety auf internationaler Ebene.

Gruppen im Trainingskontext

Gruppen im
Trainingskontext

Marketing, Brand & Content

Generative KI wird in Kampagnen, Inhalte und Creatives eingesetzt. Dabei stehen Darstellungen, Formulierungen und visuelle Ausgaben im Fokus, die im Markt- und Marken­kontext unterschiedlich eingeordnet werden. Reputationsfragen und Marktwahrnehmung sind als Bewertungskategorien relevant.

HR & People Operations

In diesen Funktionen kommen KI-Anwendungen in Recruiting, Performance-Management und Talententwicklung zum Einsatz. Im Mittelpunkt stehen KI-basierte Bewertungen und Zuordnungen von Personen. Rechtliche, regulatorische und organisationsbezogene Einordnungen bilden den maßgeblichen Bezugsrahmen.

Product & Data Teams

Diese Bereiche arbeiten an KI-gestützten Produkten und Services. Hier werden Modelle, Trainingsdaten und Outputs in Bezug auf Nutzergruppen, regulatorische Kategorien und Produktkontexte betrachtet. Bias, Nutzungskontexte und Governance-Fragen werden dabei als strukturierende Dimensionen eingeordnet.

Konditionen

Preisangaben sind unverbindlich und stellen kein rechtlich bindendes Angebot dar. Maßgeblich ist ausschließlich ein individuell bestätigtes Angebot.
€2.250

zzgl. 20% MwSt. 

Leistungsumfang

Formate

Weitere Optionen

Kurzformat (Online)

2 Std. / €790 zzgl. MwSt.
Inkludiert Module 1-3

DEEP DIVES

Coded Culture 
oder Coded Fairness 
3 Std. / €1.290 zzgl. MwSt.

Mehrfachtermine

-10% ab 3 Trainings

Individuelle Formate

Auf Anfrage

Isabella (Isa) Andrić, MA

Referenzen im Trainingskontext
9_logos_sw
Logo Continental Automotive
Logo Rotes Kreuz Österreich
Logo Stadt Wien, Wiener Wohnen
Logo FH Oberösterreichq
Logo Caritas

Isabella (Isa) Andrić ist seit vielen Jahren in der Erwachsenenbildung tätig, als freie Lektorin, Trainerin und Leiterin von Diplomlehrgängen. Sie arbeitet für Unternehmen, Organisationen, Bildungsinstitute (BFI Wien, WIFI, werbeakademie) und Fachhochschulen.

Häufige Fragen zum AI Act-Training

Dieser Abschnitt erhält FAQs zur AI Act-Training

Das Training erweitert die Einordnung des EU AI Act um die Perspektiven Coded Culture und Coded Fairness. Es folgt dabei der Blueprint-Methodik. Im ersten Schritt wird der regulatorische und organisationale Status eingeordnet, dann werden strukturelle Risiken und kulturelle Verzerrungen offengelegt. Schließlich entstehen belastbare Handlungsrahmen. Die Trainings werden von Isabella (Isa) Andrić durchgeführt, langjährige Trainerin in der Erwachsenenbildung, freie Lektorin und Mitglied des OpenAI Red Teaming Network, bietet sie Einblicke zu Bewertungslogiken, Risikokategorien und Systemgrenzen aktueller KI-Modelle entlang internationaler Standards.

Das Training ist als Behavior Blueprint konzipiert. Es adressiert die Frage, welche ungeschriebenen Regeln den Umgang mit KI in Ihrer Organisation steuern und wie sich daraus ein belastbarer Governance-Rahmen entwickeln lässt. Ein Blueprint strukturiert den Weg von der Bestandsaufnahme über die Identifikation blinder Flecken bis zum verankerten Handlungsrahmen.

Coded Culture und Coded Fairness sind als eigenständige Module verfügbar. Sie richten sich an Teams, die bereits mit den regulatorischen Grundlagen arbeiten und ihre Einordnung von Bias- und Fairness-Aspekten im KI-Kontext vertiefen möchten.

Der Standardrahmen sieht bis zu 15 Teilnehmende vor. Andere Gruppengrößen sowie Formate für größere Organisationen (z. B. Train-the-Trainer) sind als Varianten verfügbar.

Teilnehmende erhalten eine Teilnahmebestätigung mit Bezug auf Art. 4 des EU AI Act, die die absolvierte Schulung dokumentiert.

Das Training kann online durchgeführt werden. Dabei kommen digitale Werkzeuge wie Miro, Mentimeter und strukturierte Breakout-Formate zum Einsatz.

Vorab findet ein Gespräch zur Einordnung des organisationalen Kontexts statt. Auf dieser Basis wird der inhaltliche Zuschnitt des Trainings festgelegt und bei Bedarf angepasst.

Die Modulstruktur bildet unterschiedliche Kenntnisstände ab. Der Einstieg mit AI Essentials definiert einen Grundrahmen, weitere Module strukturieren ergänzende Perspektiven zu Governance, Daten und Fairness.

Nach der Kontaktaufnahme erfolgt ein Vorgespräch zur Einordnung von Umfang und Format. Anschließend wird ein Termin festgelegt. Kurzfristige Termine sind je nach Verfügbarkeit möglich.

Art. 4 beschreibt die Verpflichtung von Organisationen, für KI-bezogene Kompetenzen bei Mitarbeitenden einen geeigneten Rahmen vorzusehen. Der Artikel definiert dabei keine konkreten Trainingsformate, sondern einen regulatorischen Bezugspunkt für Qualifikation und Einordnung im KI-Kontext. Auf der Website der Europäischen Kommission finden Sie FAQs zur AI Kompetenzpflicht.

25min Erstgespräch. Kostenlos. Unverbindlich.

AI Act-Training

deep.ground.twist +shift. Strukturierte Ergebnisse nach der Blueprint-Methode.