Isabella Andrić, MA
Persönliche Termine
Climate Lab 1090 Wien
Spittelauer Lände 45
Strukturierter Bezugsrahmen für den Einsatz von KI in Ihrer Organisation.
Der EU AI Act verschiebt KI von einer primär technischen zu einer unternehmerischen Einordnungsfrage. Nicht allein die Nutzung von KI ist relevant, sondern wie Organisationen Governance, Kontroll- und Bewertungsmechanismen in ihre Strukturen integrieren.
Ab August 2026 wird nachweisbare KI-Kompetenz in Unternehmen erwartet. Ohne strukturierte Qualifizierungs- und Bewertungsprozesse besteht das Potenzial für regulatorische Unklarheiten mit rechtlichen und reputativen Implikationen. Eine sachgerechte Einordnung von Kompetenzanforderungen dient der Compliance-Einordnung.
Voreingenommene Prompts, diskriminierende Outputs oder unreflektierte Datenlogiken können in KI-Systemen auftreten. Ohne belegte Bewertung und strukturierte Reflexion solcher Einflussgrößen bleiben diese Felder schwer einordenbar. Solche Konstellationen können auf organisationaler Ebene zu ungewollten Herausforderungen führen.
Organisationen, die KI-Systeme im Rahmen bestehender Governance- und Verantwortungsmodelle einordnen, schaffen eine konsistente Grundlage für interne und externe Beurteilungen. Die sachliche Auseinandersetzung mit Compliance-Anforderungen kann zur nachvollziehbaren Positionierung im Markt- und Regulierungsumfeld beitragen.
Das AI-Training orientiert sich am EU AI Act und dient der strukturierten Einordnung künftiger Compliance-Anforderungen. Im Fokus stehen Governance-, Risiko- und Entscheidungslogiken für den verantwortungsvollen Einsatz von KI sowie der reflektierte Umgang mit Bias.
KI- und GPAI-Modelle
Funktionsprinzipien
Chancen- und Risikofelder
Überblick über aktuelle Werkzeuge
Einordnung rechtlicher Anforderungen
Risikokategorien und Bewertung
Transparenz-/Dokumentationspflichten
Sanktionsrahmen
Rollen und Zuständigkeiten
Governance-Modelle
Audit- und Kontrolllogiken
Nachvollziehbarkeit und Dokumentation
Strukturierte Prompt-Logiken
Nutzer- und Kontextbezug
Einordnung von KI-Outputs
Praxisnahe Beispiele
Einordnung von KI-Ergebnissen
Rolle menschlicher Entscheidung
Verantwortungslogiken
Datenbasierte Perspektiven
Stereotype in Text- und Bildsystemen
Vorurteile in Sprache und Modellen
Kulturelle Codierungen
Einordnung von Vielfalt
Fairness-Konzepte in KI
Bias im Machine Learning
Diskriminierungsrisiken
Bewertungsrahmen
Während viele Trainings sich auf formale Checklisten konzentrieren, erweitert dieser Ansatz den Blick auf kulturelle und fairnessbezogene Einflussfaktoren in KI-Systemen. Coded Culture und Coded Fairness dienen dazu, schwer sichtbare Risikofelder strukturiert einzuordnen.
KI-Systeme arbeiten mit sprachlichen, kulturellen und impliziten Annahmen. In diesem Modul wird analysiert, wie Prompts, Trainingsdaten und Modelllogiken kulturelle Muster und Rollenbilder abbilden.
Fairness in KI ist eine Frage von Bewertungsrahmen und Organisationsentscheidungen. Dieses Modul betrachtet, wo Bias in Modellen und Daten entstehen kann und wie diese Felder eingeordnet werden.
Durchgeführt von Isabella (Isa) Andrić mit Einblicken aus dem OpenAI Red Teaming Network zu Bewertungs- und Risikologiken aktueller KI-Modelle entlang internationaler Standards.
Generative KI wird in Kampagnen, Inhalte und Creatives eingesetzt. Dabei stehen Darstellungen, Formulierungen und visuelle Ausgaben im Fokus, die im Markt- und Markenkontext unterschiedlich eingeordnet werden. Reputationsfragen und Marktwahrnehmung sind daher in diesem Rahmen als Bewertungskategorien relevant.
In diesen Funktionen kommen KI-Anwendungen in Recruiting, Performance-Management und Talententwicklung zum Einsatz. Im Mittelpunkt stehen dabei KI-basierte Bewertungen und Zuordnungen von Personen. Rechtliche, regulatorische und organisationsbezogene Einordnungen bilden hierfür den maßgeblichen Bezugsrahmen.
Diese Bereiche arbeiten an KI-gestützten Produkten und Services. Hier werden Modelle, Trainingsdaten und Outputs in Bezug auf Nutzergruppen, regulatorische Kategorien und Produktkontexte betrachtet. Bias, Nutzungskontexte und Governance-Fragen werden dabei als strukturierende Dimensionen eingeordnet.
zzgl. 20% MwSt.
2 Std. / €790 zzgl. MwSt.
Coded Culture
oder Coded Fairness
2 Std. / €1.190 zzgl. MwSt.
-10% ab 3 Trainings
Modulare Pakete auf Anfrage
Seit 2012 ist Isabella Andrić als Trainerin und Diplomlehrgangsleiterin tätig. Ihre Tätigkeit umfasst Formate für Unternehmen, Organisationen und Fachhochschulen, unter anderem beim BFI Wien, WIFI und der werbeakademie.
Dieser Abschnitt erhält FAQs zur AI Act-Training
Das Training erweitert die Einordnung des EU AI Act um die Perspektiven Coded Culture und Coded Fairness. Diese Konzepte strukturieren kulturelle und fairnessbezogene Aspekte von KI-Systemen, die in vielen Standardformaten nicht gesondert abgebildet werden. Die Trainings werden von Isabella (Isa) Andrić durchgeführt, mit Einblicken aus ihrer freien Mitarbeit im OpenAI Red Teaming Network zu Bewertungslogiken, Risikokategorien und Systemgrenzen von aktuellen KI-Modellen entlang internationaler Standards.
Coded Culture und Coded Fairness sind als eigenständige Module verfügbar. Sie richten sich an Teams, die bereits mit den regulatorischen Grundlagen arbeiten und ihre Einordnung von Bias- und Fairness-Aspekten im KI-Kontext vertiefen möchten.
Der Standardrahmen sieht bis zu 15 Teilnehmende vor. Andere Gruppengrößen sowie Formate für größere Organisationen (z. B. Train-the-Trainer) sind als Varianten verfügbar.
Teilnehmende erhalten eine Teilnahmebestätigung mit Bezug auf Art. 4 des EU AI Act, die die absolvierte Schulung dokumentiert.
Das Training kann online durchgeführt werden. Dabei kommen digitale Werkzeuge wie Miro, Mentimeter und strukturierte Breakout-Formate zum Einsatz.
Vorab findet ein Gespräch zur Einordnung des organisationalen Kontexts statt. Auf dieser Basis wird der inhaltliche Zuschnitt des Trainings festgelegt und bei Bedarf angepasst.
Die Modulstruktur bildet unterschiedliche Kenntnisstände ab. Der Einstieg mit AI Essentials definiert einen Grundrahmen, weitere Module strukturieren ergänzende Perspektiven zu Governance, Daten und Fairness.
Nach der Kontaktaufnahme erfolgt ein Vorgespräch zur Einordnung von Umfang und Format. Anschließend wird ein Termin festgelegt. Kurzfristige Termine sind je nach Verfügbarkeit möglich.
Art. 4 beschreibt die Verpflichtung von Organisationen, für KI-bezogene Kompetenzen bei Mitarbeitenden einen geeigneten Rahmen vorzusehen. Der Artikel definiert dabei keine konkreten Trainingsformate, sondern einen regulatorischen Bezugspunkt für Qualifikation und Einordnung im KI-Kontext. Auf der Website der Europäischen Kommission finden Sie FAQs zur AI Kompetenzpflicht.
Persönliche Termine
Climate Lab 1090 Wien
Spittelauer Lände 45
Studien. Vorträge.
Workshops. Keynotes.
Publikationen.
IoT Austria
TECH INFLUENCER
Chairwoman oF BOARD
Themen
Digitale Nachhaltigkeit
Die Smarte Organisation
Das Team Mensch-Maschine
The Quantified & Gamified Self
Fake News, Bots & Social Impact
Digitale Kommunikation & Design
Smart Future: Entscheiden durch AI?
Algorithmen, Coded Bias & Datenethik
Ausgewählte Referenzen (alphabetisch)
AbbVie, BFI Wien, Climate Lab, Diversity Camp18, Magenta (T-Mobile Austria), Maschinenring Österreich, Österreichischer IT- & Beratertag, Rotes Kreuz Österreich, SIETAR Österreich, TTTech Auto AG, WAFF Wiener Arbeitnehmer:innen Förderungsfonds, werbeakademie, WIFI Wien, Wirtschaftskammer Wien (EPU Forum)
Ich freue mich auf Ihre Anfrage per E-Mail.
Trends, Trittbretttechnologien & Open Source
IoT Austria Positionsbestimmungen in 2018 & 2019
Präsidentin der IoT Austria 2018 bis 2020
Link zur IoT Austria >
Managing Diversity im digitalen Zeitalter
Die Smarte Organisation; bookboon 2018
Link zum eBook >
Das A&O der Zukunft: Entscheiden durch AI?;
15. Österreichischer IT & Beratertag der WKO 2017
Mehr auf der Website dazu >
Runtastic into a SuperBetter Life!
Sammelband WELT DER SPIELE 360°; DUK 2017
Beiträge im Überblick >
Erfahren Sie mehr über mich.
Themen
Digitale Nachhaltigkeit
Die Smarte Organisation
Das Team Mensch-Maschine
The Quantified & Gamified Self
Fake News, Bots & Social Impact
Digitale Kommunikation & Design
Smart Future: Entscheiden durch AI?
Algorithmen, Coded Bias & Datenethik
Ausgewählte Referenzen (alphabetisch)
AbbVie, BFI Wien, Climate Lab, Diversity Camp18, Magenta (T-Mobile Austria), Maschinenring Österreich, Österreichischer IT- & Beratertag, Rotes Kreuz Österreich, SIETAR Österreich, TTTech Auto AG, WAFF Wiener Arbeitnehmer:innen Förderungsfonds, werbeakademie, WIFI Wien, Wirtschaftskammer Wien (EPU Forum)
Ich freue mich auf Ihre Anfrage per E-Mail.
Trends, Trittbretttechnologien & Open Source; IoT Austria Positionsbestimmungen; 2018, 2019
Link zur IoT Austria >
Managing Diversity im digitalen Zeitalter, Die Smarte Organisation; bookboon; 2018
Link zum eBook >
Das A&O der Zukunft: Entscheiden durch AI?; 15. Österreichischer IT & Beratertag der WKO; 2017
Mehr auf der Website dazu >
Runtastic into a SuperBetter Life!; Sammelband WELT DER SPIELE 360°; DUK; 2017
Beiträge im Überblick >
Erfahren Sie mehr über mich.
Eine Förderzusage hängt von den jeweiligen Förderbedingungen ab.
Unternehmen aus Wien können bei der WKW den Antrag auf eine geförderte Unternehmensberatung der WKW stellen. Diese kann für Konzepte und Beratungen genutzt, z. B. für Webanalysen, Optimierung von Webseiten und Inhalten für AI Search, Usability und User Experience. Abhängig vom Unternehmensalter werden 10 Beratungsstunden mit einem Zuschuss von EUR 440 bzw. EUR 660 gefördert.
Wer die Leistungsfähigkeit und Zusammenarbeit seiner Teams strategisch weiterentwickeln möchte, kann den FFG Diversity-Scheck nutzen. Er unterstützt österreichische KMU mit bis zu EUR 10.000 bei der Umsetzung von Maßnahmen für kulturelles Alignment und nachhaltige Performance.