AI Act Schulung Mitarbeitende: Pflicht, Inhalt und Umsetzung 2025-2027

ai act schulung mitarbeitende: A modern, clean workspace bathed in soft blue light. A diverse group of professionals are

 

 

 

Wichtigste Erkenntnisse

  • Ab 2025 tritt eine gesetzliche Pflicht zur AI Act Schulung für Mitarbeitende in Kraft – Bußgelder bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes drohen bei Verstößen.
  • Der EU AI Act gilt extraterritorial: Auch Unternehmen außerhalb der EU, die KI-Systeme in der EU anbieten, müssen konform sein.
  • Risikoklassen bestimmen die jeweiligen Compliance-Anforderungen; von minimalem bis verbotenem KI-Risiko.
  • Dokumentation ist Kernanforderung: Technische Unterlagen, automatisiertes Logging und Transparenznachweise sind Pflicht.
  • Ein rollenspezifisches Schulungsprogramm verankert KI-Compliance in der gesamten Organisation.
  • KI-Governance ist entscheidend, um Anforderungen effizient und nachhaltig zu erfüllen.
  • Regelmäßige Audits und kontinuierliche Überwachung sichern langfristige Compliance.

 

AI Act Schulung Mitarbeitende: Pflicht, Inhalt und Umsetzung 2025-2027

Die AI Act Schulung Mitarbeitende wird ab 2025 zur gesetzlichen Pflicht für Unternehmen, die KI-Systeme entwickeln, bereitstellen oder einsetzen. Der EU AI Act (Regulation (EU) 2024/1689) ist weltweit der erste umfassende Rechtsrahmen für Künstliche Intelligenz und gilt extraterritorial – also auch für Unternehmen außerhalb der EU, die KI-Systeme auf dem europäischen Markt anbieten. Die Konsequenzen bei Nichteinhaltung sind erheblich: Bußgelder bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes drohen bei schweren Verstößen. Besonders kleine und mittlere Unternehmen (KMU) müssen trotz begrenzter Ressourcen die eu ai act kmu pflichten vollständig umsetzen. Einen umfassenden Leitfaden zur allgemeinen Automatisierung in KMUs finden Sie hier.

Überblick über den EU-AI-Act

Der Europäische AI Act verfolgt zwei Hauptziele: den Schutz fundamentaler Rechte der EU-Bürger und die Förderung von Innovation im KI-Bereich. Er etabliert einen risikobezogenen Regulierungsrahmen, der verschiedene Anforderungen je nach Gefahrenpotenzial der eingesetzten KI festlegt.

Der AI Act gilt für alle Anbieter und Nutzer von KI-Systemen auf dem EU-Markt, unabhängig von ihrem Firmensitz. Die Umsetzung erfolgt schrittweise:

  • Februar 2025: Verbote unzulässiger KI-Praktiken und Schulungspflichten treten in Kraft
  • August 2025: Regelungen für General-Purpose AI und Einrichtung der EU-AI-Behörde
  • August 2026: Umfassende Anforderungen für Hochrisiko-KI-Systeme werden wirksam
  • August 2027: Ende der Übergangsphase; vollständige Compliance erforderlich

Die eu ai act kmu pflichten sind dabei besonders relevant, da auch kleinere Unternehmen zur vollständigen Umsetzung verpflichtet sind, wenn auch mit gewissen Erleichterungen. Die Bußgelder sind nach Schwere des Verstoßes gestaffelt: Bis zu 35 Millionen Euro für verbotene Praktiken, 15 Millionen Euro für andere Verstöße und 7,5 Millionen Euro für falsche Angaben gegenüber Behörden.

Die risikoklassen ai act erklärung ist grundlegend für jedes Unternehmen, da sie bestimmt, welche konkreten Anforderungen umgesetzt werden müssen.

Warum Mitarbeiterschulung Pflicht ist

Die ai act schulung mitarbeitende ist keine optionale Maßnahme, sondern eine explizite gesetzliche Verpflichtung. Artikel 4 des AI Act fordert ausdrücklich „eine ausreichende AI-Literacy des Personals und anderer Personen, die mit dem Betrieb und der Nutzung von KI-Systemen in ihrem Namen befasst sind, unter Berücksichtigung ihres technischen Wissens, ihrer Erfahrung, Bildung und Ausbildung.“

Diese Verpflichtung gilt bereits seit dem 2. Februar 2025 und betrifft Unternehmen unabhängig von ihrer Größe oder der Risikostufe ihrer KI-Systeme. Ein Verstoß gegen diese Schulungspflicht stellt einen eigenständigen Bußgeldtatbestand dar, selbst wenn die KI-Systeme ansonsten allen Anforderungen entsprechen.

Die Schulung bringt mehrere Vorteile:

  • Frühzeitige Risikoerkennung: Geschulte Mitarbeiter können problematische KI-Praktiken identifizieren, bevor sie implementiert werden
  • Etablierung einer Compliance-Kultur: Training verwandelt Compliance von einer Top-down-Vorgabe in eine gemeinsame Organisationspraxis
  • Schutz vor Bußgeldern: Dokumentierte Schulungsprogramme demonstrieren Compliance-Bemühungen gegenüber Aufsichtsbehörden
  • Unterstützung bei der korrekten Risikoklassifizierung von KI-Systemen

Besonders für KMU (eu ai act kmu pflichten) ist die richtige Schulung entscheidend, um trotz begrenzter Ressourcen Compliance zu erreichen.

Artikel zum AI Act

Risikoklassen – AI Act Erklärung

Die risikoklassen ai act erklärung bildet das Fundament für die Compliance-Strategie jedes Unternehmens. Der AI Act definiert vier Risikokategorien, die unterschiedliche Compliance-Anforderungen nach sich ziehen:

Minimales Risiko

KI-Systeme mit minimalem oder vernachlässigbarem Risiko für Grundrechte oder Sicherheit unterliegen praktisch keinen Verpflichtungen außer Transparenzanforderungen in bestimmten Kontexten. Beispiele sind einfache Spamfilter oder grundlegende Empfehlungssysteme.

Begrenztes Risiko (Transparenzanforderungen)

Generative KI-Systeme und bestimmte andere Anwendungen müssen offenlegen, dass Nutzer mit KI interagieren, und synthetische Inhalte in maschinenlesbarer Form kennzeichnen. Diese Systeme durchlaufen keine Konformitätsbewertung, müssen aber die Transparenzanforderungen nach Artikel 50 erfüllen. Beispiele sind Chatbots für Kundenservice oder kreative KI-Anwendungen.

Hohes Risiko (Anhang III-Systeme)

Anwendungen in Bereichen wie Personalentscheidungen, Bildung, Zugang zu wesentlichen Dienstleistungen, Strafverfolgung, Migration oder Justiz lösen umfassende Compliance-Verpflichtungen aus. Hochrisiko-Systeme erfordern:

  • Technische Dokumentation
  • Konformitätsbewertung
  • Registrierung in der EU-Datenbank
  • Risikobewertungen
  • Protokolle für menschliche Aufsicht
  • Kontinuierliche Überwachung

Beispiele sind KI-basierte Recruiting-Tools, Kreditwürdigkeitsprüfungen oder KI-Systeme zur Strafverfolgung.

Verbotene KI-Praktiken

Der AI Act verbietet explizit KI-Systeme, die:

  • Manipulatives Verhalten fördern
  • Emotionserkennung am Arbeitsplatz durchführen
  • Social Scoring betreiben
  • Nicht autorisierte biometrische Kategorisierung vornehmen

Organisationen müssen ihre Risikoeinstufungsmethodik dokumentieren und die Begründung für jede Feststellung, dass ein Anhang-III-System kein hohes Risiko darstellt, festhalten. Marktüberwachungsbehörden können Systeme neu einstufen und Durchsetzungsmaßnahmen einleiten, wenn sie der Meinung sind, dass Organisationen das Risiko zu niedrig eingestuft haben.

Im Rahmen der ai act schulung mitarbeitende müssen Mitarbeiter verstehen, wie diese Klassifizierung funktioniert und wie sie auf die spezifischen KI-Systeme ihres Unternehmens angewendet wird.

Dokumentationspflichten für Unternehmen

Die Dokumentationspflichten sind umfangreich und abhängig von der Risikoeinstufung der KI-Systeme. Anbieter von Hochrisiko-KI-Systemen müssen folgende Dokumentationen erstellen und pflegen:

Technische Dokumentation

Anbieter müssen eine detaillierte technische Dokumentation erstellen und kontinuierlich aktualisieren, die Systemelemente, den Entwicklungsprozess, Erkenntnisse zu Trainingsdaten, Überwachungs- und Kontrollmechanismen sowie Cybersicherheitsmaßnahmen beschreibt. Diese Dokumentation muss vor dem Markteintritt erstellt werden und für Aufsichtsbehörden zugänglich sein.

Automatisiertes Logging

Anbieter müssen Systeme mit automatisierter Ereignisaufzeichnung (Logs) über ihren gesamten Lebenszyklus konzipieren, um eine Marktüberwachung nach dem Inverkehrbringen zu ermöglichen. Diese Protokolle müssen mindestens sechs Monate aufbewahrt und den Marktüberwachungsbehörden auf Anfrage zur Verfügung gestellt werden.

Aufzeichnungspflichten

Unternehmen müssen ihre Risikobeurteilungsentscheidungen, Klassifizierungsbegründungen, Konformitätsbewertungsmethoden und Compliance-Maßnahmen dokumentieren. Diese Dokumentation muss eine behördliche Überprüfung unterstützen und nachweisen, dass die Organisation die Anforderungen des AI Act verstanden hat, als sie Systeme entwickelte und einsetzte.

Transparenzdokumentation

Für Anwender muss die Dokumentation Aufzeichnungen über die Nutzung des KI-Systems, die Kommunikation mit betroffenen Personen über den Einsatz von Hochrisiko-Systemen und Nachweise für die Einhaltung der Transparenzanforderungen umfassen.

Die eu ai act kmu pflichten zur Dokumentation gelten auch für kleine und mittlere Unternehmen, wobei die Komplexität der Dokumentation dem Umfang und der Risikostufe der eingesetzten KI entsprechen sollte. Unternehmen, die keine angemessene Dokumentation führen, drohen erhebliche Strafen, und die Beweislast für die Einhaltung der Vorschriften liegt beim Unternehmen. Eine strukturierte Bestimmung des Prozessreifegrads kann Unternehmen dabei helfen, Dokumentationsanforderungen systematisch umzusetzen.

Weitere Infos zur Risikobewertung
Vertiefende Hinweise zu Hochrisiko-Systemen

AI Act Compliance-Checklist

Eine strukturierte ai act compliance checklist hilft Unternehmen, die umfangreichen Dokumentationspflichten systematisch zu erfüllen. Hier ist eine 12-Punkte-Checkliste für die EU AI Act Compliance:

  1. KI-System-Inventar erstellen
    • Dokumentieren Sie jedes in der Organisation eingesetzte oder genutzte KI-System
    • Erfassen Sie den beabsichtigten Zweck jedes Systems
    • Identifizieren Sie Ihre Organisationsrolle (Anbieter, Anwender, Modifizierer, Importeur oder Vertriebshändler)
    • Kennzeichnen Sie Systeme, bei denen Sie durch wesentliche Änderungen oder Rebranding zum Anbieter werden könnten
  2. Risiken für jedes System klassifizieren
    • Identifizieren Sie alle Anwendungsfälle nach Anhang III (Personalentscheidungen, Bildung, wesentliche Dienstleistungen, Strafverfolgung, Migration oder Justiz)
    • Dokumentieren Sie Ihre Klassifizierungsbegründung, einschließlich aller Ausnahmen nach Artikel 6(3)
    • Unterscheiden Sie Hochrisiko-Systeme von Systemen mit geringem Risiko
    • Bereiten Sie Dokumentation vor, die Ihre Risikobewertungsmethodik belegt
  3. Compliance-Verpflichtungen nach Risikokategorie zuordnen
    • Für verbotene Systeme: Entwickeln Sie Verfahren zur Identifizierung und Beseitigung verbotener Anwendungen
    • Für Hochrisiko-Systeme: Implementieren Sie Risikomanagement, Datenkontrollen, Dokumentation, menschliche Aufsicht und Logging
    • Für Systeme mit begrenztem Risiko: Implementieren Sie Transparenzmaßnahmen
    • Für Systeme mit minimalem Risiko: Dokumentieren Sie die Grundlage für die Einstufung
  4. Anbieteranforderungen für Hochrisiko-Systeme umsetzen
    • Einrichten eines Qualitätsmanagementsystems für den gesamten Systemlebenszyklus
    • Durchführen von Risikomanagement-Bewertungen
    • Implementieren von Daten-Governance-Kontrollen
    • Erstellen technischer Dokumentation zum Systemzweck, Entwicklungsprozess und Sicherheitsmaßnahmen
    • Einrichten einer automatisierten Protokollierung aller wichtigen Systemereignisse
    • Berücksichtigung der menschlichen Aufsicht
    • Implementieren von Genauigkeits-, Robustheits- und Cybersicherheitsmaßnahmen
  5. Konformitätsbewertung wählen und durchführen
    • Wählen Sie den geeigneten Konformitätsbewertungsweg (interne Kontrolle oder benannte Stelle)
    • Führen Sie eine umfassende Selbstbewertung durch
    • Stellen Sie eine EU-Konformitätserklärung aus
    • Bringen Sie die CE-Kennzeichnung an
  6. Hochrisiko-Systeme registrieren
    • Registrieren Sie alle Hochrisiko-Systeme nach Anhang III in der EU-Datenbank
    • Dokumentieren Sie Registrierungsdaten und Referenznummern
  7. Überwachung nach dem Inverkehrbringen einrichten
    • Erstellen Sie Überwachungsverfahren zur Systemleistung und Vorfallsberichterstattung
    • Etablieren Sie Protokolle für die Reaktion auf Vorfälle
    • Implementieren Sie Korrekturmaßnahmen bei identifizierten Problemen
  8. Folgenabschätzung für Grundrechte durchführen
    • Für öffentliche Einrichtungen: obligatorische Folgenabschätzung für die Grundrechte
    • Dokumentieren Sie Bewertung und Ergebnisse
  9. KI-Literacy sicherstellen
    • Entwickeln Sie rollenbasierte Schulungsprogramme
    • Dokumentieren Sie Durchführung und Teilnahme
    • Aktualisieren Sie Schulungsmaterialien regelmäßig
  10. Transparenzmaßnahmen implementieren
    • Offenlegung gegenüber Nutzern, wenn sie mit KI interagieren
    • Kennzeichnung synthetischer Inhalte
    • Deepfake-Benachrichtigungen
  11. Standards und Leitlinienaktualisierungen verfolgen
    • Überwachen Sie Website des EU-AI-Büros und nationale Behörden
    • Passen Sie Verfahren bei neuen Leitlinien an
  12. Auf Auditing vorbereiten
    • Erstellen Sie Prüfpfade für alle Compliance-Aktivitäten
    • Legen Sie Compliance-Verantwortung fest
    • Bereiten Sie interne Audits vor

Diese ai act compliance checklist hilft Organisationen, sicherzustellen, dass keine wesentlichen Compliance-Aspekte übersehen werden.

Governance von KI im Unternehmen

Die governance ki unternehmen bezeichnet den strukturierten Rahmen von Regeln, Prozessen und Verantwortlichkeiten zur verantwortungsvollen Nutzung von KI. Ein effektiver Governance-Rahmen ist entscheidend, um die eu ai act kmu pflichten zu erfüllen und gleichzeitig Innovation zu ermöglichen.

Aufbau eines effektiven KI-Governance-Rahmens

KI-Governance-Frameworks etablieren die organisatorischen Strukturen, Richtlinien und Verfahren, die eine verantwortungsvolle KI-Entwicklung und -Implementierung gewährleisten. Der Governance-Rahmen verteilt Entscheidungsbefugnisse transparent, weist Verantwortlichkeiten zu, mindert Risiken und demonstriert die Einhaltung von Vorschriften durch dokumentierte Prozesse.

Einrichtung eines KI-Governance-Rats

Unternehmen sollten einen funktionsübergreifenden KI-Governance-Rat mit Vertretern aus IT, Recht, Compliance, Datenwissenschaft, Geschäftsbereichen und Risikomanagement einrichten. Der Rat genehmigt KI-Initiativen, überwacht Compliance-Prozesse und aktualisiert Richtlinien bei Weiterentwicklung der Vorschriften. Rollendefinition ist unerlässlich, damit keine Zuständigkeiten unklar bleiben.

KI-Governance-Prozesse etablieren

Effektive Governance erfordert dokumentierte, wiederholbare Prozesse für:

  • KI-System-Intake
  • Risikoeinstufung
  • Konformitätsbewertung
  • Freigabe zur Implementierung
  • Überwachung nach der Implementierung
  • Richtlinienaktualisierungen

Eine effektive governance ki unternehmen ist besonders wichtig, um die eu ai act kmu pflichten systematisch und ressourceneffizient zu erfüllen.

Mehr zum KI-Governance-Framework
Weitere Tipps zur Etablierung

AI-Policy und Richtlinien erstellen

Die Entwicklung einer ai policy vorlage deutsch und einer KI Richtlinie sind zentrale Elemente für eine erfolgreiche governance ki unternehmen. Diese Dokumente übersetzen Governance-Prinzipien in konkrete Handlungsanweisungen.

Unterschied zwischen Policy und Richtlinie

AI Policy: übergeordnetes Dokument, das Prinzipien, Ziele und Verantwortlichkeiten beim KI-Einsatz definiert.
KI-Richtlinie: detailliertes Dokument, das konkrete Regeln und Verfahren für spezifische KI-Anwendungsbereiche oder Technologien festlegt.

Elemente einer AI Policy

Eine umfassende ai policy vorlage deutsch enthält Themen wie Zweck, Grundprinzipien, Governance-Strukturen, Datenschutz, Transparenz, Risikomanagement, Schulungsanforderungen, Incident-Management und Aktualisierungsprozesse.

Vorteile von Policy-Vorlagen

Sie sparen Zeit, gewährleisten Vollständigkeit, fördern einheitliche Governance und integrieren Best Practices und Branchenstandards. Richtliniendokumente sollten in einfacher Sprache verfasst sein, damit sowohl technische als auch nicht-technische Stakeholder die Erwartungen klar verstehen.

Policy-Template als Ausgangsbasis

Trainingsprogramme praktisch umsetzen

Eine effektive ai act schulung mitarbeitende ist entscheidend, um die eu ai act kmu pflichten zu erfüllen. Der Schulungsansatz sollte strategisch, rollenbasiert und kontinuierlich sein.

Strategischer Ansatz für KI-Literacy-Schulungen

KI-Kenntnisse unterscheiden sich je nach Rolle: Datenwissenschaftler, Führungskräfte, Compliance-Teams und Mitarbeiter an vorderster Front benötigen jeweils andere Inhalte. Ein risikobasierter Ansatz stellt sicher, dass alle Personen genau das Wissen erhalten, das für ihre Aufgaben relevant ist.

Komponenten des Schulungsprogramms

  • KI-Grundlagen: Funktionsweise, Grenzen, Ausfallmodi
  • Risikobewusstsein: Datenschutz, Sicherheit, Ethik
  • Sichere KI-Nutzung: Nutzungsrichtlinien, menschliche Aufsicht, Eskalation von KI-Fehlern
  • KI-Governance & Richtlinien: Rollen, Prozesse und interne Vorgaben

Methoden zur Schulungsbereitstellung

Workshops, Online-Kurse, interaktive Module und reale Fallstudien sind bewährte Formate. Kontinuierliche Updates halten die Mitarbeiter auf dem Laufenden, wenn sich regulatorische Vorgaben ändern.

Aufrechterhaltung der Schulungswirksamkeit

Regelmäßige Auffrischungen und Dokumentation aller Schulungsnachweise sind entscheidend, da der AI Act sich weiterentwickeln kann. Eine auditfähige Protokollierung belegt zudem gegenüber Behörden, dass die Organisation Schulungsverpflichtungen ernst nimmt.

Praxisnaher Leitfaden zur Mitarbeiterschulung
Weitere Hinweise zu Compliance-Themen

Beispiele & Best-Practices

Fallbeispiel 1: KI-Governance in Finanzinstituten

Ein Finanzinstitut führte eine umfassende Bestandsaufnahme aller KI-Prozesse durch, richtete funktionsübergreifende Teams ein und etablierte ein rollenspezifisches Schulungsprogramm. Ergebnis: verbesserte Risikomanagementfähigkeiten und klare Entscheidungsworkflows, sodass das Unternehmen gut für die AI-Act-Anforderungen gerüstet ist.

Wichtige Erkenntnis: Systematische Governance plus rollenbasierte Schulung ermöglichen Compliance-Reife und stetige Innovation.

Fallbeispiel 2: KI im Recruiting-Prozess

Ein Technologieunternehmen setzt KI für Recruiting und Kundensupport ein:

  • Recruiting: Hochrisiko-Anwendung (Personalentscheidungen) mit Risikomanagement, Daten-Governance, technischer Dokumentation und menschlicher Aufsicht.
  • Kundensupport-Chatbot: Transparenzanforderungen (Nutzer auf KI-Einsatz hinweisen, Kennzeichnung synthetischer Inhalte).

Wichtige Erkenntnis: Eine risikogerechte Compliance schafft Wert und minimiert rechtliches Risiko.

Fallstudien zu KI
Best-Practice-Planung

Auditing von KI Systemen

Auditing ist ein Kernbestandteil der ai act compliance checklist und flankiert die governance ki unternehmen.

Regelmäßige KI-Audits untersuchen Governance-Strukturen, Risikoeinstufung, technische Dokumentation, Datenqualität und die Einhaltung der Transparenzanforderungen. Sie dienen auch der Überprüfung, ob verbotene KI-Praktiken ausgeschlossen und Hochrisiko-Systeme korrekt klassifiziert und registriert wurden.

Interne Audit-Funktionen sollten ausreichend unabhängig agieren, um Compliance-Lücken zu erkennen und zu adressieren. Kontinuierliche Überwachung und Echtzeit-Dashboards ermöglichen das frühzeitige Erkennen neuer Risiken, bevor die Behörden eingreifen.

Grundlagen zum KI-Audit
Audit-Ansätze für EU AI Act

Fazit

Der EU AI Act setzt verbindliche Richtlinien für Unternehmen, die KI-Systeme auf dem EU-Markt entwickeln oder nutzen. Die ai act schulung mitarbeitende ist seit dem 2. Februar 2025 vorgeschrieben und stellt eine eigenständige Compliance-Pflicht dar. Langfristig benötigten Unternehmen drei Kernelemente für eine erfolgreiche Umsetzung:

  • Governance-Frameworks: sorgen für klare Strukturen und systematische Steuerung von KI.
  • Rollenbasierte Schulungen: bauen notwendige KI-Kompetenzen auf, um technologische und regulatorische Risiken zu minimieren.
  • Systematisches Auditing: prüft fortlaufend die Wirksamkeit der Kontrollen und identifiziert neue Risiken frühzeitig.

Die eu ai act kmu pflichten gelten für alle Größe von Unternehmen, sind aber in besonderem Maße für KMU herausfordernd. Da keinerlei Verschiebung der Umsetzungsfristen absehbar ist, sollten Unternehmen umgehend mit den grundlegenden Schritten (KI-System-Inventar, Risikoklassifizierung, Schulungskonzept) beginnen.

Weiterführende Insights
Key Considerations zum EU AI Act

Die folgenden Ressourcen und Tools helfen Ihrem Unternehmen, umfassende KI-Governance- und Compliance-Programme zu implementieren:

  • Sofortmaßnahmen (Januar–März 2026): KI-System-Inventar erstellen, Schulungsprogramme evaluieren, AI-Governance-Richtlinie anpassen.
  • Zusätzliche Ressourcen: Offizielle EU-AI-Portale, Compliance-Tools und Plattformen, Expertenberatung für Konformitätsbewertungsverfahren sowie Audit-Unterstützung.

Die verlinkte ai act compliance checklist bietet einen umfassenden Leitfaden, um alle relevanten Aspekte abzudecken.

 

FAQ

1. Welche Unternehmen sind vom AI Act betroffen?
Alle Unternehmen, die KI-Systeme in der EU entwickeln, bereitstellen oder nutzen – unabhängig vom Firmensitz. Der Act gilt extraterritorial und umfasst Anbieter, Nutzer und Dritte, die wesentlich zum KI-Einsatz beitragen.

2. Warum ist die Mitarbeiterschulung bereits seit Anfang 2025 Pflicht?
Der AI Act legt großen Wert auf AI-Literacy, damit alle Beteiligten KI-Systeme verstehen und verantwortungsvoll handhaben können. Ein Mangel an Schulung stellt ein eigenes Sanktionsrisiko dar.

3. Wie unterscheiden sich die Risikoklassen im AI Act?
Sie reichen von minimalem Risiko (kaum Auflagen) bis hin zu verbotenen KI-Praktiken. Dazwischen liegen begrenzte und hohe Risiken, die unterschiedliche Dokumentations- und Transparenzpflichten mit sich bringen.

4. Was müssen KMU besonders beachten?
Obwohl KMU teilweise Erleichterungen genießen, müssen sie die eu ai act kmu pflichten vollständig einhalten. Gerade die Erstellung eines KI-System-Inventars, Schulungsprogramme und minimaler Dokumentationsstandards sind essenziell.