Seit dem 1. August 2024 gilt der EU AI Act (Verordnung EU 2024/1689) als verbindlicher Rechtsrahmen für den Einsatz von Künstlicher Intelligenz (KI) in der Europäischen Union. Ziel der Verordnung ist es, sichere, transparente und menschenzentrierte KI-Systeme zu fördern – insbesondere in sensiblen Bereichen wie Justiz, Gesundheitswesen und Personalmanagement.

Wer ist betroffen?

Die Vorschriften gelten für alle Unternehmen, die KI-Systeme entwickeln, vertreiben oder einsetzen – unabhängig davon, ob sie in der EU ansässig sind oder nicht.

Was sind die zentralen Anforderungen des EU AI Act?

  • Verbotene KI-Anwendungen: Systeme zur manipulativen Beeinflussung, Social Scoring oder zur Echtzeitüberwachung im öffentlichen Raum sind untersagt.
  • Hochrisiko-KI: Anwendungen, die Grundrechte oder die öffentliche Sicherheit betreffen, unterliegen strengen Prüf-, Dokumentations- und Transparenzpflichten.
  • Generative KI: Inhalte, die durch generative KI erstellt wurden, müssen klar als KI-generiert gekennzeichnet sein.
  • Pflicht zur Qualifizierung: Unternehmen müssen sicherstellen, dass alle Mitarbeitenden, die mit KI arbeiten, über ausreichende Fachkenntnisse verfügen.
  • Marktüberwachung & Sanktionen: Die Einhaltung wird durch behördliche Kontrollen überwacht. Bei Verstößen drohen hohe Bußgelder.

Umsetzung in der Praxis

Seit Februar 2025 läuft die erste Umsetzungsphase. Unternehmen sind verpflichtet, ihre internen Prozesse, Systeme und Schulungen an die neuen Anforderungen anzupassen. Besonders in Hochrisiko-Bereichen ist ein tiefgehendes, anwendungsbezogenes Verständnis der Funktionsweise, Risiken und Grenzen von KI erforderlich.

Chancen für Unternehmen

Der EU AI Act verfolgt einen ausgewogenen Ansatz: Er soll Innovation ermöglichen, gleichzeitig aber Verbraucherrechte und ethische Standards schützen. Unternehmen, die frühzeitig auf Transparenz, Compliance und Qualifizierung setzen, sichern sich Wettbewerbsvorteile und stärken das Vertrauen in ihre KI-Lösungen.

FAQ: Häufige Fragen zum EU AI Act

Es handelt sich um ein EU-Gesetz, das Regeln und Pflichten für KI-Systeme, z.B. hinsichtlich Sicherheit, Transparenz, Risiko, Verantwortlichkeit und Nutzerrechten festlegt.

Nahezu alle, die KI-Systeme in der EU herstellen, einsetzen, importieren oder vertreiben – egal, ob privater oder öffentlicher Sektor. Der EU AI Act gilt nicht nur für große Konzerne, sondern auch für kleinere Firmen, wenn sie KI einsetzen, die bestimmte Anforderungen erfüllt. Auch KI-Systeme, die außerhalb der EU entwickelt werden, wenn ihr System auf dem EU-Markt ist oder EU-Bürger beeinflusst.

Anbieter und Betreiber müssen sicherstellen, dass Personen, die mit KI-Systemen arbeiten, über ausreichendes Wissen und Fähigkeiten verfügen. Je nach Kontext, technischer Komplexität und Einsatzbereich sind Schulungen und Fortbildungen gefragt.

Das sind KI-Modelle, die nicht für eine spezielle Anwendung entwickelt wurden, sondern z. B. große Sprach- oder Bildermodelle, die in vielen verschiedenen Kontexten verwendet werden können. Für diese gelten besondere Transparenz- und Dokumentationspflichten.

Der Act unterscheidet verschiedene Risikoklassen (z. B. „verbotene Praktiken“, „unzulässige Risiken“, „hohe Risiken“, etc.). Systeme, die besondere Risiken bergen – etwa im Bereich Gesundheit, Justiz, kritische Infrastruktur etc. Diese müssen strengere Anforderungen erfüllen, z. B. in Bezug auf Transparenz, Überwachung und Sicherheit.

Es gibt bestimmte Anwendungen, die laut Gesetz untersagt sind, z. B. KI, die Menschen manipuliert oder gezielt ausnutzt, biometrische Fernidentifikation unter bestimmten Bedingungen usw.

Der EU AI Act ist seit 1. August 2024 im Amtsblatt. Viele Regelungen greifen stufenweise: z. B. gewisse Verbote und Pflichten ab 2. Februar 2025, Pflichten für general purpose KI ab 2. August 2025, und der Großteil der Hochrisiko-Pflichten ab 2. August 2026.

Ja, z. B. bestehende Systeme, die schon vor bestimmten Daten im Einsatz waren, oder Systeme mit nur geringem Risiko. Ebenfalls sind Forschung, Entwicklung oder Tests vor Markteinführung unter bestimmten Umständen ausgenommen.

Es drohen hohe Bußgelder, teils Prozentsätze des weltweiten Jahresumsatzes bei Nichteinhaltung des EU AI Act. Die genauen Summen hängen davon ab, wie schwerwiegend der Verstoß ist.

Kontrolle und Überwachung liegt teils bei nationalen Behörden, teils bei der EU. Die EU-Mitgliedsstaaten müssen dafür eigene Behörden/Mechanismen schaffen. Es gibt ein AI Office auf EU-Ebene für die Marktaufsicht und Konformitätsbewertungen.

Es gibt Überschneidungen, aber auch Abgrenzungen. Der AI Act legt zusätzliche Pflichten fest, besonders bei Räumen wie Datenschutz, Diskriminierung, Transparenz. Manche Anforderungen überlagern andere Rechtsbereiche. Wer KI nutzt, muss oft mit mehreren Regelwerken oder Gesetzen konform sein.

AUCH INTERESSANT