Der AI Act wurde bereits 2024 verabschiedet und ist ein wichtiger Schritt, um den Umgang mit künstlicher Intelligenz in Europa zu regeln. Ab Februar 2025 kommen weitere Anpassungen hinzu, die Unternehmen vor neue Herausforderungen stellen. Das Ziel ist klar: Einerseits sollen die Grundrechte der Bürgerinnen und Bürger besser geschützt werden, andererseits will die EU auch weiterhin Innovationen in der Entwicklung von KI ermöglichen und fördern. Seit seiner Einführung wurde der AI Act kontinuierlich weiterentwickelt, um mit dem rasanten technologischen Fortschritt Schritt zu halten. Dabei geht es immer um die Frage: Wie schaffen wir eine gute Balance zwischen Sicherheit und Fortschritt? In diesem Artikel erfahren Sie, was der AI Act für den zukünftigen Umgang mit KI bedeutet – und was Unternehmen in Europa konkret erwartet.
Der AI Act folgt einem risikobasierten Ansatz, der KI-Systeme in vier Risikokategorien klassifiziert:
- Unvertretbares Risiko: KI-Anwendungen, die als zu gefährlich eingestuft werden, sind in der EU insgesamt verboten. Dazu zählen etwa Social Scoring-Systeme, wie sie in einigen nicht-europäischen Ländern zur Überwachung von Bürgerverhalten eingesetzt werden. Auch Technologien zur Manipulation von Menschen, z.B. durch verdeckte emotionale Beeinflussung, fallen in diese Kategorie.
- Hohes Risiko: KI-Systeme im Bereich kritischer Infrastrukturen, im Gesundheitswesen, bei Polizei und Justiz oder in Bewerbungsverfahren unterliegen strengen Regeln. Sie müssen hohe Anforderungen an Transparenzpflichten, Nachvollziehbarkeit und menschliche Kontrollmöglichkeiten erfüllen. Anbieter und Betreiber von KI-Systemen müssen diese vor dem Einsatz einer behördlichen Risikobewertung unterziehen. Besonders betroffen sind Hochrisiko-KI-Systeme, die systemische Risiken bergen.
- Begrenztes Risiko: Anwendungen wie Chatbots (z.B. ChatGPT von Open AI) oder KI-generierte Inhalte erfordern Transparenzhinweise. Nutzerinnen und Nutzer müssen klar erkennen können, dass sie mit einem KI-System interagieren.
- Minimales Risiko: Für alltägliche KI-Anwendungen, etwa in Videospielen oder Spam-Filtern, gelten keine besonderen Einschränkungen.
AI Act: Debatte um Regulierung von KI-Systemen
Der EU AI Act sorgt bereits seit seinem Inkrafttreten im August 2024 für intensive Diskussionen – nicht ohne Grund. Mit den nun geplanten Anpassungen im Februar 2025 nimmt die Diskussion erneut Fahrt auf. Ziel der Änderungen ist es, Unklarheiten zu beseitigen und die Umsetzung für Unternehmen praxisnäher zu gestalten. Besonders im Fokus: der risikobasierte Ansatz, der noch genauer definiert werden soll, um den Spagat zwischen Sicherheit und Innovation besser zu meistern. Kritiker befürchten nach wie vor, dass die strengen Vorgaben den europäischen Innovationsmotor ausbremsen könnten, vor allem im Vergleich zu weniger regulierten Märkten wie den USA oder China.
Start-ups und KMUs sehen sich oft mit hohen bürokratischen Hürden konfrontiert, die ihre Wettbewerbsfähigkeit gefährden. Befürworter hingegen begrüßen den AI Act als Meilenstein. Sie betonen, dass klare Regeln Vertrauen schaffen – sowohl bei Unternehmen als auch in der Gesellschaft. Gerade in sensiblen Bereichen wie Gesundheit, öffentlicher Sicherheit oder kritischer Infrastruktur schaffe der AI Act dringend benötigte Leitplanken. Der AI Act bleibt ein Balanceakt: Er soll Innovationen ermöglichen, ohne die Risiken von KI zu unterschätzen. Ob Europa damit zum Vorreiter für eine verantwortungsvolle KI-Entwicklung wird, entscheidet sich in der Praxis – im Zusammenspiel von Politik, Wirtschaft und Gesellschaft. Mit dem Inkrafttreten des AI Act treten auch erste Fristen in Kraft:
- Ab sofort: KI-Systeme mit unannehmbarem Risiko sind in der EU verboten.
- Ab August 2025: Strengere Vorgaben für sogenannte General Purpose AI (GPAI)-Modelle, also KI-Modelle mit allgemeinem Verwendungszweck, die vielseitig eingesetzt werden können.
- Ab 2026: Der Großteil der Vorschriften gilt verbindlich für alle Unternehmen, die KI in der EU entwickeln, in Verkehr bringen oder in Betrieb nehmen.
Erstmals schreibt die EU vor, dass Unternehmen ihre Mitarbeitenden im Umgang mit KI-Systemen schulen müssen. Ab dem 2. Februar 2025 gilt eine Schulungspflicht für alle, die mit risikoreichen KI-Systemen arbeiten. Ziel des AI Act ist es, den sicheren und verantwortungsvollen Einsatz von KI in der Arbeitswelt zu gewährleisten.
Kompetenz-Pflicht für Unternehmen im Bereich KI
Der AI Act verpflichtet Unternehmen und Behörden, ab dem 2. Februar 2025 ein ausreichendes Maß an KI-Kompetenz beim Personal sicherzustellen. Dies betrifft alle, die KI-Systeme entwickeln oder nutzen:
- Betroffene: Anbieter und Betreiber von KI-Systemen, also natürliche oder juristische Personen, die KI-Systeme entwickeln oder in eigener Verantwortung nutzen.
- Definition von KI-Kompetenz: KI-Kompetenz umfasst das Verständnis der technischen Anwendung, Maßnahmen und Auslegung von KI-Systemen sowie das Wissen, wie KI-Entscheidungen Menschen beeinflussen können.
- Dynamische Ausgestaltung: Die Pflicht ist dynamisch. Es muss nur ein „ausreichendes Maß“ der Kompetenz vorliegen, und der Anbieter oder Betreiber muss dies „nach besten Kräften“ sicherstellen.
- Europäisches Gremium: Ein europäisches Gremium für künstliche Intelligenz (AI Office) soll die Europäische Kommission bei der Förderung von KI-Kompetenzinstrumenten und der Sensibilisierung der Öffentlichkeit unterstützen.
- Risikoklassen: Bei Hochrisiko-KI-Systemen sind besondere KI-Kompetenzen erforderlich. Betreiber müssen sicherstellen, dass natürliche Personen mit der erforderlichen Kompetenz die menschliche Aufsicht übernehmen.
- Verstöße: Verletzungen der KI-Kompetenz-Pflicht können Haftungsansprüche, Schadensersatzforderungen und Bußgelder nach sich ziehen.
Das KI-Gesetz ist mehr als ein Rechtsakt – es ist ein Weckruf an die Unternehmen, sich aktiv mit den Chancen und Risiken von KI auseinanderzusetzen. Es geht nicht darum, Innovationen zu bremsen, sondern sie verantwortungsvoll zu gestalten. Am Ende steht die Frage: Wie können wir KI so nutzen, dass sie uns als Gesellschaft wirklich weiterbringt?