EU gibt Rechtsrahmen: Der AI-Act ist da #KI #AIACT #EU
In unserem Artikel “Europäischer Ansatz für Künstliche Intelligenz” berichteten wir bereits davon, dass die Europäische Union eine Digital Strategie entwickelt hat, in der es auch einen rechtlichen Rahmen für die Entwicklung und Nutzung von Künstlicher Intelligenz geben soll. Neben dem KI-Innovationspaket und dem KI-Plan bietet der AI-Act nun genau diesen rechtlichen Rahmen, auf den sich das Parlament am 13. März 2024 zentral geeinigt hat.
Das Gesetz soll Entwickler:innen Anforderungen und Pflichten in Bezug auf die spezifische Nutzung von KI bieten. Außerdem soll der AI-Act administrative und finanzielle Belastung für kleine und mittlere Unternehmen senken. Für User:innen sollten Sicherheit und Grundrechte gewährleistet werden. Außerdem sollen Akzeptanz, Investitionen und Innovationen in KI in der gesamten Europäischen Union gestärkt werden.
Nach Inkrafttreten des AI-Acts wird es zunächst eine Übergangszeit von 24 Monaten geben, bis die neue Rechtslage tatsächlich Anwendung findet. Dennoch: Einige Vorschriften werden schon früher bindend. So werden zum Beispiel KI-Systeme mit inakzeptablem Risiko spätestens nach sechs Monaten verboten und müssen wahrscheinlich bis November 2024 vom europäischen Markt verschwunden sein. Vorschriften zu anderen KI-Modellen, die einen allgemeinen Verwendungszweck haben, werden bereits nach 12 Monaten greifen.
Die Europäische Union regelt den Umgang mit Künstlicher Intelligenz laut AI-Act anhand von vier Risikogruppen.
Inakzeptables Risiko
Ein KI-System mit inakzeptablem Risiko verletzt fundamentale Rechte der Nutzer:innen. Beispielhaft können hier Social Scoring Systeme genannt werden. Dies sind Systeme, die das soziale Verhalten von natürlichen und juristischen Personen bewerten, um daraus u. a. Verhaltensprognosen zu erstellen. Ebenfalls inakzeptabel sind Systeme, die als eindeutige Bedrohung für die Sicherheit, den Lebensunterhalt und die Rechte von Menschen angesehen werden, die soziale Bewertungen durch Regierungen fördern, aber auch Spielzeuge, die Sprachhilfen verwenden, welche zu gefährlichem Verhalten verleiten könnten. Die Regulierung der EU sieht vor, solche Systeme schnellstmöglich zu verbieten.
Hohes Risiko
Eine Künstliche Intelligenz, die in diese Kategorie fällt, hat potentiell ein sehr hohes Schadensrisiko. Darunter fallen zum Beispiel Technologien, die die Kreditwürdigkeit von Nutzer:innen prüfen. Diese Systeme werden zukünftig einem strengen Anforderungskatalog unterliegen, um weiterhin auf dem europäischen Markt bestehen zu dürfen.
Begrenztes Risiko
Systeme mit einem begrenzten Risiko sind Systeme, die ebenfalls mit Personen interagieren, wie zum Beispiel Chatbots. Oft werden hier Technologien genutzt, die es fast unmöglich machen, zu erkennen, dass es sich um eine KI handelt. Diese Systeme werden ab Mai strengen Transparenzpflichten unterliegen. So muss User:innen immer deutlich bewusst gemacht werden, dass sie nicht mit einem realen Menschen interagieren.
Niedriges Risiko
Alle anderen Systeme fallen in die letzte Kategorie, Niedriges Risiko. Diese Systeme unterliegen keiner Regulierung.
Wer ist nun aber von dem AI-Act betroffen? Laut Definition der EU müssen KI-Systeme mit einer gängigen KI-Technik entwickelt worden sein und im Hinblick auf eine Reihe von Zielen, die vom Menschen festgelegt werden, Ergebnisse wie etwa Inhalte, Vorhersagen, Empfehlungen oder Entscheidungen hervorbringen können. Diese Ergebnisse müssen außerdem das Umfeld beeinflussen, mit dem die Systeme interagieren.
Besonders drei Gruppen sind daher von den neuen Regelungen betroffen:
- Anbieter, die KI-Systeme in der EU in Verkehr bringen oder in Betrieb nehmen (auch aus Drittländern)
- Nutzer von KI-Systemen, die sich innerhalb der EU befinden
- Anbieter und Nutzer von KI-Systemen, die in einem Drittland niedergelassen oder ansässig sind, wenn das vom System hervorgebrachte Ergebnis innerhalb der EU verwendet wird
Es gibt aber auch Ausnahmen, die vom Artificial Intelligence Act unberührt bleiben:
- KI-Systeme für ausschließlich militärische Zwecke
- Internationale Organisationen, die KI-Systeme im Bereich der Strafverfolgung in Zusammenarbeit mit der EU oder mindestens einem Mitgliedstaat nutzen
- Forschungs- und Entwicklungsaktivitäten zu KI-Systemen
- Open-Source-Software unterliegt nicht der Regulierung des AI-Acts, es sei denn, sie wird aufgrund ihrer Anwendung als verbotenes oder hochriskantes KI-System eingestuft
Das Europäische AI-Büro überwacht die Durchsetzung und Umsetzung des KI-Gesetzes mit den einzelnen Mitgliedstaaten. Sollte gegen die Vorschriften verstoßen werden, können Strafen entsprechend der Größe und des Geschäftszwecks der Unternehmen verhängt werden. Bei Nutzung von verbotenen Technologien könnten beispielsweise Bußgelder bis zu 35 Mio Euro oder bis zu 7% des Umsatzes festgesetzt werden. Bei Verstößen gegen Verpflichtungen des AI-Acts könnten bis zu 15 Mio Euro oder 3% des Umsatzes fällig werden. Gibt ein Unternehmen falsche Informationen an, könnte ein Bußgeld in Höhe von 7,5 Mio EUR oder 1,5% des Umsatzes verfügt werden.
Mit dem AI-Act möchte die Europäische Union ein Umfeld schaffen, indem Künstliche Intelligenz die Menschenwürde achtet, Rechte wahrt und Vertrauen fördert. Es soll eine Gemeinschaft entstehen, die Zusammenarbeit, Forschung und Innovationen im Bereich KI zwischen unterschiedlichen Akteuren ermöglicht.
Sie möchten Künstliche Intelligenz sicher und rechtskonform für Ihr Unternehmen nutzen? Dann sind wir Ihr Partner für den Digitalen Wandel.
Let´s get in touch!Quellen: