Europäischer Ansatz für Künstliche Intelligenz #KI #EUROPA #DIGITALISIERUNG
Die Europäische Union macht mit ihrer Digital Strategy große Pläne öffentlich. Vizekanzler Robert Habeck warnte hingegen zuletzt davor, dass die EU KI zu stark regulieren könnte. “Das wichtigste ist jetzt, eine vernünftige KI-Verordnung auf der europäischen Ebene hinzubekommen”, sagte der Grünen Politiker im November auf dem Digitalgipfel in Jena. “Wenn man das überreguliert, haben wir die besten Verkehrsvorschriften, aber keinen Verkehr auf der Straße.”
Um einen Beitrag zur Digitalisierung Europas zu leisten, sollten laut der Europäischen Kommission Menschen und Unternehmen in der Lage sein, die Vorteile von KI zu nutzen und sich gleichzeitig sicher und geschützt fühlen. Dafür ist es wichtig, dass Technologien menschlich wirken und vertrauenswürdig sind.
Um einen Spitzenplatz in der Weltrangliste der KI-Technologien zu gewinnen, hat die EU konkrete Ziele gesetzt.
- Die Entwicklung und Einführung von Künstlicher Intelligenz in die EU soll stärker gefördert werden.
- Die Europäische Union soll zu einem Ort werden, an dem KI vom Labor bis zum Markt gedeiht.
- Es soll sichergestellt werden, dass KI für Menschen funktioniert. Das würde bedeuten, dass den Anwender:innen Sorgen genommen werden könnten, dass Künstliche Intelligenz ihre Arbeit in Teilen oder im Ganzen ersetzt.
- Es soll eine strategische Führungsrolle aufgebaut werden.
Die EU möchte Ressourcen für technologische Innovationen maximieren. Denn die Investitionen Europas sind ein entscheidender Bestandteil der KI-Exzellenz und müssen daher besser koordiniert werden. Im Rahmen der Programme “Horizont Europa” und “Digitales Europa” plant die Europäische Kommission daher zum Beispiel, jährlich 1 Milliarde Euro in die Entwicklung von Künstlicher Intelligenz zu investieren. Zusätzlich sollen im laufenden digitalen Jahrzehnt jährlich 20 Milliarden Euro von Privatinvestoren sowie den europäischen Mitgliedsstaaten mobilisiert werden.
Die Europäische Kommission ist sich bewusst, dass der Zugang zu hochwertigen Daten ein wesentlicher Faktor für den Aufbau von leistungsstarken, robusten KI-Systemen ist. Daher sollen im Rahmen der Aufbau- und Resilienzfazilität insgesamt 135 Milliarden Euro für digitale Geräte zur Verfügung gestellt werden.
Um das Ziel zu erreichen, vertrauensvolle KI-Systeme zu schaffen, muss auch eine sichere und innovationsfreudige Umgebung für Anwender:innen, Entwickler:innen und Deployende entstehen. Deswegen hat die Europäische Kommission drei miteinander verbundene rechtliche Initiativen vorgeschlagen, die zum Aufbau vertrauenswürdiger KI beitragen sollen.
- Es soll einen europäischen Rechtsrahmen für KI zur Bekämpfung von Sicherheitslücken geben, die für KI-Systeme spezifisch sind.
- Es wird einen Rahmen für zivilrechtliche Haftung geben. Darin werden Haftungsvorschriften an das digitale Zeitalter und Künstliche Intelligenzen angepasst.
- Die sektoralen Sicherheitsvorschriften werden überarbeitet.
Dass Künstliche Intelligenz auch Risiken mit sich bringt, ist der Europäischen Kommission durchaus bewusst. Daher wird es ergänzende, verhältnismäßige und flexible Vorschriften geben, die die spezifische Nutzung von KI sicherer machen sollen. Die EU hofft, durch diese Regeln erneut ein globaler Vorreiter für Sicherheitsstandards zu werden.
Während Robert Habeck eine Überregulierung der Technologie befürchtet, forderte Alena Buyx, Vorsitzende des Deutschen Ethikrats, ethisch-moralische Leitplanken bei der Programmierung von Künstlicher Intelligenz. In unserem Beitrag “Fördert KI die Ungleichheit der Menschen?” informierten wir bereits über die Problematik der einseitigen Entwicklung von KI. Ethische Faktoren spielen leider weiterhin eine geringe Rolle in der Programmierung neuer Technologien und sollte daher auch rechtlich geklärt werden.
Auf nationaler Ebene ist bereits ersichtlich, dass immer mehr Unternehmen ChatGPT und ähnliche KI-Systeme in ihr Unternehmen integrieren möchten. Wir berichteten bereits hier darüber. Daher ist es in Deutschland höchste Zeit für eine klare Rechtslage. Gemeinsam mit den Regierungen Italiens und Frankreichs richtete sich auch die Deutsche Bundesregierung in einem Positionspapier zu Künstlicher Intelligenz an die spanische Ratspräsidentschaft der EU. Darin wird gefordert, dass KI-Gesetze nur die Anwendung der Technologien regeln, nicht aber die Technologien selbst.
Die Einhaltung dieser Rechtslage obliegt aber nicht nur der Politik auf europäischer Ebene, sondern zu einem großen Teil auch den Unternehmen selbst. Wir haben Empfehlungen für Sie zusammengetragen, wie Sie als Unternehmer:innen Ihren Mitarbeiter:innen einen klaren Umgang mit KI vermitteln können und so mehr Verständnis für den Umgang mit neuen Technologien schaffen.
Entscheidungen fällt die Geschäftsführung
Für einen sicheren und strategisch klugen Einsatz von Künstlicher Intelligenz sollte klar sein, dass die Geschäftsführung über das System und ihren Einsatzzweck entscheidet. Kurz gesagt: Die Geschäftsleitung gibt vor, welches Tool welche Aufgabe im Unternehmen erfüllen soll. Mitarbeiter:innen können und sollten natürlich im Findungsprozess einbezogen werden, Wünsche äußern und Needs definieren. Aber die Verantwortung für den Gebrauch von KI-Systemen hat die Geschäftsleitung inne.
Klare KI-Regeln definieren
Unternehmen sollten schon heute klare Regeln zum Umgang mit KI aufstellen und diese Definition auch ihren Mitarbeiter:innen an die Hand geben. Darin sollte festgehalten werden, zu welchem Einsatzzweck KI genutzt werden darf und welche Nutzungen unzulässig sind. Ganz klar sollte sein, dass die Nutzung nur auf geschäftliche Zwecke beschränkt sein sollte. Die Eingabe personenbezogener Daten sollte untersagt sein. Darunter fallen zum Beispiel Mitarbeiter- oder auch Kundendaten. Denn um diese durch eine Künstliche Intelligenz verarbeiten zu dürfen, werden Unternehmen eine eindeutige Zustimmung der betroffenen Personen benötigen – und diese wird es in vielen Fällen nicht geben. Daher sollte von vornherein auf die Verarbeitung Personenbezogener Daten durch KI-Systeme verzichtet werden.
Vertrauliche Geschäftsinformationen ausschließen
Viele KI-Systeme lernen aus den Anweisungen, den so genannten Prompts, die wir ihnen geben. Kein Unternehmen möchte, dass vertrauliche Betriebsinformationen für die Entwicklung von Künstlicher Intelligenz verwendet und so als allgemeine Informationen der Öffentlichkeit freigegeben werden. Daher sollten Ihre Mitarbeiter darauf sensibilisiert sein, vertrauliche Geschäftsinformationen immer aus den Prompts auszuschließen.
Ergebnisse verifizieren
KI-Systeme sind nur so gut, wie die Daten, mit denen sie trainiert wurden. Das heißt, dass besonders in der ersten Zeit der Anwendung Fehler in den Ergebnissen aufkommen könnten. Es ist noch nicht allen Nutzer:innen klar, wie Technologien wie ChatGPT funktionieren. Ihre Mitarbeiter:innen müssen also auf mögliche Ungenauigkeiten vorbereitet sein. Sie sollten Ergebnisse der KI-Systeme immer gründlich auf Richtigkeit und Vollständigkeit überprüfen sowie ggf. verbessern.
Nutzungsbedingungen der Anbieter beachten
Unterschiedliche Anbieter haben auch unterschiedliche Nutzungsbedingungen. Im Falle von Künstlicher Intelligenz ist es besonders wichtig, Nutzungsbedingungen zu studieren und sich entsprechend zu verhalten. So könnte es bspw. sein, dass generative KI Rechte Dritter, wie Urheber- oder Markenrechte, verletzen könnte, ohne, dass Sie das möchten. Unternehmensinterne KI-Richtlinien sollten daher Klarheit darüber geben, wie Quellen geprüft werden sollten und welche Tools ggf. zur Prüfung herangezogen werden können. Außerdem ist es notwendig, Transparenzpflichten zu beachten und entsprechende Vermerke zu geben, wenn Inhalte durch Maschinen generiert wurden.
Sie sind auf der Suche nach technologischen Systemen, die Sie wirklich unterstützen? Die GFE entwickelt und integriert eigene KI-Tools intelligent in Ihre Systeme und Ihre bestehenden Prozesse. Kommen Sie auf uns zu! Gerne stellen wir Ihnen diese vor. Let´s get in Touch!
Schreiben Sie uns! Rufen Sie uns an!Quellen:
- https://digital-strategy.ec.europa.eu/de/policies/european-approach-artificial-intelligence
- https://www.marktundmittelstand.de/finanzierung/regeln-fuer-chatgpt-co-so-nutzen-unternehmen-ki-rechtssicher
- https://www.zeit.de/digital/2023-11/habeck-regulierung-kuenstliche-intelligenz-eu
- https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai