Der AI Act der EU – Zukunft made in Europa?

Die Nutzung von AI Tools verbreitet sich rasend schnell in der Welt. Auch vor der Arbeitswelt machen KI-Tools keinen Halt. Derzeit sind die Nutzung und der Umgang mit  diesen Tools noch weitgehend ungeregelt. Nach einer Hochphase der Euphorie im Winter 2022 kommen nun die ersten Zweifel an KI-Technologie auf.

Das Wichtigste in Kürze

✅ KI-Tools verbreiten sich momentan in der Geschäftswelt – bisher ohne klare Regulierung. So kam es zu einigen Klagen gegen Open AI und Meta in den USA.
✅ Der als Entwurf eingebrachte AI Act soll Ende 2024 als EU-Verordnung erlassen werden. Er teilt KI-Anwendungen in verschiedene Gefährdungsstufen auf und legt Verhaltenspflichten fest.
✅ Je nach Klassifikation einer Anwendung sind Registrierungspflichten in einer EU-Datenbank, Kennzeichnung KI-generierter Ergebnisse sowie, Forschungsausnahmen vorgesehen

Der AI Act der EU kommt

Licht ins Dunkel bringt der AI Act der EU. Dieser wurde im Juni 2023 als Entwurf ins EU-Parlament eingebracht und soll bis Ende 2024  beschlossen werden. Der AI Act ist  als europäische Verordnung für alle Mitgliedsstaaten direkt anzuwenden und gilt – sofern nicht anders geregelt – nach 2 Jahren ab Inkrafttreten

Der AI Act dürfte in seiner aktuellen Form weitreichende Konsequenzen für Unternehmen haben. Er teilt KI-Anwendungen in unterschiedliche Gefährdungsstufen auf und legt Unternehmen, die KI-Anwendungen nutzen, bestimmte Verhaltenspflichten auf. Bei Verstoß gegen diese Pflichten drohen hohe Bußgelder von bis zu 30 Millionen Euro oder 6 % des weltweiten Vorjahresumsatzes. 

Klassifizierung von KI-Anwendungen nach Gefahrenpotenzial

KI-Anwendungen werden je nach Gefahrenpotenzial in verschiedene Kategorien eingestuft. Im Folgenden fassen wir diese kurz zusammen.

Verbotene KI-Anwendungen

Als verbotene KI-Anwendungen gelten nach dem Entwurf solche, die die Sicherheit von  Menschen in einem unverhältnismäßig großen Maße bedrohen und solche, die ein sogenanntes Social Scoring-System ermöglichen. 

Was sind Social Scoring-Systeme?

Es handelt sich um Systeme, die aufgrund von biometrischen Daten Menschen identifizieren können und es ermöglichen, deren Verhaltensweisen zu beobachten und zu bewerten. 

Ein Beispiel dafür ist das Social Scoring in verschiedenen chinesischen Städten. Hier wird im Rahmen der öffentlichen Überwachung das Straßenverkehrsverhalten beobachtet und mit Punkten bewertet. Je nach Punktestand erhält die betroffene  Person Vergünstigungen. 

Hochrisiko-Anwendungen

Anwendungen, die die Sicherheit oder fundamentale Rechte negativ beeinflussen, werden als Hochrisiko-Anwendungen klassifiziert. Sie werden in zwei Gruppen unterteilt. 

So gibt es Produkte mit KI-Anwendungen, die bereits unter die Regelungen zur Produktsicherheit (in Deutschland das Produktsicherheitsgesetz) fallen. Diese sind zum Beispiel Spielzeuge, Autos, Flugzeuge oder medizinische Geräte. Produkte mit KI-Anwendungen, die nicht darunter fallen, müssen bei der EU-Datenbank registriert werden. Hier hat die EU 8 Produktkategorien ausgearbeitet, die von der Registrierungspflicht betroffen sind. Darunter fallen auch Produkte, die im Bereich der Strafverfolgung genutzt werden.

Unabhängig von ihrer Einteilung werden alle Produkte mit Hochrisiko-Anwendungen vor ihrer Marktzulassung durch die EU beurteilt.

Generative KI

Produkte aus der Kategorie der generativen KI müssen mit Transparenzregeln konform sein. 

Was kann generative KI?

Generative Künstliche Intelligenz ist schon heute in der Lage, weitestgehend eigene Texte, Bilder oder andere Medien zu “erschaffen”. Generative KI-Modelle lernen die Muster und die Struktur ihrer eingegebenen Trainingsdaten und generieren dann neue Daten mit ähnlichen Eigenschaften. Dazu kommen verschiedene KI-Verfahren zum Einsatz, z. B. neuronale Netzwerke, maschinelles Lernen (Deep Learning) und KI-Algorithmen.

Es muss aus den Inhalten hervorgehen, dass es ein KI-generierter Inhalt ist. Das Modell muss derart designt sein, dass die Herstellung von illegalen Inhalten vermieden wird. Zudem muss eine Zusammenfassung der Trainingsdaten zur Verfügung gestellt werden.

Die KI-Strategie der Europäischen Union

Die EU hat bereits 2018 die erste Expertengruppe zum Thema KI ins Leben gerufen. 2019 stellte sie dann die ersten Leitlinien vor, es gab eine erste Versammlung. 2021 kam dann der erste Entwurf eines KI-Gesetzes von der Europäischen Kommission. Dies wurde dann im Jahr 2022 in verschiedenen Gremien diskutiert. Seit Juni 2023 wird dieses Thema im EU-Parlament besprochen.

Die grundlegenden Ziele der Union in Bezug auf KI-Anwendungen sind folgende:

  • Die Europäische Union möchte Künstliche Intelligenz nicht nur ermöglichen, sondern auch offiziell einführen.
  • KI-Anwendungen sollen vom Labor bis zur Marktreife in der EU vorhanden sein und die Gesellschaft unterstützen.
  • Die EU soll eine strategische Führungsrolle in Bezug auf KI einnehmen.

Um diese Ziele zu erreichen, soll unter anderem der Rechtsrahmen angepasst werden. Der AI Act ist der Beginn einer Reihe von Vorschriften. Die Anpassungen des Rechtsrahmens beziehen sich auf Grundrechte und Sicherheitsrisiken, auf die zivilrechtliche Haftung und auf die Überarbeitung sektoraler Sicherheitsvorschriften (etwa die Aufnahme von KI in bereits bestehende Verordnungen).

Der geplante Rechtsrahmen soll Anwender:innen und Entwickler:innen möglichst viel Rechtssicherheit in der Arbeit mit KI geben und dafür sorgen, dass die Interessen und Bedürfnisse von Entwickler:innen und der Bürger:innen erfüllt werden. Auch sieht die Union in ihren eigenen Regeln einen Vorbildcharakter für andere Bereiche.

Fazit

Künstliche Intelligenz kommt nach Europa! Ganz nach dem Motto “Vorsicht ist besser als Nachsicht” sollten Unternehmen bereits jetzt den Einsatz von KI-Anwendungen im eigenen Unternehmen dokumentieren und sich mit den Inhalten des AI Acts vertraut machen. Da die Union bereits verschiedene Neuerungen angekündigt hat, lohnt es sich ebenfalls, informiert zu bleiben und keine Entwicklungen zu verpassen. 

Bleibe auf dem Laufenden