Statement: „Wir benötigen Rechtssicherheit für Unternehmen und Verbraucher*innen, wenn KI im Spiel ist“
Einigung auf EU-Regeln für Künstliche Intelligenz: Prof. Dr. Domenik Wendt
bewertet die Grundzüge des „AI Act“ und ihre Bedeutung international
Medizinische Diagnosen, Spracherkennungssysteme, virtuelle Assistenten
beim Einkaufen, Anwendungen zur Koordination von Arbeitnehmer*innen sowie
moderne Chatbots – Künstliche Intelligenz (KI) spielt in vielen
Lebensbereichen eine Rolle. Am Freitag, den 8. Dezember 2023 haben sich
das Europäische Parlament, die EU-Kommission und die EU-Mitgliedsländer
nun vorläufig auf den Artificial Intelligence Act, kurz „AI Act“
verständigt. Mit dem Gesetz soll die Nutzung und Herstellung von KI-
Systemen abhängig von ihrem Risiko für Menschen EU-weiten Regelungen
unterliegen. Prof. Dr. Domenik Wendt, Direktor des Research Lab for Law
and applied Technologies (ReLLaTe) an der Frankfurt University of Applied
Sciences (Frankfurt UAS), begrüßt die Einigung: „Wer sich vor Augen führt,
was insbesondere die neuesten Entwicklungen im Bereich der generativen KI
wie die Modelle GPT-4 und Gemini heute bereits leisten, kann nur erahnen,
welche Einsatzmöglichkeiten in Zukunft bestehen werden. Der von der EU
gewählte risikobasierte Regulierungsansatz im AI Act, der KI-Systeme
anhand ihres Risikos für Gesundheit, Sicherheit und Grundrechte
kategorisiert, ist richtig. Er ermöglicht, notwendige
produktsicherheitsrechtliche Anforderungen an KI-Systeme zu formulieren,
erforderliche Grenzen durch Verbote zu setzen und wichtige Zuständigkeiten
auf Behördenseite zu klären. So werden künftig in der EU Anwendungen wie
das sogenannte „Social Scoring“ untersagt und eine starke Aufsicht durch
eine europäische Behörde etabliert. Das alles ist wichtig, denn wir
benötigen Rechtssicherheit für Unternehmen und Verbraucher*innen, wenn KI
im Spiel ist.“
In dem von Wendt geleiteten ReLLaTe werden die aktuellen Entwicklungen um
den AI Act im Projekt „AI LAW“ analysiert. Umstritten waren in den
vorangegangenen Verhandlungen, dem Trilog auf EU-Ebene, unter anderem,
welche Vorgaben für sogenannte General-Purpose-AI-Modelle sowie darauf
aufsetzenden Anwendungen gelten sollen. General-Purpose-AI-Modelle werden
mit großen Datensätzen trainiert und sind vielseitig einsetzbar. Hierzu
stellt Wendt fest: „Das mit dem AI Act verfolgte Ziel eines angemessenen
Schutzes der EU-Bürger*innen lässt sich wohl am besten durch klare
Anforderungen und damit verknüpfte Sanktionen erreichen. Gerade die in der
EU ansässigen KI-Unternehmen wie Aleph Alpha und Mistral AI könnten
hierdurch aber ausgebremst werden. Der nun in den ersten Mitteilungen der
EU-Institutionen zur Einigung dargestellte Kompromiss sieht ein gestuftes
Regelkonzept in Abhängigkeit vom systemischen Risiko vor. Das steht im
Einklang mit dem risikobasierten Regulierungsansatz des AI Acts und
verhindert, dass kleinere Unternehmen zu stark durch regulatorische
Anforderungen belastet werden. Die für alle General-Purpose-AI-Modelle
vorgesehenen Transparenz- und Dokumentationspflichten sind wichtig, auch
um das Vertrauen in diese Modelle zu stärken. Leistungsstärkere General-
Purpose-AI-Modelle sollen zusätzliche Anforderungen erfüllen, insbesondere
in den Bereichen Cybersicherheit, Risikomanagement und Energieverbrauch.
Das sind aus meiner Sicht elementare Eckpfeiler einer notwendigen
Governance-Struktur, die Anbieter*innen dieser Modelle vorhalten müssen.“
Im Hinblick auf mögliche Sanktionen und das damit verknüpfte neue
Aufsichtssystem stellt Wendt fest: „Bei Verstößen gegen die Vorgaben des
AI Acts, sind empfindliche Sanktionen vorgesehen, die sich am Jahresumsatz
des Unternehmens oder festgelegten Werten von bis zu 35 Mio. EUR
orientieren. Auf EU-Ebene soll zudem ein sogenanntes „AI Office“
sicherstellen, dass einheitliche Standards in allen EU-Mitgliedstaaten
angewendet werden. Ähnliches findet sich etwa auch im Finanzmarktrecht.
Wichtig erscheint mir, dass das AI Office mit ausreichend Mitteln
ausgestattet wird, um handlungsfähig zu sein.“
Mit Blick auf die Regulierung von KI weltweit hebt der
Rechtswissenschaftler Wendt hervor: „Die EU ist mit ihren Überlegungen zum
AI Act früh gestartet, auch in der Hoffnung auf einen ‚Brussels Effekt‘,
wie wir ihn von der Datenschutzgrundverordnung kennen. Zwischenzeitlich
haben andere Regionen der Welt nachgezogen. Die Einigung kommt aus meiner
Sicht aber noch rechtzeitig, um mit dem AI Act wichtige EU-geprägte
Standards für KI-Modelle und -Systeme zu setzen.” Domenik Wendt ist Teil
eines internationalen und interdisziplinären Teams von
Wissenschaftler*innen, das derzeit einen Großkommentar zum AI Act
vorbereitet.
Nach der vorläufigen politischen Einigung werden die Arbeiten des EU-
Gesetzgebers auf technischer Ebene in den kommenden Wochen fortgesetzt.
Anschließend muss der AI Act durch das EU-Parlament und den Rat der EU
verabschiedet werden. Bevor Unternehmen die Regeln anwenden müssen, gilt
dann noch eine Übergangsfrist.
Gerne steht Prof. Dr. Domenik Wendt für Interviews, Fragen und weitere
Statements rund um das Thema zur Verfügung.
Kontakt: Frankfurt University of Applied Sciences, Fachbereich 3:
Wirtschaft und Recht, Prof. Dr. Domenik Wendt, Telefon: +49 69 1533-3876,
E-Mail: <
Zur Person:
Prof. Dr. Domenik Wendt ist Jurist und Professor für Bürgerliches Recht,
Europäisches Wirtschaftsrecht und Europarecht an der Frankfurt University
of Applied Sciences. Zu seinen Forschungsschwerpunkten zählt das
europäische Wirtschaftsrecht und das Recht der Künstlichen Intelligenz.
Wendt leitet das Research Lab for Law and applied Technologies (ReLLaTe)
an der Frankfurt UAS, in dessen Projekt AI LAW der neue Rechtsrahmen für
KI, unter anderem durch den AI Act untersucht wird. Er ist zudem Mitglied
der Projektgruppe „Verantwortungsbewusste algorithmische
Entscheidungsfindung in der Arbeitswelt“ des Zentrums für
verantwortungsbewusste Digitalisierung (ZEVEDI). Das virtuelle,
hessenweite Netzwerk verknüpft und bündelt wissenschaftliche Expertise auf
dem Feld der Digitalität.
