Die Europäische Union hat sich vor kurzem einheitliche Regeln für den Einsatz von Künstlicher Intelligenz gegeben – und hofft, damit weltweit einen Standard zu setzen. Auf Einladung der Hochschule Hof informierte dazu Laura Jugel, Justiziarin der EU Kommission, vor Forschenden und Studierenden über das neue KI Gesetz, an deren Ausarbeitung sie selbst maßgeblich beteiligt war und an deren praktischer Umsetzung sie derzeit mitarbeitet.
Die 27 Mitgliedsstaaten der EU hatten im Mai 2024 mit dem „AI-Act“ schärfere Regeln für Künstliche Intelligenz (KI) in der Europäischen Union beschlossen. Sie stimmten damit Plänen zu, welche die Nutzung der Technologien etwa in der Videoüberwachung, Spracherkennung oder bei der Auswertung von Finanzdaten regeln. Das Gesetz, das grundsätzlich erst abSommer 2026 greift, ist das weltweit erste Gesetz dieser Art. Es könne einen globalen Standard für die Regulierung von KI setzen.
Technologieneutralität der Gesetzgebung
Wie Laura Jugel, Legal Officer der EU-Kommission, im Rahmen eines Online-Vortrages zunächst erläuterte, sollen mit dem zur Digitalstrategie der EU gehörenden Gesetz zum einen die Exzellenz in dem Bereich, zum anderen aber besonders das Vertrauen der Verbraucherinnen und Verbraucher in die derzeit stark diskutierte Technologie gestärkt werden:
KI kann viele Vorteile mit sich bringen, zum Beispiel eine bessere Gesundheitsfürsorge, einen sichereren Verkehr, eine effizientere Fertigung oder eine billigere und nachhaltigere Energieversorgung. Aber natürlich ist jedem auch bewusst, dass KI gleichzeitig auch zu Diskriminierung oder Manipulation genutzt werden könnte. Darum galt es, diese Risiken zu definieren und sie legislativ zu bearbeiten.“
Laura Jugel
Bei der auf Artikel 114 AEUV gestützten Verordnung handele es sich nun um ein reines Produktsicherheitsgesetz, das sich damit befasse, wie die Technik in den Markt komme und wie KI-Technologie dort umgesetzt werden kann – nicht aber damit, wie in diesem Bereich geforscht und entwickelt werde. „Gesichert werden sollen mit der Gesetzgebung die Grundbedürfnisse der EU-Bürgerinnen und Bürger nach Gesundheit und Sicherheit sowie die Wahrung der Grundrechte“, so Jugel.
Einteilung in Risikokategorien
Die neuen Vorschriften legen Verpflichtungen für Anbieter und Nutzer fest, die sich konkret nach dem Risiko, welches von dem KI-System ausgeht, richten.. Die KI-Verordnung folgt damit einem risikobasierten Ansatz mit komplexen Regelungen, zu denen Verbote eines Einsatzes, aber auch Anbieterpflichten wie Dokumentations- und Transparenzpflichten gehören. Welche Regelungen im Einzelfall zur Anwendung kommen, hängt damit vom Verwendungszweck der KI und einer dezidierten Risikoeinschätzung ab.
Bei einem „unannehmbaren Risiko“ für die zu schützenden Werte und Rechte kommt es zu einem kompletten Verbot der Anwendung. Dies betrifft zum Beispiel das bekannte „Social Scoring“, bei dem KI das soziale Verhalten von Personen bewertet – mit Folgen z.B. für die persönliche Kreditwürdigkeit oder andere Bereiche des Lebens. Diese Technologie ist aktuell bereits in der Volksrepublik China im Einsatz, ist in der EU mit dem neuen Gesetz aber komplett verboten. Ebenso auf dem „Index“ der EU stehen:
- Kognitive Verhaltensmanipulation von Personen oder bestimmten gefährdeten Gruppen (zum Beispiel durch sprachgesteuertes Spielzeug, das gefährliches Verhalten von Kindern fördert)
- Biometrische Identifizierung und Kategorisierung von natürlichen Personen oder
- Biometrische Echtzeit-Fernidentifizierungssysteme (Gesichtserkennung), welche zu Strafverfolgungszwecken im öffentlichen Raum eingesetzt werden
- Systeme die durch Profiling Prognosen zur Straffälligkeit treffen
- Emotionserkennungssysteme am Arbeitsplatz und im Bildungswesen
- Ungezieltes ‘Scraping’ von Gesichtsbildern, um Datenbanken aufzubauen
Schwerpunkt der Verordnung sind die Anwendungen mit „hohem Risiko“, wie sie beispielsweise beim Einsatz in der Medizin oder beim Recruiting existieren. Die KI-Verordnung führt Regeln für die Einstufung ein, welche dem Verwendungszweck des KI-Systems folgt. Grundsätzlich werden diese in zwei Kategorien eingeteilt:
- KI-Systeme, die als Sicherheitsbauteile in Produkten verwendet werden, die unter die Produktsicherheitsvorschriften der EU fallen, wie Spielzeug, Luftfahrt, Fahrzeuge, medizinische Geräte und Aufzüge, oder selbst solche Produkte darstellen.
- KI-Systeme, die fuer „Hochrisiko“- Anwendungsfälle verwendet werden sollen und deshalb in einer EU-Datenbank registriert werden müssen. Dazu gehören Anwendungsfälle aus den folgenden Bereichen:
-Verwaltung und Betrieb kritischer Infrastruktur
-allgemeine und berufliche Bildung
-Beschäftigung, Verwaltung der Arbeitnehmer/-innen und Zugang zur Selbstständigkeit
-Inanspruchnahme von wesentlichen privaten und öffentlichen Leistungen
-Strafverfolgung
-Verwaltung von Migration, Asyl und Grenzkontrollen
Alle KI-Systeme mit hohem Risiko müssen technischen Anforderungen genügen, werden vor dem Marktgang überprüft und während ihres gesamten Lebenszyklus bewertet. Bürgerinnen und Bürger sollen hierbei das Recht haben, bei den zuständigen nationalen Behörden Beschwerden gegen Anwendungen einzureichen.
Auf der dritten Stufe werden insbesondere Fragen der Transparenz geregelt, wie sie beispielsweise beim Einsatz von Chatbots oder Deepfakes relevant sein können. Inhalte, die mit Hilfe von KI erzeugt oder verändert wurden – Bilder, Audio- oder Videodateien – müssen demnach maschinell lesbar und in bestimmten Fällen darüber hinaus sichtlich als KI-generiert gekennzeichnet werden.
Ergänzend zu den Regeln für KI-Systeme führt die KI-Verordnung auch Regeln für Anbieter von sog. KI-Modellen mit allgemeinem Verwendungszweck ein, auch Sprachmodelle oder Basismodelle genannt. „Bei diesen Sprachmodellen werden künftig die Quellen der Trainingsdaten in einer öffentlichen Zusammenfassung zu dokumentieren sein. Das ist insbesondere mit Blick auf das Urheberrecht relevant“, so die Juristin Jugel.
Nächste Schritte
Das neue KI-Gesetz wird 24 Monate nach seinem Inkrafttreten in Gänze anwendbar sein. Einige Teile gelten jedoch schon früher: So wird das Verbot von KI-Systemen, die unannehmbare Risiken darstellen, bereits sechs Monate nach Inkrafttreten gelten.
Auch begleitende Verhaltenscodizes sollen bereits neun Monate nach Inkrafttreten fertiggestellt sein. Vorschriften für KI-Systeme mit allgemeinem Verwendungszweck gelten nach 12 Monaten.
Zur anstehenden Rechtsdurchsetzung setzt die EU-Kommission drei beratende Gremien ein: Das „AI Board“, in dem die Mitgliedsstaaten vertreten sind, soll die Koordinierung auf EU-Ebene sicherstellen. Ein „Scientific Panel“, bestehend aus Wissenschaftlerinnen und Wissenschaftlern, unterstützt dabei mit technischem Input. Ein beratendes „Advisory Forum“ sorgt zudem den notwendigen Input von Stakeholdern aus dem Bereich der Wirtschaft.
Laura Jugel war eingeladen im Rahmen einer Veranstaltung des Verbandes der Hochschullehrer Bayerns (vhb).