EU-Kommissar Thierry Breton fügte hinzu „Die KI-Akte ist das Ergebnis jahrelanger Vorbereitungen, Konsultationen und Verhandlungen, einschließlich des historischen 38-stündigen abschließenden Trilogs im Dezember. Während des gesamten Prozesses haben wir den Sonderinteressen und Lobbyisten widerstanden, die forderten, große KI-Modelle von der Verordnung auszuschließen. Das Ergebnis ist eine ausgewogene, risikobasierte und zukunftssichere Verordnung.“ Breton betonte, dass das KI-Gesetz die notwendige Transparenz herstellt und sicherstellt, dass die Entwickler Informationen mit den vielen KMU entlang der Wertschöpfungskette teilen. „Das KI-Gesetz wird eine Startrampe für EU-Startups sein, die das globale Rennen um vertrauenswürdige KI anführen. Er wird es den europäischen Bürgern und Unternehmen ermöglichen, KI „made in Europe“ sicher und vertrauensvoll zu nutzen.“
Ziel der neuen Verordnung
Ziel der neuen Vorschriften ist es, vertrauenswürdige KI in Europa und darüber hinaus zu fördern, indem sichergestellt wird, dass KI-Systeme die Grundrechte, die Sicherheit und die ethischen Grundsätze achten und die Risiken sehr leistungsfähiger und wirkungsvoller KI-Modelle angehen.
Die Verordnung wurde von den Abgeordneten des Europäischen Parlaments mit 523 Ja-Stimmen, 46 Nein-Stimmen und 49 Enthaltungen gebilligt.
Risikobasierter Ansatz
Die neuen Vorschriften werden in allen Mitgliedstaaten auf der Grundlage einer zukunftssicheren Definition von KI unmittelbar und in gleicher Weise angewandt. Sie folgen einem risikobasierten Ansatz:
Minimales Risiko
Die große Mehrheit der KI-Systeme fällt in die Kategorie des minimalen Risikos. Anwendungen mit minimalem Risiko wie KI-gestützte Empfehlungssysteme oder Spam-Filter werden von einem Freipass und fehlenden Verpflichtungen profitieren, da diese Systeme nur ein minimales oder gar kein Risiko für die Rechte oder die Sicherheit der Bürger darstellen. Auf freiwilliger Basis können sich die Unternehmen jedoch zu zusätzlichen Verhaltenskodizes für diese KI-Systeme verpflichten.
Hohes Risiko
KI-Systeme, die als risikoreich eingestuft werden, müssen strenge Anforderungen erfüllen, darunter Systeme zur Risikominderung, eine hohe Qualität der Datensätze, die Protokollierung von Aktivitäten, eine ausführliche Dokumentation, klare Benutzerinformationen, menschliche Aufsicht und ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit. Regulatorische Sandkästen werden verantwortungsvolle Innovationen und die Entwicklung von konformen KI-Systemen erleichtern.
Kritische Infrastrukturen
Beispiele für solche risikoreichen KI-Systeme sind bestimmte kritische Infrastrukturen, z. B. in den Bereichen Wasser, Gas und Strom, medizinische Geräte, Systeme zur Bestimmung des Zugangs zu Bildungseinrichtungen oder zur Rekrutierung von Personen oder bestimmte Systeme, die in den Bereichen Strafverfolgung, Grenzkontrolle, Rechtspflege und demokratische Prozesse eingesetzt werden. Darüber hinaus gelten biometrische Identifizierungs-, Kategorisierungs- und Emotionserkennungssysteme ebenfalls als hochriskant.
Unannehmbares Risiko
KI-Systeme, die eine eindeutige Bedrohung für die Grundrechte der Menschen darstellen, werden verboten. Dazu gehören KI-Systeme oder -Anwendungen, die das menschliche Verhalten manipulieren, um den freien Willen des Nutzers zu umgehen, wie z. B. Spielzeug mit Sprachassistenz, das gefährliches Verhalten von Minderjährigen fördert, oder Systeme, die ein „Social Scoring“ durch Regierungen oder Unternehmen ermöglichen, sowie bestimmte Anwendungen der vorausschauenden Polizeiarbeit. Darüber hinaus werden einige Anwendungen biometrischer Systeme verboten, z. B. Systeme zur Erkennung von Emotionen am Arbeitsplatz und einige Systeme zur Kategorisierung von Personen oder zur biometrischen Fernidentifizierung in Echtzeit zu Strafverfolgungszwecken in öffentlich zugänglichen Räumen (mit engen Ausnahmen).
Spezifisches Transparenzrisiko
Beim Einsatz von KI-Systemen wie Chatbots sollten sich die Nutzer bewusst sein, dass sie mit einer Maschine interagieren. Deep Fakes und andere KI-generierte Inhalte müssen als solche gekennzeichnet werden, und die Nutzer müssen informiert werden, wenn biometrische Kategorisierungs- oder Emotionserkennungssysteme verwendet werden. Darüber hinaus müssen die Anbieter ihre Systeme so gestalten, dass synthetische Audio-, Video-, Text- und Bildinhalte in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkannt werden können.
Strafen
Unternehmen, die sich nicht an die Vorschriften halten, müssen mit Geldstrafen rechnen.
KI für allgemeine Zwecke
Mit dem KI-Gesetz werden spezielle Vorschriften für KI-Modelle für allgemeine Zwecke eingeführt, die für Transparenz entlang der Wertschöpfungskette sorgen werden. Für sehr leistungsfähige Modelle, die systemische Risiken darstellen könnten, wird es zusätzliche verbindliche Verpflichtungen in Bezug auf das Risikomanagement und die Überwachung schwerwiegender Vorfälle sowie die Durchführung von Modellevaluierungen und Tests mit gegnerischen Systemen geben. Diese neuen Verpflichtungen werden durch Verhaltenskodizes operationalisiert, die von der Industrie, der Wissenschaft, der Zivilgesellschaft und anderen Interessengruppen zusammen mit der Kommission entwickelt werden.
Neues Office für Künstliche Intelligenz
Was die Verwaltung betrifft, so werden die zuständigen nationalen Marktaufsichtsbehörden die Umsetzung der neuen Vorschriften auf nationaler Ebene überwachen, während die Einrichtung eines neuen europäischen AI-Offices innerhalb der Europäischen Kommission die Koordinierung auf europäischer Ebene sicherstellen wird. Das neue Office für Künstliche Intelligenz wird auch die Umsetzung und Durchsetzung der neuen Vorschriften für allgemeine KI-Modelle überwachen.
Zusammen mit den nationalen Marktaufsichtsbehörden wird das Amt für künstliche Intelligenz die erste Stelle auf der Welt sein, die verbindliche Vorschriften für künstliche Intelligenz durchsetzt, und soll daher zu einem internationalen Bezugspunkt werden. Für allgemeine Modelle wird ein wissenschaftliches Gremium unabhängiger Experten eine zentrale Rolle spielen, indem es Warnungen zu systemischen Risiken herausgibt und zur Klassifizierung und Prüfung der Modelle beiträgt.
Internationale Ebene
Um Regeln für vertrauenswürdige KI auf internationaler Ebene zu fördern, wird die Europäische Union weiterhin in Foren wie der G7, der OECD, dem Europarat, der G20 und der UNO mitarbeiten. Erst kürzlich haben wir die Einigung der G7-Staats- und Regierungschefs im Rahmen des Hiroshima-Prozesses für KI auf internationale Leitprinzipien und einen freiwilligen Verhaltenskodex für fortgeschrittene KI-Systeme unterstützt.
Weitere Schritte
Die Verordnung unterliegt noch einer abschließenden Prüfung durch Juristen und Sprachwissenschaftler und wird voraussichtlich noch vor Ende der Legislaturperiode endgültig verabschiedet (im Rahmen des so genannten Korrigendumverfahrens). Das Gesetz muss auch vom Rat förmlich gebilligt werden.
Das KI-Gesetz tritt 20 Tage nach seiner Veröffentlichung im Amtsblatt in Kraft und wird zwei Jahre später uneingeschränkt anwendbar sein, mit einigen Ausnahmen: Verbote treten nach sechs Monaten in Kraft, die Governance-Regeln und die Verpflichtungen für allgemeine KI-Modelle gelten nach 12 Monaten und die Regeln für KI-Systeme – eingebettet in regulierte Produkte – gelten nach 36 Monaten.
Um den Übergang zum neuen Rechtsrahmen zu erleichtern, hat die Kommission den KI-Pakt ins Leben gerufen, eine freiwillige Initiative, die die künftige Umsetzung unterstützen soll, und fordert KI-Entwickler aus Europa und darüber hinaus auf, die wichtigsten Verpflichtungen des KI-Gesetzes vorzeitig einzuhalten.
– – – – –
Weiterführende Links
👉 https://commission.europa.eu/index_de
👉 Koordinierter Plan für künstliche Intelligenz
Foto: Europäische Kommission