KI VO Stand 2024 Allgemeine Regelungen Teil III

Anwendungsbereich

Das Erste, was man prüfen muss, wenn man im öfffentlichen Recht arbeitet:

Wer ist Adressat, auf welchem Territorium gilt die AI-VO, was ist der objektive Tatbestand? Was ist ein KI System?

Adressat:

Nach Art 3 II: Die Provider sind die verpflichteten Unternehmen. Das sind die Unternehmen, die eine AI herstellen, für sich entwickeln lassen oder in den Verkehr bringen oder für Kunden betreiben (Provider).

Art 3 IV AI: Die Betreiber (Deployer) sind die Unternehmen, die die AI in eigener Verantwortung verwenden. Deren Pflichten sind in Art 29 geregelt. Dabei offen – und noch zu beantworten – ist die Fragestellung, wie der Betreiber mit bestimmten für ihn nach der AI-VO geltenden Pflichten ohne Mitwirkung des Providers, z.B. nach der Transparenz umzugehen hat.

Weitere Adressaten sind die Distributoren (Art 27) und die Importer (Art 26).

Räumlicher Anwendungsbereich

Art 2 I: Unabhängig davon, ob der Anbieter seinen Sitz innerhalb der EU hat oder nicht, gilt die AI-VO für jede AI, die im Bereich der EU betrieben oder in den Verkehr gebracht wird, oder wenn durch die AI erzielte Ergebnisse in der EU verwendet werden (Art 2 Ic). Es gilt das Marktortprinzip.

Sachlicher Anwendungsbereich Teil I

Anmerkung: Und nun wird es kompliziert, denn die Verordnung verbindet eine allgemeine Definition (Unter I.) darüber, was ein AI System ist mit der Beschreibung von unterschiedlichen AI Systemen (dazu unter II). Es wird in der Presse und im Gesetz immer wieder angegeben, dass sich die Unterscheidung aus Risikoklassen ergibt. Das stimmt leider nur bedingt. Richtigerweise wird man sagen müssen, dass die Regelungstechnik unterschiedliche Parameter zur Einteilung aufweist und diese vermengt ,nebeneinander zur Anwendung bringt. Nämlich den Parameter des Zwecks des Einsatzes der AI Systeme (Bsp: Hochriskosysteme) und die Paramter des Gefahren und Ordnungsrechts, nämlich die Frage nach dem bestehenden Risiko für die geschützten Rechtsgüter. Aus diesem Mixmax ergeben sich dann natürlich Überschneidungen mit Unsicherheiten. Natürlich gibt es noch andere Parameter, nämlich z.B. die Frage ob das AI System aus Opensource besteht. Und gewinnt man den Eindruck, als ob schon der Tatbestand dieser Verordnung eine Aufforderung der Legislative an die Beraterindustrie und die Universitäten ist, aus dem Puzzel etwas Gares zu machen.

Der Begriff der Risikoklasse ist also irreführend. Man spreche gleich besser von Qualifikationsklasse.

Nach der anwendbaren KLasse bestimmt sich dann die Pflichten für die Nutzer und Hersteller. Erstmal die generelle Definition:

I. AI:  Generelle Definition

Art. 3 I: A machine based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments.

An dieser Definition wird viel Kritik geübt, einfach, weil auch noch „nicht intelligente Algorithmen“, miterfasst sind, weshalb spät aber dann doch noch der Begriff der Autonomie eingefügt wurde. Aber es bleiben immer noch weitere Fragen offen.

Die Verordnung unterscheidet zwischen

  1. Verbotenen Systemen;
  2. Hochrisiko- Systemen (das dürfte der Hauptanwendungsfall werden);
  3. Systemischen Risiken; erfasst werden generative AI- Systeme, die eine hohe Rechenleistung aufweisen.
  4. Begrenzten Risiken;
  5. Geringen Risiken. Hier bestehen keine besonderen Pflichten.

Anm: Die Risikoklassen bestimmen sich nach unterschiedlichen Kriterien, die sich teilweise überschneiden. Es geht nicht nur einfach darum, welche Gefahr für die öffentliche Sicherheit und Ordnung besteht; sondern es wird auch ganz abstrakt daran angeknüpft, welcher für welchen Einsatzzweck die AI Systeme dienen sollen. MIr ist das unklar, denn ein AI System ist wie Software oder ein Werkzeug Mittel zum Zweck. Sie kann missbraucht oder zum Guten verwendet werden. Tatsächlich aber beginnt die Einteilung des Gesetzes damit, dass die AI Systeme für bestimmte Zwecke nicht entwickelt, betrieben oder verwendet werden dürfen.

II. Unterschiedliche Klassen

1.) Qualifikation wegen des Zwecks: Verbotene Systeme

Die EU beschloss also, dass sich bestimmte Einsatzzwecke von AI mit dem Selbstverständnis der EU nicht vertragen würden. Sie würden unannehmbare Risiken oder erwartbare, unzumutbare Einschränkungen von Grundrechten bedingen. Softwaresysteme sollen nicht in der Lage sein, psychische oder physische Schäden zu verursachen, die die Schwäche von Schutzbedürftigen ausnutzen; außerdem verboten sind Systeme, die ein social scoring (wie z.B. in der VR China) ermöglichen. Mit Ausnahme (zur Verfolgung einiger schwerer Straftaten) dürfen die Systeme auch keine Echtzeit- Identifikation anhand biometrischer Merkmale ermöglichen.

2.) Qualifikation nach dem Risiko und/oder nach dem Zweck: Hochrisikosysteme

Nach dem Erwägungsgrund zu Art 27 sind Hochrisiko-Systeme solche, die erhebliche, schädigende Auswirkung auf die Gesundheit, Sicherheit und die Grundrechte von Personen in der EU haben. Um diesen Ansatz greifbar zu machen, verweist der Art 6 AI VO auf die Annexe II und Annex III. Diese Anlagen beinhalten Anwendungsfälle.

a.) Annex II: Qualifikation nach dem Risiko

Hier wird darauf abgestellt, ob nach einem dort aufgeführten Rechtsakt (z.B. MaschinenVO; ExplosionsschutzVO, etc andere Beispiele siehe dort.) aa.) das Produkt selbst unter diesen Rechtsakt fällt und ohne eine Konformitätsbewertung nicht in den Verkehr gebracht oder betrieben werden darf oder bb.) auch nur eine Sicherheitskomponente des Produkts einer Konformitätsbewertung durch Dritte unterliegt. Liegt ein solcher Bezug vor, so besteht die Vermutung, dass das AI- System ein Hochrisikosystem ist. Schon ohne die Anwendung der AI- Systeme ist die Herstellung oder der Betrieb der Produkte so gefährlich, dass es einer Konformitätsbewertung bedarf. Das ist stimmig, weil ja schon die entsprechenden Verordnungen einer Beherrschung von Gefahren für die öffentliche Sicherheit dienen, die sich aus der abstrakten Gefahrenlage ergibt (Bestimmte medizinische Produkte dürfen nur betrieben werden, wenn die Vorschriften der VOs eingehalten werden, weil der Betrieb der medizinischen Produkte für sich genommen ein gesondertes Risiko darstellt.

Auch hier besteht um Einzelheiten Streit, einige Punkte können heute über die Erwägungsgründe (also den Willen des historischen Gesetzgebers, der zur Auslegung heranzuziehen ist) gelöst werden.

b.) Annex III: Qualifikation über den Einsatzzweck

aa.) Hier geht es um die Funktionalität und den Anwendungsbereich der AI. Anwendungsbereiche sind die biometrische Fernidentifizierung; Kritische Infrastrukturen; Emotionserkennen; HR; Bildung; Zugang zu privaten oder öffentlichen Leistungen; Strafverfolgung; Migration und Grenzkontrollen; Justiz und Demokratie.

bb.) Im zweiten Schritt sind die Used Cases zu beachten, die aufgeführt sind. Zu beachten sind aktuell insbesondere die Einsatzbereiche Human Resources und die Dinge, die sich auf den Datenschutz beziehen (aktuell wäre z.B. die Schufa- Entscheidung ist zu beachten).

cc.) Ausnahmen sind dann wieder im Art 6 (2a) geregelt.

Denn selbst wenn man dazu kommt, dass nach dem Annex III ein Anwendungsfall besteht, wird diese Vermutung wieder entkräftet, wenn einer der dort beschriebenen Tatbestände vorliegt:

  • Die AI dient der Ausführung einer eng umgrenzten verfahrenstechnischen Aufgabe;
  • Sie dient der Verbesserung der Ausführung einer menschlichen Tätigkeit;
  • Sie dient der Überprüfung der Erwägungsgründe einer menschlichen Entscheidung, soll diese aber nicht ersetzen;
  • Sie dient als Vorbereitung für die Bewertung von Aufgaben, die für die Bewältigung der Anwendungsfälle des Annex III relevant ist.

dd.) Das Problem

ist die richtige Auslegung dieser Regelungen und die Beantwortung der Frage, ob die relevante AI als Hochrisiko- System zu bewerten ist. Liegt man hier falsch, drohen – wie immer nach dem EU- Recht – drakonische Strafen.

Die EU soll und wird im Laufe der Zeit weitere Richtlinien für die Auslegung erlassen. Es geht um technische wie auch um juristische Bewertungen.

Anmerkung: Es ist ganz die Frage, welche juristische Regelungstechnik hier überhaupt zur Anwendung kommen sollte. Wenn man von der legislativen Seite kommt, die Erstellung der Rechtsakte dem Parlament überlässt, ist das insofern gut, als dass ein umfassender politischer Prozess für eine hohe demokratische Legitimität sorgen sollte. Der Nachteil ist aber: Die Rechtsakte veralten schnell und deshalb müssen die Gesetze auf einer Abstraktionsstufe verfasst werden, die dann wieder so abstrakt ist dass sie keine hinreichende Rechtssicherheit bieten kann. Und das sieht man an den EU Verordnungen schnell. Beispiel: Die DSGVO ist vor sechs Jahren in Kraft getreten. Jetzt – sechs Jahre später – gibt es immer mehr Entscheidungen des EuGH, die für Rechtssicherheit sorgen. In der Zwischenzeit hat sich eine Beraterindustrie geformt. Und das im wesentlichen auch deshalb, weil der europäische Gesetzgeber nicht geschafft hat, ein funktionierendes Regelungswerk mit einer Mechanik zu schaffen, die die anwendbaren Regelungen schnell genug konkretisiert.

More contributions

Produkthaftungsrichtlinie 2024 – eine Reform ist notwendig

Die seit 1985 in Kraft stehende Produkthaftungsrichtlinie der EU, auf welcher das deutsche Produkthaftungsgesetz beruht, bedurfte einer umfassenden Überarbeitung, um den Herausforderungen der modernen digitalen und technologischen Welt gerecht zu werden. Kurz zur Erinnerung: im Jahr 1985 gab es vermutlich

Read more "
Scroll up