II. Die Legaldefinition des KI Systems hat Schwächen
Die Legaldefinition des Begriffs KI Systems hat Schwächen, die man im Wege der Auslegung kaum ausräumen kann. Man wird warten müssen, bis die Rechtsprechung hierzu eine Entscheidung getroffen hat.
1.) Einfach zu entscheidende Fälle
Beispiel 1: Command & Conquer
Die KI-Gegner in den klassischen C&C-Titeln (Westwood Studios, ab 1995) arbeiteten mit vorprogrammierten Entscheidungsbäumen und Finite-State-Machines. Die Schwierigkeitsstufen veränderten Parameter — Angriffsfrequenz, Ressourcenpriorisierung, Truppenkomposition — aber nach einem festen Schema, das ein Programmierer zuvor vollständig kodiert hatte. Dass sich die Engine über die 12 Stufen hinweg anders verhält, ist keine Ableitung aus deinem Spielverhalten, sondern das Abarbeiten einer anderen Regelkonfiguration.
Unter Art. 3 Nr. 1 KI-VO:
Autonomie: Ja — der Computeregner agiert ohne menschliches Eingreifen. Dieses Merkmal ist erfüllt, hilft aber nicht bei der Abgrenzung, weil es auch auf jeden Taschenrechner zutrifft.
Ableitung (Inferenz): Nein. Das System leitet aus deinen Eingaben nicht ab, wie seine Ausgabe zu erzeugen ist — es führt vorab definierte Regeln aus. Genau das meint Erwägungsgrund 12 mit dem Ausschluss von Systemen, die „auf ausschließlich von natürlichen Personen definierten Regeln für das automatische Ausführen von Operationen beruhen.“
Ergebnis: Command & Conquer ist kein KI-System. Es ist regelbasierte Software mit konfigurierbaren Parametern. Hierzu die Anmerkung von meinem Sohn: AlphaStar (DeepMind, StarCraft II, 2019) — sind KI. Der wurde per Reinforcement Learning trainiert und leitet aus dem Spielzustand eigenständig Strategien ab, die kein Mensch explizit kodiert hat. KI VO wäre anwendbar.
Beispiel 2: Werbeausspielungsvorhersage
Hier sind wir in der Kerndomäne des maschinellen Lernens. Systeme wie Googles Ads-Auktion oder Metas Placement-Engine arbeiten technisch so:
Eingaben: Nutzerdaten (demografisch, gerätebasiert, Browserverlauf, Standort, Tageszeit), Anzeigeninventar, Gebotshöhe der Werbetreibenden, Kontextparameter der aufgerufenen Seite.
Modell: Typischerweise Gradient Boosting (XGBoost, LightGBM) oder tiefe neuronale Netze, trainiert per Supervised Learning auf historischen Klickdaten mit binärer Zielgröße (geklickt / nicht geklickt).
Ausgabe: Predicted Click-Through Rate (pCTR) und Predicted Conversion Rate — aus denen das System in Echtzeit (unter 100 Millisekunden) entscheidet, welche Anzeige welchem Nutzer zu welchem Preis ausgespielt wird.
Unter Art. 3 Nr. 1 KI-VO:
Autonomie: Hoch — das System trifft millionenfach pro Sekunde Entscheidungen ohne menschliches Eingreifen. Kein Mensch entscheidet, welche Werbung du in diesem Moment siehst.
Ableitung (Inferenz): Ja, eindeutig. Das Modell hat keine Informationen darüber bekommen, welche Nutzer auf welche Anzeigen klicken. Es hat aus Trainingsdaten selbst gelernt, welche Muster einen Klick vorhersagen — und wendet diese Ableitung auf jeden neuen Nutzer an. Kein Programmierer hat die Regel „Nutzer, 34 Jahre, Hamburg, Samstagmorgen, Sportschuhe im Warenkorb → Wahrscheinlichkeit 0,073″ kodiert. Das System hat sie sich selbst abgeleitet.
Ergebnis: Werbeausspielungsvorhersage ist ein KI-System nach Art. 3 Nr. 1 KI-VO — technisch sauber subsumierbar, ohne dass man die Auslegungsprobleme des Gesetzes bemühen müsste. Das ist das seltene Beispiel, bei dem der Tatbestand klar greift.
Nicht die Komplexität des Verhaltens entscheidet, sondern die Frage, wer die Regel erzeugt hat — der Programmierer oder das System.
