Non Substitution Infrastructure
nogor entwickelt eine Infrastruktur, die sichtbar und beweisbar macht, wo KI menschliche Verantwortung ersetzt – und diese Ersetzung erstmals angreifbar macht.
Damit wird verantwortungsloser KI-Einsatz gesellschaftlich, rechtlich und wirtschaftlich nicht mehr folgenlos.
Wer haftet, wenn KI Menschen ersetzt?
Non-Substitution Infrastructure
25.12.2025
Substitution Detection & Liability Systems for AI
Abstract
Der zunehmende Einsatz von KI führt nicht primär zu technischen Fehlentscheidungen, sondern zu einem strukturellen Problem: menschliche Verantwortung wird faktisch durch Systeme ersetzt, ohne dass diese Ersetzung sichtbar, zuordenbar oder rechtlich angreifbar ist. Entscheidungen erscheinen formal menschlich, entfalten ihre Wirkung jedoch auf Basis automatisierter Bewertungen. Wenn es zu Schaden kommt, diffundiert Haftung zwischen Mensch, Organisation und System.
Dieses Projekt adressiert nicht die Qualität oder Fairness von KI-Modellen, sondern die Unsichtbarkeit von Substitution. Es entwickelt eine Non-Substitution Infrastructure, die erkennt, dokumentiert und exponiert, wo KI menschliche Verantwortung faktisch ersetzt – und macht diese Ersetzung beweisbar, haftbar und klagbar.
Der Ansatz verzichtet bewusst auf Ethikrichtlinien, Selbstverpflichtungen oder Regulierungsvorschläge. Stattdessen nutzt er bestehende Machtlogiken: Haftung, Versicherbarkeit und juristische Angreifbarkeit. Das Ergebnis ist eine neue Systemklasse, die Verantwortung nicht normativ fordert, sondern technisch erzwingbar macht.
1. Problemstellung
KI-Systeme werden heute breit eingesetzt, um Entscheidungen vorzubereiten, zu priorisieren oder zu automatisieren. Formal verbleibt die Entscheidung häufig bei einem Menschen. Faktisch folgt dieser jedoch unter Zeit-, Organisations- und Autoritätsdruck dem Systemoutput.
- Es entsteht ein struktureller Effekt:
- Entscheidungen mit realer Wirkung
- KI-Outputs mit normativer Kraft
- formale menschliche Beteiligung
keine explizite Verantwortungsübernahme
Im Konfliktfall heißt es:
„Die KI hat empfohlen.“
„Der Mensch hat entschieden.“
Beides ist gleichzeitig wahr – und genau deshalb haftet niemand. Das zentrale Defizit ist nicht technische Unzuverlässigkeit, sondern unsichtbare Verantwortungsersetzung.
2. Warum bestehende Ansätze nicht greifen
- Explainable AI erklärt Modelle, nicht Verantwortungsverschiebung
- Ethik-Frameworks sind unverbindlich
- Regulierung ist langsam und umgehbar
- Audits prüfen Systeme, nicht Entscheidungsstrukturen
Alle diese Ansätze setzen voraus, dass Verantwortung freiwillig behalten wird.
Diese Annahme ist empirisch nicht haltbar.
3. Zentrale Innovation
Perspektivwechsel
Nicht die Entscheidung ist das Problem, sondern die unbemerkte Ersetzung menschlicher Verantwortung.
Die Innovation liegt nicht im Bau besserer KI, sondern in der Entwicklung einer Infrastruktur zur Sichtbarmachung und Beweisbarkeit von Substitution.
4. Systemidee: Non-Substitution Infrastructure
Das vorgeschlagene System ist kein Entscheidungs- oder Assistenzsystem, sondern eine forensische Metainfrastruktur, die unabhängig von konkreten KI-Modellen arbeitet.
Kernfunktionen
1. Substitution Detection
Erkennung struktureller Muster, bei denen KI faktisch menschliche Verantwortung ersetzt, z. B.:
- Systemoutput mit normativer Wirkung
- fehlende reale Abweichungsmöglichkeit
- formale Entscheidung ohne explizite Verantwortungsübernahme
2. Responsibility Mapping
Rekonstruktion und Visualisierung von:
- formaler Zuständigkeit
- faktischer Entscheidungsauslösung
- expliziter Verantwortungsübernahme
Ziel ist die Lokalisierung einer Verantwortungsbruchstelle.
3. Liability Surface Creation
Übersetzung der festgestellten Substitution in juristisch verwertbare Artefakte:
- revisionsfähig
- reproduzierbar
- gerichtstauglich
Nicht als Urteil, sondern als klagefähiger Nachweis.
5. Erzwingende Wirkung
Der Ansatz ist bewusst nicht freiwillig.
Er wirkt über bestehende Machtlogiken:
- Haftung: Verantwortung kann nicht mehr abgeschoben werden
- Versicherbarkeit: Nur klare Verantwortungsbindung ist versicherbar
- Rechtssicherheit: Entscheidungen ohne Verantwortungsanker werden angreifbar
Nicht-Substitution wird dadurch ökonomisch und rechtlich rational, selbst für machtgetriebene Akteure.
6. Konkreter Demonstrator: Aufenthaltsentscheidungen
Der Demonstrator fokussiert hoheitliche Aufenthaltsentscheidungen, da hier:
- existenzielle Konsequenzen bestehen
- staatliche Macht ausgeübt wird
- Automatisierungsdruck hoch ist
Demonstrator-Leistung
- Analyse eines konkreten Aufenthaltsverfahrens
- Rekonstruktion des Entscheidungsflusses
- Nachweis faktischer Verantwortungsersetzung
- Generierung eines Substitution Reports
Der Report greift nicht die Entscheidung an, sondern die illegitime Substitution von Verantwortung.
7. Technischer Ansatz (minimal, tool-agnostisch)
- externe Analyse, kein Systemzugang erforderlich
- regelbasierte Strukturprüfung
- keine Modellbewertung
- kein Lernen, keine Optimierung
Der Demonstrator erzeugt ausschließlich Beweisstrukturen, keine Entscheidungen.
8. Evaluation
Erfolg wird nicht an Effizienz gemessen, sondern an Wirkung:
- Substitution Visibility Rate (SVR)
Anteil sichtbar gemachter Verantwortungsersetzung - Liability Activation Potential (LAP)
Anteil der Fälle mit neuem Klageansatz - Responsibility Rebinding Effect (RRE)
Verfahrensänderungen als Reaktion auf Sichtbarkeit
Widerstand gilt als erwartetes Signal, nicht als Scheitern.
9. Abgrenzung
Dieses Projekt baut nicht:
- kein KI-Modell
- kein Entscheidungs- oder Assistenzsystem
- kein Ethik- oder Fairness-Framework
- keine Regulierung
Es baut Infrastruktur für Haftung und Beweisbarkeit.
10. Ergebnis
neue Systemklasse: Non-Substitution Infrastructure
- Demonstrator für Aufenthaltsentscheidungen
- juristisch anschlussfähiger Substitution Report
- Grundlage für Klagbarkeit und Machtkontrolle im KI-Einsatz
Leitsatz
Wir bewerten keine Entscheidungen.
Wir machen sichtbar, wo Verantwortung ersetzt wurde.
Wenn das problematisch wirkt, liegt es nicht am System –
sondern an der Substitution, die bisher unsichtbar war.