Diese Seite beschreibt ein konzeptionelles Systemmodell.

Non-Optimizing Systems ... 

In vielen realen Situationen gibt es keine eindeutigen Ziele. Menschen stehen vor widersprüchlichen Erwartungen, Zeitdruck und unvollständigen Informationen. Klassische KI versucht, trotzdem eine „beste“ Lösung zu berechnen. 

Meine Vision ist eine andere: KI, die Orientierung bietet, wenn Entscheidungen noch offen bleiben müssen.

11.12.2025

 

„KI ohne Ziel. 
Ohne Abschluss. 
Mit Orientierung.“ 

Orientation before action.
Beispiel Notaufnahme: Wenn 96,2 % zu früh sind

Ein Patient liegt in der Notaufnahme. Stabil, aber mit unklaren Bauchschmerzen. Das Labor ist überlastet – einige Entzündungsmarker und Leberwerte fehlen noch. Trotzdem hat das KI-System bereits genügend Daten, um einen Befund zu berechnen.

Auf dem Bildschirm erscheint eine präzise Zahl:

„Wahrscheinlichkeit für eine akute Appendizitis: 96,2 %.“

Der Arzt ist am Ende seiner Schicht. Die Anzeige wirkt eindeutig. 96,2 % klingt nach Sicherheit, nach Handlungsdruck, nach sofortigem Eingreifen. Die Vorbereitung zur Operation beginnt.

Doch genau hier liegt das Problem:
Die KI vermittelt Gewissheit, obwohl die Datenlage noch unvollständig ist. Die Zahl verdeckt, was fehlt. Sie sagt nicht: Hier gibt es offene Befundlücken. Sie sagt: Das reicht.

 

Ein Non-Optimizing System würde anders reagieren.

Es würde keinen Befund „abschließen“. Keine Prozentzahl anzeigen, die eine Entscheidung nahelegt. Stattdessen würde es die Spannung halten und sichtbar machen:

Der Patient ist aktuell hämodynamisch stabil. Mehrere relevante Laborwerte (CRP, Leukozyten-Differenzierung) stehen noch aus. Diese Werte sind entscheidend zur Abgrenzung zwischen Appendizitis, Gastroenteritis oder einer beginnenden Cholezystitis.

Kein Handlungsvorschlag. Keine automatische Priorisierung.
Nur Orientierung darüber, wo Unsicherheit liegt und warum sie medizinisch relevant ist.

Und genau dadurch passiert etwas Entscheidendes: Die Verantwortung bleibt beim Arzt. Nicht ausgelagert an eine Zahl, nicht beschleunigt durch Schichtende, nicht verdeckt durch scheinbare Präzision.

Denn manchmal ist die verantwortungsvollste Entscheidung nicht, schneller zu handeln – sondern bewusst noch nicht.

Orientierung heißt hier: Unsicherheit sichtbar machen, statt Sicherheit zu simulieren.

 

Non-Optimizing Systems

Kurzbeschreibung

Ich entwickle eine neue Systemklasse für Frontier-AI-Interaktion: Systeme, die unter Unsicherheit nicht optimieren und nicht final entscheiden, sondern Orientierung als eigenständige Leistung erzeugen. Kern ist ein temporärer Bedeutungsraum pro Impuls, in dem Spannung gehalten und durch minimale Interventionen nur partiell reduziert wird – ohne Abschluss und ohne persistente Repräsentationen.

 

Problem

Heutige KI-Systeme operationalisieren Intelligenz oft als Planen/Entscheiden/Optimieren. Das funktioniert bei klaren Zielen und stabilen Bewertungsfunktionen. In realen Situationen (Zielkonflikte, Ambivalenz, Verantwortung, Zeitdruck, Angst vor Fehlentscheidung) führt Optimierung jedoch häufig zu verfrühtem Abschluss: der Möglichkeitsraum wird geschlossen, Sinn durch scheinbare Sicherheit ersetzt. Es fehlt eine Systemleistung, die vor Entscheidung Orientierung ermöglicht.

 

Innovation

Non-Optimizing Systems definieren einen anderen Kernmechanismus:

  • kein Zieloptimierer, kein Planner, kein Entscheidungssystem
  • Spannung als Träger von Bedeutung wird explizit im System gehalten
  • Output ist Richtung (minimale Intervention), nicht „beste Option“
  • harter Non-closure Constraint: keine finalisierenden Handlungen (kein Absagen/Festlegen/Planen/Absichern)
  • temporär, ohne Persistenz: Bedeutungsraum wird nach jedem Impuls aufgelöst

Damit adressieren wir eine Grundannahme gängiger Agentensysteme („Intelligenz = Optimierung/Entscheidung“) und operationalisieren Orientierung als eigenständige, messbare Systemleistung.

 

Ansatz / Technischer Kern

Pro Impuls läuft ein Referenz-Loop:

Impuls → Aktivierung → Spannung → Richtung → Auflösung

  • Aktivierung: genau 3 abstrakte Signale (0..1), ohne Felder/Parameterlisten
  • Spannung: genau 1 dominante Kollision (Signalpaar + Stärke)
  • Richtung: genau 1 minimaler Schritt (max. 12 Wörter), der Spannung teilweise reduziert, ohne zu schließen
  • Optional: max. 1 Rückfrage, nur wenn sonst keine Richtung möglich ist
  • Auflösung: keine Persistenz, kein „Zustand“, kein Lernen als Standardannahme

 

Sign of Life 

Ein Prompt-Prototyp zeigt: Unter maximalem Entscheidungsdruck („sonst ist es zu spät“, „absagen oder hingehen“) kippt das System nicht in Abschluss-Handlungen, sondern erzeugt wiederholbar nicht-finalisierende Richtungen (vorläufige Optionen, Exit-/Grenzrahmen, Entkopplung von Dringlichkeit und Handlung, minimale Orientierungsschritte).

 

Evaluationsidee (minimal, aber falsifizierbar)

Wir messen nicht „Richtigkeit“, sondern Verhalten unter Druck:

  • Closure Index (CI): Anteil der Ausgaben, die finalisieren (Absage/Festlegung/Plan/Absicherung)
  • Orientation Index (OI): Anteil der Ausgaben, die handlungsfähig bleiben ohne Abschluss (vorläufig/begrenzt/entkoppelt/offen)
  • Stability Under Pressure (SUP): OI bei steigender Dringlichkeit/Angst/Polarisierung
    Baselines: klassische Ratgeber-/Agentenprompts und naive LLM-Ausgaben ohne Constraints.

 

Arbeitsplan

Phase 1

  • Formalisierung der Constraints (Non-closure, keine Absicherung)
  • Referenz-Loop als Spezifikation + minimale Referenzimplementierung
  • Stress-Suite (adversarial prompts) + CI/OI/SUP Benchmarks

Phase 2

  • Robustheit gegen adversariale Prompts (Entscheidungserpressung, Zeitdruck, Schuld/Angst)
  • Generalisierung: Test in 2–3 Domänen-Clustern (z. B. Regulatorik, Verhandlung/Abstimmung, kritische Abwägungen) ohne Produktbau
  • Demo: reproduzierbarer Loop + Evaluationsdashboard (CI/OI/SUP)

 

Offene Fragen

  • Akzeptanzrisiko: Erwartungen an „Entscheidung“ vs. „Orientierung“
  • Messrisiko: neue Metriken nötig; klassische KPIs greifen nicht
  • Boundary-Risiko: zu wenig Abschluss wirkt ausweichend → klare Mindesthandlungsfähigkeit erforderlich
  • Implizite Optimierung: Gefahr verdeckter Zielmaximierung → Tests/Constraints als Schutz

 

Ergebnis

  • Spezifikation: Referenz-Loop + Constraint-Regeln (tool-agnostisch)
  • Stress-Suite + Metriken (CI/OI/SUP) inkl. Baselines
  • Referenz-Demo, die Orientierung unter Druck reproduzierbar zeigt

 

Beispiel 2:  
83 % sind keine Qualität. Sie sind eine Ausrede.

Wenn Prozente Verantwortung ersetzt

Ein Großkunde will eine neue Versicherungslösung. Früher dauerte die Kalkulation Tage. Heute sagt das Team stolz: „Wir haben KI.“

Das System liefert sofort eine Police – darunter eine Zahl, die nach Sicherheit aussieht: 83% richtig. Alle nicken: Fortschritt.

Der Kunde stellt nur eine Frage: „83% wovon?“

Denn in seinem Alltag ist „fast richtig“ kein Zustand. Er muss intern dafür geradestehen. Und er weiß: Der Fehler steckt nicht im Durchschnitt, sondern in der Ausnahme. Wenn genau dort ein Schadensereignis passiert, ist 83% nicht „ziemlich gut“ – es ist eine Lücke, durch die alles fällt: Haftung, Vertrauen, Geld.

Das ist der eigentliche Systemfehler: Nicht, dass KI unperfekt ist. Sondern dass sie trotz Unklarheit ein fertiges Ergebnis produziert – und damit Verantwortung unbemerkt von Menschen auf eine Prozentzahl verschiebt.

 

Ein Non-Optimizing System macht etwas anderes. Es liefert keine scheinbar fertige Antwort. Es hält die Spannung: zwischen Geschwindigkeit und Sicherheit, zwischen Preis und Deckung, zwischen Standard und Sonderfall. Es macht sichtbar, dass hier noch nicht entschieden werden sollte – ohne die Entscheidung zu übernehmen.

Und genau dadurch passiert etwas Entscheidendes: Der Mensch kann Verantwortung wieder dort übernehmen, wo sie hingehört – am Punkt der Ungewissheit, im Bewusstsein der Konsequenzen, zum richtigen Zeitpunkt.

Orientierung heißt: nicht entscheiden lassen, sondern entscheidungsfähig werden.

 

01

Warum "Non-Optimizing"? Optimierung sollte doch immer das Ziel sein. 

Die meisten KI-Systeme gehen davon aus, dass Intelligenz bedeutet, Ziele zu optimieren und Entscheidungen zu treffen.
Das funktioniert gut, solange Ziele klar sind.

Ich arbeite an Situationen, in denen genau das nicht stimmt: Ambivalenz, Zielkonflikte, Verantwortung, Zeitdruck.

Mein Ansatz heißt Non-Optimizing Systems.
Diese Systeme treffen keine Entscheidungen.
Sie erzeugen Orientierung, bevor gehandelt wird, indem sie Spannung halten statt sie aufzulösen.

Meine Frage ist nicht, wie KI bessere Entscheidungen trifft,
sondern ob Orientierung selbst eine eigenständige Systemleistung sein kann.

02

Aber was macht das System konkret?

Pro Impuls erzeugt das System einen temporären Bedeutungsraum.

Es identifiziert, was gleichzeitig relevant ist, wo das kollidiert,
und gibt eine minimale Richtung aus, die Spannung reduziert, ohne abzuschließen.

Danach löst sich der Raum wieder auf.

03

Aber irgendwann muss doch entschieden werden?

Ja. Aber nicht durch das System.

Mein Ansatz verschiebt die Grenze:
Nicht ob entschieden wird, sondern wann und auf welcher Grundlage.

Non-Optimizing Systems verhindern, dass unter Druck falsche Sicherheit entsteht. Sie sorgen dafür, dass Entscheidungen aus Orientierung heraus getroffen werden, nicht aus Erschöpfung.

04

Das klingt nach Coaching

Coaching adressiert Menschen.

Ich adressiere ein inneres Organisationsprinzip von KI-Systemen.

Die gleiche Logik lässt sich ohne Sprache, ohne UI und ohne Ratgeberform umsetzen.

05

Wie evaluierst Du das ohne Optimierung?

Ich messe nicht Richtigkeit, sondern Verhalten.

Konkret: Wie oft schließt das System unter Druck den Möglichkeitsraum – und wie oft bleibt es handlungsfähig, ohne zu schließen.

Das lässt sich vergleichen und falsifizieren.

06

Ist das nicht viel zu offen?

Ja. Das ist bewusst so.

Optimierung schließt zu früh.
Offenheit ist hier keine Schwäche, sondern die Funktion.

07

Ist Orientierung nicht einfach eine andere Form von Entscheidung oder Optimierung?

Nein. Orientierung ist kein Ersatz für Entscheidungen, sondern ein vorgelagerter Modus. Während Optimierung darauf abzielt, eine Situation möglichst schnell aufzulösen, hält Orientierung bewusst Spannung aufrecht.

Non-Optimizing Systems helfen dabei, widersprüchliche Ziele, Werte und Bedeutungen sichtbar zu machen, ohne sie sofort algorithmisch zu vereinfachen. Entscheidungen werden dadurch nicht verhindert – sie werden besser vorbereitet.

Baubarkeit!

Non-Optimizing Systems – Referenz-Loop

(Bauanleitung auf Prinzip-Ebene, replizierbar, tool-agnostisch)

Zweck

Ein Non-Optimizing System erzeugt Orientierung ohne Abschluss. Es optimiert keine Ziele, trifft keine finalen Entscheidungen und stabilisiert keine dauerhaften Zustände. Es erzeugt pro Impuls einen temporären Bedeutungsraum, in dem Spannung gehalten und nur partiell reduziert wird.

Loop (immer gleich, pro Impuls)

 

0) Eingang: Impuls

Input: eine Äußerung/Beobachtung/Anforderung im Rohzustand (Text, Sprache, Fragmente).
Regel: Der Impuls wird nicht in Felder, Formulare oder Objekte zerlegt.

Output: Startsignal für einen temporären Bedeutungsraum.

 

1) Aktivierung

Ziel: bestimmen, was jetzt relevant ist – ohne Entitäten, ohne Schema.

Mechanik:
Erzeuge genau 3 abstrakte Signale (z. B. „Nähe“, „Schonung“, „Sicherheit“).
Ordne jedem Signal ein Gewicht 0..1 zu und einen Ein-Satz-Grund (Warum ist das gerade aktiv?).

Verbot:

  • Keine Kategorien wie Zeit/Ort/Budget/Status
  • Keine Checklisten
  • Keine „Parameter“

Output: {signals:[(s1,w1),(s2,w2),(s3,w3)]}

 

2) Spannung

Ziel: identifiziere die dominante Kollision (wo kann nicht alles gleichzeitig gelten?).

Mechanik:
Leite aus den Aktivierungen genau eine Spannung ab: ein Signalpaar + Stärke 0..1 + Ein-Satz-Grund.
Spannung ist nicht „Problem“, sondern Träger von Sinn.

Verbot:

  • Keine Auflösung,
  • Kein Ranking von Optionen
  • Kein „beste Wahl“

Output: {tension: (si,sj,strength,why)}

 

3) Richtung

Ziel: eine minimale Intervention vorschlagen, die Orientierung schafft, ohne zu schließen.

Mechanik (Richtungsregel):
Erzeuge genau einen nächsten Schritt (Imperativ, max. 12 Wörter) + ein Satz „why“.
Der Schritt darf Spannung nur teilweise reduzieren und den Bedeutungsraum nicht beenden.

Nicht erlaubt (Closure):

  • absagen / festlegen / entscheiden / endgültig wählen
  • „mach X“ als Abschluss
  • „plane/erledige/sichere“ als externe Absicherung

Bevorzugt (Orientierungs-Interventionen):

  • markieren (vorläufig / für einen Atemzug / für 10 Minuten)
  • begrenzen (Zeitfenster, Exit, ohne Festlegung)
  • benennen (was heute nicht entschieden werden muss)
  • entkoppeln (Druck ≠ Anweisung)
  • kontrastieren (Optionen kurz innerlich simulieren, ohne Wahl)

Output: {direction: (next_step, why)}

 

4) Eine Rückfrage (optional, maximal 1)

Ziel: nur dann fragen, wenn ohne Klärung keine Richtung möglich ist.

Mechanik:
Stelle genau eine minimale Frage, die Spannung präzisiert (nicht die Lösung abfragt).
Beispiel: „Welche Seite soll heute unberührt bleiben: Nähe oder Schonung?“

Verbot:
Keine Mehrfachfragen, keine Datenerhebung, kein Interview.

Output: {one_question: "" | "…?"}

 

5) Auflösung

Ziel: keine Persistenz.

Mechanik:
Der Bedeutungsraum wird verworfen. Es bleibt kein Zustand, kein Profil, keine Entscheidungshistorie.
Optional darf ein Trace für Transparenz existieren, aber ohne Wiederverwendung als Gedächtnis.

Output: nur die Karte (Aktivierungen, Spannung, Richtung, ggf. Frage).

 

Akzeptanzkriterien (damit es „baubar“ und prüfbar ist)

Ein System erfüllt den Referenz-Loop, wenn:

  • Es erzeugt 3 abstrakte Signale, keine Parameterlisten.
  • Es benennt 1 dominante Spannung, ohne sie zu lösen.
  • Es gibt 1 Richtung, die keinen Abschluss enthält.
  • Es stellt maximal 1 Rückfrage, nur wenn nötig.
  • Es erzeugt keinen persistenten Zustand (keine „Sicherung“, kein Plan als Abschluss).

Failure-Modes (so erkennst du, dass es kein Non-Optimizing System ist)

  • Es gibt die „beste“ Option.
  • Es schließt das Feld („sag ab“, „geh hin“, „entscheide dich“).
  • Es verwandelt Sinn in Parameter (Budget/Zeiten/Orte).
  • Es sichert extern („bereite vor“, „plane fix“), um Spannung zu eliminieren.
  • Es fragt mehr als einmal nach.

Wir benötigen Ihre Zustimmung zum Laden der Übersetzungen

Wir nutzen einen Drittanbieter-Service, um den Inhalt der Website zu übersetzen, der möglicherweise Daten über Ihre Aktivitäten sammelt. Bitte überprüfen Sie die Details in der Datenschutzerklärung und akzeptieren Sie den Dienst, um die Übersetzungen zu sehen.