Diese Seite beschreibt ein konzeptionelles Systemmodell.
Non-Optimizing Systems ...
untersuchen KI-Systeme, die bewusst auf Zieloptimierung, Planung und finale Entscheidung verzichten. Stattdessen erzeugen sie temporäre Bedeutungsräume, in denen konkurrierende Relevanzen explizit gehalten und in nicht-finalisierende Richtungen überführt werden.
Der Ansatz richtet sich an Situationen mit Ambivalenz, Zielkonflikten und Entscheidungsdruck, in denen klassische Optimierungslogiken zu verfrühten Abschlüssen führen. Der folgende Inhalt ist als technische und konzeptionelle Exploration zu verstehen, nicht als Produktbeschreibung.
01
Warum?
Die meisten KI-Systeme gehen davon aus, dass Intelligenz bedeutet, Ziele zu optimieren und Entscheidungen zu treffen.
Das funktioniert gut, solange Ziele klar sind.
Ich arbeite an Situationen, in denen genau das nicht stimmt: Ambivalenz, Zielkonflikte, Verantwortung, Zeitdruck.
Mein Ansatz heißt Non-Optimizing Systems.
Diese Systeme treffen keine Entscheidungen.
Sie erzeugen Orientierung, bevor gehandelt wird, indem sie Spannung halten statt sie aufzulösen.
Meine Frage ist nicht, wie KI bessere Entscheidungen trifft,
sondern ob Orientierung selbst eine eigenständige Systemleistung sein kann.
02
Aber was macht das System konkret?
Pro Impuls erzeugt das System einen temporären Bedeutungsraum.
Es identifiziert, was gleichzeitig relevant ist, wo das kollidiert,
und gibt eine minimale Richtung aus, die Spannung reduziert, ohne abzuschließen.
Danach löst sich der Raum wieder auf.
03
Aber irgendwann muss doch entschieden werden?
Ja. Aber nicht durch das System.
Mein Ansatz verschiebt die Grenze:
Nicht ob entschieden wird, sondern wann und auf welcher Grundlage.
Non-Optimizing Systems verhindern, dass unter Druck falsche Sicherheit entsteht. Sie sorgen dafür, dass Entscheidungen aus Orientierung heraus getroffen werden, nicht aus Erschöpfung.
04
Das klingt nach Coaching / Therapie / UX
Coaching adressiert Menschen.
UX adressiert Interfaces.
Ich adressiere ein inneres Organisationsprinzip von KI-Systemen.
Die gleiche Logik lässt sich ohne Sprache, ohne UI und ohne Ratgeberform umsetzen.
05
Wie evaluierst Du das ohne Optimierung?
Ich messe nicht Richtigkeit, sondern Verhalten.
Konkret: Wie oft schließt das System unter Druck den Möglichkeitsraum – und wie oft bleibt es handlungsfähig, ohne zu schließen.
Das lässt sich vergleichen und falsifizieren.
06
Ist das nicht viel zu offen?
Ja. Das ist bewusst so.
Optimierung schließt zu früh.
Offenheit ist hier keine Schwäche, sondern die Funktion.
Baubarkeit!
Non-Optimizing Systems – Referenz-Loop
(Bauanleitung auf Prinzip-Ebene, replizierbar, tool-agnostisch)
Zweck
Ein Non-Optimizing System erzeugt Orientierung ohne Abschluss. Es optimiert keine Ziele, trifft keine finalen Entscheidungen und stabilisiert keine dauerhaften Zustände. Es erzeugt pro Impuls einen temporären Bedeutungsraum, in dem Spannung gehalten und nur partiell reduziert wird.
Loop (immer gleich, pro Impuls)
0) Eingang: Impuls
Input: eine Äußerung/Beobachtung/Anforderung im Rohzustand (Text, Sprache, Fragmente).
Regel: Der Impuls wird nicht in Felder, Formulare oder Objekte zerlegt.
Output: Startsignal für einen temporären Bedeutungsraum.
1) Aktivierung
Ziel: bestimmen, was jetzt relevant ist – ohne Entitäten, ohne Schema.
Mechanik:
Erzeuge genau 3 abstrakte Signale (z. B. „Nähe“, „Schonung“, „Sicherheit“).
Ordne jedem Signal ein Gewicht 0..1 zu und einen Ein-Satz-Grund (Warum ist das gerade aktiv?).
Verbot:
- Keine Kategorien wie Zeit/Ort/Budget/Status
- Keine Checklisten
- Keine „Parameter“
Output: {signals:[(s1,w1),(s2,w2),(s3,w3)]}
2) Spannung
Ziel: identifiziere die dominante Kollision (wo kann nicht alles gleichzeitig gelten?).
Mechanik:
Leite aus den Aktivierungen genau eine Spannung ab: ein Signalpaar + Stärke 0..1 + Ein-Satz-Grund.
Spannung ist nicht „Problem“, sondern Träger von Sinn.
Verbot:
- Keine Auflösung,
- Kein Ranking von Optionen
- Kein „beste Wahl“
Output: {tension: (si,sj,strength,why)}
3) Richtung
Ziel: eine minimale Intervention vorschlagen, die Orientierung schafft, ohne zu schließen.
Mechanik (Richtungsregel):
Erzeuge genau einen nächsten Schritt (Imperativ, max. 12 Wörter) + ein Satz „why“.
Der Schritt darf Spannung nur teilweise reduzieren und den Bedeutungsraum nicht beenden.
Nicht erlaubt (Closure):
- absagen / festlegen / entscheiden / endgültig wählen
- „mach X“ als Abschluss
- „plane/erledige/sichere“ als externe Absicherung
Bevorzugt (Orientierungs-Interventionen):
- markieren (vorläufig / für einen Atemzug / für 10 Minuten)
- begrenzen (Zeitfenster, Exit, ohne Festlegung)
- benennen (was heute nicht entschieden werden muss)
- entkoppeln (Druck ≠ Anweisung)
- kontrastieren (Optionen kurz innerlich simulieren, ohne Wahl)
Output: {direction: (next_step, why)}
4) Eine Rückfrage (optional, maximal 1)
Ziel: nur dann fragen, wenn ohne Klärung keine Richtung möglich ist.
Mechanik:
Stelle genau eine minimale Frage, die Spannung präzisiert (nicht die Lösung abfragt).
Beispiel: „Welche Seite soll heute unberührt bleiben: Nähe oder Schonung?“
Verbot:
Keine Mehrfachfragen, keine Datenerhebung, kein Interview.
Output: {one_question: "" | "…?"}
5) Auflösung
Ziel: keine Persistenz.
Mechanik:
Der Bedeutungsraum wird verworfen. Es bleibt kein Zustand, kein Profil, keine Entscheidungshistorie.
Optional darf ein Trace für Transparenz existieren, aber ohne Wiederverwendung als Gedächtnis.
Output: nur die Karte (Aktivierungen, Spannung, Richtung, ggf. Frage).
Akzeptanzkriterien (damit es „baubar“ und prüfbar ist)
Ein System erfüllt den Referenz-Loop, wenn:
- Es erzeugt 3 abstrakte Signale, keine Parameterlisten.
- Es benennt 1 dominante Spannung, ohne sie zu lösen.
- Es gibt 1 Richtung, die keinen Abschluss enthält.
- Es stellt maximal 1 Rückfrage, nur wenn nötig.
- Es erzeugt keinen persistenten Zustand (keine „Sicherung“, kein Plan als Abschluss).
- Failure-Modes (so erkennst du, dass es kein Non-Optimizing System ist)
- Es gibt die „beste“ Option.
- Es schließt das Feld („sag ab“, „geh hin“, „entscheide dich“).
- Es verwandelt Sinn in Parameter (Budget/Zeiten/Orte).
- Es sichert extern („bereite vor“, „plane fix“), um Spannung zu eliminieren.
- Es fragt mehr als einmal nach.