Befund: Weder NIST AI RMF noch ISO/IEC 42001 fordert formale Re-Autorisierung für fortgesetzte Ausführung
Formale Analyse ob NIST AI RMF 1.0 und ISO/IEC 42001:2023 explizit fordern, dass der fortgesetzte Betrieb eines eingesetzten KI-Systems neu autorisiert werden muss, wenn sich die Bedingungen ändern. Befund: Kein Standard definiert einen Mandatskontinuität-Kontrollmechanismus, einen formalen Re-Autorisierungsprozess oder eine "Ausführung stoppen"-Pflicht auf Basis von Mandatsverlust. Der Begriff "Autorisierung" erscheint nicht im NIST AI RMF Core. ISO/IEC 42001 hat keine explizite Stopp-Pflicht im Anforderungstext. Dies ist eine dokumentierte, textverifizierbare Lücke.
Problem: Systeme operieren nachdem Mandatsannahmen abgelaufen sind
Compliance-Dashboards bleiben grün, während die Mandatsausrichtung still erodiert. DASR ist ein strukturiertes 30-Tage-Auditprotokoll, das die Divergenz zwischen dem autorisierten Mandat eines KI-Systems und seinem aktuellen operativen Zustand misst — bevor die Lücke zu einem Governance-Vorfall wird.
Problem: Keine formale Struktur ob eine Entscheidung noch ausgeführt werden darf
Bestehende Frameworks prüfen ob Entscheidungen korrekt getroffen wurden. DCF adressiert eine andere Frage: Ist diese Entscheidung noch legitim autorisiert, jetzt ausgeführt zu werden? Definiert drei Closure-Bedingungen — Authority Closure, Assumption Closure, Evidence Closure — die kontinuierlich gelten müssen, nicht nur zum Genehmigungszeitpunkt.
Problem: Kein Standard zur Bewertung von KI-Fähigkeit und Compliance unter Drift
KI-Governance-Assessments fehlt ein einheitliches Framework zur Messung von Fähigkeit und Compliance unter sich verändernden Systembedingungen. GCCL bietet ein strukturiertes Bewertungsframework mit Drift-Erkennung, Autonomiestufen und bezeugbarer Zertifizierung. Auf Zenodo veröffentlicht — DOI: 10.5281/zenodo.18362037.
Problem: Semantische Veränderung in KI-Systemen hat kein formales Governance-Objekt
KI-Systeme können statistisch stabil bleiben während sich ihre internen Bedeutungsstrukturen in einer Weise verschieben, die die Entscheidungsidentität betrifft. Dieses Paper etabliert SSE als das wissenschaftliche Feld, das interne semantische Zustände, Drift-Trajektorien und Bedeutungsevolution formal beobachtbar macht.
Problem: Zertifizierung und Korrektheit garantieren keine Entscheidungsidentität
Ein System kann alle Zertifizierungsprüfungen bestehen und Verhaltenskorrektheit aufrechterhalten, während seine Entscheidungsidentität bereits gedriftet ist. Dieses Paper liefert die formale Trennung und zeigt warum Zertifizierung allein für Governance unzureichend ist.
Kategorie-Anker: Semantic Stability Engineering als eigenständige Disziplin
Grundlegender Anspruch und zeitgestempelter Kategorie-Anker für Semantic Stability Engineering. Etabliert SSE als unabhängig von statistischem Konzept-Drift, Alignment-Forschung und Interpretability-Tooling.