
Human-in-the-loop: ein praxisnahes KI-Steuerungsmodell für Finanzverantwortliche

Von
Felix Grevy
SVP Platform, Data & AIVincent Siccardi
Director Product Management, Data, and AnalyticsShare
Was wäre, wenn das größte Risiko bei der KI-Einführung nicht die Technologie selbst ist? Sondern die Tatsache, dass wir KI wie ein Werkzeug behandeln – und nicht wie ein Teammitglied.
Bereits 92 % der CFOs nutzen KI in ihren Finanzprozessen. Die Frage ist längst nicht mehr, ob KI eingeführt werden soll, sondern wie sie effektiv integriert werden kann. Kein Finanzverantwortlicher würde ein neues Teammitglied ohne klare Rollen, Verantwortlichkeiten und Aufsicht einarbeiten – dennoch wird KI häufig ohne diese entscheidenden Elemente implementiert.
KI entfaltet ihren Wert, wenn sie wie ein qualifizierter Mitarbeiter geführt wird: als Teil eines Teams mit klar definierten Zuständigkeiten und angemessener Kontrolle. Ein Human-in-the-loop-Ansatz (HITL) bietet Finanzteams eine praxisnahe Methode, um zu entscheiden, was automatisiert, was unterstützt und wann eine Entscheidung erfahrenen Fachkräften vorbehalten werden sollte.
Was Human-in-the-loop für Finance bedeutet
Human-in-the-loop liefert einen klaren Rahmen, um die KI-Einführung mit den zentralen Anforderungen des Treasury in Einklang zu bringen: Cash Visibility, Liquiditätsrisiko, Zahlungskontrolle, Compliance und strategische Entscheidungsfindung. Anstatt zu fragen „Wo können wir KI einsetzen?", stellt dieser Ansatz die entscheidende Frage: Welches Maß an menschlicher Beteiligung erfordert jeder Prozess, um schnell, sicher und nachvollziehbar zu sein?
Um diese Frage zu beantworten, müssen Teams Prozesse anhand zweier kritischer Dimensionen bewerten:
Häufigkeit: Wie oft läuft der Prozess: täglich, wöchentlich, monatlich oder ad hoc?
Strategische Bedeutung: Welche Auswirkungen hat ein Prozessfehler auf Liquidität, Risiko, Compliance, Reputation oder strategische Entscheidungen?
Die Bewertung der KI-Implementierung anhand dieser Dimensionen verlagert die Diskussion von technologischem Experimentieren hin zu strategischer Prozessgestaltung. Die Frage lautet nicht mehr „Können wir das tun?", sondern „Sollten wir das tun, und wenn ja, wie?" So können Führungskräfte KI dort einsetzen, wo die Technologie echten Mehrwert schafft – während der Mensch dort die Verantwortung behält, wo Rechenschaftspflicht und Geschäftsurteil unverzichtbar sind.
Eine Intelligenz der Nachahmung, nicht der Schöpfung
Entgegen der weit verbreiteten Annahme „erfindet" KI nicht im menschlichen Sinne. Generative KI erzeugt Ergebnisse, indem sie Muster aus riesigen Datensätzen erlernt. Diese Datensätze werden letztlich durch menschliches Handeln und Geschäftssysteme erstellt, ausgewählt und klassifiziert. Genau diese Abhängigkeit von menschlich generierten Daten ist der Grund, warum KI im Finanzbereich nicht als eigenständiger Akteur behandelt werden kann.
Wenn KI-Systeme zunehmend auf Inhalten trainieren, die von anderen KI-Systemen erzeugt wurden – anstatt auf fundierten, realitätsnahen Geschäftsdaten –, kann die Leistung im Laufe der Zeit nachlassen. Einige Forscher bezeichnen dieses Phänomen als „Habsburg-Effekt", eine Metapher für die Risiken der „Inzucht" innerhalb eines geschlossenen Systems.
Wenn ein Modell sich von seinen eigenen Ergebnissen ernährt, kann es abdriften, Verzerrungen verstärken und allmählich den Bezug zur Realität verlieren. Im Treasury könnte das bedeuten: KI-generierte Prognosen, die statistisch valide erscheinen, aber die operativen Treiber übersehen, die Ihr Team als relevant kennt. Die Lehre ist klar: KI kann nicht eigenständig funktionieren. KI benötigt ein menschliches Umfeld, angemessene Aufsicht und eine solide Geschäftsgrundlage.
In finanziellen Begriffen ist das KI-Risiko nicht abstrakt. Selbstsicher klingende Prognosen können sich von der operativen Realität entfernen, Anomalieerkennung kann beginnen, „die falsche Normalität zu lernen", und Berichtsnarrative können auf generische, wenig hilfreiche Erklärungen zulaufen. Die Lösung besteht nicht darin, KI zu vermeiden (auch wenn einige Teams dazu neigen könnten). Die Einbettung von KI in eine Teamdynamik mit Aufsicht, Feedback und solider Geschäftsgrundlage schafft nachhaltigen Wert.
Machine Learning vs. Generative KI: Die zwei Motoren der KI im Finanzbereich verstehen
Finanzteams arbeiten heute mit zwei unterschiedlichen KI-Kategorien, und deren Verwechslung führt zu falschen Erwartungen. Machine Learning (ML) und generative KI sind unterschiedlich aufgebaut, werden unterschiedlich trainiert und eignen sich für völlig verschiedene Aufgaben. Das Verständnis dieser Unterscheidung hilft Finanzverantwortlichen, das richtige Tool zu wählen und die richtigen Governance-Erwartungen für jedes zu setzen.
Machine-Learning-Modelle werden auf strukturierten, numerischen Daten trainiert, um Muster zu erkennen und Vorhersagen zu treffen. Ein Betrugserkennungsmodell lernt beispielsweise aus Tausenden historischer Transaktionen, um neue nach Risiko zu bewerten. Ein Cash-Forecasting-Modell lernt die Zusammenhänge zwischen vergangenen Cashflows, Saisonalität und Geschäftstreibern, um zukünftige Bestände zu prognostizieren. Diese Modelle sind präzise, nachprüfbar und zuverlässig innerhalb der engen Domäne, für die sie entwickelt wurden. Ihre Ergebnisse sind deterministisch: Bei gleichen Eingaben liefern sie die gleichen Ergebnisse. Für den Finanzbereich ist diese Vorhersagbarkeit eine Stärke. ML-basierte Systeme glänzen bei Anomalieerkennung, Abgleich, Budgetcode-Zuordnung und strukturiertem Forecasting.
Generative KI-Modelle funktionieren nach einem grundlegend anderen Prinzip. Tools wie GPT von OpenAI werden auf riesigen Textmengen trainiert, um Sprache zu verstehen und zu generieren. Anstatt eine Zahl vorherzusagen, prognostizieren sie das nächste wahrscheinlichste Wort oder Token im gegebenen Kontext. Dieser Ansatz macht Large Language Models (LLMs) außergewöhnlich leistungsfähig für Aufgaben, die Sprachkompetenz erfordern: Zusammenfassung eines Liquiditätsberichts, Entwurf eines Board-Kommentars, Beantwortung einer Frage zu Covenants (Finanzauflagen) oder Erklärung, warum eine Cash-Abweichung aufgetreten ist. Im Gegensatz zu ML-Modellen sind LLMs generativ und probabilistisch, was bedeutet, dass derselbe Prompt leicht unterschiedliche Antworten erzeugen kann. Ihr Wert liegt nicht in numerischer Präzision, sondern in der Fähigkeit, Daten in Bedeutung zu übersetzen, unstrukturierte Informationen zu synthetisieren und menschliche Workflows zu beschleunigen, die auf Kommunikation und Interpretation basieren.
Die wirkungsvollsten KI-Implementierungen im Finanzbereich kombinieren beide. ML-Modelle generieren die Zahlen; LLMs übersetzen diese Zahlen in handlungsrelevante Narrative. Ein Cash-Forecasting-Workflow könnte beispielsweise ML verwenden, um die Prognose zu berechnen und die wichtigsten Treiber aufzuzeigen, und dann ein LLM nutzen, um den Management-Kommentar im angemessenen Ton und Format für die Führungsebene zu entwerfen. Kein Modell ersetzt das andere, und keines ersetzt den Finanzexperten, der das Ergebnis validiert und die Entscheidung verantwortet.
Die vier Betriebsmodi für KI im Finanzbereich
Zu verstehen, welche Art von KI in jedem Prozess zum Einsatz kommt, ist grundlegend für die Anwendung des richtigen Maßes an menschlicher Aufsicht. Hier kommen die vier Betriebsmodi ins Spiel.
Wie jeder Finanzexperte entfaltet auch KI ihre Stärken nur als Teil eines Teams. Sobald Häufigkeit und strategische Bedeutung bewertet sind, lassen sich die meisten Finanzprozesse natürlich einem von vier Betriebsmodi zuordnen. Die Modi geben Teams eine gemeinsame Sprache zur Definition von Rollen, Verantwortlichkeiten und Kontrollen.
Menschengeführt (volle Kontrolle): Menschen führen aus und entscheiden. KI kann Informationen bereitstellen (Zusammenfassungen, Suchergebnisse, Vergleiche), generiert aber nicht das finale Ergebnis. Dieser Modus eignet sich am besten für hochstrategische Entscheidungen, neuartige Situationen und alle Aufgaben, bei denen Kontext und Verantwortung nicht delegiert werden können. Beispiele sind M&A-Finanzierungsstrategien oder die Verhandlung neuer Kreditlinien.
Menschengeführt mit KI-Unterstützung: KI erstellt Entwürfe, gibt Empfehlungen, hebt Treiber hervor oder markiert Inkonsistenzen. Menschen validieren, passen an und genehmigen das finale Ergebnis. Dieser Modus ist oft der effektivste Einstiegspunkt für Finanzteams, da er die Geschwindigkeit erhöht, ohne Freigabe oder Verantwortlichkeit zu kompromittieren. Stellen Sie sich das wie einen hochqualifizierten Analysten vor, der den ersten Entwurf vorbereitet.
KI-ausgeführt unter menschlicher Aufsicht: KI führt den Workflow aus und erzeugt Ergebnisse, während Menschen die Ergebnisse durch Schwellenwerte, Ausnahmebehandlung und Review-Warteschlangen überwachen. Nicht alles wird geprüft; geprüft wird, was relevant ist. Der Fokus verlagert sich von manueller Ausführung zu Oversight und Qualitätskontrolle.
KI-autonom, aber vollständig nachprüfbar: KI führt End-to-End innerhalb strikter Leitplanken und umfassender Protokollierung aus. „Autonom" bedeutet hier niemals „unsichtbar". Es bedeutet, dass der Prozess stabil und kontrolliert genug ist, um ohne ständige menschliche Aufmerksamkeit zu laufen – während gleichzeitig eine vollständige, transparente Spur von Eingaben, Ausgaben und Entscheidungen für Audit und kontinuierliche Verbesserung hinterlassen wird.
Ein häufiger Fehler ist es, alle Prozesse zu schnell als Modus 4 (autonom) zu behandeln. Wenn Zahlungsfreigaben ohne Ausnahmebehandlung laufen, kann ein einziger Sonderfall nachgelagerte Probleme erzeugen, deren Behebung Wochen dauert. Geschwindigkeit ohne Leitplanken schafft Haftungsrisiken, keine Effizienz.
Für CFOs und Finanzverantwortliche ist die zentrale Botschaft klar: Das Ziel ist nicht Automatisierung um ihrer selbst willen. Das wahre Ziel ist wiederholbare Performance innerhalb eines Kontrollumfelds, das intern wie extern vertretbar ist. Ohne Klarheit über Verantwortlichkeiten, Kontrollpunkte und Nachweise erzeugen Teams entweder Ergebnisse, die schnell, aber schwer zu vertrauen sind – oder Ergebnisse, die vertrauenswürdig, aber zu langsam für Skalierung sind.
Treasury-Anwendungsszenarien: Was Erfolg bedeutet
Der Erfolg von Human-in-the-loop zeigt sich am besten in der Praxis. Die folgenden Beispiele verdeutlichen, wie die richtigen Betriebsmodi und KI-Governance Geschwindigkeit, Genauigkeit und Verantwortlichkeit fördern.
Cash Forecasting (menschengeführt mit KI-Unterstützung): KI-gestütztes Cash Forecasting kann Prognoseanpassungen vorschlagen und Treiber aufzeigen: Veränderungen im Zahlungseingang, Gehaltsabrechnungsspitzen oder ungewöhnliche Abweichungen. Das Treasury-Team prüft, was wesentlich ist, validiert Annahmen mit Geschäftskontext und verantwortet das Narrativ für die Führungsebene. In der Praxis sehen viele Teams kumulative Effekte: Jeder Zyklus wird schneller, weil das Team von einem besseren ersten Entwurf ausgeht und sich auf das konzentriert, was sich tatsächlich geändert hat.
Zahlungen und Anomalieerkennung (KI-ausgeführt unter menschlicher Aufsicht): KI kann Zahlungsverhalten überwachen und Anomalien markieren: ungewöhnliche Begünstigte, neue Bankverbindungen, Beträge außerhalb des Musters oder Regelverstöße. Das Team prüft nur die Ausnahmen, gibt valide Posten frei und eskaliert verdächtige. Im Laufe der Zeit entwickeln sich Schwellenwerte und Kontrollen basierend auf validierten Ergebnissen weiter, wodurch die Erkennungsqualität verbessert wird, während die Funktionstrennung intakt bleibt.
Liquiditätsberichterstattung (menschengeführt mit KI-Unterstützung): KI-gestützte Liquiditätsberichte können eine erste Erklärung für wöchentliche Cash-Bewegungen entwerfen und die wahrscheinlichen Treiber über Konten oder Einheiten hinweg hervorheben. Finance validiert die Genauigkeit, stellt Konsistenz mit Ist-Zahlen sicher und passt die Botschaft für Stakeholder an. Dieses Anwendungsszenario ist besonders hilfreich, wenn Führungskräfte sowohl Zahlen als auch Narrativ schnell benötigen.
Routineabstimmungen (KI-autonom, aber nachprüfbar): Bei stabilen, regelbasierten Abstimmungen kann KI Posten automatisch abgleichen und abschließen – vorausgesetzt, jede Entscheidung ist nachvollziehbar und die Ausnahmebehandlung ist definiert. Autonomie wird durch Kontrollen verdient: Toleranzregeln, Change Management und periodische Überprüfung. Der Nutzen geht über eingesparte Zeit hinaus: Der echte Gewinn ist Konsistenz und die Möglichkeit, Expertenaufmerksamkeit auf Ausnahmen zu konzentrieren.
KI-Governance, die Geschwindigkeit ermöglicht
Erfolgreiche KI-Einführung gelingt, wenn Governance darauf ausgelegt ist, Reibung zu reduzieren – nicht zu erhöhen. Für Finanzteams lautet die praktische Governance-Checkliste:
Datenklarheit: Gemeinsame Definitionen etablieren (z. B. „verfügbare Liquidität"), klare Data Lineage und Qualitätsregeln.
Zugang und Vertraulichkeit: Least-Privilege-Zugang, Funktionstrennung und Richtlinien zur Datenspeicherung durchsetzen.
Nachprüfbarkeit: Protokolle von Eingaben, Ausgaben, Genehmigungen sowie Modell- oder Versionsänderungen führen.
Wertmessung: KI-Nutzung an messbare Ergebnisse wie Zykluszeit, Genauigkeit oder Ausnahmequoten knüpfen.
Eskalationspfade: Definieren, was passiert, wenn das KI-Vertrauen niedrig ist oder ein Ergebnis wesentlich ist und menschliches Urteilsvermögen erfordert.
Wenn KI-Governance gut gestaltet ist, ermöglicht sie Führungskräften, die KI-Nutzung sicher und mit Zuversicht zu skalieren. Governance ohne Durchsetzung ist nur Dokumentation. Es reicht nicht aus, Kontrollen auf dem Papier zu haben; sie müssen nachprüfbare Nachweise erzeugen.
KI mit Zuversicht skalieren
KI ersetzt nicht das finanzielle Urteilsvermögen. KI erweitert das finanzielle Urteilsvermögen. Wie jedes neue Teammitglied leistet KI die beste Arbeit mit einer klaren Rolle, einer Führungskraft und einem Betriebsmodell, das Fähigkeit in konsistente, vertretbare Ergebnisse verwandelt. Das Human-in-the-loop-Framework bietet einen strukturierten, verlässlichen Ansatz, um die KI-Einführung mit Klarheit und Kontrolle zu skalieren – nicht nur mit Enthusiasmus.
Von den 92 % der CFOs, die KI in ihren Finanzprozessen einsetzen, werden jene erfolgreich sein, die KI vom ersten Tag an wie ein Teammitglied behandeln.
Written By
Felix Grevy
SVP Platform, Data & AI
Félix Grévy ist SVP Platform, Data & AI bei Kyriba und verantwortet die Innovation in Platform Engineering, Daten, KI und Advanced Analytics. Mit mehr als 20 Jahren Erfahrung in Financial Technology – von Produktentwicklung über Product Management bis Commercial Management – kam Félix 2020 zu Kyriba, um die API‑ und Konnektivitätsstrategie zu leiten. Seither treibt er Kyribas agentische‑KI‑Initiativen voran, darunter das Trusted‑AI‑(TAI)‑Portfolio, das gesteuerte/intendierte Intelligence direkt in Treasury‑ und Finance‑Workflows integriert – mit LLMs und Predictive Analytics, ohne „Black Boxes“ und ohne das Training externer Modelle mit Kundendaten.
Ähnliche Ressourcen


