STRATEGIE12. März 2025

Echtzeit-KI im Banking: Integration in bestehende Systeme ist eine Stolperfalle – Interview mit Jens Heilmann

Jens Heilmann lei­tet den ei­gen­stän­di­gen Ge­schäfts­be­reich für KI-Beratung/AI-Con­sul­ting und die AI-Fac­to­ry bei msg for banking.
Jens Heilmann, msg for bankingmsg for banking

KI in bestehende Systeme integrieren? Das ist alles andere als trivial. Alte IT-Strukturen, Daten­schutz­anforderungen und Sicherheitsrisiken machen es Banken schwer.  Jens Heilmann von msg for banking erklärt, wie Echtzeit-KI sinnvoll eingesetzt werden kann, welche Hürden es gibt und worauf es wirklich ankommt.

von Jens Heilmann von msg for banking

Herr Heilmann, welche Herausforderungen bringt die Integration von Echtzeit-KI in bestehende IT-Systeme in der Praxis mit sich?

Nun, bei Echtzeit-KI kommen verschiedene Aspekte zusammen. Einerseits stehen wir vor technischen Hürden, etwa wenn alte, oft monolithische Legacy-Systeme kaum dafür ausgelegt sind, große Datenströme in Millisekunden zu verarbeiten. Da kann die Latenz zum Problem werden, genauso wie die Frage, ob die bestehenden Server und Netzwerke genug Rechenleistung liefern.

Andererseits spielt der organisatorische Part eine große Rolle. Man muss die eigenen Teams entsprechend schulen und abteilungsübergreifende Prozesse anpassen, weil Echtzeit-KI in der Regel tief in Kernabläufe eingreift. Sicherheits- und Datenschutzanforderungen können die Implementierung zusätzlich erschweren, gerade wenn sensible Finanzdaten im Spiel sind. Und am Ende sollte man natürlich auch den ROI im Blick behalten: Welche Investitionen lohnen sich wirklich und wie lässt sich das Ganze langfristig betreiben?

Ein Punkt, der oft unterschätzt wird, ist das Datenmanagement.”

In Echtzeit-Szenarien müssen Daten kontinuierlich fließen, validiert und gegebenenfalls archiviert werden, damit die KI-Modelle nicht mit veralteten oder fehlerhaften Informationen arbeiten. Das erfordert ein solides Data-Governance-Konzept und klare Verantwortlichkeiten.

Das klingt nach einem komplexen Zusammenspiel. Wie organisieren Sie denn konkret Datenakquise und -verarbeitung für skalierbare KI-Anwendungen?

Wichtig ist zunächst eine klare End-to-End-Strategie. Man sollte sich genau überlegen, welche Daten man braucht, woher sie kommen und wie man sie effizient einsammelt.

Wir setzen meist auf automatisierte Datenerfassungspipelines, damit wir nicht bei jedem neuen Use Case wieder bei null anfangen.”

Jens Heilmann, msg for banking
Jens Heilmannstar­te­te sei­ne Kar­rie­re in der Au­to­mo­bil­bran­che bei Bosch, wo er di­gi­ta­le Pro­duk­ti­ons­pro­zes­se op­ti­mier­te und 2008 er­folg­reich ei­ne pa­pier­lo­se Fer­ti­gung mit SAP ein­führ­te. Mit Ab­schlüs­sen in Tech­ni­scher In­for­ma­tik (2006) und Wirt­schafts­in­for­ma­tik (2011) wech­sel­te er 2010 zu msg sys­tems (Website) in die Ver­si­che­rungs­bran­che. Dort führ­te ihn sein Weg vom Lead Con­sul­tant über die Ab­tei­lungs- und Be­reichs­lei­tung bis hin zur Speer­spit­ze für Pro­cess Ex­cel­lence. Als zer­ti­fi­zier­ter Le­an Six Sig­ma Black Belt und IP­MA Le­vel A-Ex­per­te gibt er sein Wis­sen re­gel­mä­ßig an Hoch­schu­len wei­ter. 2019 über­nahm er als Exe­cu­ti­ve Part­ner die Be­rei­che Pro­cess Ex­cel­lence und IT-GRC bei msg for ban­king. Mit dem Boom von RPA, ML und Ge­nAI rich­te­te er die Ein­heit kon­se­quent auf AI-Ser­vices aus. Seit 2025 lei­tet er den ei­gen­stän­di­gen Ge­schäfts­be­reich für AI-Con­sul­ting und die AI-Fac­to­ry – mit kla­rem Fo­kus auf die Zu­kunft der KI im Banking.
Dabei achten wir penibel auf Datenqualität, zum Beispiel durch Validierungsprozesse noch während der Akquise. Je nach Volumen und Geschwindigkeit der Daten kann man dann eine Cloud- oder auch eine hybride Infrastruktur einrichten, um flexibel skalieren zu können. Microservices-Architekturen sind da oft hilfreich, weil sie es uns erlauben, einzelne Komponenten unabhängig voneinander zu betreiben und bei Bedarf schnell hoch- oder runterzuskalieren.

Bei der Verarbeitung selbst kommen typischerweise ETL- oder ELT-Pipelines zum Einsatz, ergänzt durch verteilte Rechensysteme, wenn die Datenmengen sehr groß sind. Wir empfehlen außerdem, Datenversionierung und eine lückenlose Dokumentation zu etablieren. Das trägt entscheidend zur Reproduzierbarkeit bei und hilft, Compliance-Vorgaben einzuhalten.

Standardisierte Schnittstellen sind in diesem Kontext sicherlich auch nicht unwichtig. Welche Rolle spielen sie in heterogenen IT-Landschaften?

Sie sind eigentlich der Schlüssel, um verschiedene Systeme reibungslos miteinander zu verbinden. In einer heterogenen Landschaft hat man oft Software von unterschiedlichen Herstellern im Einsatz. Mit gut dokumentierten, standardisierten APIs oder Microservices kann man dann neue KI-Module anbinden, ohne jedes Mal die komplette IT umzukrempeln.

Das macht die ganze Sache natürlich auch besser wartbar, weil man klar definierte Schnittstellen hat, die man versionieren und sichern kann.

Für die Skalierung ist es ein riesiger Vorteil: Wenn das Datenvolumen oder die Nutzerzahlen steigen, hänge ich eben mehr Instanzen hinter eine solche Schnittstelle, ohne den Kern neu programmieren zu müssen.”

Man vermeidet also langfristig teure und komplizierte „Schnittstellen-Gebilde“, die irgendwann niemand mehr durchschaut.

Sehr interessant. Jetzt würde mich brennend interessieren, wie Sie KI-Anwendungen in Bezug auf IT-Sicherheit und Datenschutz absichern. Gerade in der Finanzbranche ein zentrales Thema, oder?

Absolut! Wir sprechen hier oft von einem mehrstufigen Sicherheitsmodell. Erstens achten wir darauf, dass bereits in der Konzeptionsphase „Security by Design“ und „Privacy by Design“ einfließen. Das heißt, wir klären schon früh, welche Daten tatsächlich benötigt werden und verschlüsseln die relevanten Datenströme.

Zweitens führen wir Risikobewertungen durch und sorgen für die nötigen organisatorischen Prozesse, um gesetzliche Vorgaben wie die DSGVO oder spezifische Anforderungen der BaFin zu erfüllen.”

Da sind Dinge wie Data Protection Impact Assessments wichtig.

Drittens gehört dazu ein robustes Zugriffsmanagement – nach dem Prinzip der minimalen Rechtevergabe – und ein Monitoring-System, das Auffälligkeiten wie Angriffe oder Datenlecks möglichst schnell erkennt. Schulungen für alle Beteiligten sind dann quasi die letzte, aber nicht minder wichtige Stufe. Denn wenn die Mitarbeiter nicht wissen, wie sie mit sensiblen Informationen umgehen sollen, nützt das beste Sicherheitssystem wenig.

Kommen wir zum Unterschied zwischen spezialisierten KI-Lösungen und dem großen Ziel einer echten „AGI“, also künstlichen Allgemeinintelligenz. Wo liegen hier die technischen Unterschiede?

Spezialisierte KI-Systeme sind in der Regel darauf ausgelegt, eine ganz bestimmte Aufgabe richtig gut zu lösen, beispielsweise Betrugserkennung oder Kreditwürdigkeitsprüfungen.”

Man nutzt dafür meist Modelle, die auf genau solche Daten trainiert wurden. Die können sehr effektiv sein, aber sie verlassen im Grunde nie ihren „Aufgabenraum“.

AGI wiederum soll sich wie ein Mensch auf ganz unterschiedliche Problemstellungen einstellen können – ob es nun Sprachverarbeitung ist, Bilderkennung oder komplexe Entscheidungsfindung. Das bedeutet, dass AGI-Systeme verschiedene Datentypen und Kontextbereiche kombinieren müssen. Rein technisch gesehen, ist das noch ein erhebliches Stück entfernt.

Wir sehen zwar enorme Fortschritte bei großen Sprachmodellen, multimodalen Ansätzen und Reasoning-Methoden, aber eine echte, universell einsetzbare Intelligenz ist immer noch Zukunftsmusik.”

Verstanden. Und was bedeutet das für die IT-Architektur moderner KI-Anwendungen?

Die Architektur muss von Haus aus leistungsfähig und skalierbar sein, damit man große Datenmengen und rechenintensive Modelle effizient verarbeiten kann. GPUs und spezielle Hardware wie TPUs sind ein typischer Bestandteil. Viele setzen mittlerweile auf eine Container-Orchestrierung wie Kubernetes und auf CI/CD-Pipelines für KI-Modelle, was man gemeinhin als MLOps bezeichnet.

Zusätzlich sollte man an ein durchdachtes Konzept für Datenhaltung und Datenstromverarbeitung (Stichwort Data Lakes, Streaming-Systeme) denken, damit die Modelle immer mit frischen Informationen versorgt werden. Und natürlich darf man die Sicherheit nicht vernachlässigen:

Eine solide Verschlüsselungs- und Zugriffsstrategie gehört zwingend dazu, vor allem in sensiblen Bereichen wie der Finanzbranche.”

Welche Trends sehen Sie denn momentan im Machine Learning, die vielleicht in Richtung AGI weisen?

Zum einen erleben wir eine wachsende Bedeutung von Open-Source-Initiativen, gerade im Bereich generativer KI. Diese kollektive Weiterentwicklung kann dazu führen, dass sich Methoden schneller verbessern und breiter verfügbar werden.

Außerdem werden neue Trainingsansätze und Modellerweiterungen entwickelt, die das Thema Kontextverständnis und logisches Schlussfolgern deutlich voranbringen.”

Da tut sich beispielsweise im Bereich „Reasoning-Modelle“ eine Menge. Obwohl wir noch entfernt davon sind, eine echte AGI zu haben, sind diese Fortschritte in Summe durchaus beachtlich. Sie bauen Stein für Stein an etwas, das eines Tages flexibler funktionieren könnte als klassische, spezialisierte Modelle.

Kommen wir zur Finanzbranche. Wie beeinflussen KI-Lösungen hier konkret die Geschäftsprozesse? Und wo sehen Sie die größten Chancen, aber auch Risiken?

Die Chancen sind wirklich enorm.

Effizienzsteigerung ist ein großes Schlagwort: Mit KI lassen sich viele Routineaufgaben automatisieren.”

Das spart sowohl Zeit als auch Geld. Gerade im Back-Office, zum Beispiel in der Dokumentenverarbeitung oder bei der Kreditprüfung, kann KI repetitive Handgriffe übernehmen.

Zudem verbessert KI die Kundeninteraktion – Stichwort Chatbots, die rund um die Uhr Fragen beantworten können, oder Recommendation Engines, die personalisierte Angebote unterbreiten. Ein weiterer Punkt ist das Risikomanagement:

Echtzeit-Auswertungen und -Vorhersagen können helfen, Anomalien früh zu erkennen und das Kredit- oder Handelsrisiko genauer einzuschätzen.”

Auf der Risikoseite haben wir natürlich die regulatorische Unsicherheit. Technologien entwickeln sich oft schneller als die Vorgaben seitens Gesetzgeber und Aufsichtsbehörden, sodass man seine Compliance-Strategie permanent anpassen muss. Auch können fehlerhafte oder schlecht trainierte Modelle zu Fehlentscheidungen führen – gerade in kritischen Finanzprozessen kann das schnell gravierende Konsequenzen haben.

Und last but not least ist Datenschutz ein heißes Thema:

Man bewegt sich schnell auf einem schmalen Grat, wenn man persönliche Daten für KI-Anwendungen nutzt.”

Hier muss man sich intensiv mit ethischen Fragen auseinandersetzen und sicherstellen, dass man alle Vorgaben einhält.

Insgesamt überwiegen meines Erachtens aber die Chancen – immer vorausgesetzt, dass man die Risiken kennt und verantwortungsvoll managt.”

Mit einer klaren KI-Strategie, fundiertem Risikomanagement und solidem Datenschutz kann die Finanzbranche in den nächsten Jahren enorm von KI profitieren.

Herr Heilmann, vielen Dank für das Gespräch.aj

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert