STRATEGIE22. Januar 2025

KI & Customer Centricity: Nicht empathisch, aber in der Lage, empathisch zu wirken

Schwerpunkt: Customer Centricity
Dr. Kevin Yam, Chief AI Officer bei der coeo Group<q>coeo Group</q>
Dr. Kevin Yam, Chief AI Officer bei der coeo Groupcoeo Group

Dr. Kevin Yam ist Chief AI Officer bei der coeo Group und findet, dass künstliche Intelligenz durchaus viele Erfolge im Sinne der Customer Centricity vorweisen kann – unter anderem im Forderungsmanagement. Im Interview erzählt er dazu Details aus seiner Unternehmenspraxis.

von Dunja Koelwel

Herr Dr. Yam, die coeo Group will große Teile des Forderungsmanagements KI-basiert betreiben. Künstliche Intelligenz bietet dabei viele Anknüpfungspunkte. Welche sind für Sie die wichtigsten?

Für uns sind die wichtigsten Anknüpfungspunkte diejenigen, die einen direkten Einfluss auf die Kundenerfahrung und die Effizienz unserer Prozesse haben. Dazu gehören insbesondere die Fähigkeit zur personalisierten Kommunikation, die Vorhersage von Zahlungsverhalten, die Optimierung von Zahlungsplänen und die Echtzeitbearbeitung von Kundenanliegen. Durch den Einsatz von KI in diesen Bereichen können wir eine individuellere und effektivere Betreuung unserer Kunden gewährleisten.

coeo setzt selber Bots ein, etwa im Forderungsmanagement bei Energieunternehmen. Was sind hier Ihre Erfahrungen?

Unsere Erfahrungen mit dem Einsatz von Bots im Forderungsmanagement sind sehr positiv. Sie können rund um die Uhr arbeiten und sofort auf Kundenanfragen reagieren, was die Kundenzufriedenheit deutlich erhöht. Zudem können sie eine große Menge an Daten verarbeiten und analysieren, was uns hilft, bessere Entscheidungen zu treffen und unsere Prozesse zu optimieren.

Wir haben bereits hunderttausende von Interaktionen mit Kunden über KI-Bots erfolgreich und ohne Probleme durchgeführt.”

Diese Erfolge bestärken uns in unserem Engagement, weiterhin in KI-Technologien zu investieren und diese in unsere Prozesse zu integrieren.

Im Moment hört man viel über die Vorteile von Gen AI, über Nachteile wird seltener gesprochen. Doch wie sieht es betwa bei hochqualitativen Kundeninteraktionen aus? Lassen sich diese auch mit AI durchführen? Kann ein Bot auch eine gewisse Empathie entwickeln?

Dr. Kevin Yam, Chief AI Officer bei der coeo Group
Dr. Kevin Yam ist Chief AI Officer bei der coeo Group (Webseite), und verantwortet in dieser Rolle die Entwicklung und Implementierung der KI-Strategie des Unternehmens. Dazu steht er dem unternehmenseigenen AI-Lab in Berlin vor. Nach seiner Promotion im Bereich der Theoretischen Physik spezialisierte er sich auf die Realisierung komplexer KI- und Data Analytics-Projekte im Finanzsektor. In seiner beruflichen Entwicklung nahm Dr. Yam auch die Position eines Partners in einer IT-Unternehmensberatung sowie die Rolle des CTO bei einem mittelständischen Finanzdienstleister ein.

Ja, KI und Bots sind durchaus in der Lage, hochqualitative Kundeninteraktionen durchzuführen. Durch die Nutzung von fortschrittlichen Technologien in Bereichen wie Natural Language Processing und Sentimentanalyse können sie menschenähnliche Gespräche führen und auf die Kooperationsbereitschaft des Kunden eingehen. Sie können zwar keine menschliche Empathie im eigentlichen Sinne entwickeln, aber sie sind in der Lage, empathisch zu wirken, indem sie auf die Stimmung und Bedürfnisse des Kunden eingehen.

Halluzierende KI scheint zunehmend ein Problem zu werden. Wie gehen Sie damit um?

Tatsächlich stellt “halluzinierende KI”, also KI-Systeme, die Informationen produzieren, die nicht in ihren Trainingsdaten enthalten sind oder die nicht der Realität entsprechen, eine Herausforderung dar. Bei uns haben wir eine Reihe von Maßnahmen implementiert, um dieses Problem zu adressieren.

Ein entscheidender Faktor ist der modulare Aufbau unserer KI-Systeme, der eine Entwicklung hin zu einer agentischen Architektur erleichtert. Durch diesen modularen Ansatz können wir spezifische Teile eines Systems isolieren und unabhängig optimieren. Dies ermöglicht eine präzisere Kontrolle und Validierung jedes Moduls, was die Fehleranfälligkeit erheblich reduziert.

Zusätzlich setzen wir auf die Technik der Retrieval-Augmented Generation (RAG). Dieses Verfahren ermöglicht es der KI, ihre Antworten auf Basis von Informationen aus einer verknüpften Wissensdatenbank zu generieren. So kann sie auf eine umfangreiche und kontrollierte Informationsquelle zurückgreifen und ist weitaus weniger anfällig für Halluzinationen.

CIBI Innovationstag 2025
Beim jährlich stattfindenden CIBI Innovationstag (26.03.2025 in München) ist Customer Centricity eines der Fokusthemen. Leser des IT Finanzmagazin erhalten exklusiv Tickets mit 15% Preisnachlass. Ticketcode: 15-CIBI-2025
Ein weiterer wichtiger Aspekt ist die sorgfältige Auswahl und Überprüfung der Daten, mit denen wir unsere KI-Systeme trainieren. Wir stellen sicher, dass diese Daten relevant und repräsentativ für die realen Szenarien sind, in denen die KI eingesetzt wird.

Am wichtigsten ist aber, dass wir unsere KI-Systeme regelmäßig in realen Anwendungsszenarien testen. Dies ermöglicht es uns, ihre Leistung in der Praxis zu bewerten und eventuelle Schwachstellen zu identifizieren.

Zusammengefasst betrachten wir das Problem der “halluzinierenden KI” als eine fortlaufende Herausforderung, die konstante Aufmerksamkeit und Anpassungen erfordert. Wir sind bestrebt, unser KI-Ökosystem cAI kontinuierlich zu verbessern und sicherzustellen, dass es zuverlässige und stets korrekte Ergebnisse liefert.

Herr Dr. Yam, vielen Dank für das Interview.dk

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert