Fünf Tipps aus der KI-Praxis: Showstopper bei Projekten mit künstlicher Intelligenz verhindern
Künstliche Intelligenz kann Finanzunternehmen signifikant voranbringen. Doch es gibt Fallstricke, die das ganze Projekt gefährden. Welche fünf Fehler Sie bei KI-Projekten unbedingt vermeiden sollten, erklärt
von Marc-Nicolas Glöckner, Managing Consultant PPI
Es gibt eine deutliche Diskrepanz zwischen Wollen und Wirklichkeit: Management und auch IT-Verantwortliche erkennen durchaus die Notwendigkeit und den Nutzen von KI.Die konkrete Implementierung maschineller Intelligenz geschieht aktuell noch sporadisch und beschränkt sich im Finanzdienstleistungsbereich auf wenige Einsatzfelder – beispielsweise Betrugserkennung oder Fondsverwaltung.”
Der verhaltene Einsatz dieser zukunftsweisenden Technologie liegt sicherlich auch darin begründet, dass nur wenig Erfahrung und kaum erprobte Planungsschritte für KI-Projekte existieren. In der Tat unterscheiden sich KI-Implementierungen deutlich von herkömmlichen IT-Projekten. Daher ist dringend geraten, sich bereits in der Konzeptions- und Planungsphase die wichtigsten potenziellen Problemfelder zu vergegenwärtigen. So lassen sich frühzeitig Showstopper identifizieren, die das gesamte KI-Projekt gefährden könnten. Zudem hilft die detaillierte Beschäftigung mit den einzelnen Prozessschritten, das eigene Vorgehen von Anfang an sinnvoll zu strukturieren.
1. Fallstrick Projektauswahl: „Nicht auf den falschen Piloten setzen“
Welches Thema eignet sich, um KI erstmals im Unternehmen zu etablieren? Eine wichtige Entscheidung, denn: Wer die falsche Aufgabenstellung wählt, riskiert ein frühes Scheitern und verbrannte Erde für weitere KI-Initiativen. Konkret empfiehlt es sich, mit dem KI-Projekt keine bestehende Lösung zu ersetzen, sondern einen neuen Lösungsraum zu erschließen. Ein bereits vorhandener Datenbestand gewährleistet eine reibungslose Trainingsphase.
Ganz wichtig: Kein Projekt mit einem regulatorischen Bezug wählen: Die Genehmigungsverfahren sind meist langwierig, zudem hat die Bafin sehr strenge Anforderungen an die Nachvollziehbarkeit von Modellen, die gerade in der Startphase oftmals nicht hundertprozentig gegeben ist und bei einigen Methoden möglicherweise auch nie gegeben sein wird.”
Der Diskurs mit den Aufsichtsbehörden wird einfacher, wenn positive Beispiele im Unternehmen vorhanden sind. Gute Themen für einen KI-Piloten sind beispielsweise Fraud Detection, Ausreißererkennung im Wertpapierhandel, ein Chat-Bot oder die Dokumentenanalyse.
2. Fallstrick Projektvorgehen: „Nicht zu kurz springen“
Ein klassischer Fehler bei der Ressourcenplanung für ein KI Projekt ist es, den Aufwand der Modellentwicklung als Maßstab für den gesamten Projektaufwand zu nehmen. Denn: Der Aufwand für die Datenaufbereitung ist ungleich größer und nimmt den Löwenanteil der zeitlichen und personellen Ressourcen in Anspruch – als Faustregel kann man für diese Aufgabe 80 bis 90 Prozent des Aufwands der gesamten Entwicklungsarbeit kalkulieren.
Ganz zu Anfang des Projektverlaufs ist es günstig, folgende zentrale Frage zu klären: „Welche Methoden und Verfahren sollen zum Einsatz kommen, um den ausgewählten Geschäftsprozess mit Hilfe Künstlicher Intelligenz abzubilden? Das von der PPI gemeinsam mit dem ibi research Institut und weiteren Partnern entwickelte Drei-Ebenen-Modell bietet hier eine effektive Hilfestellung für die Planung. Das Modell wurde für die Bedarfsermittlung, Implementierung und Anwendung Künstlicher Intelligenz bei Finanzdienstleistern entwickelt. Es entstand im Rahmen von Deutschlands umfassendstem Konsortialprojekt zu KI im Finanzsektor. Das Modell ermöglicht es Finanzunternehmen, die KI einsetzen wollen, systematisch vom Geschäftsprozess über definierte Anwendungsklassen das geeignete KI-Verfahren zu identifizieren.
Ebenfalls schon in der Projektplanungsphase ist es ratsam, sich an eine Eigenschaft von KI-Projekten zu gewöhnen: Einen Schlusspunkt gibt es nicht, die Weisheit „Der Weg ist das Ziel“ passt hier bestens.”
Auch nach Entwicklungsende sind die wenigsten KI-Projekte wirklich abgeschlossen: KI-Modelle nutzen bekannte Daten, um unbekannte Ereignisse vorherzusagen. Ändert sich aber etwas an der Zusammensetzung der Daten, muss das Modell immer wieder neu beurteilt werden. Beispiel: Die vorzeitige Umschuldung von Krediten kann ein Hinweis für eine fortlaufende Überschuldung und damit ein Warnindikator im Risikomanagement sein; in Zeiten sehr niedriger Zinsen kann sie aber auch ein Zeichen für einen engagierten Verbraucher sein. Dann handelt es sich nicht um ein erhöhtes Risiko. KI-Modelle müssen also regelmäßig geprüft und aktiv betreut werden.
3. Fallstrick Datengrundlage: „Die eigenen Bestände nicht überschätzen“
Autor Marc-Nicolas Glöckner, PPI Marc-Nicolas Glöckner ist Managing Consultant bei der PPI. Er unterstützt Kunden bei Digitalisierung und Regulatorik. Ein Schwerpunkt bildet die Implementierung von KI-Anwendungen und die Integration neuer Technologien in bestehende IT-Vorgehensmodelle.Banken besitzen Kundendaten, die eine Fülle an Informationen bieten – doch die reine Anzahl der Datensätze gibt noch keinen Aufschluss über deren Aussagekraft. Bei der Betrugserkennung, zum Beispiel bei Kreditanträgen, gibt es eine gute Historie von Daten der vergangenen Jahre. Doch ist Kreditbetrug ein sehr selten auftretendes Ereignis und geschieht häufig nur bei 0,1 Prozent aller Anträge. Da reichen selbst eine Million Kreditanträge nicht aus, um daraus ein Modell zu bilden.
Den eigenen Datenhaushalt zu überschätzen, ist ein typischer Fehler bei der Etablierung von KI-Projekten.”
Den eigenen Datenhaushalt zu überschätzen, ist ein typischer Fehler bei der Etablierung von KI-Projekten.”
Eine sehr hohe Qualität der Daten hilft dies zu vermeiden. Bei abgewehrten Betrugsfällen ist zum Beispiel genau zu analysieren, ob die Datensätze in die Trainingsmenge aufgenommen werden oder ob sie unter Umständen nicht vollständig erfasst wurden. Außerdem wendet man hier Methoden zur Optimierung der Trainingsdaten an, zum Beispiel Over- oder Undersampling. Wichtig ist auch die Wahl der richtigen Modelle. Nicht immer ist ein neuronales Netzwerk vorzuziehen, denn hier müssen die Trainingsparameter exakt an das Problem angepasst werden. Zudem ergeben mehr Eingabeparameter nicht immer das bessere Modell, mitunter ergibt es Sinn, lieber mit weniger aber dafür aussagekräftigeren Parametern zu trainieren. Notwendig für eine relevante Datengrundlage sind zudem auch statistische Voruntersuchungen. Weiter ist wichtig, Methoden zur Normalisierung festzulegen und Strategien zum Umgang mit fehlenden Daten zu finden.
4. Fallstrick Fehlerkultur: „Null-Toleranz-Zwang vermeiden“
Ob Mensch oder Maschine: Fehler gibt es immer. Wer beim Abnahmetest keine Fehler zulässt, kann keine KI-Algorithmen einführen. Fragt zum Beispiel ein Kunde im Webchat danach, wie er seine Adresse ändern kann, dann wird ihn der KI-Algorithmus nur mit einer gewissen Wahrscheinlichkeit immer korrekt zum Link für Adressänderung führen. Bei der klassischen Software kann so lange getestet werden, bis alle Fehler behoben sind.
Bei KI-Anwendungen ist es sinnvoller, eine Fehlerschwelle zu definieren und diese in Produktion ständig zu überwachen.”
Die Stärke von KI-Lösungen ist es gerade, durch das Sammeln neuer Daten besser werden zu können. Die Wahl des Go-Life-Zeitpunkts ist also wichtig. Auch das menschliche Handeln ist nicht immer korrekt, die zwischenmenschliche Interaktion führt nicht immer zur gewünschten Lösung. Sinnvoll ist es also, ein realistisches Ziel zu wählen, zum Beispiel, dass die KI-Anwendung besser werden soll als das menschliche Vorgehen. Denn sogar bei gleicher Fehlerrate wie der Mensch haben Algorithmen Vorteile: Sie funktionieren ohne Unterbrechung und haben keinen „schlechten Tag“.
5. Fallstrick Hardware: „Den Aufwand nicht überschätzen“
Oft schrecken Unternehmen vor KI-Projekten zurück, weil sie befürchten, die eigene Hardware sei nicht ausreichend. Doch die muss oftmals gar nicht so opulent sein.
Eine Modellentwicklung auf einem Original-Datenbestand mit über 1.000.000 Sätzen und über 200 Attributen kann beispielsweise durchaus auf einem leistungsstarken Desktop-PC laufen.”
Wichtig ist, in jedem Fall auf die Hardware-Trennung von Entwicklung, Test und Betrieb zu achten, wobei eine Optimierung auf Vektoroperationen sinnvoll ist. Ein Einstieg muss hier nicht teuer sein: Die Hardware, die fürs Training ausgereicht hat, reicht auch für den tatsächlichen Einsatz der Anwendung. Bei zukünftigen Anschaffungen von Hardware sollte KI jedoch immer mitgedacht werden.
Das KI-Fazit
KI-Projekte können Finanzunternehmen signifikant nach vorne bringen. Sie verlangen jedoch von den Beteiligten auf allen Fach- und Entscheidungsebenen ein Umdenken bei Erwartungshaltungen, Fehlerkultur und Workflows. Es ist wichtig, mögliche Stolpersteine zu kennen und in die Überlegungen einzubeziehen. Denn oftmals sind KI-Projekte Versuchsballons. Wenn diese bereits im Ansatz scheitern, sinkt die Motivation, weitere Projekte in Angriff zu nehmen. Deshalb ist es auch ratsam, Experten mit KI-Erfahrung schon in der Planungsphase hinzuzuziehen.Marc-Nicolas Glöckner, PPI
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/86908
Schreiben Sie einen Kommentar