KI als Betrugsszenario: Die dunkle Seite von ChatGPT
Vor allem der seit vergangenem November verfügbare Chatbot ChatGPT von OpenAI hat in den vergangenen Monaten für Aufregung gesorgt. Das textbasierte Dialogsystem basiere auf maschinellem Lernen und beantworte Fragen in natürlicher Sprache. Das Programm verspreche zahlreiche Vorteile – doch die Entwicklungen im Bereich KI bergen laut BioCatch auch Gefahren.
Nicht nur OpenAI hat in letzter Zeit für aufhören gesorgt. Im Januar hat Microsoft seine neue KI „Vall-E“ vorgestellt. Das Sprachsynthesemodell könne menschliche Stimmen imitieren. Dafür reiche eine Aufnahme der Originalstimme von nur drei Sekunden. Die KI simuliere die menschliche Stimme sehr genau und könne sogar emotionale Betonungen des Sprechers nachahmen. Und auch Google hat soeben seine eigene ChatGPT KI vorgestellt (mehr hier).KI birgt Risiken
Mit der zunehmenden Beliebtheit solcher Programme steige aber auch das Betrugspotenzial. So könnten insbesondere Chatbots dazu missbraucht werden, Malware-Angriffe zu starten, Phishing-Versuche weiter zu perfektionieren oder Identitäten zu stehlen. Die Möglichkeiten seien vielfältig.
Phishing und Social Engineering mithilfe von KI
ChatGPT nutzt die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP). Das könnten Cyber-Kriminelle für Phishing- und Social-Engineering-Kampagnen ausnutzen. Es ließen sich beispielsweise E-Mail-Konversationen authentisch nachstellen, ohne dass Grammatik- oder Rechtschreibfehler erkennbar sind. Dabei sorge ein natürlicher Sprachfluss für Vertrauen bei den potenziellen Opfern: Der vermeintliche Bankmitarbeiter, der den Kunden per E-Mail auffordert, seine Kontodaten zur Verifizierung anzugeben, wirke durch die natürliche Sprache authentisch. Auf diese Weise können Betrüger laut BioCatch (Website) problemlos Daten abgreifen oder komplette Konten übernehmen.
Für Banken seien solche Betrugsformen schwer zu erkennen, weil es sich bei den geschilderten Fällen um „echte“ Kunden handelt, die die Überweisung auslösen. Aber nicht nur die vielfältigen Betrugsszenarien würden durch den Einsatz von KI für Banken und Finanzinstitute zunehmend zum Problem.
Um sich vor solchen Risiken zu schützen, müssten Unternehmen über solide Sicherheitsmaßnahmen verfügen. Dazu gehören laut dem Unternehmen vor allem regelmäßige Security-Updates sowie eine Multi-Faktor-Authentifizierung. Darüber hinaus sollten zusätzliche Maßnahmen ergriffen werden, um Chatbots vor böswilligen Akteuren zu schützen.
Geldwäschebekämpfung
Auch die Bekämpfung der Geldwäsche stelle eine Herausforderung dar und sei oft mit hohen Kosten verbunden. Hier bleibe die erste Überweisung meist unentdeckt. Entweder werde sie vom Überwachungssystem übersehen, oder der „Kunde“ beziehungsweise der AML-Analyst (Anti-Money Laundering) bestätigt die Transaktion als unverdächtig. Denn mithilfe von KI-gestützten Chatbots wie ChatGPT könnten Geldwäscher Gespräche generieren, die scheinbar legitime Geschäftsaktivitäten zum Gegenstand haben. In Wirklichkeit würden sie jedoch dazu dienen, Geldtransfers zu verschleiern. Dadurch werde es für Finanzinstitute immer schwieriger, die gängigen Muster von Geldwäscheaktivitäten zu erkennen.
Ein weiteres Problem sei die Rekrutierung ahnungsloser Personen zur Geldwäsche. Viele der Konten werden von arglosen Personen eröffnet, die glauben, einen ertragreichen Nebenjob gefunden zu haben. Dabei wissen die Betroffenen oft nicht, dass sie als Geldwäscher agieren und ihr Konto für kriminelle Aktivitäten nutzen, oder es dafür zur Verfügung stellen. Denn die Betrüger geben sich als legitime Unternehmen aus und versprechen schnelles Geld. Und mit ChatGPT lasse sich die vermeintliche Stellenanzeige und der nachfolgende Rekrutierungsprozess noch überzeugender gestalten.
Verhaltensbiometrie schafft Abhilfe
Verhaltensbiometrie könne laut BioCatch hier eine wichtige Rolle beim Aufdecken von Betrugsversuchen und Geldwäsche spielen. Durch die Analyse des Benutzerverhaltens, etwa der Tippgeschwindigkeit, den Tastenanschlägen und Mausbewegungen könne das normale Verhalten eines Benutzers festgelegt werden. Anhand davon könne die Software erkennen, ob es sich tatsächlich um den angemeldeten Benutzer handelt, oder um einen Betrüger. Auch viele andere Betrugsversuche ließen sich so erkennen. Auf diese Weise könnten auch Konten ausfindig gemacht werden, die zu einem späteren Zeitpunkt für Geldwäsche genutzt werden sollen.ft
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/150822
Schreiben Sie einen Kommentar