Tenable Research deckt gravierende Sicherheitsrisiken in KI-Cloud-Umgebungen auf

jamesteoh / Bigstock
Eine der kritischsten Erkenntnisse des Berichts ist, dass KI-Cloud-Workloads nicht gegen Schwachstellen geschützt sind. In 30 % der analysierten Workloads wurde die hochgefährliche Curl-Sicherheitslücke CVE-2023-38545 festgestellt. Besonders besorgniserregend ist auch, dass Fehlkonfigurationen in KI-Managed Services sehr häufig vorkommen. So haben 77 % der Unternehmen in Google Vertex AI Notebooks das überprivilegierte Standarddienstkonto “Compute Engine” konfiguriert, wodurch potenziell alle darauf basierenden Dienste gefährdet sind.
KI-Trainingsdaten als Einfallstor für Risiken
Ein weiteres schwerwiegendes Problem ist die Anfälligkeit von KI-Trainingsdaten für Datenvergiftung, die die Modellergebnisse erheblich verzerren kann. Bei 14 % der Unternehmen, die Amazon Bedrock verwenden, ist der öffentliche Zugriff auf mindestens einen KI-Trainings-Bucket nicht ausdrücklich blockiert. Zudem existieren bei 5 % der Unternehmen Buckets mit übermäßig hohen Berechtigungen, die ein potenzielles Einfallstor für unautorisierte Manipulationen darstellen.
Besonders riskant sind auch die Sicherheitseinstellungen bei Amazon SageMaker-Notebook-Instanzen. Diese gewähren standardmäßig Root-Zugriff, sodass 91 % der SageMaker-Benutzer mindestens eine Notebook-Instanz betreiben, die bei einer Kompromittierung unbefugten Zugriff ermöglichen könnte. Dadurch wären alle darauf gespeicherten Dateien und möglicherweise auch verbundene Systeme in Gefahr.
Wenn wir über KI-Nutzung in der Cloud sprechen, geht es um weit mehr als nur den Schutz sensibler Daten. Wird ein KI-Modell manipuliert, kann dies langfristig katastrophale Folgen haben – von kompromittierter Datenintegrität über Sicherheitsrisiken für kritische Systeme bis hin zu einem massiven Vertrauensverlust bei Kunden. Die Maßnahmen zur Cloud-Sicherheit müssen dringend weiterentwickelt werden, um den neuen Herausforderungen der KI-Ära gerecht zu werden.”
Liat Hayun, VP of Research and Product Management, Cloud Security bei Tenable
Jenga-artige Struktur in KI-Umgebungen
Der Bericht hebt zudem hervor, dass die Architektur vieler Cloud-Services eine inhärente Schwachstelle birgt. Tenable beschreibt dieses Phänomen als “Jenga-artige” Struktur, bei der Cloud-Anbieter ihre Dienste übereinanderschichten. Dadurch werden riskante Standardwerte von einer Ebene zur nächsten weitervererbt, ohne dass Unternehmen dies unmittelbar erkennen. Besonders in KI-Umgebungen können solche Fehlkonfigurationen erhebliche Risiken bergen, wenn sie von Bedrohungsakteuren ausgenutzt werden.
Angesichts dieser Erkenntnisse empfiehlt Tenable Unternehmen, ihre Cloud-Sicherheitspraktiken dringend zu überdenken. Robuste Schutzmechanismen für KI-Daten und -Modelle sowie eine konsequente Härtung von Cloud-Workloads sind essenziell, um zukünftige Angriffe zu verhindern. Die steigende Abhängigkeit von KI-Technologien in der Cloud erfordert ein neues Sicherheitsbewusstsein und verstärkte Schutzmaßnahmen, um sowohl regulatorische Anforderungen zu erfüllen als auch Innovationen sicher voranzutreiben.
Der aktuelle Tenable Cloud AI Risk Report 2025 kann kostenlos heruntergeladen werden. tw
Sie finden diesen Artikel im Internet auf der Website:
https://itfm.link/224276

Schreiben Sie einen Kommentar