STRATEGIE18. Juli 2024

Confidential AI: Lokale KI‑Integration – effiziente App-Optimierung ohne externe Abhängigkeiten

Andrea Wörrlein (CEO VNC) ist eine Expertin für Confidential AI
Andrea Wörrlein,CEO VNCVNC

Wann immer es nicht xAI sein muss, sollte zumindest Confidential AI zum Einsatz kommen, denn: Künstliche Intelligenz ist eine latente Gefahr für die Datensouveränität von Unternehmen. Wer sich dieser Gefahr nicht aussetzen will, muss Strategien und Taktiken für den sicheren und zugleich produktiven Umgang mit KI entwickeln. Andrea Wörrlein (CEO VNC) erklärt die wichtigsten Parameter von Confidential AI.

von Andrea Wörrlein, VNC

Künstliche Intelligenz und Confidential Computing stehen in einem scheinbar unauflösbaren Spannungsverhältnis: Einerseits stellt KI eine latente Bedrohung für Confidential Computing dar, andererseits kann sie bei dessen Umsetzung helfen.

Das Zauberwort zur Auflösung dieses Widerspruchs lautet Confidential AI. Es beschreibt ein Konzept für den Umgang mit KI, das die größten Unsicherheitsfaktoren identifiziert und handhabbar macht.”

Daten und Datensouveränität stehen dabei an erster Stelle. Zusätzlich kann KI dadurch gezielt und sicher für die Optimierung von Kollaborations- und Kommunikations-Apps eingesetzt werden.

Über Über VNC – Virtual Network Consult
VNC ist ein Soft­ware-Un­ter­neh­men, das Open-Sour­ce-ba­sier­te An­wen­dun­gen für die Kom­mu­ni­ka­ti­on und Kol­la­bo­ra­ti­on ent­wi­ckelt. Mit sei­ner Ent­wick­ler­ge­mein­de hat VNC die in­te­grier­te Pro­dukt­sui­te VN­Cla­goon (Web­site) ge­schaf­fen. VNC po­si­tio­niert sich als of­fe­ne und si­che­re Al­ter­na­ti­ve zu den eta­blier­ten US-Soft­ware­gi­gan­ten. Zu den Kun­den von VNC ge­hö­ren un­ter an­de­rem auch Fi­nanz­dienst­leis­ter.
Die fünf wichtigsten Elemente sind dabei:

Dezentrale LLMs: Üblicherweise laufen Large Language Models (LLMs) auf den proprietären Hyperscaler-Plattformen der Anbieter. Was dort mit den Daten passiert, bleibt im Ungewissen. Daher ist es sinnvoll, die LLMs über entsprechende Toolkits (etwa Intel OpenVINO) auf eigene Plattformen herunterzuladen. Sowohl die Daten als auch die Applikationen bleiben so im eigenen Rechenzentrum und sind vor unbefugtem Zugriff geschützt.

Local AI für die App-Optimierung: Abgespeckte Modelle dieser LLMs können direkt in Applikationen in dafür ausgelegten Software-Stacks integriert werden. Die Einbindung von KI-Funktionen wie intelligenten Assistenten ist so ohne Umwege und jederzeit transparent möglich. Über modulare Plattformen stehen sie zudem potenziell allen Anwendungen in gleicher Form modulübergreifend zur Verfügung.

Training der Modelle über lokale Knowledge Base: LLMs werden in der Regel mit Big Data trainiert. Durch die lokale Nutzung von LLMs können sie zusätzlich durch Abfragen auf die eigene Datenbasis schnell, gezielt und praxisnah weiter trainiert und optimiert werden. Dadurch sind sie auch jederzeit transparent und auditierbar.

Autorin Andrea Wörrlein, VNC
Andrea Wörrlein ist Mit­glied des Vor­stands bei VNC AG (Website) in der Schweiz. Sie ist seit 2006 bei VNC – Vir­tu­al Net­work Con­sult AG tä­tig und hat dort ih­re Ex­per­ti­se in der IT-Bran­che aus­ge­baut. Zu­vor war sie seit 1998 CEO der VNC – Vir­tu­al Net­work Con­sult GmbH in Deutsch­land. An­drea hat ei­nen Mas­ter of Arts in Ame­ri­ka­ni­scher Li­te­ra­tur, Psy­cho­lo­gie und Kom­mu­ni­ka­ti­ons­wis­sen­schaf­ten von der FAU Er­lan­gen-Nürn­berg, den sie 1995 ab­ge­schlos­sen hat.
Beschleunigung durch Indizierung: Zusätzlich kann der Zugriff auf die lokale Knowledge Base durch die Indizierung der Datenbestände beschleunigt werden. Abfragen erfolgen dann nicht mehr auf die gesamte Datenbasis, sondern nur noch auf die Indizes. Das erhöht die Schnelligkeit, Verfügbarkeit und Treffergenauigkeit – und damit die Produktivität.

Open Source: Open Source ist der natürliche Feind proprietärer Systeme. Um Abhängigkeiten (Vendor Lock-in) von vornherein auszuschließen, sollten für Confidential Computing nicht nur chronisch intransparente anbieterspezifische KI-Plattformen (PaaS) gemieden werden, sondern auch auf der Software-Ebene (SaaS) sollte Open Source für KI-Anwendungen die erste Wahl sein.

Confidential AI gibt Unternehmen und Anwendern die Souveränität über ihre eigenen Daten und Applikationen zurück. Künstliche Intelligenz kann so sicher, gezielt, unabhängig und praxisnah zur Steigerung der Produktivität wie auch der Arbeitszufriedenheit eingesetzt werden.Andrea Wörrlein, VNC

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert