Source: www.csoonline.com – Author:
Eine aktuelle Studie offenbart: Ohne angemessene Datensicherheitskontrollen macht generative künstliche Intelligenz (GenAI) Mitarbeiter zu unbeabsichtigten Insider-Bedrohungen.

Teerachai Jampanak – Shutterstock.com
Einer Analyse von Netskope zufolge sind GenAI-Daten-Uploads in Unternehmen innerhalb eines Jahres um das 30-Fache gestiegen. Darunter befinden sich demnach auch sensible Informationen wie Quellcodes, regulierte Daten, Passwörter und Schlüssel sowie geistiges Eigentum.
Zudem nutzen drei von vier Unternehmen Apps mit integrierten GenAI-Funktionen. „GenAI wird zunehmend in alles integriert, von speziellen Anwendungen bis hin zu Backend-Integrationen. Diese Allgegenwärtigkeit stellt eine wachsende Herausforderung für die Cybersicherheit da“, betont Ray Canzanese, Director of Netskope Threat Labs.
Laut Forschungsbericht haben viele Unternehmen keinen oder nur einen eingeschränkten Überblick darüber, wie Daten im Rahmen der indirekten Nutzung von generativer künstlicher Intelligenz verarbeitet, gespeichert und genutzt werden. „Dadurch entsteht ein größeres Problem, mit dem sich Sicherheitsteams befassen müssen: die unbeabsichtigte Insider-Bedrohung“, warnen die Anaylsten.
Schatten-IT wird zu Schatten-KI
„Trotz der ernsthaften Bemühungen von Unternehmen, unternehmenseigene GenAI-Tools zu implementieren, zeigt unsere Studie, dass Schatten-IT zur Schatten-KI geworden ist“, erklärt James Robinson, CISO von Netskope. Demnach greifen fast drei Viertel der Anwender noch immer über persönliche Konten auf GenAI-Apps zu.
Darüber hinaus stellte Netskope fest, dass die Zahl der Unternehmen, die ihre GenAI-Infrastruktur lokal betreiben, stark gestiegen ist – von weniger als ein Prozent auf 54 Prozent. „Obwohl dadurch die Risiken einer unerwünschten Datenexposition durch Drittanbieter-Apps in der Cloud reduziert werden, bringt die Verlagerung auf eine lokale Infrastruktur neue Datensicherheitsrisiken mit sich“, mahnen die Forscher.
Die Gefahren reichen von Lieferketten, Datenlecks und unsachgemäßer Handhabung der Datenausgabe bis hin zu Prompt Injection, Jailbreaks und Extraktion von Meta-Prompts. „KI verändert nicht nur die Sicherheit von Perimetern und Plattformen – sie schreibt die Regeln neu“, erklärt Ari Giguere, Vice President of Security and Intelligence Operations bei Netskope. „Auf einem KI-gesteuerten Schlachtfeld kann nur KI-gestützte Sicherheit Schritt halten.“
Schutzmaßnahmen
Netskope rät Unternehmen, ihre Risikorahmenbedingungen zu überprüfen, anzupassen und speziell auf KI oder GenAI zuzuschneiden, um einen angemessenen Schutz von Daten, Nutzern und Netzwerken zu gewährleisten. Der Security-Spezialist empfiehlt dazu folgende Maßnahmen:
- Bewerten Sie Ihre GenAI-Landschaft: Informieren Sie sich darüber, welche GenAI-Apps und lokal gehostete GenAI-Infrastruktur Sie nutzen, wer sie nutzt und wie sie genutzt werden.
- Verstärken Sie Ihre GenAI-App-Kontrollen: Überprüfen Sie Ihre Kontrollen regelmäßig anhand von Best Practices, zum Beispiel indem Sie nur zugelassene Apps erlauben, nicht zugelassene Apps blockieren, DLP einsetzen, um zu verhindern, dass sensible Daten mit nicht zugelassenen Apps geteilt werden, und Echtzeit-Nutzer-Coaching nutzen.
- Inventarisieren Sie Ihre lokalen Kontrollen: Wenn Sie eine GenAI-Infrastruktur lokal betreiben, prüfen Sie relevante Frameworks wie die OWASP Top 10 for Large Language Model Applications, National Institute of Standards and Technology’s (NIST) AI Risk Management Framework und MITRE Atlas, um einen angemessenen Schutz von Daten, Nutzern und Netzwerken zu gewährleisten.
SUBSCRIBE TO OUR NEWSLETTER
From our editors straight to your inbox
Get started by entering your email address below.
Original Post url: https://www.csoonline.com/article/3854432/mit-genai-zum-insider-threat.html
Category & Tags: Generative AI – Generative AI
Views: 0