web analytics

Datenleck durch GenAI-Nutzung – Source: www.csoonline.com

Rate this post

Source: www.csoonline.com – Author:

Eine aktuelle Studie zeigt: Fast zehn Prozent der KI-Eingabeaufforderungen von Mitarbeitern enthalten sensible Daten.

KI
Viele Mitarbeiter teilen sensible Unternehmensdaten, wenn sie generative KI-Apps anwenden.

Owlie Productions – Shutterstock.com

Laut einem aktuellen Bericht über Gen-AI-Datenlecks von Harmonic enthielten 8,5 Prozent der Mitarbeiteranfragen an beliebte LLMs sensible Daten, was zu Sicherheits-, Compliance-, Datenschutz- und rechtlichen Bedenken führte.

Der Security-Spezialist hat im vierten Quartal 2024 Zehntausende von Eingabeaufforderungen an ChatGPT, Copilot, Gemini, Claude und Perplexity analysiert. Dabei stellte sich heraus, dass Kundendaten, einschließlich Rechnungs- und Authentifizierungsdaten, mit 46 Prozent den größten Anteil an den durchgesickerten Daten ausmachten. Harmonic fiel dabei vor allem der hohe Anteil an Versicherungsansprüche auf. Demnach werden diese mit Kundendaten gespickten Berichte häufig von Mitarbeitern in KI-Tools eingegeben, um Zeit bei der Bearbeitung zu sparen.

Der Analyse zufolge machten Mitarbeiterdaten, einschließlich Gehaltsabrechnungsdaten und personenbezogener Daten (PII), 27 Prozent der sensiblen Anfragen aus, gefolgt von Rechts- und Finanzdaten mit 15 Prozent.

„Sicherheitsrelevante Informationen, die fast sieben Prozent der sensiblen Anfragen ausmachen, sind besonders besorgniserregend“, warnt der Bericht. “Beispiele hierfür sind Ergebnisse von Penetrationstests, Netzwerkkonfigurationen und Vorfallsberichte. Solche Daten könnten Angreifern eine Blaupause für die Ausnutzung von Schwachstellen liefern.“

Raus aus dem Schatten

Der Verlust von GenAI-Daten ist ein schwieriges Problem – und ein Hauptgrund dafür, dass generative KI-Strategien CISOs in eine Zwickmühle bringen.

Die Nutzung von LLM in Unternehmen lässt sich in drei große Kategorien einteilen:

  • Sanktionierte Deployments, einschließlich lizenzierter und intern entwickelter Implementierungen;
  • Schatten-KI, also in der Regel kostenlose, Consumer-Apps, die vom Unternehmen aus gutem Grund verboten sind; und
  • Halbschatten-GenAI .

Nicht autorisierte Schatten-KI ist ein Hauptproblem für CISOs, das am schwierigsten zu kontrollieren sein dürfte. Von den Leitern der Geschäftsbereiche initiiert, kann Semi-Shadow-KI kostenpflichtige generative KI-Apps umfassen, die kein Okay von der IT erhalten haben und für Experimente, bestimmte Zwecke oder eine höhere Produktivität eingesetzt werden. In solchen Fällen kann es sein, dass die Führungskraft die Nutzung von Schatten-IT propagiert . Die Mitarbeiter der einzelnen Geschäftsbereiche sind sich jedoch keiner Schuld bewusst, da sie vom Management im Rahmen der KI-Strategie angewiesen wurden, die Tools zu nutzen.

Schatten- oder Halbschatten-Apps für freie generative KI sind am problematischsten, da ihre Lizenzbedingungen in der Regel vorsehen, dass die Daten bei jeder Abfrage für das Training der KI-Modelle genutzt werden dürfen. Laut der Harmonic-Studie ist die Nutzung von KI im kostenlosen Bereich für den Löwenanteil der sensiblen Datenlecks verantwortlich. So wurden beispielsweise 54 Prozent der sensiblen Eingabeaufforderungen in der kostenlosen Version von ChatGPT eingegeben.

Die meisten Datenspezialisten raten CISOs jedoch auch davon ab, den vertraglichen Versprechen kostenpflichtiger generativer KI-Apps zu vertrauen. In den meisten Fällen verbieten sie das Training mit Benutzeranfragen in Unternehmensversionen.

Robert Taylor, Anwalt bei Carstens, Allen & Gourley, warnt davor, dass zum Beispiel Geschäftsgeheimnisse preisgegeben werden können. „Verschiedene rechtliche Schutzmaßnahmen – insbesondere der Schutz von Geschäftsgeheimnissen – können verloren gehen, wenn ein Mitarbeiter einem GenAI-System eine Frage stellt.“

Er fügt hinzu: „Wenn ein Konkurrent von dem Leck erfährt, kann er vor Gericht argumentieren, dass das Leck den rechtlichen Schutz des Geschäftsgeheimnisses ungültig macht.“ Laut Taylor müssen die Anwälte des IP-Inhabers dann nachweisen, dass das Unternehmen eine Vielzahl von Schutzmechanismen eingesetzt hat.

 „Sich auf die Bestimmungen eines Vertrags zu verlassen, der kein Training mit GenAI-Abfragen verspricht, reicht nicht aus“, betont der Experte. Unternehmen müssten Richtlinien einführen, die ihre Mitarbeiter bei der Nutzung dieser Daten einschränken.

Datenbewusste Praktiken

Nach Meinung von Jeff Pollard, Vizepräsident und leitender Analyst bei Forrester, sollten CISOs mit Führungskräften bei den Schulungen der Mitarbeiter zusammenarbeiten. Auf diese Weise werde sichergestellt, dass die Mitarbeiter darin geschult werden, wie sie mit LLMs die gleichen Ergebnisse erzielen können, ohne geschützte Daten zu verwenden, erklärt er.

„Man muss wirklich keine sensiblen Informationen preisgeben, um einen positiven Nutzen aus dem System zu ziehen. Aber wir müssen die Benutzer darin schulen, die Strategien der Prompt-Formulierung zu verstehen“, ergänzt Pollard.

Vor diesem Hintergrund setzte sich Arun Chandrasekaran, Vizepräsident und Analyst bei Gartner,  mit folgender Frage auseinander: Warum verwenden Mitarbeiter kostenlose KI-Tools anstelle von abgesperrten, Enterprise-tauglichen Bezahlversionen ? „Die Mitarbeiter tun es, weil die IT-Abteilung ihnen nicht die Tools zur Verfügung stellt, die sie benötigen“, argumentierte er.

„Die Nutzung von KI durch die Mitarbeiter ist soweit fortgeschritten, dass die IT-Teams kaum aufholen können“, fügt Kaz Hassan, Senior Community and Partner Marketing Manager beim Softwareanbieter Unily. hinzu. „Es ist ein neues Konzepterforderlich. Unternehmen brauchen jetzt klare KI-Strategien, um Risiken zu reduzieren. Sie müssen KI in den Tech-Stack der Mitarbeiter integrieren.“

Hassan zufolge reichen typische Überwachungs- und Kontroll-Apps nicht aus, um solche Datenlecks zu verhindern. „Der Grund, warum Power-User sensible Daten über nicht autorisierte KI-Tools verwenden ist nicht, weil sie nicht kontrolliert werden können, sondern, weil sie nicht ausgebremst werden wollen. Das alte Muster des Einschränkens und Schützens versagt nicht nur – es drängt KI-Innovationen aktiv in eine Grauzone“, so der Unily-Experte. “CISOs müssen sich dieser Realität stellen: Entweder sie führen die KI-Transformation an oder sie müssen zusehen, wie sich ihr Sicherheitsbereich auflöst.“

Hassan wies darauf hin, dass das Datenproblem der generativen KI in zwei Richtungen geht: Sensible Daten, die über Abfragen das Unternehmen verlassen, und fehlerhafte Daten – entweder durch Halluzinationen oder durch Training mit falschen Informationen –, die über generative KI-Antworten, auf die sich Ihr Team bei der Unternehmensanalyse verlässt, in das Unternehmen gelangen. (jm)

SUBSCRIBE TO OUR NEWSLETTER

From our editors straight to your inbox

Get started by entering your email address below.

Original Post url: https://www.csoonline.com/article/3820968/datenleck-durch-genai-nutzung.html

Category & Tags: 7750, Artificial Intelligence – 7750, Artificial Intelligence

Views: 0

LinkedIn
Twitter
Facebook
WhatsApp
Email

advisor pick´S post