Blogserie «Anforderungen an moderne KI-Infrastruktur» – Teil 8

Das letzte Bollwerk – Datenschutz & PII-Schutz in der KI

Dieser Beitrag ist Teil unserer achtteiligen Serie über die wichtigsten Anforderungen an eine moderne, sichere und souveräne KI-Infrastruktur. Nachdem wir in den vorherigen Teilen Themen wie strategische Modell-Unabhängigkeit (Teil 2), Kostenkontrolle (Teil 3), internes Wissensmanagement via RAG (Teil 4), automatisierte Datenaktualisierung (Teil 5), Qualitätsmessung (Teil 6) und vollständige Nachvollziehbarkeit über Tracing (Teil 7) beleuchtet haben, geht es im letzten Teil um einen der kritischsten Punkte überhaupt: den Schutz sensibler Daten.

Ein Mitarbeiter kopiert eine E-Mail mit sensiblen Kundendaten (Name, Adresse, E-Mail) in den KI-Chatbot, um eine Zusammenfassung zu erhalten. Diese Anfrage wird an einen Cloud-Dienst wie OpenAI oder Google gesendet. Selbst wenn das LLM die Daten nicht speichert, der Anbieter tut es möglicherweise. In den USA wurde OpenAI zwischenzeitlich sogar gerichtlich gezwungen, Anfragen 30 Tage lang zu speichern.

Der Einsatz von «LLM-as-a-Service» (LLMaaS) ist effizient und leistungsstark. Er birgt jedoch ein inhärentes Datenschutzrisiko: Sensible Unternehmensdaten verlassen das Unternehmen und werden in einer fremden Jurisdiktion (z.B. den USA) verarbeitet und potenziell gespeichert. Für Unternehmen, die mit PII (Personal Identifiable Information), Finanzdaten oder Gesundheitsdaten arbeiten, ist dies ein kritisches Compliance-Risiko. Sie müssen technisch sicherstellen, dass solche Daten niemals an den externen Anbieter gesendet werden.

Das Problem: Daten verlassen unkontrolliert das Unternehmen

3D-Bild zu Generative AI

Exklusiv für CEOs und GL: Sichern Sie Ihre Compliance und minimieren Sie KI-Risiken

Compliance-Falle KI? Als CEO oder GL-Mitglied tragen Sie die Verantwortung. Dieser exklusive Kurs deckt Compliance-Anforderungen im Umgang mit KI auf.

Die Lösung: PII-Schutz als Guardrail auf dem Gateway

Hier kommt eine letzte, entscheidende Funktion des LLM-Gateways (siehe Teil 2 und Teil 3) ins Spiel: der Datenschutz-Filter.

Der Gateway fungiert als «letztes Bollwerk» oder «Security Guard» direkt vor dem Ausgang zum Internet. Bevor eine Anfrage an das externe LLM (z.B. OpenAI) gesendet wird, durchläuft sie eine automatisierte PII-Prüfung. Diese Prüfung hat zwei mögliche Aktionen zur Folge:

Beispiel für PII-Maskierung:

Dieser Prozess wird oft durch spezialisierte, kleinere KI-Modelle oder Dienste durchgeführt, die darauf trainiert sind, PII (Namen, E-Mail-Adressen, Telefonnummern, Kreditkartennummern etc.) in Texten zu erkennen.

KI-Beratung für Unternehmen

Strategien und Lösungen

KI-Beratung für KMU

Von der Strategie bis zur Umsetzung: Unsere KI-Beratung unterstützt Ihr Unternehmen mit passgenauen AI-Lösungen.

Praxis-Beispiel: PII-Detection & Guardrails Frameworks

Mit dieser letzten Komponente schliesst sich der Kreis unseres KI-Infrastruktur-Blueprints (Teil 1). Der LLM-Gateway ist nicht nur für Strategie (Teil 2) und Kosten (Teil 3) zuständig, sondern auch das entscheidende Organ für Sicherheit und Datenschutz.

FAQ KI Datenschutz

Ist PII-Maskierung 100% sicher?
Nein, keine automatisierte Erkennung ist 100% perfekt. Es besteht immer ein Restrisiko, dass eine PII nicht erkannt wird. Die «BLOCK»-Methode ist daher bei hochsensiblen Daten (z.B. im Gesundheitswesen) oft die sicherere Wahl als «MASK».

Verlangsamt diese zusätzliche Prüfung nicht die Anfrage?
Ja, sie fügt eine minimale Latenz hinzu (Latenz-Overhead), da die Anfrage einen zusätzlichen Verarbeitungsschritt durchlaufen muss. Dieser Overhead ist bei Nutzung schneller PII-Modelle (wie Presidio) jedoch meist im Millisekunden Bereich und für den Nutzer kaum spürbar.

Was ist mit Self-Hosting? Löst das nicht alle Datenschutzprobleme?
Ja, wenn Sie ein Open-Source-Modell komplett auf Ihrer eigenen Hardware (On-Premise) betreiben, verlassen keine Daten das Unternehmen. Dies löst das PII-Problem, schafft aber neue Herausforderungen (Hardware-Kosten, Performance, Wartung). Der PII-Filter auf dem Gateway ist die pragmatische Lösung für Unternehmen, die die Leistung von Cloud-LLMs nutzen und ihre Daten schützen wollen.

Marius Högger Portrait
Der Experte

Marius Högger

Marius Högger vereint als AI Engineer und AI Consultant bei bbv umfassendes Fachwissen in Künstlicher Intelligenz mit einem ausgeprägten Blick für innovative Geschäftspotenziale. Im KI-Team von bbv entwickelt er fortschrittliche KI-Applikationen und integriert Unternehmensdaten gezielt in KI-Modelle, um Kunden wertvolle Erkenntnisse und nachhaltige Effizienzsteigerungen zu ermöglichen.

Unser Wissen im Abo

Attention!

Sorry, so far we got only content in English for this section.

Achtung!

Entschuldigung, bisher haben wir für diesen Abschnitt nur deutschsprachige Inhalte.