Durch Secure Multiparty Computation unterstützte KI für vertrauliche Antworten auf Lieferantenfragebögen

Einführung

Sicherheitsfragebögen sind die Torwächter von B2B‑SaaS‑Verträgen. Sie verlangen detaillierte Informationen über Infrastruktur, Datenverarbeitung, Incident‑Response und Compliance‑Kontrollen. Lieferanten müssen häufig Dutzende solcher Fragebögen pro Quartal beantworten, wobei jedes Mal Nachweise gefordert werden, die sensible interne Daten enthalten können – Architekturdiagramme, privilegierte Zugangsdaten oder proprietäre Prozessbeschreibungen.

Traditionelle KI‑gestützte Automation, wie die Procurize AI Engine, beschleunigt die Antwortgenerierung enorm, erfordert jedoch typischerweise zentralen Zugriff auf das Rohmaterial. Diese Zentralisierung birgt zwei wesentliche Risiken:

  1. Datenlecks – Wird das KI‑Modell oder der zugrundeliegende Speicher kompromittiert, können vertrauliche Unternehmensinformationen offengelegt werden.
  2. Regulatorische Nicht‑Konformität – Vorschriften wie die DSGVO, der CCPA und aufkommende Daten‑Souveränitätsgesetze beschränken, wo und wie personenbezogene bzw. proprietäre Daten verarbeitet werden dürfen.

Enter Secure Multiparty Computation (SMPC) – ein kryptografisches Protokoll, das es mehreren Parteien erlaubt, gemeinsam eine Funktion über ihre Eingaben zu berechnen, ohne diese Eingaben preiszugeben. Durch die Kombination von SMPC mit generativer KI können wir präzise, prüffähige Antworten auf Fragebögen erzeugen, ohne jemals Rohdaten dem KI‑Modell oder einem einzelnen Verarbeitungsknoten preiszugeben.

Dieser Artikel beleuchtet die technischen Grundlagen, praktische Implementierungsschritte und geschäftlichen Vorteile einer Secure‑SMPC‑AI‑Pipeline, zugeschnitten auf die Procurize‑Plattform.

Wichtigste Erkenntnis: Durch SMPC augmentierte KI liefert die Geschwindigkeit der Automation und die Privatsphärengarantie von Zero‑Knowledge, und verändert damit grundlegend, wie SaaS‑Unternehmen auf Sicherheitsfragebögen reagieren.


1. Grundlagen der Secure Multiparty Computation

Secure Multiparty Computation ermöglicht einer Gruppe von Teilnehmenden, die jeweils einen privaten Input besitzen, eine gemeinsame Funktion f zu berechnen, sodass:

  • Korrektheit – Alle Teilnehmenden erhalten das korrekte Ergebnis f(x₁, x₂, …, xₙ).
  • Privatsphäre – Kein Teilnehmender erfährt etwas über die Eingaben der anderen, außer dem, was aus dem Ergebnis ableitbar ist.

SMPC‑Protokolle lassen sich in zwei Hauptfamilien einteilen:

ProtokollGrundideeTypischer Anwendungsfall
Secret Sharing (Shamir, additive)Jeder Input wird in zufällige Anteile aufgeteilt, die an alle Parteien verteilt werden. Berechnungen erfolgen auf den Anteilen, und die Rekonstruktion liefert das Ergebnis.Große Matrixoperationen, privacy‑preserving Analytics
Garbled CircuitsEin Teilnehmender („Garbler“) verschlüsselt einen booleschen Schaltkreis; der Evaluator führt den Schaltkreis mit verschlüsselten Eingaben aus.Binäre Entscheidungsfunktionen, sichere Vergleiche

Für unser Szenario – Textextraktion, semantische Ähnlichkeit und Evidenz‑Synthese – ist der additive Secret‑Sharing‑Ansatz am skalierbarsten, da er hochdimensionale Vektoroperationen effizient handhaben kann. Moderne MPC‑Frameworks wie MP‑SPDZ, CrypTen oder Scale‑MPC unterstützen diesen Ansatz.


2. Architektur‑Übersicht

Unten steht ein hoch­level Mermaid‑Diagramm, das den End‑zu‑End‑Fluss von SMPC‑augmentierter KI innerhalb von Procurize darstellt.

  graph TD
    A["Dateninhaber (Unternehmen)"] -->|Verschlüsseln & Teilen| B["SMPC‑Knoten 1 (KI‑Rechen)"]
    A -->|Verschlüsseln & Teilen| C["SMPC‑Knoten 2 (Policy‑Store)"]
    A -->|Verschlüsseln & Teilen| D["SMPC‑Knoten 3 (Audit‑Ledger)"]
    B -->|Sichere Vektor‑Ops| E["LLM‑Inference (Verschlüsselt)"]
    C -->|Policy‑Abruf| E
    D -->|Beweis‑Generierung| F["Zero‑Knowledge Audit‑Proof"]
    E -->|Verschlüsselte Antwort| G["Antwort‑Aggregator"]
    G -->|Aufgedeckte Antwort| H["Lieferanten‑Fragebogen‑UI"]
    F -->|Audit‑Trail| H

Erläuterung der Komponenten

  • Dateninhaber (Unternehmen) – Verfügt über proprietäre Dokumente (z. B. SOC 2‑Berichte, Architekturdiagramme). Vor jeder Verarbeitung teilt das Unternehmen jedes Dokument in geheime Anteile, die an die drei SMPC‑Knoten verteilt werden.
  • SMPC‑Knoten – Berechnen unabhängig auf den Anteilen. Knoten 1 führt die LLM‑Inference‑Engine (z. B. ein feinabgestimmtes Llama‑2‑Modell) unter Verschlüsselung aus. Knoten 2 hält Policy‑Wissensgraphen (z. B. ISO 27001‑Kontrollen) ebenfalls geheim geteilt. Knoten 3 pflegt ein unveränderbares Audit‑Ledger (Blockchain oder Append‑Only‑Log), das Anforderungs‑Metadaten ohne Rohdaten protokolliert.
  • LLM‑Inference (Verschlüsselt) – Das Modell erhält verschlüsselte Einbettungen, erzeugt verschlüsselte Antwort‑Vektoren und gibt sie an den Aggregator zurück.
  • Antwort‑Aggregator – Rekonstruiert die Klartext‑Antwort erst, wenn die gesamte Berechnung abgeschlossen ist, sodass kein Zwischenergebnis leakte.
  • Zero‑Knowledge‑Audit‑Proof – Wird von Knoten 3 erzeugt, um zu beweisen, dass die Antwort aus den definierten Policy‑Quellen stammt, ohne diese selbst preiszugeben.

3. Detaillierter Ablauf

3.1 Ingestion & Secret Sharing

  1. Dokumentnormalisierung – PDFs, Word‑Dateien und Code‑Snippets werden in Klartext konvertiert und tokenisiert.
  2. Einbettungsgenerierung – Ein leichter Encoder (z. B. MiniLM) erzeugt dichte Vektoren für jeden Absatz.
  3. Additives Secret‑Splitting – Für jeden Vektor v werden zufällige Anteile v₁, v₂, v₃ erzeugt, sodass v = v₁ + v₂ + v₃ (mod p).
  4. Verteilung – Die Anteile werden über TLS an die drei SMPC‑Knoten gesendet.

3.2 Sichere Retrieval von Policy‑Kontext

  • Der Policy‑Wissensgraph (Kontrollen, Zuordnungen zu Standards) liegt ebenfalls verschlüsselt über die Knoten verteilt.
  • Bei Ankunft einer Frage (z. B. „Beschreiben Sie Ihre Verschlüsselung von Daten im Ruhezustand“) führt das System sichere Schnittmengen‑Abfragen durch, um relevante Policy‑Abschnitte zu finden, ohne den gesamten Graphen offenzulegen.

3.3 Verschlüsselte LLM‑Inference

  • Die verschlüsselten Einbettungen und die abgerufenen Policy‑Vektoren werden in einen privacy‑preserving Transformer eingespeist, der auf geheimen Anteilen arbeitet.
  • Techniken wie FHE‑freundliche Attention oder MPC‑optimiertes Softmax berechnen die wahrscheinlichste Token‑Sequenz im verschlüsselten Raum.

3.4 Rekonstruktion & prüffähiger Beweis

  • Sobald die verschlüsselten Antwort‑Tokens fertig sind, rekonstruiert der Antwort‑Aggregator die Klartext‑Antwort durch Summieren der Anteile.
  • Gleichzeitig erzeugt Knoten 3 ein Zero‑Knowledge‑SNARK, das bestätigt, dass die Antwort:
    • Die korrekten Policy‑Abschnitte verwendet hat.
    • Keine Rohdaten preisgibt.

3.5 Übergabe an den End‑Benutzer

  • Die fertige Antwort erscheint in der Procurize‑UI zusammen mit einem cryptographic‑proof‑Badge.
  • Auditoren können das Badge mit einem öffentlichen Verifikationsschlüssel prüfen und somit die Konformität bestätigen, ohne die zugrundeliegenden Dokumente anzufordern.

4. Sicherheitsgarantien

BedrohungSMPC‑KI‑Mitigation
Datenexfiltration aus KI‑ServiceRohdaten verlassen niemals die Umgebung des Eigentümers; es werden nur geheime Anteile übertragen.
Insider‑Threat beim Cloud‑ProviderKein einzelner Knoten besitzt einen vollständigen Überblick; zur Rekonstruktion sind mindestens 2 von 3 Kollusionen nötig.
Modell‑Extraktions‑AngriffeDas LLM arbeitet auf verschlüsselten Eingaben; Angreifer können das Modell nicht mit beliebigen Daten anfragen.
Regulatorische AuditsDer zk‑SNARK‑Beweis demonstriert Konformität bei gleichzeitigem Schutz der Daten‑Locality‑Anforderungen.
Man‑in‑the‑MiddleAlle Kanäle sind TLS‑gesichert; Secret‑Sharing fügt eine kryptografische Unabhängigkeit von der Transport‑Sicherheit hinzu.

5. Performance‑Überlegungen

Obwohl SMPC Overhead verursacht, halten moderne Optimierungen die Latenz für die Automatisierung von Fragebögen im akzeptablen Bereich:

KennzahlBaseline (Plain AI)SMPC‑KI (3‑Knoten)
Inference‑Latenz≈ 1,2 s pro Antwort≈ 3,8 s pro Antwort
Durchsatz120 Antworten/min45 Antworten/min
Rechen‑Kosten0,25 CPU‑Stunde/1k Antworten0,80 CPU‑Stunde/1k Antworten
Netzwerk‑Traffic< 5 MB/Antwort≈ 12 MB/Antwort (geheime Anteile)

Wesentliche Optimierungen:

  • Batching – Mehrere Fragebogen‑Items parallel über dieselben Anteile verarbeiten.
  • Hybrid‑Protokoll – Secret Sharing für lineare Algebra, Garbled Circuits nur für nicht‑lineare Funktionen (z. B. Vergleiche).
  • Edge‑Deployment – Einen SMPC‑Knoten on‑premises betreiben, reduziert das Vertrauen in externe Clouds.

6. Integration in Procurize

Procurize stellt bereits bereit:

  • Dokumenten‑Repository – Zentraler Speicher für Compliance‑Artifacts.
  • Fragebogen‑Builder – UI zum Erstellen, Zuweisen und Verfolgen von Fragebögen.
  • KI‑Engine – Feinabgestimmtes LLM für Antwortgenerierung.

Zur Einbindung von SMPC‑KI:

  1. SMPC‑Modus aktivieren – Administrator schaltet in den Plattform‑Einstellungen einen Schalter.
  2. SMPC‑Knoten bereitstellen – Drei Docker‑Container (Node 1‑3) mittels des offiziellen procurize/smpc-node‑Images deployen; die Container registrieren sich automatisch beim Orchestrator.
  3. Policy‑Graph definieren – Vorhandene Policy‑Mappings in ein JSON‑LD‑Graph exportieren; die Plattform verschlüsselt und verteilt ihn.
  4. prüffähige Beweise konfigurieren – Einen öffentlichen Verifikationsschlüssel hinterlegen; die UI rendert anschließend automatisch Proof‑Badges.
  5. Sichere LLM trainieren – Dieselben Trainingsdaten wie die Standard‑KI‑Engine nutzen; das Modell‑Weight‑File wird in Node 1 innerhalb einer sealed enclave (z. B. Intel SGX) geladen für zusätzlichen Schutz.

7. Praxisbeispiel: FinTech‑Lieferanten‑Audit

Unternehmen: FinFlow, ein mittelgroßer FinTech‑SaaS‑Anbieter.

Problem: Quartals‑Audits von Bankpartnern verlangten vollständige Angaben zur Daten‑at‑Rest‑Verschlüsselung. Die Schlüssel‑ und Schlüssel‑Management‑Richtlinien sind klassifiziert und dürfen nicht an einen externen KI‑Service übermittelt werden.

Lösung:

  1. FinFlow deployte SMPC‑KI‑Knoten – Node 1 in einer Azure Confidential Compute VM, Node 2 on‑premises, Node 3 als Hyperledger‑Fabric‑Peer.
  2. Das proprietäre Verschlüsselungs‑Policy‑Dokument (5 MB) wurde secret‑geshared über die Knoten verteilt.
  3. Die Frage „Beschreiben Sie Ihren Schlüssel‑Rotations‑Plan“ wurde in 4,2 Sekunden beantwortet, inklusive prüffähigem Proof.
  4. Die Auditoren der Bank verifizierten den Proof mit dem öffentlichen Schlüssel und bestätigten, dass die Antwort aus FinFlows interner Policy stammt, ohne die Policy selbst zu sehen.

Ergebnis: Die Audit‑Durchlaufzeit sank von 7 Tagen auf 2 Stunden, und es traten keine Compliance‑Verstöße auf.


8. Ausblick

Roadmap‑ItemErwarteter Nutzen
Föderierte SMPC über mehrere LieferantenGemeinsames Benchmarking ohne Austausch proprietärer Daten.
Dynamische Policy‑Refresh mit On‑Chain‑GovernanceSofortige Policy‑Updates werden in der SMPC‑Berechnung reflektiert.
Zero‑Knowledge Risiko‑ScoringLiefert quantitative Risiko‑Scores, provable aus verschlüsselten Daten.
KI‑generierte Compliance‑NarrativeErweitert die reine Ja/Nein‑Antworten zu ausführlichen, privacy‑sicheren Erklärungen.

Fazit

Secure Multiparty Computation, in Kombination mit generativer KI, bietet eine privacy‑first, prüffähige und skalierbare Lösung zur Automatisierung von Sicherheitsfragebögen. Sie erfüllt drei zentrale Anforderungen moderner SaaS‑Unternehmen:

  1. Geschwindigkeit – Nahe‑Echtzeit‑Antworten reduzieren Deal‑Friktionen.
  2. Sicherheit – Vertrauliche Daten verlassen nie den rechtmäßigen Eigentümer und sind vor Lecks sowie regulatorischen Verstößen geschützt.
  3. Vertrauen – Kryptografische Beweise geben Kunden und Auditoren die Sicherheit, dass Antworten aus verifizierten internen Policies stammen.

Durch die Einbettung von SMPC‑KI in Procurize können Unternehmen einen traditionell manuellen Engpass in einen Wettbewerbsvorteil verwandeln, schneller Verträge abschließen und zugleich höchste Datenschutzstandards einhalten.


Siehe auch

nach oben
Sprache auswählen