Durch Secure Multiparty Computation unterstützte KI für vertrauliche Antworten auf Lieferantenfragebögen
Einführung
Sicherheitsfragebögen sind die Torwächter von B2B‑SaaS‑Verträgen. Sie verlangen detaillierte Informationen über Infrastruktur, Datenverarbeitung, Incident‑Response und Compliance‑Kontrollen. Lieferanten müssen häufig Dutzende solcher Fragebögen pro Quartal beantworten, wobei jedes Mal Nachweise gefordert werden, die sensible interne Daten enthalten können – Architekturdiagramme, privilegierte Zugangsdaten oder proprietäre Prozessbeschreibungen.
Traditionelle KI‑gestützte Automation, wie die Procurize AI Engine, beschleunigt die Antwortgenerierung enorm, erfordert jedoch typischerweise zentralen Zugriff auf das Rohmaterial. Diese Zentralisierung birgt zwei wesentliche Risiken:
- Datenlecks – Wird das KI‑Modell oder der zugrundeliegende Speicher kompromittiert, können vertrauliche Unternehmensinformationen offengelegt werden.
- Regulatorische Nicht‑Konformität – Vorschriften wie die DSGVO, der CCPA und aufkommende Daten‑Souveränitätsgesetze beschränken, wo und wie personenbezogene bzw. proprietäre Daten verarbeitet werden dürfen.
Enter Secure Multiparty Computation (SMPC) – ein kryptografisches Protokoll, das es mehreren Parteien erlaubt, gemeinsam eine Funktion über ihre Eingaben zu berechnen, ohne diese Eingaben preiszugeben. Durch die Kombination von SMPC mit generativer KI können wir präzise, prüffähige Antworten auf Fragebögen erzeugen, ohne jemals Rohdaten dem KI‑Modell oder einem einzelnen Verarbeitungsknoten preiszugeben.
Dieser Artikel beleuchtet die technischen Grundlagen, praktische Implementierungsschritte und geschäftlichen Vorteile einer Secure‑SMPC‑AI‑Pipeline, zugeschnitten auf die Procurize‑Plattform.
Wichtigste Erkenntnis: Durch SMPC augmentierte KI liefert die Geschwindigkeit der Automation und die Privatsphärengarantie von Zero‑Knowledge, und verändert damit grundlegend, wie SaaS‑Unternehmen auf Sicherheitsfragebögen reagieren.
1. Grundlagen der Secure Multiparty Computation
Secure Multiparty Computation ermöglicht einer Gruppe von Teilnehmenden, die jeweils einen privaten Input besitzen, eine gemeinsame Funktion f zu berechnen, sodass:
- Korrektheit – Alle Teilnehmenden erhalten das korrekte Ergebnis f(x₁, x₂, …, xₙ).
- Privatsphäre – Kein Teilnehmender erfährt etwas über die Eingaben der anderen, außer dem, was aus dem Ergebnis ableitbar ist.
SMPC‑Protokolle lassen sich in zwei Hauptfamilien einteilen:
| Protokoll | Grundidee | Typischer Anwendungsfall |
|---|---|---|
| Secret Sharing (Shamir, additive) | Jeder Input wird in zufällige Anteile aufgeteilt, die an alle Parteien verteilt werden. Berechnungen erfolgen auf den Anteilen, und die Rekonstruktion liefert das Ergebnis. | Große Matrixoperationen, privacy‑preserving Analytics |
| Garbled Circuits | Ein Teilnehmender („Garbler“) verschlüsselt einen booleschen Schaltkreis; der Evaluator führt den Schaltkreis mit verschlüsselten Eingaben aus. | Binäre Entscheidungsfunktionen, sichere Vergleiche |
Für unser Szenario – Textextraktion, semantische Ähnlichkeit und Evidenz‑Synthese – ist der additive Secret‑Sharing‑Ansatz am skalierbarsten, da er hochdimensionale Vektoroperationen effizient handhaben kann. Moderne MPC‑Frameworks wie MP‑SPDZ, CrypTen oder Scale‑MPC unterstützen diesen Ansatz.
2. Architektur‑Übersicht
Unten steht ein hochlevel Mermaid‑Diagramm, das den End‑zu‑End‑Fluss von SMPC‑augmentierter KI innerhalb von Procurize darstellt.
graph TD
A["Dateninhaber (Unternehmen)"] -->|Verschlüsseln & Teilen| B["SMPC‑Knoten 1 (KI‑Rechen)"]
A -->|Verschlüsseln & Teilen| C["SMPC‑Knoten 2 (Policy‑Store)"]
A -->|Verschlüsseln & Teilen| D["SMPC‑Knoten 3 (Audit‑Ledger)"]
B -->|Sichere Vektor‑Ops| E["LLM‑Inference (Verschlüsselt)"]
C -->|Policy‑Abruf| E
D -->|Beweis‑Generierung| F["Zero‑Knowledge Audit‑Proof"]
E -->|Verschlüsselte Antwort| G["Antwort‑Aggregator"]
G -->|Aufgedeckte Antwort| H["Lieferanten‑Fragebogen‑UI"]
F -->|Audit‑Trail| H
Erläuterung der Komponenten
- Dateninhaber (Unternehmen) – Verfügt über proprietäre Dokumente (z. B. SOC 2‑Berichte, Architekturdiagramme). Vor jeder Verarbeitung teilt das Unternehmen jedes Dokument in geheime Anteile, die an die drei SMPC‑Knoten verteilt werden.
- SMPC‑Knoten – Berechnen unabhängig auf den Anteilen. Knoten 1 führt die LLM‑Inference‑Engine (z. B. ein feinabgestimmtes Llama‑2‑Modell) unter Verschlüsselung aus. Knoten 2 hält Policy‑Wissensgraphen (z. B. ISO 27001‑Kontrollen) ebenfalls geheim geteilt. Knoten 3 pflegt ein unveränderbares Audit‑Ledger (Blockchain oder Append‑Only‑Log), das Anforderungs‑Metadaten ohne Rohdaten protokolliert.
- LLM‑Inference (Verschlüsselt) – Das Modell erhält verschlüsselte Einbettungen, erzeugt verschlüsselte Antwort‑Vektoren und gibt sie an den Aggregator zurück.
- Antwort‑Aggregator – Rekonstruiert die Klartext‑Antwort erst, wenn die gesamte Berechnung abgeschlossen ist, sodass kein Zwischenergebnis leakte.
- Zero‑Knowledge‑Audit‑Proof – Wird von Knoten 3 erzeugt, um zu beweisen, dass die Antwort aus den definierten Policy‑Quellen stammt, ohne diese selbst preiszugeben.
3. Detaillierter Ablauf
3.1 Ingestion & Secret Sharing
- Dokumentnormalisierung – PDFs, Word‑Dateien und Code‑Snippets werden in Klartext konvertiert und tokenisiert.
- Einbettungsgenerierung – Ein leichter Encoder (z. B. MiniLM) erzeugt dichte Vektoren für jeden Absatz.
- Additives Secret‑Splitting – Für jeden Vektor v werden zufällige Anteile v₁, v₂, v₃ erzeugt, sodass
v = v₁ + v₂ + v₃ (mod p). - Verteilung – Die Anteile werden über TLS an die drei SMPC‑Knoten gesendet.
3.2 Sichere Retrieval von Policy‑Kontext
- Der Policy‑Wissensgraph (Kontrollen, Zuordnungen zu Standards) liegt ebenfalls verschlüsselt über die Knoten verteilt.
- Bei Ankunft einer Frage (z. B. „Beschreiben Sie Ihre Verschlüsselung von Daten im Ruhezustand“) führt das System sichere Schnittmengen‑Abfragen durch, um relevante Policy‑Abschnitte zu finden, ohne den gesamten Graphen offenzulegen.
3.3 Verschlüsselte LLM‑Inference
- Die verschlüsselten Einbettungen und die abgerufenen Policy‑Vektoren werden in einen privacy‑preserving Transformer eingespeist, der auf geheimen Anteilen arbeitet.
- Techniken wie FHE‑freundliche Attention oder MPC‑optimiertes Softmax berechnen die wahrscheinlichste Token‑Sequenz im verschlüsselten Raum.
3.4 Rekonstruktion & prüffähiger Beweis
- Sobald die verschlüsselten Antwort‑Tokens fertig sind, rekonstruiert der Antwort‑Aggregator die Klartext‑Antwort durch Summieren der Anteile.
- Gleichzeitig erzeugt Knoten 3 ein Zero‑Knowledge‑SNARK, das bestätigt, dass die Antwort:
- Die korrekten Policy‑Abschnitte verwendet hat.
- Keine Rohdaten preisgibt.
3.5 Übergabe an den End‑Benutzer
- Die fertige Antwort erscheint in der Procurize‑UI zusammen mit einem cryptographic‑proof‑Badge.
- Auditoren können das Badge mit einem öffentlichen Verifikationsschlüssel prüfen und somit die Konformität bestätigen, ohne die zugrundeliegenden Dokumente anzufordern.
4. Sicherheitsgarantien
| Bedrohung | SMPC‑KI‑Mitigation |
|---|---|
| Datenexfiltration aus KI‑Service | Rohdaten verlassen niemals die Umgebung des Eigentümers; es werden nur geheime Anteile übertragen. |
| Insider‑Threat beim Cloud‑Provider | Kein einzelner Knoten besitzt einen vollständigen Überblick; zur Rekonstruktion sind mindestens 2 von 3 Kollusionen nötig. |
| Modell‑Extraktions‑Angriffe | Das LLM arbeitet auf verschlüsselten Eingaben; Angreifer können das Modell nicht mit beliebigen Daten anfragen. |
| Regulatorische Audits | Der zk‑SNARK‑Beweis demonstriert Konformität bei gleichzeitigem Schutz der Daten‑Locality‑Anforderungen. |
| Man‑in‑the‑Middle | Alle Kanäle sind TLS‑gesichert; Secret‑Sharing fügt eine kryptografische Unabhängigkeit von der Transport‑Sicherheit hinzu. |
5. Performance‑Überlegungen
Obwohl SMPC Overhead verursacht, halten moderne Optimierungen die Latenz für die Automatisierung von Fragebögen im akzeptablen Bereich:
| Kennzahl | Baseline (Plain AI) | SMPC‑KI (3‑Knoten) |
|---|---|---|
| Inference‑Latenz | ≈ 1,2 s pro Antwort | ≈ 3,8 s pro Antwort |
| Durchsatz | 120 Antworten/min | 45 Antworten/min |
| Rechen‑Kosten | 0,25 CPU‑Stunde/1k Antworten | 0,80 CPU‑Stunde/1k Antworten |
| Netzwerk‑Traffic | < 5 MB/Antwort | ≈ 12 MB/Antwort (geheime Anteile) |
Wesentliche Optimierungen:
- Batching – Mehrere Fragebogen‑Items parallel über dieselben Anteile verarbeiten.
- Hybrid‑Protokoll – Secret Sharing für lineare Algebra, Garbled Circuits nur für nicht‑lineare Funktionen (z. B. Vergleiche).
- Edge‑Deployment – Einen SMPC‑Knoten on‑premises betreiben, reduziert das Vertrauen in externe Clouds.
6. Integration in Procurize
Procurize stellt bereits bereit:
- Dokumenten‑Repository – Zentraler Speicher für Compliance‑Artifacts.
- Fragebogen‑Builder – UI zum Erstellen, Zuweisen und Verfolgen von Fragebögen.
- KI‑Engine – Feinabgestimmtes LLM für Antwortgenerierung.
Zur Einbindung von SMPC‑KI:
- SMPC‑Modus aktivieren – Administrator schaltet in den Plattform‑Einstellungen einen Schalter.
- SMPC‑Knoten bereitstellen – Drei Docker‑Container (Node 1‑3) mittels des offiziellen
procurize/smpc-node‑Images deployen; die Container registrieren sich automatisch beim Orchestrator. - Policy‑Graph definieren – Vorhandene Policy‑Mappings in ein JSON‑LD‑Graph exportieren; die Plattform verschlüsselt und verteilt ihn.
- prüffähige Beweise konfigurieren – Einen öffentlichen Verifikationsschlüssel hinterlegen; die UI rendert anschließend automatisch Proof‑Badges.
- Sichere LLM trainieren – Dieselben Trainingsdaten wie die Standard‑KI‑Engine nutzen; das Modell‑Weight‑File wird in Node 1 innerhalb einer sealed enclave (z. B. Intel SGX) geladen für zusätzlichen Schutz.
7. Praxisbeispiel: FinTech‑Lieferanten‑Audit
Unternehmen: FinFlow, ein mittelgroßer FinTech‑SaaS‑Anbieter.
Problem: Quartals‑Audits von Bankpartnern verlangten vollständige Angaben zur Daten‑at‑Rest‑Verschlüsselung. Die Schlüssel‑ und Schlüssel‑Management‑Richtlinien sind klassifiziert und dürfen nicht an einen externen KI‑Service übermittelt werden.
Lösung:
- FinFlow deployte SMPC‑KI‑Knoten – Node 1 in einer Azure Confidential Compute VM, Node 2 on‑premises, Node 3 als Hyperledger‑Fabric‑Peer.
- Das proprietäre Verschlüsselungs‑Policy‑Dokument (5 MB) wurde secret‑geshared über die Knoten verteilt.
- Die Frage „Beschreiben Sie Ihren Schlüssel‑Rotations‑Plan“ wurde in 4,2 Sekunden beantwortet, inklusive prüffähigem Proof.
- Die Auditoren der Bank verifizierten den Proof mit dem öffentlichen Schlüssel und bestätigten, dass die Antwort aus FinFlows interner Policy stammt, ohne die Policy selbst zu sehen.
Ergebnis: Die Audit‑Durchlaufzeit sank von 7 Tagen auf 2 Stunden, und es traten keine Compliance‑Verstöße auf.
8. Ausblick
| Roadmap‑Item | Erwarteter Nutzen |
|---|---|
| Föderierte SMPC über mehrere Lieferanten | Gemeinsames Benchmarking ohne Austausch proprietärer Daten. |
| Dynamische Policy‑Refresh mit On‑Chain‑Governance | Sofortige Policy‑Updates werden in der SMPC‑Berechnung reflektiert. |
| Zero‑Knowledge Risiko‑Scoring | Liefert quantitative Risiko‑Scores, provable aus verschlüsselten Daten. |
| KI‑generierte Compliance‑Narrative | Erweitert die reine Ja/Nein‑Antworten zu ausführlichen, privacy‑sicheren Erklärungen. |
Fazit
Secure Multiparty Computation, in Kombination mit generativer KI, bietet eine privacy‑first, prüffähige und skalierbare Lösung zur Automatisierung von Sicherheitsfragebögen. Sie erfüllt drei zentrale Anforderungen moderner SaaS‑Unternehmen:
- Geschwindigkeit – Nahe‑Echtzeit‑Antworten reduzieren Deal‑Friktionen.
- Sicherheit – Vertrauliche Daten verlassen nie den rechtmäßigen Eigentümer und sind vor Lecks sowie regulatorischen Verstößen geschützt.
- Vertrauen – Kryptografische Beweise geben Kunden und Auditoren die Sicherheit, dass Antworten aus verifizierten internen Policies stammen.
Durch die Einbettung von SMPC‑KI in Procurize können Unternehmen einen traditionell manuellen Engpass in einen Wettbewerbsvorteil verwandeln, schneller Verträge abschließen und zugleich höchste Datenschutzstandards einhalten.
