import { CodeBlock, InfoBox } from '@/components/DevPortalLayout'
export function MultiTenancyLlmAuditSection() {
return (
<>
9. Multi-Tenancy und Zugriffskontrolle
Das System ist mandantenfaehig (Multi-Tenant): Mehrere Organisationen
koennen es gleichzeitig nutzen, ohne dass sie gegenseitig auf ihre Daten zugreifen koennen.
9.1 Rollenbasierte Zugriffskontrolle (RBAC)
| Rolle |
Darf |
| Mitarbeiter | Anwendungsfaelle einreichen, eigene Bewertungen einsehen |
| Teamleiter | E1-Eskalationen pruefen, Team-Assessments einsehen |
| DSB (Datenschutzbeauftragter) | E2/E3-Eskalationen pruefen, alle Assessments einsehen, Policies aendern |
| Rechtsabteilung | E3-Eskalationen pruefen, Grundsatzentscheidungen |
| Administrator | System konfigurieren, Nutzer verwalten, LLM-Policies festlegen |
9.2 PII-Erkennung und -Schutz
Bevor Texte an ein Sprachmodell gesendet werden, durchlaufen sie eine automatische
PII-Erkennung. Das System erkennt ueber 20 Arten personenbezogener Daten
(E-Mail-Adressen, Telefonnummern, Namen, IP-Adressen, etc.).
Je nach Konfiguration werden erkannte PII-Daten geschwuerzt, maskiert
oder nur im Audit-Log markiert.
10. Wie das System KI nutzt (und wie nicht)
| Aufgabe |
Entschieden von |
Rolle der KI |
| Machbarkeit (YES/CONDITIONAL/NO) | Deterministische Regeln | Keine |
| Risikoscore berechnen | Regelbasierte Berechnung | Keine |
| Eskalation ausloesen | Schwellenwerte + Regellogik | Keine |
| Ergebnis erklaeren | -- | LLM + RAG-Kontext |
| Rechtsfragen beantworten | -- | LLM + RAG (Rechtskorpus) |
| Dokumente generieren (DSFA, TOM, VVT) | -- | LLM + Vorlagen |
LLM-Provider und Fallback
- Primaer: Ollama (lokal) -- Qwen 2.5 32B bzw. Mistral, laeuft direkt auf dem Server. Keine Daten verlassen das lokale Netzwerk.
- Fallback: Anthropic Claude -- Wird nur aktiviert, wenn das lokale Modell nicht verfuegbar ist.
11. Audit-Trail: Alles wird protokolliert
Saemtliche Aktionen im System werden revisionssicher protokolliert:
- Jede Compliance-Bewertung mit allen Ein- und Ausgaben
- Jede Eskalationsentscheidung mit Begruendung
- Jeder LLM-Aufruf (wer hat was wann gefragt, welches Modell wurde verwendet)
- Jede Aenderung an Controls, Evidence und Policies
- Jeder Login und Daten-Export
Der Use-Case-Text wird nur mit Einwilligung des Nutzers gespeichert.
Standardmaessig wird nur ein SHA-256-Hash des Textes gespeichert.
12. Security Scanner: Technische Sicherheitspruefung
- Container-Scanning (Trivy): Prueft Docker-Images auf bekannte Schwachstellen (CVEs)
- Statische Code-Analyse (Semgrep): Sucht im Quellcode nach Sicherheitsluecken
- Secret Detection (Gitleaks): Findet versehentlich eingecheckte Passwoerter, API-Keys und Tokens
- SBOM-Generierung: Erstellt eine vollstaendige Liste aller verwendeten Bibliotheken und deren Lizenzen
13. Zusammenfassung: Der komplette Datenfluss
{`SCHRITT 1: FAKTEN SAMMELN
Nutzer fuellt Fragebogen aus: Welche Daten? Welcher Zweck? Welche Branche? Wo gehostet?
SCHRITT 2: ANWENDBARKEIT PRUEFEN
Obligations Framework: DSGVO? AI Act? NIS2?
SCHRITT 3: REGELN PRUEFEN (45+ Regeln)
R-001 (WARN): Personenbezogene Daten +10 Risiko
R-060 (WARN): KI-Transparenz fehlt +15 Risiko
→ Gesamt-Risikoscore: 35/100 (LOW), Machbarkeit: CONDITIONAL
SCHRITT 4: CONTROLS ZUORDNEN
C_EXPLICIT_CONSENT, C_TRANSPARENCY, C_DATA_MINIMIZATION
SCHRITT 5: ESKALATION (bei Bedarf)
Score 35 → Stufe E1 → Teamleiter, SLA 24h
SCHRITT 6: ERKLAERUNG GENERIEREN
LLM + RAG: Gesetzesartikel suchen, Erklaerungstext generieren
SCHRITT 7: DOKUMENTATION
DSFA, TOM, VVT, Compliance-Report (PDF/ZIP/JSON)
SCHRITT 8: MONITORING
Controls regelmaessig pruefen, Nachweise auf Ablauf ueberwachen`}
Der Compliance Hub nimmt die Beschreibung eines KI-Vorhabens entgegen, prueft es gegen
ueber 45 deterministische Regeln und 400+ Gesetzesartikel, berechnet ein Risiko, ordnet
Massnahmen zu, eskaliert bei Bedarf an menschliche Pruefer und dokumentiert alles
revisionssicher -- wobei die KI nur fuer Erklaerungen und Zusammenfassungen eingesetzt wird,
niemals fuer die eigentliche Compliance-Entscheidung.
>
)
}