Files
breakpilot-compliance/docs-src/services/sdk-modules/document-crawler.md
Benjamin Boenisch dccb3e9f36 feat: add reporting frontend, fix module categorization, update docs
- Create Reporting module frontend (page.tsx) with executive dashboard
  showing compliance score, risk overview, deadlines, module KPIs
- Create Reporting lib (types.ts, api.ts) matching Go backend models
- Add Reporting to STEP_EXPLANATIONS and both SDK sidebars
- Remove DSB Portal, Multi-Tenant, SSO from SDK sidebars (admin-only)
- Add Multi-Tenant, SSO, DSB Portal to dashboard navigation.ts
  with 'Plattform-Verwaltung' subgroup
- Update docs: academy.md (PDF certs), reporting.md (new),
  index.md (SDK vs Admin categorization), mkdocs.yml (all modules)

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
2026-02-15 01:03:53 +01:00

1.2 KiB

Document Crawler — Dokumentenanalyse

Automatische Erfassung und Analyse von Compliance-Dokumenten auf Webseiten und in Dateisystemen.

Features

  • Web-Crawling — Automatisches Scannen von Webseiten nach Datenschutzerklaerungen, Impressum und Cookie-Bannern
  • Dokumentenanalyse — KI-gestuetzte Pruefung auf Vollstaendigkeit und Aktualitaet
  • DSGVO-Check — Automatische Pruefung gegen Pflichtangaben (Art. 13/14 DSGVO)
  • Monitoring — Regelmaessige Ueberpruefung mit Benachrichtigung bei Aenderungen
  • Quellen-Verwaltung — Konfigurierbare Crawl-Ziele und Zeitplaene

API Endpoints

Alle unter /api/v1/crawler/, benoetigen X-Tenant-ID Header.

Method Endpoint Beschreibung
GET /jobs Crawl-Jobs auflisten
POST /jobs Neuen Crawl-Job starten
GET /jobs/{id} Job-Status
GET /results Crawl-Ergebnisse
GET /results/{id} Einzelnes Ergebnis
POST /results/{id}/analyze KI-Analyse starten

Frontend

Seite unter /sdk/document-crawler mit Job-Verwaltung, Ergebnis-Uebersicht und Analyse-Detail.

Datenbank

Migration in der AI Compliance SDK erstellt Tabellen fuer Crawl-Jobs, Ergebnisse und Analysen.