- Create Reporting module frontend (page.tsx) with executive dashboard showing compliance score, risk overview, deadlines, module KPIs - Create Reporting lib (types.ts, api.ts) matching Go backend models - Add Reporting to STEP_EXPLANATIONS and both SDK sidebars - Remove DSB Portal, Multi-Tenant, SSO from SDK sidebars (admin-only) - Add Multi-Tenant, SSO, DSB Portal to dashboard navigation.ts with 'Plattform-Verwaltung' subgroup - Update docs: academy.md (PDF certs), reporting.md (new), index.md (SDK vs Admin categorization), mkdocs.yml (all modules) Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
1.2 KiB
1.2 KiB
Document Crawler — Dokumentenanalyse
Automatische Erfassung und Analyse von Compliance-Dokumenten auf Webseiten und in Dateisystemen.
Features
- Web-Crawling — Automatisches Scannen von Webseiten nach Datenschutzerklaerungen, Impressum und Cookie-Bannern
- Dokumentenanalyse — KI-gestuetzte Pruefung auf Vollstaendigkeit und Aktualitaet
- DSGVO-Check — Automatische Pruefung gegen Pflichtangaben (Art. 13/14 DSGVO)
- Monitoring — Regelmaessige Ueberpruefung mit Benachrichtigung bei Aenderungen
- Quellen-Verwaltung — Konfigurierbare Crawl-Ziele und Zeitplaene
API Endpoints
Alle unter /api/v1/crawler/, benoetigen X-Tenant-ID Header.
| Method | Endpoint | Beschreibung |
|---|---|---|
| GET | /jobs |
Crawl-Jobs auflisten |
| POST | /jobs |
Neuen Crawl-Job starten |
| GET | /jobs/{id} |
Job-Status |
| GET | /results |
Crawl-Ergebnisse |
| GET | /results/{id} |
Einzelnes Ergebnis |
| POST | /results/{id}/analyze |
KI-Analyse starten |
Frontend
Seite unter /sdk/document-crawler mit Job-Verwaltung, Ergebnis-Uebersicht und Analyse-Detail.
Datenbank
Migration in der AI Compliance SDK erstellt Tabellen fuer Crawl-Jobs, Ergebnisse und Analysen.