- Create Reporting module frontend (page.tsx) with executive dashboard showing compliance score, risk overview, deadlines, module KPIs - Create Reporting lib (types.ts, api.ts) matching Go backend models - Add Reporting to STEP_EXPLANATIONS and both SDK sidebars - Remove DSB Portal, Multi-Tenant, SSO from SDK sidebars (admin-only) - Add Multi-Tenant, SSO, DSB Portal to dashboard navigation.ts with 'Plattform-Verwaltung' subgroup - Update docs: academy.md (PDF certs), reporting.md (new), index.md (SDK vs Admin categorization), mkdocs.yml (all modules) Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
33 lines
1.2 KiB
Markdown
33 lines
1.2 KiB
Markdown
# Document Crawler — Dokumentenanalyse
|
|
|
|
Automatische Erfassung und Analyse von Compliance-Dokumenten auf Webseiten und in Dateisystemen.
|
|
|
|
## Features
|
|
|
|
- **Web-Crawling** — Automatisches Scannen von Webseiten nach Datenschutzerklaerungen, Impressum und Cookie-Bannern
|
|
- **Dokumentenanalyse** — KI-gestuetzte Pruefung auf Vollstaendigkeit und Aktualitaet
|
|
- **DSGVO-Check** — Automatische Pruefung gegen Pflichtangaben (Art. 13/14 DSGVO)
|
|
- **Monitoring** — Regelmaessige Ueberpruefung mit Benachrichtigung bei Aenderungen
|
|
- **Quellen-Verwaltung** — Konfigurierbare Crawl-Ziele und Zeitplaene
|
|
|
|
## API Endpoints
|
|
|
|
Alle unter `/api/v1/crawler/`, benoetigen `X-Tenant-ID` Header.
|
|
|
|
| Method | Endpoint | Beschreibung |
|
|
|--------|----------|-------------|
|
|
| GET | `/jobs` | Crawl-Jobs auflisten |
|
|
| POST | `/jobs` | Neuen Crawl-Job starten |
|
|
| GET | `/jobs/{id}` | Job-Status |
|
|
| GET | `/results` | Crawl-Ergebnisse |
|
|
| GET | `/results/{id}` | Einzelnes Ergebnis |
|
|
| POST | `/results/{id}/analyze` | KI-Analyse starten |
|
|
|
|
## Frontend
|
|
|
|
Seite unter `/sdk/document-crawler` mit Job-Verwaltung, Ergebnis-Uebersicht und Analyse-Detail.
|
|
|
|
## Datenbank
|
|
|
|
Migration in der AI Compliance SDK erstellt Tabellen fuer Crawl-Jobs, Ergebnisse und Analysen.
|