# Hardware-Anforderungen & Distribution **Stand:** 2026-03-23 --- ## 3-Tier Hardware-Strategie Nicht jeder Lehrer hat dieselbe Hardware. Statt "alles oder nichts" definieren wir drei klare Tiers: ### Tier 1: Basis (jedes Geraet mit 4+ GB RAM) **Gedruckt-OCR + Arbeitsblaetter + Tests — funktioniert ueberall.** | Feature | Status | |---------|--------| | Tesseract OCR (gedruckt) | ~30 MB Modell, ~200 MB RAM | | RapidOCR / PP-OCRv5 (ONNX) | ~40 MB Modell, ~300 MB RAM | | Vokabel-Arbeitsblaetter generieren | Regelbasiert, kein ML | | Multiple-Choice / Lueckentexte | Regelbasiert | | Notenspiegel-Berechnung | Statistik | | PDF-Export | Deterministische Templates | | Rechtschreibpruefung | ~5 MB Woerterbuch | **Speicherbedarf:** ~300 MB App + Modelle **Laeuft auf:** - Jeder Windows-Laptop (4+ GB RAM, beliebige CPU) - iPad (alle Generationen inkl. Basis-iPad) - Android-Tablet ab 4 GB RAM (Galaxy Tab A8/A9) - Chromebook (4 GB RAM) - MacBook (alle) --- ### Tier 2: Erweitert (8+ GB RAM, moderne CPU) **+ Handschrift-OCR — typischer Lehrer-Laptop oder iPad Air.** | Feature | Zusaetzlich zu Tier 1 | |---------|----------------------| | TrOCR Handschrift-OCR (int8 quantisiert) | ~560 MB Modell, ~1.5 GB RAM | | Text-Embeddings (MiniLM) | ~90 MB Modell, ~100 MB RAM | | OpenCV Layout-/Grafik-Analyse | ~400 MB RAM (bei A4 300 DPI) | | Lokale Vektorsuche | Eingebettete DB | **Speicherbedarf:** ~1.0-1.3 GB App + Modelle **Mindestanforderungen:** | Spec | Minimum | Empfohlen | |------|---------|-----------| | **RAM** | 8 GB | 16 GB | | **CPU** | Intel i5 10. Gen / Apple M1 / Snapdragon 8 Gen 1 | Intel i5 12. Gen+ / Apple M2+ | | **Speicher frei** | 5 GB | 10 GB | | **OS** | Windows 10, macOS 12+, iPadOS 17+ | Aktuell | **Laeuft auf:** - Windows-Laptop 8 GB RAM (typischer Lehrer-Dienstlaptop, z.B. Lenovo L15 i5) — **~60-150 Sek/Seite Handschrift-OCR** - MacBook Air M1+ 8 GB — **~30-60 Sek/Seite** (Neural Engine Beschleunigung) - iPad Air M2+ (8 GB) — mit CoreML Konvertierung, **~20-40 Sek/Seite** - iPad Pro M4+ (12-16 GB) — komfortabel - Samsung Galaxy Tab S8/S9 (8 GB) — mit NNAPI/QNN, **~30-50 Sek/Seite** **Laeuft NICHT auf:** - iPad Basis (4-6 GB RAM) — iOS killt den Prozess bei TrOCR - Budget-Android-Tablets (Galaxy Tab A8/A9, 3-4 GB RAM) - Chromebooks mit 4 GB RAM - Windows-Laptops mit 4 GB RAM --- ### Tier 3: Voll (16+ GB RAM / Cloud / Schul-Server) **+ KI-Gutachten + RAG + Voice — braucht LLM.** | Feature | Zusaetzlich zu Tier 2 | |---------|----------------------| | KI-Gutachten-Generierung | LLM (llama3.2 ~4 GB oder Cloud) | | RAG / EH-Suche | Qdrant + Embedding-Service | | Voice-Assistent | Whisper + LLM | | KI-Worksheet-Modifikation | Vision-LLM | **Optionen:** | Variante | Hardware | Kosten | |----------|---------|--------| | **Schul-Server** | Mac Mini oder vergleichbar (Specs noch zu ermitteln) | Noch zu ermitteln | | **Cloud** | BreakPilot Cloud-Service (gehostet) | Monatlich | | **Lehrer-PC 16+ GB** | Lokales Ollama mit kleinen LLMs | 0 (eigene Hardware) | !!! note "Server-Anforderungen noch offen" Die genauen Hardware-Anforderungen fuer einen Schul-Server (RAM, CPU, Speicher) muessen im Projektverlauf durch Benchmarks ermittelt werden. Unsere Entwicklungsmaschine ist ein Mac Mini M4 Pro mit 64 GB RAM (~3.200 EUR) — das ist aber die Obergrenze, nicht die Empfehlung. Moeglicherweise reicht fuer den Schulbetrieb deutlich weniger. --- ## Typische Lehrer-Hardware in Deutschland (2024-2026) ### Digitalpakt-Kontext - **Digitalpakt 1.0** (2019-2024): 6,5 Mrd. EUR, 97% der Mittel abgerufen - **Digitalpakt 2.0** (2025-2030): 5 Mrd. EUR, Fokus Infrastruktur + Geraete - Beschafft werden: Tablets, Laptops, interaktive Whiteboards, WLAN ### Was Schulen kaufen | Geraet | Typische Specs | Preis | Verbreitung | |--------|---------------|-------|-------------| | **iPad (Basis)** | A16 Chip, 6 GB RAM, 64-128 GB | ~350-400 EUR | Sehr hoch | | **iPad Air** | M2/M3 Chip, 8 GB RAM, 128-512 GB | ~520-650 EUR | Hoch | | **Lehrer-Laptop** | Intel i5 10. Gen, 8 GB RAM, 256 GB SSD | ~400-600 EUR | Standard | | **Samsung Galaxy Tab A** | 3-4 GB RAM, 32-128 GB | ~230-280 EUR | Gering | | **Chromebook** | 4 GB RAM | ~250-350 EUR | Minimal (in DE) | !!! info "iPad dominiert" iPads sind an fast allen Schulen in Deutschland der Standard. Die meisten Schulen beschaffen iPad (Basis) oder iPad Air ueber MDM-Loesungen wie JAMF. --- ## Modell-Groessen und RAM-Bedarf | Modell | Float32 | Int8 (quantisiert) | RAM | |--------|---------|-------------------|-----| | TrOCR-large Handschrift | 2.23 GB | **~560 MB** | 3-4 GB / **1-1.5 GB** | | RapidOCR / PP-OCRv5 | ~40-90 MB | — | 200-500 MB | | Tesseract (DE+EN) | ~30-50 MB | — | 200-300 MB | | MiniLM Embeddings | ~90 MB | ~43 MB | 50-110 MB | | pyspellchecker | ~5 MB | — | <10 MB | | OpenCV (A4 300 DPI) | — | — | 200-400 MB | | **Gesamt Offline-Kern** | **~2.6-3.0 GB** | **~1.0-1.3 GB** | **5-7 GB / 3-4.5 GB** | !!! warning "TrOCR ist der Flaschenhals" TrOCR-large (2.23 GB float32) **muss** als int8 ONNX quantisiert werden fuer 8 GB Geraete. Ohne Quantisierung laeuft es nur auf 16+ GB Hardware. Alternativ: TrOCR-base (~1.3 GB float32, ~330 MB int8) mit moderatem Qualitaetsverlust. --- ## ONNX Runtime: Plattform-Support | Plattform | ONNX Runtime | Hardware-Beschleunigung | |-----------|-------------|------------------------| | **Windows** | Ja (nativ) | CPU, DirectML, OpenVINO | | **macOS** | Ja (nativ) | CPU, **CoreML** (Neural Engine, 3.5x schneller) | | **iOS** | Ja (ORT Mobile) | **CoreML** EP, XNNPACK | | **Android** | Ja (ORT Mobile) | **NNAPI** EP, QNN EP, XNNPACK | | **ChromeOS (Crostini)** | Ja (Linux-Binary) | Nur CPU | | **Browser (WASM)** | Ja, aber **15-17x langsamer** als nativ | WebGPU (5x langsamer als nativ GPU) | !!! note "Apple-Geraete am besten" Durch CoreML + Neural Engine sind Apple-Geraete (M1+ Mac, iPad Air/Pro) die beste Consumer-Hardware fuer unsere Modelle. ~3.5x schneller als reines CPU-Inference. --- ## Distributions-Strategie ### Desktop (Primaer: Lehrer-Laptops) | Plattform | Methode | Anmerkung | |-----------|---------|-----------| | **Windows** | .exe/.msi Installer von Website | Code-Signing-Zertifikat empfohlen (~300 EUR/Jahr) | | **macOS** | .dmg von Website | Apple Notarization erforderlich (99 EUR/Jahr Developer Account) | | **Linux** | AppImage oder .deb | Keine Signierung noetig | **1-2 GB Installer ist fuer Desktop voellig normal** (VSCode, Slack, etc. sind aehnlich gross). ### Tablets (Sekundaer: iPads, Android) | Plattform | Methode | Anmerkung | |-----------|---------|-----------| | **iOS/iPadOS** | Apple Custom Apps via Apple Business Manager + MDM | Nicht im oeffentlichen App Store, nur fuer Schulen via JAMF/Mosyle | | **Android** | Managed Google Play (private Channel) | Fuer Schulen mit Google Workspace for Education | **Strategie:** Kleine App (~50-100 MB Initial-Download), Modelle werden beim ersten Start nachgeladen mit Fortschrittsanzeige. ### App Store Limits | Store | Max. Download | On-Demand Assets | |-------|-------------|-----------------| | **Apple App Store** | 4 GB | Bis 20 GB (On-Demand Resources) | | **Google Play** | 200 MB (AAB) | Bis 2 GB+ (Play Asset Delivery) | | **Microsoft Store** | 10 GB | — | !!! info "1-2 GB App-Groesse kein Problem" Games sind routinemaessig 2-5 GB. Fuer B2B-Education-Apps via MDM ist die Groesse kein Hindernis, da IT-Admins die Verteilung steuern. ### Warum KEIN PWA? Progressive Web Apps sind **nicht geeignet** fuer unseren Offline-KI-Anwendungsfall: - iOS Safari begrenzt Storage auf ~1 GB pro Origin und **kann Daten jederzeit loeschen** - WebAssembly ONNX Runtime ist **15-17x langsamer** als native Ausfuehrung - Kein zuverlaessiger persistenter Speicher fuer 1+ GB Modelldaten - PWA waere akzeptabel als leichtgewichtiger Companion (Dashboard, Ergebnisse ansehen), aber nicht fuer OCR/ML-Workloads --- ## Framework-Empfehlung | Plattform | Framework | Vorteil | |-----------|-----------|---------| | **Desktop** | **Tauri** (Rust + Web-Frontend) | 5-10 MB Basis (vs. 200 MB Electron), beste ML-Integration via Rust | | **Desktop (Alternative)** | Electron | Schnellste Entwicklung wenn Team Web-fokussiert | | **Mobile** | **Flutter** | Single Codebase iOS+Android, gute FFI fuer native ML-Libs | | **Mobile (Alternative)** | React Native | Wenn Frontend-Team bereits React-erfahren | !!! warning "Desktop und Mobile nicht in einer Codebase" Die UX-Anforderungen sind zu unterschiedlich. Desktop = volle OCR-Pipeline + Korrektur-Workspace. Mobile = Scannen, Ergebnisse ansehen, Lernunits bearbeiten. --- ## Empfohlene Hardware fuer Schulen ### Minimum (Tier 2 — Handschrift-OCR offline) > **Lehrer-Laptop:** Intel i5 (10. Gen+) oder Apple M1+, **8 GB RAM**, 256 GB SSD, Windows 10/11 oder macOS 12+ > > **Oder iPad Air M2+** mit 128 GB Speicher ### Optimal (Tier 3 — alle Features offline) > **Schul-Server:** Hardware-Anforderungen noch zu ermitteln. > > Muss LLMs lokal ausfuehren (Ollama) und als RAG-Server fuer die Schule dienen. > Lehrer verbinden sich ueber WLAN und nutzen Tier-3-Features ueber den Server. > > *Referenz: Unsere Entwicklungsmaschine (Mac Mini M4 Pro, 64 GB RAM, ~3.200 EUR) laeuft komfortabel. Ob ein guenstigeres Modell (z.B. 32 GB RAM, ~1.500-2.000 EUR) ausreicht, wird im Projektverlauf durch Benchmarks geklaert.* ### Oder: BreakPilot Cloud > Schulen ohne eigenen Server koennen Tier-3-Features ueber den BreakPilot Cloud-Service nutzen. > Tier 1 + 2 funktionieren immer offline auf dem Endgeraet.