{models.length} Modelle konfiguriert {usingMock && ( Mock-Daten (Backend nicht erreichbar) )}
Aktives Backend
{status.active_backend.toUpperCase()}
Geladene Modelle
{status.loaded_models.length}
Cache Hit-Rate
{status.cache_hits + status.cache_misses > 0 ? `${((status.cache_hits / (status.cache_hits + status.cache_misses)) * 100).toFixed(1)}%` : '--'}
Uptime
{formatUptime(status.uptime_s)}
{m.key}
| Modell | Backend | Quantisierung | Groesse | RAM | Inferenz | Ladezeit |
|---|---|---|---|---|---|---|
| {b.model} | {b.backend} | {b.quantization} | {formatBytes(b.size_mb)} | {formatBytes(b.ram_mb)} | {b.inference_ms} ms | {b.load_time_s.toFixed(1)}s |
Keine Benchmark-Daten
Klicken Sie "Benchmark starten" um einen Vergleich durchzufuehren.
Waehlen Sie welches Backend fuer die Modell-Inferenz verwendet werden soll.
Speichere...
)}| Modell | PyTorch | Groesse (PT) | ONNX | Groesse (ONNX) | Einsparung |
|---|---|---|---|---|---|
| {m.name} | {ptAvail ? formatBytes(m.pytorch.size_mb) : '--'} | {oxAvail ? formatBytes(m.onnx.size_mb) : '--'} | {savings !== null ? ( -{savings}% ) : ( -- )} |