'use client' export function ArchitectureTab() { return (
Das RAG-Indexierungs-Modul verarbeitet Dokumente und macht sie fuer die KI-gestuetzte Suche verfuegbar. Es handelt sich nicht um klassisches Machine-Learning-Training, sondern um:
Fragen werden in Vektoren umgewandelt und aehnliche Dokumente gefunden
LLM generiert Antworten basierend auf gefundenen Dokumenten
| Modell | text-embedding-3-small |
| Dimensionen | 1536 |
| Port | 8087 |
| Chunk-Groesse | 1000 Zeichen |
| Ueberlappung | 200 Zeichen |
| Distanzmetrik | COSINE |