34d2529e04f82ee734679c078da087bc36c370d9
Architektur-Umbau: FAQ-Antworten werden NICHT mehr direkt gestreamt. Stattdessen werden die Top-3 relevanten FAQ-Einträge als Kontext ans LLM übergeben. Das LLM interpretiert die Frage, kombiniert mehrere FAQs bei komplexen Fragen und antwortet natürlich. Vorher: Frage → Keyword-Match → FAQ direkt streamen (LLM umgangen) Nachher: Frage → Top-3 FAQ-Matches → LLM-Prompt als Kontext → LLM antwortet Neue Funktionen: - matchFAQMultiple(): Top-N Matches statt nur bester - buildFAQContext(): Baut Kontext-String für LLM-Injection - faqContext statt faqAnswer im Request-Body - System-Prompt Anweisung: "Kombiniere bei Bedarf, natürlicher Fließtext" Behebt: Komplexe Fragen mit 2+ Themen werden jetzt korrekt beantwortet Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
Description
No description provided
Languages
Python
34%
TypeScript
31.1%
Go
29.3%
HTML
3.7%
Shell
0.9%
Other
0.9%