PageIndex macht RAG ohne Vektoren
Ein neues Retrieval-System schmeißt Embeddings über Bord. PageIndex findet relevante Dokument-Stellen nicht durch Ähnlichkeit, sondern durch Reasoning.
Das Problem mit klassischem RAG
Jedes RAG-System hat dieselbe Schwachstelle: Vektor-Suche findet ähnliche Textstellen — nicht die richtigen. Bei einem 200-Seiten-Finanzbericht liegt die Antwort selten im semantisch nächsten Absatz. Sie steckt in einer Tabelle drei Kapitel weiter, die erst im Kontext der Fragestellung Sinn ergibt.
Wie PageIndex funktioniert
Statt Dokumente in Vektoren zu zerkleinern, lässt PageIndex ein LLM über die Struktur eines Dokuments nachdenken. Das System navigiert durch Überschriften, Abschnitte und Zusammenhänge — wie ein Mensch, der ein Inhaltsverzeichnis liest und dann gezielt blättert.
- Kein Embedding nötig** — keine Vektor-Datenbank, kein Chunking
- Strukturbasiert** — das Modell versteht Kapitel, Tabellen, Querverweise
- Reasoning statt Similarity** — Relevanz wird erschlossen, nicht berechnet
✅ Pro
- Findet Antworten, die Vektor-Suche systematisch übersieht
- Funktioniert besonders gut bei langen, strukturierten Dokumenten
- Keine aufwendige Embedding-Pipeline nötig
❌ Con
- Braucht LLM-Inferenz pro Abruf — teurer als ein Vektor-Lookup
- Skalierung bei Millionen Dokumenten unklar
- Abhängig von der Reasoning-Qualität des eingesetzten Modells
💡 Was das bedeutet
Für alle, die RAG mit Fach-Dokumenten bauen — Recht, Finanzen, Forschung — ist das ein relevanter Ansatz. Die Vektor-Suche ist dort oft der stille Flaschenhals: Das System antwortet confident, aber aus dem falschen Absatz. PageIndex adressiert genau dieses Problem.