🧪 EXPERIMENTAL
PageIndex killt die Vektor-Datenbank
Ein neues Open-Source-Projekt auf GitHub will RAG komplett umkrempeln — ohne Embeddings, ohne Chunking, ohne Vector DB.
Ein neues Open-Source-Projekt auf GitHub will RAG komplett umkrempeln — ohne Embeddings, ohne Chunking, ohne Vector DB.
Was PageIndex anders macht
Statt Dokumente in tausend Schnipsel zu hacken und in eine Vektor-Datenbank zu pumpen, baut PageIndex einen Baum. Das LLM navigiert den Baum wie ein Mensch ein Inhaltsverzeichnis. Reasoning-basiert, nicht similarity-basiert.
Die harten Fakten
- Kein Embedding-Modell** — null Vektoren, null Cosine-Similarity
- Kein Chunking** — Dokumente bleiben als Struktur erhalten
- Agentic Retrieval** — der Agent entscheidet selbst, wo er nachschaut
- MCP & API** — direkt einsteckbar in bestehende Stacks
- File System Layer** — skaliert laut Macher auf Millionen Dokumente
✅ Pro
- Kein Vector-DB-Setup, kein Re-Indexing-Hölle
- Kontext bleibt erhalten, kein zerhackter Output
- Funktioniert mit Standard-LLMs out of the box
❌ Con
- Bei jeder Query laufen LLM-Calls — teuer und langsam
- Skalierung auf Millionen Dokumente noch unbewiesen in Production
- Kein Top-Lab dahinter, sondern Startup VectifyAI
💡 Was das bedeutet
Die RAG-Branche hat sich seit zwei Jahren auf Pinecone, Weaviate und Chroma eingeschossen. PageIndex stellt die Grundannahme in Frage: Brauchen wir Vektoren überhaupt, wenn LLMs gut genug reasonen können? Wenn der Ansatz hält, schrumpft ein halber Infrastruktur-Stack auf eine JSON-Datei.
🤖 NERDMAN-URTEIL
Klingt erstmal wie Hipster-RAG, aber die Idee ist sauber gedacht — wer Vector-DBs hasst, sollte das Repo bookmarken.
Quelle: VectifyAI/PageIndex auf GitHub
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.