KI soll Flop-Studien von Durchbrüchen trennen
Chinesische Forscher füttern Sprachmodelle mit 2,1 Millionen wissenschaftlichen Arbeiten. Das Ziel: Eine KI, die vorhersagt, welche Forschung zitiert wird — und welche in der Versenkung verschwindet.
So funktioniert es
Ein Team mehrerer chinesischer Universitäten hat Zitationsdaten als Qualitätssignal genutzt. Die Logik: Wer oft zitiert wird, hat offenbar etwas Relevantes gesagt. Wer nie zitiert wird, hat ins Leere publiziert.
Die Sprachmodelle lernen aus diesem Muster, Papers nach "wissenschaftlichem Geschmack" zu bewerten. Klingt elegant. Ist aber auch gefährlich simpel.
Zahlenbox
- 2,1 Mio.** — Papers im Trainingsdatensatz
- 0** — öffentlich verfügbare Demos oder Downloads
- 0** — veröffentlichte Modelle zum Testen
Was das bedeutet
Wenn das funktioniert, könnten Fördergeldgeber und Journals ein Werkzeug bekommen, das Forschungsanträge vorbewertet. Das spart Zeit. Das spart Geld. Aber es gibt einen Haken: Zitationen messen Popularität, nicht Wahrheit. Einsteins erste Relativitätstheorie-Paper wurden jahrelang ignoriert.
✅ Pro
- Riesiger Datensatz mit echten Impact-Signalen
- Konkreter Anwendungsfall für Forschungsförderung
- Automatisierung eines Prozesses, der heute Monate dauert
❌ Con
- Zitationen ≠ Qualität — Hype-Themen werden überbewertet
- Kein Modell, kein Demo, kein Code veröffentlicht
- Risiko: KI zementiert den Status quo statt Außenseiter-Ideen zu fördern
Der blinde Fleck
Peer Review ist kaputt. Das weiß jeder in der Wissenschaft. Aber die Lösung kann nicht sein, den kaputten Prozess in Trainingsdaten zu gießen und dann so zu tun, als hätte man Objektivität erfunden. Zitations-Rankings belohnen Netzwerke, Trends und Selbstzitation — nicht zwingend gute Forschung.