Forscher haben eine KI darauf trainiert, ihr eigenes Verhalten vorherzusagen. Kann sie erraten, wann sie nach mehr Training plötzlich falsch liegt?
Apple forscht an einem neuen Weg, Bewegung in Szenen vorherzusagen — ohne dafür ganze Videos generieren zu müssen. Stattdessen: kompakte Motion Embeddings, die direkt aus ...
Forscher haben Large Language Models beigebracht, Störungen in Lieferketten vorherzusagen. Nicht mit klassischer Statistik, sondern mit Sprachmodellen, die aus verrauschten, ...
Forscher präsentieren DyMRL: ein System, das multimodale Wissensgraphen nutzt, um reale Ereignisse vorherzusagen. Klingt wild. Ist erstmal nur ein Paper.
Ein Reinforcement-Learning-Startup hat die größte Seed-Runde aller Zeiten eingesammelt. 1,1 Milliarden Dollar — für ein erklärtes Ziel: Superintelligenz bauen.
Ein neues Framework will Machine-Learning-Modelle von der Leine lassen. Die sollen ohne Vortraining selbst herausfinden, welche Variable in einem Datensatz die richtige ...
Wie denkt ein Sprachmodell, wenn es keine Worte benutzt? Ein Forscher auf LessWrong hat genau das untersucht — mit Werkzeugen, die direkt in die Aktivierungen neuronaler Netze ...
China liefert ein neues Open-Source-OCR-Modell. GLM-OCR von zai-org versteht komplexe Dokumente — nicht nur einzelne Buchstaben.
Apples KI-Forscher haben ein neues Trainingsverfahren vorgestellt: Latent Lookahead. Die Idee — Sprachmodelle sollen nicht mehr stur Token für Token entscheiden, sondern mehrere ...
OpenAI stellte mit MuseNet ein Modell vor, das 4-Minuten-Stücke mit bis zu 10 Instrumenten komponiert. Von Country bis Klassik — alles aus einem Transformer.
OpenAI hat ein neues Research-Paper rausgehauen. Thema: Temporal Segment Models für Vorhersage und Steuerung. Klingt sperrig, ist aber ein Ansatz, wie KI-Agenten längere ...
Sebastian Raschka hat gesprochen. Der Mann, dessen Machine-Learning-Bücher in jedem ML-Regal stehen, hat das LLM-Jahr 2025 seziert. Sein Fazit: Kein Stillstand in Sicht. Nirgends.