Googles neues KI-Modell steuert echte Roboter
DeepMind liefert ab: Gemini Robotics-ER 1.6 ist da. Ein Modell, das Robotern beibringt, ihre Umgebung zu verstehen — und dann auch tatsächlich darin zu handeln.
Was Robotics-ER 1.6 kann
Das Modell kombiniert räumliches Reasoning mit Multi-View-Verständnis. Heißt: Der Roboter sieht seine Umgebung aus mehreren Kameraperspektiven, versteht wo Objekte stehen, und plant seine Bewegungen selbstständig. Keine starren Programme mehr, sondern echte Entscheidungen in Echtzeit.
Zahlenbox
- 1.6** — aktuelle Modellversion, aufbauend auf der ER-Reihe
- Multi-View** — mehrere Kameraperspektiven gleichzeitig verarbeitet
- Embodied Reasoning** — das Modell "denkt" im physischen Raum
Warum das anders ist als bisherige Robotik-KI
Klassische Robotik-Modelle bekommen einen Befehl und führen eine feste Bewegungssequenz aus. Gemini Robotics-ER versteht den Kontext. Es erkennt, wo ein Objekt liegt, wie es gegriffen werden muss, und passt seine Strategie an, wenn sich etwas verändert.
✅ Pro
- Spatial Reasoning direkt im Foundation Model integriert
- Autonome Aufgabenplanung in realen Umgebungen
- Baut auf Gemini-Architektur — profitiert von Googles gesamtem KI-Stack
❌ Con
- Kein Open-Weight-Release in Sicht
- Reale Robotik-Demos sind notorisch schwer zu verifizieren
- Verfügbarkeit für externe Entwickler unklar
💡 Was das bedeutet
Google positioniert Gemini nicht nur als Chatbot-Konkurrenz zu GPT und Claude, sondern als Betriebssystem für die physische Welt. Wer Robotik und Foundation Models zusammenbringt, kontrolliert die nächste Plattform nach Smartphones. Das ist kein Forschungsprojekt mehr — das ist Produktstrategie.