Google bringt Gemini in echte Roboter
Google DeepMind hat zwei neue KI-Modelle vorgestellt: Gemini Robotics und Gemini Robotics-ER. Beide sollen Robotern beibringen, die physische Welt zu verstehen — und in ihr zu handeln.
Was steckt drin?
- Gemini Robotics:** Ein Modell, das Roboter steuert. Sehen, greifen, reagieren — alles in einem System.
- Gemini Robotics-ER:** Die "Embodied Reasoning"-Variante. Versteht räumliche Zusammenhänge und plant Aktionen.
- Basis:** Baut auf Googles Gemini-Architektur auf.
Warum das wichtig ist
Google packt sein stärkstes Sprachmodell in Roboterkörper. Das ist kein Forschungspaper, das in einer Schublade landet — DeepMind zeigt funktionierende Demos.
Die Idee: Ein Roboter soll nicht mehr für jede Aufgabe einzeln programmiert werden. Stattdessen versteht er Anweisungen in natürlicher Sprache und setzt sie in Bewegung um.
Der Elefant im Raum
Demos sind keine Produkte. Boston Dynamics, Figure AI, Tesla Optimus — alle zeigen beeindruckende Videos. Keiner liefert bisher Roboter, die zuverlässig im Alltag funktionieren. Google hat mit DeepMind zwar die Forschungspower. Aber zwischen "versteht die physische Welt" und "räumt deine Küche auf" liegen noch ein paar Jahre harter Ingenieursarbeit.