Apple lässt KI komplette Apps zusammenbauen
Apple Research stellt Athena vor — ein System, das aus einfachen Beschreibungen fertige App-Oberflächen generiert. Nicht als Produkt, sondern als Forschungspapier.
Das Problem
Wer schon mal versucht hat, mit ChatGPT oder Claude eine komplette App-UI zu generieren, kennt das Ergebnis: Chaos. Mehrere Dateien, die zusammenspielen müssen. Navigation zwischen Screens. Ein Datenmodell, das alles zusammenhält. Ein einzelner Prompt reicht dafür nicht.
So funktioniert Athena
Athena zerlegt das Problem in Zwischenschritte — sogenannte Intermediate Representations. Statt alles auf einmal zu generieren, baut das System die App schrittweise auf:
- Schritt 1:** Screen-Inhalte einzeln generieren
- Schritt 2:** Navigationsflüsse zwischen den Screens definieren
- Schritt 3:** Datenmodell ableiten und verknüpfen
- Schritt 4:** Alles zu funktionierendem Code zusammensetzen
Das Prinzip: Jede Zwischenstufe gibt dem LLM genug Kontext für den nächsten Schritt. Iterativ, nicht monolithisch.
✅ Pro
- Cleverer Ansatz: Teile-und-herrsche statt Brute-Force-Prompting
- Skaliert auf Multi-Screen-Apps mit echten Datenflüssen
- Kommt direkt aus Apples ML-Abteilung — nicht von irgendeinem Indie-Dev
❌ Con
- Kein Produkt, kein Download, kein Demo
- Rein akademisches Paper ohne konkreten Zeitplan
- Ob das jemals in Xcode landet, steht in den Sternen
💡 Was das bedeutet
Apple forscht ernsthaft daran, UI-Entwicklung zu automatisieren. Wer glaubt, dass Xcode in drei Jahren noch genauso aussieht wie heute, hat nicht aufgepasst. Aber zwischen Forschungspapier und Feature in der WWDC-Keynote liegen Welten.