🧪 EXPERIMENTAL
Together verschenkt Inference — Krypto zahlt mit
Together AI koppelt sich mit Pearl Research Labs zusammen und subventioniert KI-Inference durch Krypto-Emissionen. Ein neuer Endpoint geht live — billiger als alles andere am ...
Together AI koppelt sich mit Pearl Research Labs zusammen und subventioniert KI-Inference durch Krypto-Emissionen. Ein neuer Endpoint geht live — billiger als alles andere am Markt.
Was konkret passiert ist
Together AI hostet ab sofort einen vergünstigten Inference-Endpoint für Gemma-4-31B-it-pearl. Bezahlt wird das Ganze nicht direkt vom Nutzer, sondern über Pearl Tokens. Die werden für geleistete Rechenarbeit ausgeschüttet — "Proof of Useful Work" nennen sie das.
Zahlenbox
- 31B** — Parameter im Gemma-4-pearl-Modell
- OpenAI-kompatibel** — Drop-in für bestehende Codebases
- 2 Player** — Together (Inference) + Pearl (Token-Economy)
- 0 Zusatzkosten** — Subvention läuft komplett über Krypto-Emissionen
Wie das technisch läuft
- Endpoint:** Standard-API von Together AI, OpenAI-Schema
- Modell:** Gemma-4-31B feingetuned auf Pearl-Datensätze
- Bezahlmechanik:** Inference-Arbeit erzeugt Pearl Tokens, die den Preis drücken
- Integration:** Nur Base-URL und API-Key austauschen, fertig
✅ Pro
- Drop-in-Replacement ohne Code-Umbau
- Aggressiv günstig durch Crypto-Subvention
- Top-Quelle (Together) hostet, also stabile Latenz
❌ Con
- Preis hängt am Pearl-Token-Kurs
- Krachts beim Token, krachts beim Endpoint
- Kein Tier-1-Modell wie Claude oder GPT — Gemma bleibt Gemma
💡 Was das bedeutet
Crypto und KI verschmelzen jetzt auf der Infrastruktur-Ebene. Wer billige Inference braucht und das Token-Risiko trägt, bekommt hier den schärfsten Preis am Markt. Wer einen Production-Workload mit SLAs fährt, sollte zweimal hinschauen.
🤖 NERDMAN-URTEIL
Geniales Modell, solange der Pearl-Token nicht crasht — dann wird aus dem Schnäppchen ganz schnell ein teurer Spaß.
Quelle: Together AI Blog
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.