Meta schenkt der Welt ein Augen-KI
Meta AI hat ein Modell gebaut, das jedes Objekt in jedem Bild erkennen und ausschneiden kann. Name: Segment Anything Model — kurz SAM.
Was SAM konkret macht
Ein Klick auf ein Foto. SAM erkennt das Objekt, zeichnet die Umrisse, schneidet es aus. Kein Training nötig, kein Feintuning. Funktioniert auf Bildern, die das Modell noch nie gesehen hat — von Unterwasserfotos bis Mikroskop-Aufnahmen.
Zahlenbox
- 11 Mio.** — Bilder im Trainingsdatensatz
- 1,1 Mrd.** — automatisch generierte Segmentierungs-Masken
- Zero-Shot** — funktioniert ohne Nachtraining auf neuen Bildern
- Open Source** — Modell und Datensatz frei verfügbar
Warum "Foundation Model"?
Meta klaut sich den Begriff aus der LLM-Welt. So wie GPT ein Grundmodell für Text ist, soll SAM das Grundmodell für Bildsegmentierung werden. Ein Modell, auf dem andere aufbauen. Für Robotik, AR-Brillen, Medizin, Videobearbeitung — überall, wo ein Computer verstehen muss, wo ein Objekt aufhört und das nächste anfängt.
✅ Pro
- Komplett Open Source — Modell, Code, Datensatz
- Funktioniert auf praktisch allem ohne Nachtraining
- Riesiger Datensatz als Grundlage für die Community
❌ Con
- Kein Echtzeitmodell — für Video noch zu langsam
- Erkennt Objekte, versteht sie aber nicht semantisch
- Bereits von 2023 — Nachfolger SAM 2 existiert schon
💡 Was das bedeutet
SAM war der Startschuss für Foundation Models außerhalb von Text. Meta hat damit eine ganze Forschungsrichtung losgetreten. Wer heute in Computer Vision arbeitet, kommt an SAM nicht vorbei — auch wenn das Modell selbst schon von SAM 2 überholt wurde.