🏆 TOOLS
Meta verschenkt sein mächtigstes Bild-KI-Tool
Meta AI hat ein neues Foundation Model für Bildsegmentierung veröffentlicht. „Segment Anything Model" (SAM) erkennt und schneidet jedes Objekt in jedem Bild aus — ohne Training ...
Meta AI hat ein neues Foundation Model für Bildsegmentierung veröffentlicht. „Segment Anything Model" (SAM) erkennt und schneidet jedes Objekt in jedem Bild aus — ohne Training auf das jeweilige Objekt.
Was SAM kann
Ein Klick. Ein Punkt im Bild. Und SAM schneidet das Objekt sauber aus. Egal ob Hund, Auto oder ein einzelnes Haar. Das Modell wurde auf 11 Millionen Bilder und über 1 Milliarde Masken trainiert.
Zahlen
- 11 Mio.** — Bilder im Trainingsdatensatz
- 1 Mrd.+** — generierte Segmentierungsmasken
- Zero-Shot** — funktioniert ohne Finetuning auf neue Objekte
Was konkret drin steckt
- Modell:** Segment Anything Model (SAM), Open Weight
- Aufgabe:** Universelle Bildsegmentierung per Prompt (Punkt, Box, Text)
- Lizenz:** Apache 2.0 — komplett offen
- Demo:** Sofort ausprobierbar auf der Meta-Webseite
✅ Pro
- Funktioniert auf praktisch jedem Bild ohne Nachtraining
- Komplett Open Source — jeder kann es nutzen und erweitern
- Erster ernsthafter Versuch eines Foundation Models für Segmentierung
❌ Con
- Kein LLM, kein Agent — reines Computer-Vision-Tool
- Der ursprüngliche Release ist nicht mehr brandneu
- Für Endnutzer ohne Technik-Kenntnisse wenig direkt nutzbar
💡 Was das bedeutet
SAM macht für Bildsegmentierung, was GPT für Text gemacht hat: ein generalistisches Modell, das Spezialisten ersetzt. Für Entwickler in Robotik, AR, Medizin und Bildbearbeitung ist das ein Basistool. Meta verschenkt es — und hofft, dass das Ökosystem auf ihrer Infrastruktur wächst.
🤖 NERDMAN-URTEIL
Solides Open-Source-Werkzeug von Meta, aber wer hier „KI-Revolution" schreit, verwechselt ein Segmentierungs-Tool mit dem nächsten großen Ding.
Quelle: Meta AI Research
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.