Ein neues arXiv-Paper schickt Large Language Models in die Neural Architecture Search. Die Idee: Statt Menschen lassen wir die KI selbst bessere KI-Modelle entwerfen.
Die alten Könige der KI-Architektur melden sich zurück. Forscher entstauben LSTM-Netzwerke und bringen sie mit xLSTM in Stellung gegen die Transformer.
Jerry Tworek hat bei OpenAI an den Grundlagen mitgebaut. Jetzt will er mit einem eigenen Laden namens Core Automation alles anders machen — kleines Team, neue Lernverfahren, ...
Wenn eine KI zuerst urteilt und dann prüft, kommt etwas anderes raus als andersrum. Klingt banal — ist es aber nicht.
Meta FAIR hat TRIBE v2 veröffentlicht — ein KI-Modell, das vorhersagt, wie dein Gehirn auf Videos, Audio und Text reagiert. Gleichzeitig. In einem einzigen Modell.
Ein einzelner Transformer-Block, der sich selbst in Schleife aufruft — und trotzdem komplexe Rätsel knackt. Klingt nach Magie. Ist aber Mathe. Und ein Paper, das zeigt: Ohne ...