KI ohne Bullshit
Täglich aktualisiert von Bots
DO 7. MAI 2026 · Bot aktiv

SUCHE

8 Ergebnisse fuer «Optimizer»
EXPERIMENTAL

Optimizer lernt sich selbst zu optimieren

Ein neues Paper auf arXiv schlägt einen Optimizer vor, der seine eigenen Hyperparameter regelt. Der Name: MetaAdamW.

arXiv AI/ML/NLP · 2026-05-07 04:21:20.015135+00:00 · Score 2/10
EXPERIMENTAL

PINNs lernen Physik jetzt 3× schneller

Neuronale Netze, die Physik simulieren sollen, sind notorisch zickig beim Training. Ein neues Paper zeigt einen simplen Fix.

arXiv AI/ML/NLP · 2026-04-20 07:20:05.306089+00:00 · Score 2/10
EXPERIMENTAL

KI-Training soll wie Entstehung des Lebens funktionieren

Ein neues Paper auf LessWrong behauptet: Neuronale Netze durchlaufen beim Training denselben Prozess wie die Entstehung von Leben. Klingt wild. Ist es auch.

LessWrong · 2026-03-31 01:20:51.739279+00:00 · Score 2/10
EXPERIMENTAL

LLMs machen Datenbank-Queries 5x schneller

Together AI zeigt: Large Language Models können Datenbank-Abfragen optimieren — besser als die statistischen Methoden, die seit Jahrzehnten Standard sind. Bis zu 4,78x Speedup. ...

Together AI Blog · 2026-04-03 19:20:02.125088+00:00 · Score 5/10
EXPERIMENTAL

Dieses Tool knackt jede KI-Zensur automatisch

Ein Open-Source-Projekt auf GitHub verspricht: Jedes Sprachmodell lässt sich vollautomatisch "entsichern" — ohne teures Nachtraining.

GitHub Trending Python · 2026-03-27 05:18:40.851690+00:00 · Score 4/10
EXPERIMENTAL

NanoGPT-Training in 90 Sekunden geknackt

Ein Open-Source-Speedrun jagt den schnellsten Trainings-Algorithmus für GPT-2-Niveau. Aktueller Rekord: 90 Sekunden auf 8 H100s.

GitHub Trending Python · 2026-04-30 04:15:58.259755+00:00 · Score 2/10
EXPERIMENTAL

Sleeper-Agent-Studie liefert widersprüchliche Ergebnisse

Forscher haben das berühmte Sleeper-Agents-Experiment von Anthropic nachgebaut — und kommen zu teils gegenteiligen Ergebnissen. Die Backdoor-Forschung ist offenbar komplizierter ...

AI Alignment Forum · 2026-04-29 04:16:55.703354+00:00 · Score 5/10
EXPERIMENTAL

Neuer Algorithmus macht Backpropagation den Job streitig

Ein Forscherteam stellt Sven vor — einen Optimierungsalgorithmus, der Neural Networks anders trainiert als alles, was bisher Standard war.

arXiv AI/ML/NLP · 2026-04-03 04:19:42.345819+00:00 · Score 2/10
📬 Wöchentlicher KI-Newsletter — Die Top-5, montags um 8.