Ein neues arXiv-Paper schlägt einen simplen Trick vor, der Masked Diffusion Models (MDMs) schlauer machen soll. Der Name: Self-Conditioning Adaptation.
Forscher haben ein Problem gelöst, das Masked Diffusion Language Models (MDLMs) bisher ausgebremst hat: Jeder Generierungsschritt brauchte das volle, fette Transformer-Modell. Das ...
Masked Diffusion Language Models generieren Text nicht Wort für Wort, sondern demaskieren ganze Sequenzen parallel. Problem: Die logisch wichtigsten Wörter kommen dabei zuletzt — ...
Ein Team um Ding hat ein Foundation Model gebaut, das kleine Moleküle aus Naturstoffen versteht. Ziel: schneller neue Medikamente finden.