Pesquisadores ligados à Apple e à UC San Diego propõem o LaDiR (Latent Diffusion Reasoner), framework que junta representação latente contínua com refinamento iterativo de modelos de difusão pra melhorar raciocínio em LLMs. A ideia é fugir da limitação do decoding autorregressivo, que não consegue revisitar tokens anteriores. Aceito no ICLR 2026, com ganhos em benchmarks de matemática e planejamento.
Apple publicou (em parceria com pesquisadores da UC San Diego) o paper LaDiR: Latent Diffusion Enhances LLMs for Text Reasoning, aceito no ICLR 2026. O alvo é um problema conhecido de quem mexe com chain-of-thought: o LLM gera token por token, e quando erra no começo do raciocínio, não tem como voltar e refinar de forma holística.
LLM tradicional usa decoding autorregressivo: escolhe um token, fixa, vai pro próximo. Isso limita duas coisas:
É o tipo de limitação que aparece bastante em CoT (chain-of-thought) longo, onde um deslize na premissa contamina toda a cadeia.
O framework une duas coisas:
Na prática, o modelo gera trajetórias de raciocínio diversas em paralelo e pode planejar/revisar o processo inteiro, em vez de ficar preso na decisão token a token.
A sacada conceitual aqui é tratar raciocínio como algo que se refina por iteração (estilo difusão de imagem) em vez de algo que se commita de forma sequencial. Faz sentido pro tipo de problema onde a primeira tentativa quase nunca é a melhor.
Avaliação em benchmarks de raciocínio matemático e planejamento. Segundo os autores, LaDiR melhora consistentemente em três eixos contra métodos autorregressivos, baseados em difusão e de raciocínio latente existentes:
O paper não traz números específicos no abstract divulgado, então o tamanho real do ganho fica pra leitura completa.
Apple vem empilhando pesquisa em raciocínio latente. Tem o Thinking into the Future: Latent Lookahead Training for Transformers (workshop ICLR, março 2026) e o trabalho de 2024 sobre difusão latente pra geração de parágrafo. LaDiR encaixa nessa linha.
Pra quem acompanha pesquisa de inferência: difusão latente pra texto é uma das apostas que vem ganhando tração como alternativa ao paradigma autorregressivo dominante. Não é o tipo de coisa que vira produto amanhã, mas vale ficar de olho em quem tá investindo no caminho.
Autores: Haoqiang Kang, Yizhe Zhang, Nikki Lijing Kuang, Nicklas Majamaki, Navdeep Jaitly, Yi-An Ma e Lianhui Qin.
☕ gostou dessa?
Matérias favoritadas ficam no seu /favoritos e, se você tem o cafecomtech instalado, disponíveis offline — no metrô, no avião, na fila do café.
☕ comentários · 0