Navega pelo calendário ou filtra por período / empresa. A gente nunca apaga.
Pesquisadores da Apple e do CompVis (LMU Munique) publicaram no CVPR 2026 um paper que modela dinâmica de cena operando direto num embedding de movimento de longo prazo, em vez de gerar vídeo frame a frame. Compressão temporal de 64x e um modelo de flow-matching condicional entregam geração de movimento orientada por texto ou 'pokes' espaciais, superando modelos de vídeo SOTA e abordagens especializadas.