Navega pelo calendário ou filtra por período / empresa. A gente nunca apaga.
Pesquisadores da Apple e UNC propõem o Sonata, um adapter leve que decide quanto orçamento de chain-of-thought alocar pra cada query antes do modelo começar a pensar. Usa self-consistency como proxy de dificuldade e corta de 20% a 80% dos tokens de raciocínio mantendo a mesma acurácia. Testado em Qwen3-8B, GPT-OSS-120B, Qwen3-235B-A22B e Intern-S1-mini, com paper aceito na ICLR 2026.