Navega pelo calendário ou filtra por período / empresa. A gente nunca apaga.
Pesquisa da Apple aceita como Oral no ICLR 2026 resolve o gargalo clássico das RNNs: treinar em paralelo. Usando o método de Newton pra linearizar a recorrência, o framework ParaRNN atinge speedup de 665× no treino sequencial e viabiliza, pela primeira vez, RNNs clássicas (GRU/LSTM adaptadas) de 7B parâmetros com perplexidade competitiva com transformers e Mamba2. Código aberto.