A Apple desembarca no Rio de Janeiro pra edição 2026 do ICLR (International Conference on Learning Representations), de 23 a 27 de abril, com mais de 40 papers na conferência principal, workshops e duas demos técnicas no estande 204: inferência de LLM local num MacBook Pro M5 Max rodando MLX dentro do Xcode, e o SHARP gerando nuvem de pontos 3D num iPad Pro M5.
ICLR no Rio é evento pra marcar na agenda de quem faz ML sério no Brasil. Apple levando estande, demo de MLX local no M5 Max e 40+ papers mostra que não é presença figurativa. Vale o deslocamento mesmo pra quem não é acadêmico.
A Apple vai apresentar pesquisa nova no ICLR (International Conference on Learning Representations), que acontece presencialmente no Rio de Janeiro de 23 a 27 de abril. A empresa patrocina o evento de novo e leva um pacote denso: papers na conferência principal, workshops, demos técnicas no estande 204 e participação em comitês de organização.
Pra comunidade de ML brasileira, é o tipo de evento que justifica deslocamento: conferência tier-1 em casa não rola todo ano.
Duas demos técnicas rodando durante os horários de exposição (9h30 às 17h30, quinta a sábado):
São mais de 40 papers aceitos. Alguns que chamam atenção:
O mix é clássico da Apple Research: muita coisa de eficiência (quantização, training paralelo, diffusion pra código), visão computacional pesada (MANZANO, Less Gaussians Texture More, SHARP) e umas apostas em fundamentos teóricos. Pouca coisa sobre produto direto, muita sobre viabilizar modelos menores e mais eficientes, o que bate com a tese de on-device da casa.
Nove papers de workshop no pacote, cobrindo tópicos como pruning de dados de treino (Cram Less to Fit More), safety adapters com inferência flexível, data mixture otimização, e test-time updates. O workshop "Trading Depth for Memory: Robustifying LLMs against Cache Constraints" trata direto do gargalo de KV cache em LLMs, assunto quente.
ICLR 2026 no Rio de Janeiro, 23 a 27 de abril. Estande Apple #204. Programação completa e links pros papers no site oficial da Apple Machine Learning Research.
☕ gostou dessa?
Matérias favoritadas ficam no seu /favoritos e, se você tem o cafecomtech instalado, disponíveis offline — no metrô, no avião, na fila do café.
☕ comentários · 0