Navega pelo calendário ou filtra por período / empresa. A gente nunca apaga.
Microsoft empurrou três atualizações de Reinforcement Fine-Tuning no Foundry: Global Training pro o4-mini em 13+ regiões Azure com preço menor por token, GPT-4.1/mini/nano liberados como model graders e um guia consolidado de boas práticas. Foco claro em baratear RFT e dar mais flexibilidade pra quem avalia saídas open-ended.
AWS mostra dois caminhos pra fine-tunar o Amazon Nova Micro em dialeto SQL próprio, com deploy serverless no Bedrock e cobrança por token. No exemplo, 22 mil queries/mês saíram por US$ 0,80 — bem abaixo de rodar um modelo customizado em infra dedicada. Um caminho passa pelo Bedrock gerenciado, outro pelo SageMaker AI com controle fino de hiperparâmetros.
A AWS publicou um tutorial completo pra montar uma solução serverless de try-on virtual e recomendação de produtos pra varejo online. A stack combina Amazon Nova Canvas (geração de imagem), Rekognition (visão), Titan Multimodal Embeddings e OpenSearch Serverless pra busca vetorial. Tudo empacotado em SAM, deploy com um comando, e código aberto no GitHub.
A AWS detalhou como os checks de Automated Reasoning no Amazon Bedrock Guardrails trocam validação probabilística por verificação matemática formal. A ideia: em vez de rodar um LLM-como-juiz avaliando outro LLM, o sistema prova logicamente se a saída bate com as regras definidas. Casos citados vão de Amazon Logistics (revisão de 8h pra minutos) a Lucid Motors com PwC (forecast de semanas pra menos de 1 minuto) e FETG com redução de 80% no setup de regras.
O Google atualizou o AI Mode no Chrome pra abrir qualquer link clicado em split view com a busca, sem trocar de aba. Também dá pra jogar abas abertas, imagens e PDFs como contexto da pesquisa via um novo menu "+". Disponível nos EUA, rollout global vem depois.
Google acoplou o que chama de Personal Intelligence ao Nano Banana 2: o Gemini puxa contexto dos seus apps Google e da biblioteca do Google Photos pra gerar imagens com você e família sem upload manual nem prompt gigante. Rollout em dias pros assinantes Google AI Plus, Pro e Ultra nos EUA.
O Google Research publicou o Simula, framework que trata geração de dados sintéticos como mechanism design no nível do dataset inteiro. A ideia: em vez de otimizar ponto a ponto, arquitetar a coleção toda a partir de taxonomias geradas por reasoning, controlando cobertura, complexidade e qualidade como eixos separados. Usado internamente em ShieldGemma, MedGemma e nos classificadores de segurança do Gemini.
O Google Research apresentou o MoGen, modelo que gera formas neuronais 3D sintéticas pra treinar o PATHFINDER, sistema que reconstrói neurônios a partir de imagens de microscopia. A adição de dados sintéticos derrubou a taxa de erro em 4,4%, o equivalente a 157 anos-pessoa de revisão manual economizados na escala de um cérebro completo de camundongo. Modelo liberado como open-source.
A OpenAI atualizou o app Codex pra macOS e Windows com um combo novo: computer use (o modelo controlando o computador), browser embutido, geração de imagem, memória e plugins. O pitch é clássico: acelerar workflow de dev sem trocar de janela o tempo todo.
A OpenAI apresentou o GPT-Rosalind, modelo de raciocínio de fronteira feito pra acelerar descoberta de drogas, análise genômica, raciocínio sobre proteínas e workflows de pesquisa científica. É a primeira vez que a casa empacota um modelo específico pro domínio de life sciences, mirando laboratórios farmacêuticos e times de bioinformática.
A Hugging Face publicou uma Skill do Claude Code mais um test harness pra ajudar a portar modelos da biblioteca transformers pro mlx-lm quase na hora em que saem. O post é menos sobre a ferramenta e mais sobre um problema real: agentes de código viraram fábrica de PRs de baixa qualidade em projetos open source grandes, e os mantenedores tão afogados.
Pesquisadores da Apple (com Virginia Tech e University of Washington) publicaram o MixAtlas, framework pra otimizar mistura de dados em treinamento multimodal de LLMs. Usa modelos proxy menores e processo gaussiano pra explorar o espaço de mistura a 1/100 do custo do treino full-scale. Resultado: convergência até 3x mais rápida e ganhos de 2-5% em benchmarks, com +10% em ChartQA e +13% em TextVQA. Aceito no workshop NADPFM do ICLR 2026.
Tom Aarsen publicou um guia prático mostrando como fazer finetuning de modelos multimodais de embedding no Sentence Transformers. O exemplo usa Qwen3-VL-Embedding-2B pra Visual Document Retrieval e chega a NDCG@10 de 0.947 contra 0.888 do modelo base, batendo até o Qwen3-VL-Embedding-8B (4x maior). Receita completa: dataset, loss, training args, evaluator e trainer.
Opus 4.7 chegou com foco em engenharia de software avançada e tarefas longas de agente. Ganhos fortes em coding (Cursor reportou 70% vs 58% do 4.6), visão em alta resolução (até 2.576px) e novo nível de esforço xhigh. Preço mantido: US$5/M input, US$25/M output. Disponível na API, Bedrock, Vertex AI e Microsoft Foundry.
Pesquisadores estenderam o framework RLVE de puzzles single-turn pra conversas multi-turn com ferramentas em e-commerce. O EcomRLVE-GYM traz 8 ambientes verificáveis (descoberta de produto, substituição, carrinho, devolução, tracking, QA de política, bundle e jornada multi-intent), cada um com geração procedural, currículo de dificuldade de 12 eixos e rewards checados por código. Treinaram Qwen 3 8B com DAPO em 300 steps.
A OpenAI anunciou o Trusted Access for Cyber, programa que junta empresas de segurança e grandes corporações pra usar o GPT-5.4-Cyber (modelo especializado em cyber defense) mais US$ 10 milhões em créditos de API. A ideia é acelerar defesa cibernética global com acesso antecipado a modelo dedicado pra time de security.