Navega pelo calendário ou filtra por período / empresa. A gente nunca apaga.
A AWS tá posicionando o Amazon Quick como assistente de IA pra times de marketing conectarem dados espalhados entre HubSpot, Salesforce, Adobe, Slack e Asana. A proposta: relatórios de campanha em minutos, análise competitiva em 30 minutos, e pacotes de conteúdo gerados a partir das campanhas passadas. Integra via MCP e OpenAPI, roda na AWS com dados no ambiente do cliente.
A AWS publicou um guia técnico sobre BioFMs multimodais (modelos de fundação biológica), IA treinada pra integrar dados que antes viviam em silos: genômica, imagem médica, prontuário eletrônico e documentação clínica. O post destrincha casos reais (Latent Labs, Arc Institute, Insilico, Noetik), ganhos medidos de 4-7% em AUC diagnóstico, e mapeia quais serviços AWS (SageMaker HyperPod, HealthOmics, Bedrock AgentCore) entram em cada camada do pipeline.
O Google publicou um explicativo sobre as TPUs (Tensor Processing Units), chips custom que a empresa desenha há mais de uma década pra rodar modelos de IA. A geração mais nova entrega 121 exaflops de capacidade de compute, com o dobro de banda das anteriores. É o hardware que roda silenciosamente atrás dos produtos Google que você usa todo dia.
A OpenAI lançou o GPT-5.5, novo modelo topo de linha que mira trabalho real no computador: código agêntico, pesquisa, planilhas, automação de ferramentas. Bate 82.7% em Terminal-Bench 2.0, 84.9% em GDPval e mantém a latência por token do GPT-5.4. Rolling out pros planos Plus, Pro, Business e Enterprise no ChatGPT e Codex. API sai em breve a US$ 5/US$ 30 por 1M tokens (input/output).
Google confirmou o primeiro data center da Áustria, em Kronstorf, com 100 vagas diretas pra atender a demanda por serviços digitais e capacidade de IA. O projeto inclui fundo pra melhorar a qualidade da água do rio Enns, telhado verde com painéis solares e recuperação de calor pra aquecimento regional. Vem junto com parceria de capacitação com a University of Applied Science Upper Austria.
Pesquisa da Apple aceita como Oral no ICLR 2026 resolve o gargalo clássico das RNNs: treinar em paralelo. Usando o método de Newton pra linearizar a recorrência, o framework ParaRNN atinge speedup de 665× no treino sequencial e viabiliza, pela primeira vez, RNNs clássicas (GRU/LSTM adaptadas) de 7B parâmetros com perplexidade competitiva com transformers e Mamba2. Código aberto.