Navega pelo calendário ou filtra por período / empresa. A gente nunca apaga.
A AWS mostrou como conectar a plataforma de Workforce AI da Visier ao Amazon Quick usando MCP (Model Context Protocol). A ideia: agentes que cruzam dados ao vivo de RH (headcount, tenure, performance) com documentos internos de política e planejamento em Quick Spaces, respondendo perguntas tipo "estamos dentro do budget de headcount?" sem trocar de ferramenta.
A AWS tá posicionando o Amazon Quick como assistente de IA pra times de marketing conectarem dados espalhados entre HubSpot, Salesforce, Adobe, Slack e Asana. A proposta: relatórios de campanha em minutos, análise competitiva em 30 minutos, e pacotes de conteúdo gerados a partir das campanhas passadas. Integra via MCP e OpenAPI, roda na AWS com dados no ambiente do cliente.
A AWS publicou um guia pra quem quer fugir do custo de ASR gerenciado: roda o NVIDIA Parakeet-TDT-0.6B-v3 em AWS Batch com GPU, dispara via S3 + EventBridge e usa Spot pra cortar até 90%. Pipeline event-driven escala do zero, cobre 25 idiomas europeus (português incluso) e sai por frações de centavo por hora de áudio.
A AWS anunciou o Claude Cowork no Amazon Bedrock: agora dá pra rodar o Cowork e o Claude Code Desktop via Bedrock, direto ou por um LLM gateway. A ideia é estender o Claude além do time de dev e levar pra qualquer knowledge worker da organização, mantendo dados no ambiente AWS do cliente. Billing consumption-based, sem licença por seat da Anthropic.
A AWS anunciou a disponibilidade das instâncias G7e no Amazon SageMaker AI, equipadas com GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition. Cada GPU tem 96 GB de GDDR7, dá pra rodar modelos de 35B num único node (g7e.2xlarge) e chegar a 300B num 8-GPU. Benchmark com Qwen3-32B mostra custo de US$ 0,79 por milhão de tokens de saída, 2,6x mais barato que G6e. Com EAGLE speculative decoding, cai pra US$ 0,41.
A AWS anunciou atribuição granular de custo pra inferência no Amazon Bedrock. Agora cada chamada é atrelada ao IAM principal que a fez (user, role, identidade federada), e os custos aparecem no AWS Billing, Cost Explorer e CUR 2.0 sem nada pra gerenciar. Com tags opcionais, dá pra agregar gasto por time, projeto ou tenant. Disponível em todas as regiões comerciais, sem custo adicional.
AWS mostra dois caminhos pra fine-tunar o Amazon Nova Micro em dialeto SQL próprio, com deploy serverless no Bedrock e cobrança por token. No exemplo, 22 mil queries/mês saíram por US$ 0,80 — bem abaixo de rodar um modelo customizado em infra dedicada. Um caminho passa pelo Bedrock gerenciado, outro pelo SageMaker AI com controle fino de hiperparâmetros.
A AWS anunciou os sheet tooltips no Amazon QuickSight. Autores de dashboard agora montam tooltips customizados em layout free-form, misturando gráficos, KPIs, texto e imagens num único tooltip que atualiza dinâmico quando o leitor passa o mouse sobre pontos de dados. Funciona com a maioria dos tipos de visual e o mesmo tooltip pode ser reusado em múltiplos gráficos.
A AWS liberou os optimized deployments no SageMaker JumpStart: configurações pré-definidas de deploy pra casos de uso específicos como geração de conteúdo, resumo e Q&A. Em vez de só escolher número de usuários simultâneos, agora dá pra otimizar por custo, throughput ou latência. Disponível pra Llama, Mistral, Qwen, Gemma e outros modelos open.
A AWS publicou um guia técnico sobre BioFMs multimodais (modelos de fundação biológica), IA treinada pra integrar dados que antes viviam em silos: genômica, imagem médica, prontuário eletrônico e documentação clínica. O post destrincha casos reais (Latent Labs, Arc Institute, Insilico, Noetik), ganhos medidos de 4-7% em AUC diagnóstico, e mapeia quais serviços AWS (SageMaker HyperPod, HealthOmics, Bedrock AgentCore) entram em cada camada do pipeline.
A AWS lançou recomendações otimizadas de inferência generativa no Amazon SageMaker AI. Você traz o modelo, define tráfego esperado e escolhe um objetivo (custo, latência ou throughput). O SageMaker filtra configurações, aplica otimizações (speculative decoding, tensor parallelism) e faz benchmark em GPU real via NVIDIA AIPerf, devolvendo configs ranqueadas prontas pra deploy.
A AWS anunciou novos recursos no Amazon Bedrock AgentCore pra encurtar o caminho entre ideia e agente rodando. O destaque é o managed agent harness: você declara o agente em 3 chamadas de API, sem código de orquestração. Também entrou uma CLI que cobre prototipagem, deploy e operação no mesmo terminal, além de skills pré-construídas pra assistentes de código como Claude Code, Kiro, Codex e Cursor.
A AWS publicou arquitetura de referência que combina Amazon Bedrock, Neptune e Mem0 pra dar memória persistente e específica da empresa a agentes de IA. A TrendMicro usou o stack pra construir o Trend's Companion, chatbot que cruza memória curta de conversa com knowledge graph organizacional. Inclui human-in-the-loop pra validar o que entra na base.
A AWS publicou um guia combinando DVC (Data Version Control), Amazon SageMaker AI e SageMaker AI MLflow Apps pra resolver rastreabilidade de modelos em produção. Dois padrões acompanham notebooks prontos: lineage em nível de dataset e em nível de registro individual, esse último pensado pra compliance em saúde e finance. Tudo rodável em conta AWS própria.
A AWS soltou o ToolSimulator, framework dentro do Strands Evals que usa LLM pra simular tool calls de agentes. Em vez de bater em API real (com risco de vazar PII, disparar ações indevidas ou lidar com rate limit), o simulator gera respostas adaptativas, mantém estado entre chamadas e valida schema Pydantic. Disponível hoje via `pip install strands-evals`.
A AWS publicou um guia completo pra montar sistema de pedidos por voz multi-canal usando Bedrock AgentCore (plataforma pra rodar agentes de IA com isolamento em microVM) e Nova 2 Sonic, o modelo speech-to-speech da casa. Tem código no GitHub, deploy via CDK e arquitetura separada em frontend, agente e backend. Voz conversa com Lambda, DynamoDB e Location Services via MCP.
A AWS publicou um guia mostrando como usar Model Distillation no Amazon Bedrock pra transferir inteligência de roteamento do Nova Premier (teacher) pro Nova Micro (student) numa pipeline de busca semântica de vídeo. Resultado: 95% menos custo de inferência, metade da latência e qualidade de roteamento equivalente ao Claude 4.5 Haiku.
A AWS publicou um guia arquitetural pra busca semântica em vídeo usando Nova Multimodal Embeddings no Bedrock. A solução gera embeddings separados pra visual, áudio e transcrição, combina com metadados via busca híbrida e roteia queries por intenção usando Claude Haiku. No benchmark interno, Recall@5 saltou de 51% pra 90% contra o modo combinado padrão.
O time TAA (Technology, AI, and Analytics) da AWS Marketing trabalhou com a Gradial pra montar uma solução agentic em cima do Amazon Bedrock. Resultado: montagem de página caiu de até 4 horas pra ~10 minutos (redução de 95%). Validação de SEO, acessibilidade e brand passou a rodar durante a criação, via servidor MCP, em vez de depois.
A AWS publicou um tutorial completo pra montar uma solução serverless de try-on virtual e recomendação de produtos pra varejo online. A stack combina Amazon Nova Canvas (geração de imagem), Rekognition (visão), Titan Multimodal Embeddings e OpenSearch Serverless pra busca vetorial. Tudo empacotado em SAM, deploy com um comando, e código aberto no GitHub.
A AWS detalhou como os checks de Automated Reasoning no Amazon Bedrock Guardrails trocam validação probabilística por verificação matemática formal. A ideia: em vez de rodar um LLM-como-juiz avaliando outro LLM, o sistema prova logicamente se a saída bate com as regras definidas. Casos citados vão de Amazon Logistics (revisão de 8h pra minutos) a Lucid Motors com PwC (forecast de semanas pra menos de 1 minuto) e FETG com redução de 80% no setup de regras.
A AWS publicou benchmarks mostrando que speculative decoding no Trainium2 com vLLM acelera geração de token em até 3x pra workloads decode-heavy. O combo testado: Qwen3-32B como target, Qwen3-1.7B como draft, num_speculative_tokens=7. Resultado depende muito do tipo de prompt: estruturado ganha até 3x, prompt aberto praticamente empata com baseline.
AWS liberou em GA (Generally Available) o Spring AI AgentCore SDK, biblioteca open source que conecta o Amazon Bedrock AgentCore ao Spring AI via anotações e auto-configuração. Dev Java anota um método com @AgentCoreInvocation e o SDK resolve o contrato de runtime, streaming SSE, health check e rate limiting. Roda no AgentCore Runtime gerenciado ou standalone em EKS/ECS.