Bedrock virou o front door pra IA na nuvem. Hospeda Claude, Llama, Mistral, Titan — todos com mesmo SDK. Forte em compliance enterprise e data residency (incluindo BR).
A AWS apresenta um novo recurso de atribuição de custos no Amazon Bedrock que permite rastrear gastos com modelos de IA de forma mais detalhada. A funcionalidade ajuda equipes a entender exatamente onde estão investindo seus recursos, com exemplos práticos de cenários de acompanhamento de custos.
A equipe de Tecnologia, IA e Analytics da AWS Marketing trabalhou com a Gradial para construir uma solução de IA agentic no Amazon Bedrock. O resultado? Processos de publicação de conteúdo que antes levavam horas agora rodam em minutos, liberando tempo para os profissionais de marketing focarem no que realmente importa.
A AWS apresenta duas abordagens para fazer fine-tuning do Amazon Nova Micro na geração de SQL customizado. O objetivo é combinar eficiência de custos com performance pronta para produção, usando inferência sob demanda do Bedrock.
Varejistas online enfrentam um desafio persistente: clientes têm dificuldade em avaliar o ajuste e aparência dos produtos ao comprar pela internet, resultando em mais devoluções e menor confiança na compra. O impacto? Perda de receita, custos operacionais e frustração do cliente. Ao mesmo tempo, consumidores esperam cada vez mais por experiências de compra imersivas e interativas que aproximem o online do varejo físico. A AWS apresenta soluções de IA generativa para resolver esses problemas.
A validação probabilística de IA não é suficiente em setores regulados. O Automated Reasoning no Amazon Bedrock usa verificação formal para entregar resultados matematicamente comprovados. Conheça como clientes em seis indústrias usam essa tecnologia para produzir outputs de IA auditáveis e formalmente verificados.
A AWS lançou tooltips em folhas no Amazon QuickSight, permitindo que autores de dashboards criem layouts customizados usando folhas de layout livre. Esses layouts combinam gráficos, métricas de KPI, texto e outros elementos visuais em um único tooltip que aparece dinamicamente quando o leitor passa o mouse sobre os dados.
A AWS apresenta uma técnica de otimização de inferência para modelos de linguagem grandes usando especulação de decodificação no Trainium2. O método reduz o custo por token gerado, acelerando a fase de decodificação — a parte mais cara do processamento de LLMs em produção.
A AWS lançou deployments otimizados no SageMaker JumpStart, oferecendo configurações pré-definidas adaptadas para casos de uso específicos. A novidade simplifica a customização de deployments mantendo total visibilidade sobre os detalhes, mas agora com otimizações automáticas para performance e restrições de cada cenário.
A AWS lançou o Spring AI AgentCore SDK, uma biblioteca open source que traz as capacidades do Bedrock AgentCore para o ecossistema Spring AI. Com ele, desenvolvedores podem criar agentes de IA prontos para produção e executá-los no runtime escalável do AgentCore. O SDK permite construir agentes com endpoints de chat, respostas em streaming, memória de conversa e ferramentas para navegação web e execução de código.
A AWS lançou o Agent Registry em preview, um repositório centralizado dentro do AgentCore para descobrir, compartilhar e reutilizar agentes de IA, ferramentas e skills entre diferentes times e projetos da sua empresa.
A AWS apresenta como integrar um agente de IA em tempo real em aplicações React. O guia cobre três etapas: iniciar uma sessão e gerar a URL de visualização ao vivo, renderizar o stream na sua app React e conectar um agente de IA que controla o navegador enquanto os usuários acompanham. Ao final, você terá uma aplicação de exemplo funcional pronta para clonar e executar.