A NVIDIA publicou o guia das Enterprise Reference Architectures (RAs), o blueprint oficial pra empresa montar AI Factory dentro de casa sem ter que adivinhar a topologia. São três configurações validadas (RTX PRO, HGX B300 e GB300 NVL72) com recomendações fechadas de GPU, rede, storage e software, encostadas em parceiros homologados pela Design Review Board.
NVIDIA padronizando blueprint de AI Factory é jogada de canal: vende desenho, certifica integrador, e empurra GPU em volume. Pra banco e telco BR avaliando IA on-prem, é o documento que vai aparecer no próximo RFP.
A NVIDIA publicou um guia detalhado das Enterprise Reference Architectures (RAs), o pacote de recomendações pra empresa montar AI Factory on-premises sem ficar adivinhando topologia de cluster. A ideia é simples: em vez de cada cliente reinventar como liga GPU, rede, storage e orquestração, a NVIDIA entrega três blueprints validados e parceiros homologados pra executar.
O post é assinado por Shashank Sabhlok, senior PM (Product Manager) do grupo Enterprise da NVIDIA.
NVIDIA tá batendo na tecla de que infra de IA não é só GPU bruta. Precisa de fundação previsível, que orquestre agentes, mova dado eficiente e entregue performance consistente do piloto até produção. As Enterprise RAs definem como compute, rede, storage, software e observabilidade se integram numa plataforma pronta pra produção, baseada em NVIDIA-Certified Systems.
A real é que esse tipo de blueprint só faz sentido se você já decidiu rodar IA on-prem em escala. Pra quem tá em cloud gerenciada, é leitura de contexto, não roadmap.
A NVIDIA define três pontos de entrada, e fala que deployments maduros costumam misturar os três:
Configuração de referência 2-8-5-200 (CPU-GPU-NIC e largura de banda east-west). Construída em torno das GPUs NVIDIA RTX PRO Blackwell Server Edition, mira inferência de modelo pequeno e médio, fine-tuning, IA generativa, visual computing e workloads de IA industrial.
Cada servidor NVIDIA-Certified RTX PRO integra até oito GPUs em design air-cooled. Cluster escala de dezenas a centenas de GPUs, com exemplos de 128 e 256 GPUs documentados. Rede NVIDIA Spectrum-X Ethernet e aceleração NVIDIA BlueField-3 cuidam do tráfego east-west e do fluxo north-south seguro.
Configuração 2-8-9-800 baseada no NVIDIA HGX B300. É o que a NVIDIA cita como padrão pra quem treina, faz fine-tune e deploya modelo em escala. Sabhlok menciona que a própria TI da NVIDIA roda mistura de HGX e RTX PRO internamente.
No coração, oito GPUs NVIDIA Blackwell Ultra conectadas via NVLink e NVSwitch de quinta geração, formando domínio de compute fortemente acoplado por nó. Até 270 GB de HBM3 por GPU e até 2,1 TB de memória GPU agregada por nó. Rede NVIDIA Spectrum-X com NVIDIA ConnectX-8 SuperNICs entrega até 800 Gb/s por GPU pra comunicação east-west.
Configuração 2-4-5-800 por tray, baseada no GB300 NVL72. Sistema rack-scale liquid-cooled juntando 36 Grace CPUs e 72 Blackwell Ultra GPUs interconectadas via NVLink de quinta geração. Cada GPU fala com cada GPU pelo mesmo fabric NVLink, fazendo o rack inteiro operar como domínio de compute coerente.
Mira treino de foundation model em larga escala, fine-tuning, inferência multi-tenant de alto throughput e pipelines de IA agentic complexos. ConnectX-8 SuperNICs cuidam do east-west, BlueField DPUs (Data Processing Units) do north-south.
As RAs são a base, mas a validação real vem dos system partners que passam pela Design Review Board (DRB) da NVIDIA. Alguns parceiros validam camadas específicas do stack, outros validam sistema end-to-end de hardware, software e rede. Quem passa vira NVIDIA-endorsed solution, e a lista atualizada fica na página de documentação das Enterprise RAs.
Aqui mora a jogada de canal: a NVIDIA não vende AI Factory direto, ela vende blueprint e certifica quem entrega. Dell, HPE, Supermicro, Lenovo e companhia ficam disputando integração em cima do mesmo desenho de referência.
As RAs querem ajudar a empresa a:
Combinado com o NVIDIA Enterprise AI Factory validated design (a parte de software, que cura stack NVIDIA + parceiros validados), a empresa tem o pacote full-stack pra sair de proof-of-concept pra produção on-prem.
Se você não opera infra on-prem em escala, é leitura de contexto pra entender pra onde a NVIDIA tá empurrando o mercado enterprise. Se opera, vale puxar o white paper pelo system integrator de confiança e comparar a topologia que você já tem com o 2-8-5-200, 2-8-9-800 ou 2-4-5-800.
☕ gostou dessa?
Matérias favoritadas ficam no seu /favoritos e, se você tem o cafecomtech instalado, disponíveis offline — no metrô, no avião, na fila do café.
☕ comentários · 0