NVIDIA e pesquisadores da Siemens Healthineers liberaram o NV-Raw2Insights-US, modelo que pula a etapa tradicional de beamforming e aprende direto dos sinais brutos do transdutor. O alvo: estimar velocidade do som personalizada por paciente pra refocar a imagem em tempo real. Roda em GPU Blackwell via NVIDIA Holoscan, com pesos abertos no GitHub.
Movimento clássico da NVIDIA: empurrar GPU pra dentro de equipamento médico legado via FPGA e DisplayPort, sem precisar trocar o scanner. Pesos abertos ajudam o ecossistema acadêmico, mas uso clínico ainda depende de anos de regulatório.
NVIDIA e pesquisadores da Siemens Healthineers liberaram o NV-Raw2Insights-US, primeiro modelo de uma família batizada de Raw2Insights que ataca a reconstrução de ultrassom por outro caminho: aprende direto dos sinais brutos do transdutor, sem passar pelo pipeline clássico de beamforming.
Ultrassom é barato, portátil, seguro e roda em tempo real. Por isso é uma das modalidades de imagem médica mais usadas. Só que há décadas a imagem final sai de um pipeline de reconstrução feito à mão que comprime os dados brutos do sensor e assume simplificações de física, tipo velocidade do som constante pelo corpo inteiro. Na prática, o corpo humano não é assim: gordura, músculo e tecido conduzem som em velocidades diferentes, e essa suposição introduz borrão.
O NV-Raw2Insights-US não trabalha com a imagem reconstruída. Ele lê o raw channel data, ou seja, os ecos crus que voltam pra cada elemento do transdutor antes de qualquer processamento. A partir desse sinal, o modelo estima um mapa de velocidade do som específico daquele paciente e usa esse mapa pra corrigir o foco da imagem em tempo real, num único passe de inferência.
O que antes exigia computação pesada e demorada vira uma chamada de modelo. A aposta de fundo aqui é tratar reconstrução de ultrassom como problema de IA end-to-end, do mesmo jeito que aconteceu com pipelines de imagem em câmera de celular.
Raw channel data normalmente nem sai do scanner clínico, porque a banda é altíssima. A NVIDIA contornou isso com o Holoscan Sensor Bridge (HSB), um IP de FPGA open source que faz transferência de alta banda e baixa latência pra GPU via RDMA (Remote Direct Memory Access) sobre Ethernet.
O setup de demonstração é específico:
O deploy usa NVIDIA Holoscan, plataforma de IA na borda pra cargas de tempo real, em sistemas como NVIDIA IGX Thor e DGX Spark.
Os autores Walter Simson, Jay Carlson, Tom Lassiter, Kevin Woo e Sean Huver (todos NVIDIA) liberaram código, pesos e dataset. O ponto de partida é o GitHub do projeto, com Model Weights e Dataset linkados.
Colaboração direta com Ismayil Guracar e Rickard Loftman, do grupo AI & Advanced Platforms da Siemens Healthineers.
Aviso importante: a tecnologia tá em desenvolvimento investigacional, não tem aprovação regulatória pra uso clínico nos EUA nem em outros países, e a NVIDIA não garante disponibilidade futura.
☕ gostou dessa?
Matérias favoritadas ficam no seu /favoritos e, se você tem o cafecomtech instalado, disponíveis offline — no metrô, no avião, na fila do café.
☕ comentários · 0