Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mergulhe nas arquiteturas de GPU @nvidia 🐰 Hopper vs ⚙️ Blackwell—saltos sucessivos em poder de computação e interconexões para as suas cargas de trabalho de IA👇

🐰 Hopper (H100 e H200) introduziu núcleos Tensor de 4ª geração + um motor Transformer FP8, proporcionando até 9× mais rápido no treinamento e 30× mais rápido na inferência em comparação com o A100.
⚙️ Blackwell (B200)—com envio previsto para o final de 2024—combina dois dies sobre um NV-HBI de 10 TB/s, adiciona FP4 e utiliza NVLink-5 para até 30× de inferência em cluster.


@nvidia 🐰 Especificações do Hopper
Núcleos Tensor: misto FP8/FP16/TF32
Memória:
- H100 → 80 GB HBM3 @ 3.35 TB/s
- H200 → 141 GB HBM3e @ 4.8 TB/s
NVLink: até 900 GB/s por GPU
🐰 @nvidia Hopper em ação
Os benchmarks mostram H200 alimentando a inferência Llama-2 70B 45–100% mais rápido vs H100.
⚠️ Ambos tiveram crises de abastecimento em 2023-25.
💻 Na nuvem da Hyperbolic: VMs H100 & clusters bare-metal w/ Ethernet + InfiniBand a partir de $1.49/hr. H200 & B200 via cotação instantânea.

⚙️ @nvidia Inovações Blackwell
- Design de chiplets (TSMC 4NP, 208 transístores B, 10 TB/s NV-HBI)
- Motor transformador de 2ª geração: FP4 + FP8 melhorado
- NVLink-5: 18 links @ 1,8 TB/s total
- Motor de descompressão: GPU CPU↔de 800 GB/s
- RAS completo & computação confidencial
📊 Comparação de Desempenho
H100 SXM: 80 GB @ 3.35 TB/s, 3.96 PFLOPS (FP8), 1.98 PFLOPS (FP16), 67 TFLOPS (FP32), NVLink 900 GB/s, 700 W
H200 SXM: 141 GB @ 4.8 TB/s, mesmos PFLOPS/TFLOPS de computação, NVLink 900 GB/s, 700 W
HGX B200: 180 GB @ 7.7 TB/s, 9 PFLOPS (FP8), 4.5 PFLOPS (FP16), 75 TFLOPS (FP32), NVLink 1.8 TB/s, 1000 W
❓ @nvidia O que é um FLOP?
1 operação de ponto flutuante (add/mul)
1 TFLOP = 10¹² ops/s
1 PFLOP = 10¹⁵ ops/s = 1000× um TFLOP
Essas métricas mostram a rapidez com que as GPUs analisam a enorme matemática por trás do treinamento de IA e HPC.
🔚 @nvidia Conclusão:
🐰 O funil define a barra com pipelines assíncronos e de precisão mista FP8.
⚙️ Blackwell empurra próxima geração com FP4, mais memória, NVLink-5.
O H100 continua sendo o cavalo de batalha — aluguel via US$ 1,49/h.
H200 & B200 disponíveis mediante solicitação via
@nvidia Leia o artigo completo em:
4,04K
Top
Classificação
Favoritos