Mercado abrirá em 6 h 42 min
  • BOVESPA

    100.763,60
    +2.091,34 (+2,12%)
     
  • MERVAL

    38.390,84
    +233,89 (+0,61%)
     
  • MXX

    48.294,83
    +553,33 (+1,16%)
     
  • PETROLEO CRU

    111,11
    +1,54 (+1,41%)
     
  • OURO

    1.828,00
    +3,20 (+0,18%)
     
  • BTC-USD

    20.825,29
    -375,17 (-1,77%)
     
  • CMC Crypto 200

    453,08
    -8,72 (-1,89%)
     
  • S&P500

    3.900,11
    -11,63 (-0,30%)
     
  • DOW JONES

    31.438,26
    -62,42 (-0,20%)
     
  • FTSE

    7.258,32
    +49,51 (+0,69%)
     
  • HANG SENG

    22.143,81
    -85,71 (-0,39%)
     
  • NIKKEI

    27.018,90
    +147,63 (+0,55%)
     
  • NASDAQ

    12.083,50
    +43,00 (+0,36%)
     
  • BATS 1000 Index

    0,0000
    0,0000 (0,00%)
     
  • EURO/R$

    5,5405
    -0,0036 (-0,06%)
     

SK Hynix é primeira do mundo a fornecer RAM HBM3 para GPU Nvidia H100

  • Opa!
    Algo deu errado.
    Tente novamente mais tarde.
Neste artigo:
  • Opa!
    Algo deu errado.
    Tente novamente mais tarde.

Em comunicado divulgado nesta quarta-feira (8), a SK Hynix confirmou que será a primeira fabricante de memórias do mundo a fornecer DRAM HBM3 para fabricação da GPU H100 da Nvidia. A empresa deu ênfase aos benefícios da quarta geração do componente, com destaque para o tempo levado até o início da fabricação em massa e a largura de banda, que atinge quase o dobro de velocidade em comparação à geração anterior.

SK Hynix será primeira fornecedora de HBM3 para Nvidia

Segundo o anúncio, as memórias HBM3 acabam de entrar na fase de produção em massa, sete meses depois da fase de risco, em que os primeiros chips começaram a ser produzidos — a SK Hynix destaca como foi "a primeira companhia a fabricar a DRAM de nova geração", em outubro do ano passado.

As memórias HBM3 se destacam pela capacidade de até 24 GB por chip e pela largura de banda que atinge 819 GB/s (Imagem: SK Hynix)
As memórias HBM3 se destacam pela capacidade de até 24 GB por chip e pela largura de banda que atinge 819 GB/s (Imagem: SK Hynix)

Quarta geração da High Bandwidth Memory (HBM), a HBM3 chega para suceder a HBM2e, prometendo melhorias significativas que incluem interface de 1.024-bit, chips mais densos com até 12 substratos empilhados e capacidade de até 24 GB, além de até 819 GB/s de largura de banda. Em comparação, a geração passada suportava até 8 substratos empilhados, 16 GB de capacidade por chip e largura de banda de 460 GB/s.

Ainda de acordo com o comunicado, a SK Hynix será a primeira companhia a fornecer as novas memórias à Nvidia, que concluiu recentemente a etapa de avaliação de desempenho dos módulos, para uso na recém-anunciada GPU para data centers H100. Os primeiros lotes devem chegar já no terceiro trimestre de 2022, com expectativa de aumento do volume de produção na primeira metade de 2023, seguindo o cronograma de estreia da H100.

As memórias HBM3 da SK Hynix acabam de entrar em fase de produção em massa, sendo a escolha da Nvidia para equipar a GPU H100 "Hopper" (Imagem: SK Hynix)
As memórias HBM3 da SK Hynix acabam de entrar em fase de produção em massa, sendo a escolha da Nvidia para equipar a GPU H100 "Hopper" (Imagem: SK Hynix)

Com as melhorias proporcionadas pela HBM3 e, consequentemente, com a Nvidia H100, as gigantes esperam possibilitar avanços marcantes em segmentos de tecnologia de ponta, como Inteligência Artificial e Big Data, o processamento de dados massivos gerados atualmente.

GPU H100 é "acelerador mais poderoso do mundo"

Anunciada no final de março, a Nvidia H100 promete ser o "acelerador mais poderoso do mundo", trazendo grande foco no processamento de Inteligência Artificial. O componente é alimentado pelo chip GH100, fabricado no processo customizado 4N de 4 nm da TSMC, apresentando 80 bilhões de transistores, número 50% maior frente à sua antecessora, a Nvidia A100 com chip GA100.

Primeira GPU a adotar memória HBM3, a Nvidia H100 "Hopper" promete ser a aceleradora de data centers mais poderosa do mundo (Imagem: Nvidia)
Primeira GPU a adotar memória HBM3, a Nvidia H100 "Hopper" promete ser a aceleradora de data centers mais poderosa do mundo (Imagem: Nvidia)

A implementação completa do GH100 traz 144 Streaming Multiprocessors (SMs) com 128 núcleos CUDA cada, totalizando 18.432 núcleos, 2,25 vezes mais que o GA100. A novidade também embarca 4 Tensor Cores de 4ª geração por SM, para um total de 576, com suporte a cálculos com dados no formato FP8, que seriam até 6 vezes mais velozes que o desempenho de FP16 da A100 segundo a Nvidia.

Outros destaques incluem a adição dos Transformer Engines, motores dedicados para processamento de reconhecimento de linguagem, capacidade de isolar os dados das aplicações para garantir a segurança das informações, NVLink de 4ª geração para conectar múltiplas H100 com largura de banda de 900 GB/s, barramento PCIe 5.0, além das próprias memórias HBM3.

Fonte: Canaltech

Trending no Canaltech:

Nosso objetivo é criar um lugar seguro e atraente onde usuários possam se conectar uns com os outros baseados em interesses e paixões. Para melhorar a experiência de participantes da comunidade, estamos suspendendo temporariamente os comentários de artigos