ANUNCIE AQUI!
"Planejamos aumentar o fornecimento de chips relacionados à HBM (alta largura de banda) em 2024 em mais de três vezes em relação ao ano passado", disse Jaejune Kim, vice-presidente da Samsung responsável pela divisão de memória, em uma teleconferência de resultados.
A Samsung disse que começou a produção em massa neste mês dos mais recentes chips HBM para uso em chipsets de IA generativa, chamados HBM3E de 8 camadas. Ela está buscando capitalizar o boom da IA que tem beneficiado a SK Hynix, que era a única fornecedora de chips HBM3 para a Nvidia.
A Samsung disse que planeja começar a fabricar a versão de 12 camadas durante o segundo trimestre, e espera que os produtos HBM3E mais recentes representem dois terços de sua produção de HBM até o final do ano.
Os analistas disseram que as metas são agressivas.
O HBM3E de 8 camadas da Samsung parece estar abastecendo a Nvidia, enquanto o de 12 camadas pode ir para a AMD e a Nvidia, disse Jeff Kim, chefe de pesquisa da KB Securities.
"Como a tecnologia da Samsung é vantajosa para o empilhamento alto, enquanto a SK Hynix tem suas vantagens na camada 8, pode haver uma segmentação em que a Nvidia obtenha produtos de 12 camadas da Samsung e a maioria dos produtos de 8 camadas da SK Hynix", disse Kim.
Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro