Mas o hardware por si só não é suficiente para estimular a adoção. A nova iniciativa, conhecida internamente como "TorchTPU", tem como objetivo remover uma barreira importante que retardou a adoção dos chips TPU, tornando-os totalmente compatíveis e fáceis de desenvolver para os clientes que já construíram sua infraestrutura tecnológica usando o software PyTorch, disseram as fontes. O Google também está considerando a possibilidade de abrir partes do software para acelerar a adoção entre os clientes, disseram algumas das fontes.
Em comparação com tentativas anteriores de oferecer suporte ao PyTorch em TPUs, o Google dedicou mais foco organizacional, recursos e importância estratégica ao TorchTPU, à medida que cresce a demanda de empresas que querem adotar os chips, mas veem a pilha de software como um gargalo, disseram as fontes.
O PyTorch, um projeto de código aberto fortemente apoiado pela Meta, é uma das ferramentas mais usadas pelos desenvolvedores que criam modelos de IA. No Vale do Silício, pouquíssimos desenvolvedores escrevem cada linha de código que os chips da Nvidia, da AMD ou do Google realmente executarão.
Em vez disso, esses desenvolvedores contam com ferramentas como o PyTorch, que é uma coleção de bibliotecas e estruturas de código pré-escrito que automatizam muitas tarefas comuns no desenvolvimento de software de IA. Lançado originalmente em 2016, a história do PyTorch está intimamente ligada ao desenvolvimento do CUDA pela Nvidia, o software que alguns analistas de Wall Street consideram o escudo mais forte da empresa contra os concorrentes.
Os engenheiros da Nvidia passaram anos garantindo que o software desenvolvido com o PyTorch fosse executado da forma mais rápida e eficiente possível em seus chips. O Google, por outro lado, há muito tempo faz com que seus exércitos internos de desenvolvedores de software usem uma estrutura de código diferente chamada Jax, e seus chips TPU usam uma ferramenta chamada XLA para fazer com que esse código seja executado com eficiência. Grande parte da pilha de software de IA e da otimização de desempenho do próprio Google foi criada em torno do Jax, ampliando a lacuna entre a forma como o Google usa seus chips e como os clientes desejam usá-los.
Um porta-voz do Google Cloud não comentou sobre as especificidades do projeto, mas confirmou à Reuters que a mudança oferecerá opções aos clientes.

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
1 hora atrás
3

/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/B/l/UfRfuuRc2e8RuumCQWuQ/tt-nubank-02.jpg)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/N/R/XBU17FTUuFoZ2cjZCYPg/techtudo-8-.png)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/5/4/jRCQXrS3ennzIrPQ56nQ/techtudo-7-.png)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro