2 horas atrás 2

Microsoft lança chip Maia 200 para acelerar IA em grande escala

A Microsoft anunciou, nesta segunda-feira (26), o lançamento do Maia 200, um chip de Inteligência Artificial projetado para reduzir custos e ampliar o uso de IA em grande escala. Apesar de estar sendo divulgado apenas agora, o acelerador já está em operação na multinacional de tecnologia na região do data center central dos Estados Unidos. Agora, o US West 3, que fica perto de Phoenix, no Arizona, será o próximo a receber a novidade.

Fabricado no processo de 3nm da TSMC, o Maia 200 foi desenhado para ser o "cérebro" de inteligências artificiais complexas. Ele traz uma memória gigantesca e ultraveloz, capaz de mover dados a uma velocidade impressionante de 7 TB/s, evitando qualquer tipo de engasgo no sistema. Na prática, essa arquitetura promete ser três vezes mais rápida que o chip da terceira geração do Amazon Trainium em FP4 e superar a performance da sétima geração do Google TPU em operações FP8.

 Divulgação/Microsoft Maia 200, chip de Inteligência Artificial da Microsoft — Foto: Divulgação/Microsoft

Desempenho ainda mais rápido

O Maia 200 estreia com capacidade de processamento para rodar os modelos de IA mais complexos da atualidade, assegurando ampla margem para evoluções futuras. Segundo o vice-presidente executivo de Nuvem e IA da Microsoft, Scott Guthrie, este é o sistema mais eficiente já adotado pela empresa, entregando resultados ágeis e uma economia de 30% no custo de desempenho em comparação às gerações anteriores.

Fabricado no processo de 3 nanômetros da TSMC, cada unidade integra mais de 100 bilhões de transistores personalizados para suportar cargas de trabalho massivas. A tecnologia já está em plena operação, impulsionando a equipe Microsoft Superintelligence e acelerando projetos vitais, como o Microsoft Foundry e todo o ecossistema do Copilot.

 Microsoft/Reprodução Novo Chip Maia 200 da Microsoft — Foto: Microsoft/Reprodução

No entanto, o desempenho não depende apenas de FLOPS: o fornecimento de dados é crucial. O Maia 200 apresenta um subsistema de memória reprojetado para operar com tipos de dados de precisão reduzida. Isso permite armazenar localmente uma quantidade maior de pesos do modelo, diminuindo a necessidade de múltiplos dispositivos para execução e otimizando o fluxo de informações.

A arquitetura aposta em um design de escalabilidade em duas camadas sobre Ethernet padrão, combinando uma camada de transporte personalizada com NIC integrada. Ao dispensar estruturas proprietárias, a solução reforça o uso de padrões abertos, o que resulta na redução do consumo de energia e do Custo Total de Propriedade (TCO) em toda a frota global do Azure.

 Microsoft/Reprodução Servidor com o novo chip Maia 200 da Microsoft — Foto: Microsoft/Reprodução

Por fim, o chip utiliza protocolos de comunicação intra e inter-rack que minimizam os saltos necessários na transmissão de dados. Essa malha unificada simplifica a programação e melhora a flexibilidade da carga de trabalho, reduzindo a capacidade ociosa e garantindo desempenho consistente e eficiência de custo em escala de nuvem.

Aplicação ágil e inovação em data center

O Maia 200 foi projetado para disponibilidade rápida e contínua no data center desde o início, construindo a validação antecipada de alguns dos elementos mais complexos do sistema, incluindo a rede de back-end e uma unidade de troca de calor de resfriamento líquido de circuito fechado de segunda geração.

“A integração nativa com o plano de controle do Azure oferece recursos de segurança, telemetria, diagnóstico e gerenciamento tanto no nível do chip quanto no nível do rack, maximizando a confiabilidade e o tempo de atividade para cargas de trabalho de IA críticas. Essa abordagem de ponta a ponta, do chip ao software e ao data center, se traduz diretamente em maior utilização, tempo de produção mais rápido e melhorias sustentadas no desempenho por dólar e por watt em escala de nuvem”, disse Scott Guthrie, vice-presidente executivo de Nuvem e IA da Microsoft.

 Microsoft/Reprodução Vice-presidente executivo de Nuvem e IA da Microsoft, Scott Guthrie — Foto: Microsoft/Reprodução

A equipe de Microsoft Superintelligence será a pioneira na utilização do Maia 200, aplicando a novidade na geração de dados sintéticos e processos de aprendizado. O processador promete revolucionar esses pipelines ao acelerar drasticamente a produção e a filtragem de informações de alta qualidade, graças ao seu design exclusivo. Essa tecnologia assegura que os sistemas de treinamento recebam sinais mais precisos e atuais, elevando a eficiência e a acurácia dos modelos de inteligência artificial.

Vídeo: LG apresenta ROBÔ 'MORDOMO' na CES 2026!

LG apresenta ROBÔ 'MORDOMO' na CES 2026!

LG apresenta ROBÔ 'MORDOMO' na CES 2026!

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro