A Microsoft anunciou, nesta segunda-feira (26), o lançamento do Maia 200, um chip de Inteligência Artificial projetado para reduzir custos e ampliar o uso de IA em grande escala. Apesar de estar sendo divulgado apenas agora, o acelerador já está em operação na multinacional de tecnologia na região do data center central dos Estados Unidos. Agora, o US West 3, que fica perto de Phoenix, no Arizona, será o próximo a receber a novidade.
Fabricado no processo de 3nm da TSMC, o Maia 200 foi desenhado para ser o "cérebro" de inteligências artificiais complexas. Ele traz uma memória gigantesca e ultraveloz, capaz de mover dados a uma velocidade impressionante de 7 TB/s, evitando qualquer tipo de engasgo no sistema. Na prática, essa arquitetura promete ser três vezes mais rápida que o chip da terceira geração do Amazon Trainium em FP4 e superar a performance da sétima geração do Google TPU em operações FP8.
Maia 200, chip de Inteligência Artificial da Microsoft — Foto: Divulgação/Microsoft Desempenho ainda mais rápido
O Maia 200 estreia com capacidade de processamento para rodar os modelos de IA mais complexos da atualidade, assegurando ampla margem para evoluções futuras. Segundo o vice-presidente executivo de Nuvem e IA da Microsoft, Scott Guthrie, este é o sistema mais eficiente já adotado pela empresa, entregando resultados ágeis e uma economia de 30% no custo de desempenho em comparação às gerações anteriores.
Fabricado no processo de 3 nanômetros da TSMC, cada unidade integra mais de 100 bilhões de transistores personalizados para suportar cargas de trabalho massivas. A tecnologia já está em plena operação, impulsionando a equipe Microsoft Superintelligence e acelerando projetos vitais, como o Microsoft Foundry e todo o ecossistema do Copilot.
Novo Chip Maia 200 da Microsoft — Foto: Microsoft/Reprodução No entanto, o desempenho não depende apenas de FLOPS: o fornecimento de dados é crucial. O Maia 200 apresenta um subsistema de memória reprojetado para operar com tipos de dados de precisão reduzida. Isso permite armazenar localmente uma quantidade maior de pesos do modelo, diminuindo a necessidade de múltiplos dispositivos para execução e otimizando o fluxo de informações.
A arquitetura aposta em um design de escalabilidade em duas camadas sobre Ethernet padrão, combinando uma camada de transporte personalizada com NIC integrada. Ao dispensar estruturas proprietárias, a solução reforça o uso de padrões abertos, o que resulta na redução do consumo de energia e do Custo Total de Propriedade (TCO) em toda a frota global do Azure.
Servidor com o novo chip Maia 200 da Microsoft — Foto: Microsoft/Reprodução Por fim, o chip utiliza protocolos de comunicação intra e inter-rack que minimizam os saltos necessários na transmissão de dados. Essa malha unificada simplifica a programação e melhora a flexibilidade da carga de trabalho, reduzindo a capacidade ociosa e garantindo desempenho consistente e eficiência de custo em escala de nuvem.
Aplicação ágil e inovação em data center
O Maia 200 foi projetado para disponibilidade rápida e contínua no data center desde o início, construindo a validação antecipada de alguns dos elementos mais complexos do sistema, incluindo a rede de back-end e uma unidade de troca de calor de resfriamento líquido de circuito fechado de segunda geração.
“A integração nativa com o plano de controle do Azure oferece recursos de segurança, telemetria, diagnóstico e gerenciamento tanto no nível do chip quanto no nível do rack, maximizando a confiabilidade e o tempo de atividade para cargas de trabalho de IA críticas. Essa abordagem de ponta a ponta, do chip ao software e ao data center, se traduz diretamente em maior utilização, tempo de produção mais rápido e melhorias sustentadas no desempenho por dólar e por watt em escala de nuvem”, disse Scott Guthrie, vice-presidente executivo de Nuvem e IA da Microsoft.
Vice-presidente executivo de Nuvem e IA da Microsoft, Scott Guthrie — Foto: Microsoft/Reprodução A equipe de Microsoft Superintelligence será a pioneira na utilização do Maia 200, aplicando a novidade na geração de dados sintéticos e processos de aprendizado. O processador promete revolucionar esses pipelines ao acelerar drasticamente a produção e a filtragem de informações de alta qualidade, graças ao seu design exclusivo. Essa tecnologia assegura que os sistemas de treinamento recebam sinais mais precisos e atuais, elevando a eficiência e a acurácia dos modelos de inteligência artificial.
Vídeo: LG apresenta ROBÔ 'MORDOMO' na CES 2026!
LG apresenta ROBÔ 'MORDOMO' na CES 2026!

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
2 horas atrás
2
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2026/V/O/PHWsqgSpefOr5IS2gZOA/screenshot-161.png)

/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2021/L/p/BPAos8Qv6uoSJOZQy2Gw/ps5-ghostoftsushima-directorscut-jin-defend.png)


:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro