A AWS anunciou a adoção da tecnologia NVLink Fusion da Nvidia em seus chips Trainium4 de IA. Essa integração cria conexões ultrarrápidas entre chips, facilitando o treinamento de grandes modelos de inteligência artificial.
A Amazon também lançou servidores baseados no Trainium3, com 144 chips por unidade. Eles oferecem mais de quatro vezes o processamento da geração anterior e consomem 40% menos energia, visando custo-benefício competitivo.
A AWS, divisão de nuvem da Amazon, anunciou a adoção da Tecnologia da Nvidia em chips futuros de IA. Especificamente, o chip Trainium4 usará o NVLink Fusion, que cria conexões rápidas entre chips.
O anúncio veio durante a conferência anual AWS re:Invent, em Las Vegas, com cerca de 60 mil participantes. A Amazon também planeja mostrar atualizações do modelo de IA Nova.
A Nvidia promove o NVLink para empresas como Intel e Qualcomm. Agora, a AWS entra na lista. Isso permite servidores de IA maiores, com chips que se comunicam mais rápido. Crucial para treinar grandes modelos, que ligam milhares de máquinas.
Clientes ganharão acesso às Fábricas de IA da AWS, com mais velocidade e disponibilidade nos data centers.
“Juntas, Nvidia e AWS criam infraestrutura para a era da IA”, disse Jensen Huang, CEO da Nvidia.
A Amazon lançou servidores com o chip Trainium3. Cada um tem 144 chips, oferecendo mais de quatro vezes o processamento da geração anterior. Consomem 40% menos energia, segundo Dave Brown, VP da AWS.
A estratégia foca em preço competitivo contra rivais, como a própria Nvidia. Brown enfatizou desempenho e custo-benefício para atrair clientes.
Fique de olho em mais novidades da re:Invent.
Via InfoMoney