Henrique Carreiro em 2023-12-11

OPINIÃO

Anchor

Para os grandes hyperscalers, o futuro passa pelo desenho de chips avançados

É uma tradição nova, mas não deixa de ser tradição, o anúncio anual de processadores de utilização própria, por parte da Amazon

Para os grandes hyperscalers, o futuro passa pelo desenho de chips avançados

Em Las Vegas, no final de novembro, princípio de dezembro, normalmente pelo CEO de momento da AWS, anteriormente, Andy Jassy, agora, Adam Selipsky (quando Jassy passou a CEO da casa-mãe, foi Selipsky quem ficou com o leme da AWS). Este ano, Selipsky anunciou a disponibilidade da quarta geração dos seus processadores para instâncias de compute (Graviton), e a segunda quer dos seus aceleradores de treino (Trainium) e inferência (Inferentia) de ML. E se os nomes parecem ter saído de um qualquer filme do Marvel Cinematic Universe, já as respetivas capacidades parecem – respeitosamente, diga-se – apontadas às dos produzidos por alguns dos maiores fornecedores da AWS, nomeadamente primeiro Intel e depois, mais recentemente, Nvidia.

A AWS ainda continua a ser um grande cliente de qualquer destes fabricantes e o CEO da Nvidia até esteve no palco com Selipsky no mais recente evento AWS re:Invent que se realizou em Las Vegas no fim de novembro. Estima-se que a AWS tenha comprado em 2023 cerca de 50 mil GPU de topo H100 da Nvidia, a um valor estimado de 30 mil dólares cada uma. Isto, claro, para além das GPU de gamas mais comuns. E, decerto, só não terá comprado mais porque a Nvidia não tem para entrega.

É evidente que, quando são estas as ordens de grandeza dos investimentos, muitas empresas, desde que tenham a capacidade necessária, ponderarão ser donas do seu destino, criando os próprios processadores. É o que a AWS, mas também a Microsoft e a Google, estão a fazer, embora esta última um tanto mais atrasada, mas ainda assim no mesmo caminho. Quanto à adoção por parte dos clientes finais, é muitas vezes facilitada, dado que lhes saindo estes chips mais baratos aos próprios hyperscalers, podem oferecer serviços mais baratos sobre eles, ao mesmo tempo que mantêm os fornecedores clássicos, com ofertas sobretudo destinadas ao mercado de quem tem de gerir aplicações legadas. E a AWS parece ter, para além de tudo, conseguir criar aceleradores de aplicações de AI competitivos não com os H100, mas antes com os H200 da Nvidia, a geração mais recente dos produzidos por esta. Há rumores de que a AWS estará a criar, com base nestas tecnologias, o maior cluster AI do mundo. Será sempre um alvo em movimento: a Microsoft, ou a Alibaba, ou outro concorrente lá chegarão, talvez até ultrapassem. Mas em tudo o que tem que ver com cloud e AI, o que conta é o momentum. E esse parece não estar ainda a abrandar – mais até o contrário, para dizer a verdade.

Recomendado pelos leitores

Intel e AMD unem forças para proteger a arquitetura x86
OPINIÃO

Intel e AMD unem forças para proteger a arquitetura x86

LER MAIS

Celebrar 40 anos de erros do Excel
OPINIÃO

Celebrar 40 anos de erros do Excel

LER MAIS

Como as empresas de Canal podem simplificar a cibersegurança para criar confiança e agilidade para as PME
OPINIÃO

Como as empresas de Canal podem simplificar a cibersegurança para criar confiança e agilidade para as PME

LER MAIS

IT CHANNEL Nº 112 NOVEMBRO 2024

IT CHANNEL Nº 112 NOVEMBRO 2024

VER EDIÇÕES ANTERIORES

O nosso website usa cookies para garantir uma melhor experiência de utilização.