Henrique Carreiro em 2023-12-11
É uma tradição nova, mas não deixa de ser tradição, o anúncio anual de processadores de utilização própria, por parte da Amazon
Em Las Vegas, no final de novembro, princípio de dezembro, normalmente pelo CEO de momento da AWS, anteriormente, Andy Jassy, agora, Adam Selipsky (quando Jassy passou a CEO da casa-mãe, foi Selipsky quem ficou com o leme da AWS). Este ano, Selipsky anunciou a disponibilidade da quarta geração dos seus processadores para instâncias de compute (Graviton), e a segunda quer dos seus aceleradores de treino (Trainium) e inferência (Inferentia) de ML. E se os nomes parecem ter saído de um qualquer filme do Marvel Cinematic Universe, já as respetivas capacidades parecem – respeitosamente, diga-se – apontadas às dos produzidos por alguns dos maiores fornecedores da AWS, nomeadamente primeiro Intel e depois, mais recentemente, Nvidia. A AWS ainda continua a ser um grande cliente de qualquer destes fabricantes e o CEO da Nvidia até esteve no palco com Selipsky no mais recente evento AWS re:Invent que se realizou em Las Vegas no fim de novembro. Estima-se que a AWS tenha comprado em 2023 cerca de 50 mil GPU de topo H100 da Nvidia, a um valor estimado de 30 mil dólares cada uma. Isto, claro, para além das GPU de gamas mais comuns. E, decerto, só não terá comprado mais porque a Nvidia não tem para entrega. É evidente que, quando são estas as ordens de grandeza dos investimentos, muitas empresas, desde que tenham a capacidade necessária, ponderarão ser donas do seu destino, criando os próprios processadores. É o que a AWS, mas também a Microsoft e a Google, estão a fazer, embora esta última um tanto mais atrasada, mas ainda assim no mesmo caminho. Quanto à adoção por parte dos clientes finais, é muitas vezes facilitada, dado que lhes saindo estes chips mais baratos aos próprios hyperscalers, podem oferecer serviços mais baratos sobre eles, ao mesmo tempo que mantêm os fornecedores clássicos, com ofertas sobretudo destinadas ao mercado de quem tem de gerir aplicações legadas. E a AWS parece ter, para além de tudo, conseguir criar aceleradores de aplicações de AI competitivos não com os H100, mas antes com os H200 da Nvidia, a geração mais recente dos produzidos por esta. Há rumores de que a AWS estará a criar, com base nestas tecnologias, o maior cluster AI do mundo. Será sempre um alvo em movimento: a Microsoft, ou a Alibaba, ou outro concorrente lá chegarão, talvez até ultrapassem. Mas em tudo o que tem que ver com cloud e AI, o que conta é o momentum. E esse parece não estar ainda a abrandar – mais até o contrário, para dizer a verdade. |