Henrique Carreiro em 2020-10-23
Cada vez mais o futuro da computação nos data centers passa por abordagens inovadoras, que pretendem quebrar aquilo que, durante muitos anos, foi a ideia de que um único modelo deve servir a toda a gente.
Depois de ter investido nas unidades de processamento auxiliares para suporte a processamento de machine learning, a Nvidia aposta nas Data Processing Unit (ou DPU), unidades especializadas cujo objetivo é retirar carga de tudo o que tem que ver com funções de gestão dos serviços do datacenter da unidade central de processamento. E se há para tirar: num data center, cerca de trinta por cento da carga sobre o CPU é de workloads de gestão de infraestrutura, por exemplo, no que se refere a segurança, assim como networking definido por software, ou virtualização de armazenamento. Na verdade, este é mais um exemplo do bem conhecido efeito harmónio que surge regularmente nos sistemas de informação empresariais: centraliza, descentraliza, centraliza de novo. Muitas das tarefas que agora caem sobre o CPU, chegaram a ter hardware dedicado. Mas as respetivas funções passaram a ser asseguradas por software e, naturalmente, num datacenter, o problema é exacerbado. A forma como a Nvidia se propõe ajudar a resolver o problema é por meio da disponibilização de placas adicionais que podem fazer o “offload” do processamento relativamente a estas tarefas do CPU, tirando adicionalmente partido das capacidades de processamento paralelo, pelo qual a Nvidia é bem conhecida. É, também, mais uma porta de entrada nos datacenters, onde a Nvidia tem vindo a desafiar a Intel, especialmente agora que comprou a ARM. Capacidade para criar processadores com elevados números de unidades de execução em paralelo e baixo consumo, para além desta expansão na área dos circuitos especializados, estão a tornar a Nvidia numa força muito séria no espaço empresarial. |