Vânia Penedo em 2018-8-07

A FUNDO

Servidores – Mercado a crescer ao ritmo dos dados

As vendas de servidores atravessam um bom momento. Tendo em conta a ascensão do edge computing, da IoT, do big data e da analítica, não há motivos para abrandar. Ainda assim, importa repensar alguns dos pressupostos do processamento e do armazenamento, em nome da evolução do data center privado

Servidores – Mercado a crescer ao ritmo dos dados

Mais do que nunca, são necessários recursos crescentes de computação e armazenamento. E com maior capacidade. O volume de dados não para de crescer – a IDC prevê que o volume de dados gerados em todo o mundo aumente dez vezes num período de oito anos (2017-2025), totalizando os 163 zettabytes (ZB). Além de mais dados existem hoje novos tipos de aplicações, mais exigentes, de que são exemplo a inteligência artificial e o big data analytics, que estão a tornar-se vitais para o bom desempenho dos negócios e a criar novas necessidades.

À medida que todos os negócios se tornam digitais, tendem a aumentar, na mesma proporção, os investimentos na infraestrutura que os suporta. Os números assim o dizem: dados revelados pela Gartner no passado mês de junho indicam que no primeiro trimestre deste ano, na EMEA (região onde se insere a Europa), o número de servidores vendidos, em unidades, cresceu 2,7%. Os valores são consideravelmente mais expressivos quando olhamos para as receitas - cresceram 32,1% - o que significa que estão a vender-se máquinas de maior capacidade.

A Gartner realça que não foram apenas os servidores hyperscale (para data centers de cloud pública) a comandar este aumento, já que os data centers empresariais atravessam um ciclo de renovação de infraestrutura. Em Portugal, este é um mercado que também goza de boa saúde.

Apesar de alguma da retração sentida nos últimos anos, com muitos projetos adiados, desde o final de 2017 que começa a haver luz verde para novos investimentos. “O ano de 2018 tem sido bastante bom. Em Portugal, creio que o crescimento até está bastante acima dos 3%”, observou Fernando Rio Maior, presales manager na Hewlett Packard Enterprise (HPE). O aumento das vendas acontece por igual em processamento e armazenamento, para a HPE. “Também não podemos dizer que foram as PME ou as grandes empresas a comprar mais. Acaba por ser transversal. Registámos crescimento em praticamente todas as áreas, inclusivamente na componente de networking”. Esta retoma também foi sentida pela Fujitsu que, para Nuno Leonardo, business development of data center, não se explica apenas por um “maior fulgor” do mercado, mas igualmente pelas novas soluções que estão a ser lançadas. A retoma justifica o crescimento do ponto de vista das unidades comercializadas, é certo, mas não o aumento das receitas.

À medida que tecnologias como o software-defined e o in-memory computing vão surgindo, justificou, “o valor associado à venda de cada servidor tende também a aumentar”. A procura por novas capacidades explica a diferença entre os 3% e os 32,1%, nos valores da Gartner, segundo este responsável. Para a Fujitsu, tanto as PME como as grandes empresas estão “mais ou menos equilibradas” do ponto de vista do aumento das compras. No Estado começam a surgir projetos. “No entanto, devido à carga burocrática, o ciclo de decisão é mais lento do que no privado”.

Até mesmo as PME estão a optar por soluções de maior capacidade, segundo Ricardo Cabral, server business manager na Tsunami, business area do jp.group, que apontou “uma adoção muito forte de soluções software-defined, a nível do armazenamento”. Sobre o ciclo de aquisições no Estado, deu o exemplo das universidades – onde ainda assim vai existindo algum aumento dos investimentos – mas onde um concurso público está a demorar, em média, oito meses. Os números da Gartner refletem de algum modo a realidade da SOON. “Enquanto integrador de sistemas, sempre tivemos mais presença na média e alta gama – vendemos sobretudo servidores mais pesados, de nós mais ‘gordos’”, assinalou Paulo Gouveia, enterprise business manager. A empresa, que dispõe de uma marca própria, Nexus, baseada em soluções Super Micro, está a comercializar cada vez mais soluções integradas com networking, servidores e armazenamento, nomeadamente em hiperconvergência. Para a SOON, a componente de armazenamento tem sido a que mais cresce.

O integrador também aponta a eficiência energética como uma preocupação das empresas. “Nos centros de investigação começa a aparecer. As soluções de ultra low voltage têm estado a crescer de forma gradual. Tem havido procura por equipamentos cada vez mais eficientes”. Os dados das vendas da Gartner corroboram a filosofia subjacente à hiperconvergência, no entender de Eduardo Penedos, systems engineer manager da Nutanix, e “batem certo” com a adoção deste modelo por parte do mercado.

 

Significa que estão a vender-se servidores com mais capacidade e com mais discos”. Para o fornecedor, a maioria das vendas vêm do mercado empresarial, onde está o seu maior enfoque. Do lado da Equinix, enquanto provider de infraestrutura de data center, a explosão dos dados tem potenciado o crescimento do negócio. “As empresas estão mais disponíveis para investir neste tipo de soluções. Temos sentido um crescimento elevado durante este ano, alinhado com a aquisição de novo hardware e com a necessidade de alojar o volume crescente de dados”, indicou André João, account executive.

Processamento e armazenamento cada vez mais próximos

As caraterísticas do nosso mercado levam a que não existam muitos projetos de armazenamento acima de um petabyte, o que não significa, segundo Fernando Rio Maior (HPE), que este não seja um mercado dinâmico, uma vez que existem áreas “vibrantes”, como a de object storage, onde as necessidades de armazenamento são elevadas. “Muitos dos projetos de armazenamento, em Portugal, podem recorrer a servidores, que podem ter vários terabytes de capacidade. A partir de qualquer servidor ou de um conjunto de servidores, numa solução grid ou de hiperconvergência, é possível montar uma solução de armazenamento”, sublinhou.

No entanto, para o painel desta Mesa Redonda, faz cada vez menos sentido falar em processamento e armazenamento, separadamente, já que a grande tendência é para que estejam integrados. “A componente analítica leva a que cada vez mais o armazenamento esteja próximo do processamento. Isto faz com que os sistemas que estão a ser adquiridos sejam mais musculados”, destacou Nuno Leonardo (Fujitsu), que identificou um mercado dividido, com uma componente transacional, onde "existe um crescimento muito elevado nos discos all-flash", com Portugal a destacar-se na EMEA, "do ponto de vista da adoção desta tecnologia”. Por outro lado, referiu, existe também uma componente muito voltada para a analítica, a Internet of Things (IoT) e o in-memory. “Neste ponto já é complicado distinguir o que é processamento e armazenamento. Os sistemas distribuídos e scale-out estão a aparecer e tudo isto é feito por servidores com discos”.

Esta é também a visão da Nutanix. Eduardo Penedos salientou que ao dia de hoje, na oferta do fornecedor, o que existem são nós e que cada nó de computação pode levar cerca de 80 terabytes (TB). “Até ao fim do ano vamos lançar nós de meio petabyte, para soluções de analítica”. A verdade é que, observou, as aplicações que os clientes estão a começar a implementar, nas áreas de big data e de analítica, “consomem mais armazenamento do que as anteriores”.

Edge computing e IoT são oportunidade

O grande volume de dados que está a ser gerado advém cada vez mais do edge da rede e dos dispositivos de IoT, que estão a impulsionar a necessidade de mais armazenamento e processamento locais – não se coadunam com a computação exclusivamente centrada na cloud. Muitas empresas, realçou o system engineer manager da Nutanix, “necessitam de ter no edge infraestrutura que processe e guarde os dados e que consiga enviar esses mesmos dados para um data center central”. Além do mais, disse, a IoT irá gerar, só este ano, cem vezes mais armazenamento do que todo aquele já instalado nos data centers (privados ou de cloud providers). “Em 2020, as estimativas apontam para este valor seja de mil vezes mais”.

Em Portugal, segundo este painel, ainda não existem muitos projetos em marcha nestas áreas, que são uma das maiores oportunidades para o mercado de processamento e armazenamento. “As empresas estão a considerar projetos de IoT, mas estas soluções exigem criatividade e ainda não existem muitos projetos a funcionar”, indicou Fernando Rio Maior (HPE). “Somos muito early adopters da tecnologia, mas nestas áreas ainda não criámos use cases”. Em edge computing e IoT existe grande potencial para os Parceiros de IT, mas a longo prazo. “Ainda não produzem retorno imediato, em Portugal”. Como lembrou André João (Equinix), a quantidade massiva de dados gerados pela IoT “tem de ser adquirida, transportada, processada e armazenada”. Mais: “Estando em causa o armazenamento, tudo o resto vai igualmente crescer na mesma medida”.

Investimentos dependem do business case

Para Nuno Leonardo (Fujitsu), esta realidade explica- -se por uma mudança que está a ocorrer dentro das empresas. “Cada vez mais a decisão sobre os investimentos está a passar para o negócio. É assim que nascem a necessidades da IoT e do big data – pertencem ao negócio e não o IT. Enquanto os decisores não estiverem preparados para este tipo de oportunidades, o IT continuará somente a gerir as operações”. Até porque, lembrou, quando falamos de IoT “não estamos a falar de tecnologia, mas de novas formas de fazer negócio”. Como resumiu Eduardo Penedos (Nutanix), os investimentos em infraestrutura “acabam por depender cada vez mais de um business case”

Para serem bem-sucedidas, as empresas do Canal têm de apostar não somente na venda de hardware, mas também nos serviços e na manutenção. “Terão de comercializar uma solução integrada e de levar aos clientes casos práticos com ROI imediato”, frisou Fernando Rio Maio (HPE). “Vejo alguns integradores nacionais a fazê-lo, apesar de ainda muito focados nas smart cities. A verdade é que existe todo um mundo para endereçar. Na economia digital, as TI são o negócio”.

 

Com os interlocutores a mudar – cada vez mais o negócio e menos o IT – os Parceiros têm de repensar abordagens. “Se quisermos de facto aportar valor ao cliente, temos de deixar de discutir o espaço em disco e dizer o que vamos adicionar ao negócio”. A SOON tem observado junto do seu Canal de revendedores, sobretudo locais, que o desafio está em “adaptar a linguagem e o tipo de oferta a uma nova geração de gestores”, disse Paulo Gouveia. “Temos procurado alertá-los para esta nova realidade”.

A nuvem que paira – é ou não ameaça?

A discussão não é nova, mas é inevitável para todos os que se movem neste mercado, dos fabricantes ao Canal: é ou não a cloud pública o grande inimigo da venda de servidores? Segundo Paulo Gouveia (SOON), as micro e pequenas empresas estão a mover-se integralmente para a cloud, sobretudo porque as software houses nacionais têm o seu software de faturação de entrada de gama assente em cloud – e este era um mercado tradicionalmente de servidores. “A aquisição de sistemas de ultra entrada de gama, na nossa perceção, tem tendência a desaparecer”. Para Ricardo Cabral (Tsunami), a adoção da cloud nota-se, sim, na adoção de soluções de software-as- -a-service (SaaS). “Ao nível da virtualização, notamos que só vai para a cloud o que não é crítico. Porque exige resiliência e redundância, que ficam caras na cloud”.

Como explicou Fernando Rio Maior (HPE), toda a informação que ocupa muito espaço fica cara num ambiente de cloud pública. “Continua por isso a haver muita necessidade de aquisição de servidores”. Se o SaaS é aliciante, o infrastructure-as-a-service (IaaS) nem tanto. “Quando se procuram máquinas virtuais, ou uma máquina para instalar uma aplicação específica, não observamos esta adoção da cloud”.

O tema dos custos tem-se revelado determinante. A HPE tem observado que alguns clientes, nomeadamente do segmento de enterprise, estão a sair da cloud pelos custos elevados. “O que a cloud pública promete não é o que na realidade é oferecido. Por outro lado, há os SLA. A infraestrutura que está na cloud não é diferente da que existe on-premises. O que leva a que a cloud seja vantajosa são os mecanismos de orquestração e automação, que já estão disponíveis on-premises e que se relacionam com a virtualização dos equipamentos”, sublinhou o presales manager. Os indicadores, disse, estão nos números: “As máquinas low end continuam a vender-se. Provavelmente não ao ritmo de há uns anos, mas nota-se muito que os pequenos e médios clientes continuam a adquirir estes equipamentos para determinadas componentes para as quais não existe oferta SaaS”.

A Fujitsu também não tem assistido a uma diminuição das vendas das máquinas de baixa gama. “Ao contrário do que julgamos, o acesso à internet não tem a mesma qualidade quando saímos dos centros urbanos”, justificou Nuno Leonardo. “Em lugares mais remotos há empresas que continuam a precisar de um servidor, porque as comunicações não são as melhores”. O representante do fabricante nipónico aproveitou para esclarecer o que diz ser alguma confusão entre o que é cloud, serviços de housing ou managed services. “Do meu ponto de vista, alugar um espaço num data center para ter um equipamento dedicado, que pode ser ou não gerido por um outsourcing, não é cloud. Cloud implica subscrição”. André João (Equinix) confirmou que “um serviço de cloud pura é um serviço de subscrição, com a utilização a ser medida, inclusive, por consumo horário”.

A flexibilidade da cloud no on-premises

Para os protagonistas desta Mesa Redonda, o debate em torno da concorrência da cloud tem um paralelismo incontornável. Quando a virtualização apareceu, lembrou Fernando Rio Maior (HPE), também se dizia que seria o fim dos servidores. “Nunca se venderam tantos servidores desde o aparecimento da virtualização. Ninguém deve ver a cloud como uma ameaça, mas como uma oportunidade”. Certo é que as infraestruturas on-premises têm de evoluir em direção a um modelo de cloud privada. “Uma das oportunidades é a orquestração”, referiu Nuno Leonardo (Fujitsu), sublinhando que esta é a via para que as empresas acabem com o shadow IT. “O IT interno não está preparado para permitir a facilidade das subscrições. Quando há sistemas híbridos, com componentes de orquestração e self-service, o shadow IT acaba por desaparecer. O controlo sobre o que está on-premises e na cloud passa a estar novamente do lado de quem gere”.

Para a Nutanix, trata-se de evoluir as infraestruturas on-premises para o que o fornecedor apelida de enterprise cloud, uma aliança entre cloud pública e privada. “O CIO, hoje, só tem duas alternativas: ou adota estas tecnologias e se torna num chief digital officer ou passa a ser um chief legacy officer”, referiu Eduardo Penedos. O systems engineer manager realçou que a simplicidade de utilização da cloud pública foi o derradeiro catalisador para a transformação do data center privado, que hoje tem de entregar flexibilidade e escalabilidade. “A cloud pública mostrou a necessidade de que tudo isto seja simples. Quando os clientes foram para a cloud pública, não tiveram formação, porque o processo era intuitivo. O que procuramos, por isso, é trazer essa experiência de cloud para dentro do data center”.

As ferramentas de orquestração e automatização desempenham um papel fundamental para esta evolução do data center em direção a um modelo de cloud privada/híbrida. Apesar de não serem recentes no mercado, ainda são subutilizadas pelas empresas, apesar de a cloud ter, como vimos, despertado consciências para os benefícios de interagir com as infraestruturas em modo self service – no fundo o que estas ferramentas proporcionam.

 

Mais uma vez, lembrou o representante da Nutanix, nada disto é possível se a infraestrutura subjacente não estiver desenhada para tal. “Trata-se de automatizar o processo de criação de ambientes inteiros, de qualquer tipo de aplicação”, explicou. “Estas ferramentas hoje permitem o deployment completo de ambientes, de forma transversal à infraestrutura subjacente, sejam máquinas físicas, virtuais, containers ou um serviço”. A evolução deve-se à virtualização não apenas do processamento, mas também das redes e do armazenamento, que veio permitir a automatização.

Virtualização total do data center? Não para já

Apesar de, tecnologicamente, já ser possível ter o data center cem por cento virtualizado, esta não é, pelo menos para já, uma realidade expectável. O data center definido por software “é uma visão que já se pode implementar” destacou Fernando Rio Maior (HPE), mas que, após esta fase, carece de amadurecimento. “O esforço de manutenção torna-se bastante elevado, o que inviabiliza algum tipo de soluções”.

A verdade é que, nos clientes mais pequenos, que já optaram por infraestruturas hiperconvergentes ou compostas, a virtualização a cem por cento é uma realidade. Nas grandes empresas, destacou o presales manager da HPE, existem sempre áreas que dificilmente irão para este tipo de soluções. “Um ERP in-memory, por exemplo, dificilmente se encaixa neste tipo de arquitetura. Não sei se a visão correta será virtualizar todo o data center”.

Inovações tecnológicas – o que por aí vem

Esta é um mercado que promete bastante do ponto de vista de inovações tecnológicas. O armazenamento caminha para ser cada vez mais all-flash, “com o custo por espaço a aproximar-se do tradicional”, segundo Nuno Leonardo (Fujitsu), e já não somente o custo por input/output (I/O). Ricardo Cabral (Tsunami) sublinhou que “haverá grandes evoluções ao nível do armazenamento all-flash, com as performances a aumentar sem agravamento do custo”. Além do mais, adiantou, uma das grandes inovações diz respeito à memória RAM não volátil. “Permite ter performances da memória RAM sem perda de dados em caso de falha. Com a evolução do 3D NAND, até o modo de ir à NAND buscar os dados ocorre de forma diferente (em 3D), o que aumenta a performance e diminui as latências”, destacou o server business manager.

Apesar de o armazenamento, enquanto tecnologia, ter evoluído bastante nos últimos anos em capacidade, o mesmo não tem acontecido em termos de performance. “O all-flash veio dar um boost”, reconheceu Fernando Rio Maior (HPE), “mas os discos não aumentaram de performance”. É certo que diminuíram de tamanho e que é hoje possível obter mais performance em discos mais pequenos, mas os avanços mais próximos, nesta área, são de outra natureza. “Há tecnologias que vão surgir – em vez dos discos trabalharem num ambiente atmosférico vão trabalhar num ambinte fechado de hélio, porque provoca menos atrito, logo menos aquecimento do prato, o que permitirá escrever mais informação e mais rapidamente nas mesmas quantidades de banda magnética”.

No que diz respeito à memória não volátil, a HPE está a apostar nos iões de oxigénio. “A ideia é ter grandes capacidades de memória não volátil, na ordem dos terabytes, em volumes muito pequenos”. Uma diferença fundamental, explicou o presales manager, está em endereçar a memória diretamente pelo processador. “Ao dia de hoje existem grandes ineficiências: para chegar ao disco de um servidor, salta-se da memória do CPU para a RAM e depois para a cash, da placa para a cash do disco e depois para o disco”.

Além do mais, lembrou, o que 80% do algoritmo do sistema operativo faz é lidar com esta componente. “Se houver grandes capacidades de memória diretamente endereçadas pelo processador, teremos capacidades de processamento tremendas”. O que está em causa é um novo tipo de arquitetura – memory driven computing. “O centro das atenções já não é o processador, mas a memória. Isto permitirá implementar soluções de analítica a escalas inimagináveis, inclusive para big data analytics sobre ADN”. Nada disto é futurologia, porque os protótipos já existem. “Está muito mais próximo do que julgamos. Se o CPU consegue aceder à informação, o sistema operativo tem de mudar radicalmente. A arquitetura de computação como a conhecemos muda por completo”. Paulo Gouveia (SOON) lembrou, porém, que a NVDIMM (non-volatile dual in-line memory module) “já existe há bastante tempo”, e que a SOON tem vindo a incorporar nos seus equipamentos. “O que acontece é que a indústria ainda não adotou a tecnologia”. O enterprise business manager disse ainda que, apesar de o all-flash “ser claramente uma tendência”, tudo o que seja deep archive “provavelmente continuará a ser em disco rígido”.

A Nutanix está a incorporar SSDs NVMe (Non-Volatile Memory Express) nos seus equipamentos, para “data layering e data tiering automáticos entre os diferentes tipos de media que existem na máquina”. Eduardo Penedos referiu ainda que “uma percentagem muito elevada das vendas da Nutanix é all- flash” e que o fabricante tem “bastantes clientes com NVMe". O que começa a ser verdadeiramente importante, acrescentou, “é a capacidade de enviar dados para o processador”. Com estas novas tecnologias, explicou, “cada nó de computação é um controlador de storage e está mais próximo do processador”.

O resultado são operações de I/O “extremamente rápidas”. E nem o custo é já um entrave: “Os NVMe têm um custo 20% inferior ao de um SSD normal de há uns anos. Com este tipo de arquiteturas scale-out, existe mais resiliência e tolerância à falha. No passado, este tipo de fiabilidade era mais onerosa. O preço destes componentes está a baixar”. Começa também a ser necessário ter hardware específico para edge computing, uma vez que, segundo o system engineer manager, “a arquitetura x86 não chega para este tipo de processamento”. Quando o tema é inteligência artificial, adiantou, “será cada vez mais necessário o deployment de funções diretamente sobre o hardware, sem qualquer sistema operativo". Paulo Gouveia recordou que, o mais importante, de entre qualquer inovação, passa por que os sistemas sejam completamente abertos. “Com armazenamento não proprietário, o mais standard possível, com conetividade por ethernet. Simplificar e minimizar o custo – scale-out computing e scale-out storage são o caminho”.

Recomendado pelos leitores

2023: Um Ano Perdido na Distribuição
A FUNDO

2023: Um Ano Perdido na Distribuição

LER MAIS

Business Continuity: a nova fronteira para o crescimento do Canal de Parceiros
A FUNDO

Business Continuity: a nova fronteira para o crescimento do Canal de Parceiros

LER MAIS

Top Channel e business continuity em destaque na edição de novembro do IT Channel
A FUNDO

Top Channel e business continuity em destaque na edição de novembro do IT Channel

LER MAIS

IT CHANNEL Nº 112 NOVEMBRO 2024

IT CHANNEL Nº 112 NOVEMBRO 2024

VER EDIÇÕES ANTERIORES

O nosso website usa cookies para garantir uma melhor experiência de utilização.