2018-1-03
Parar é um luxo inacessível à maioria dos negócios no atual contexto da economia digital, independentemente da natureza da sua atividade. Debatemos o atual paradigma da alta disponibilidade, com a Alcatel-Lucent Enterprise, Colt Technology Services, Dell EMC, DOIS e Schneider Electric
Os dados são o combustível das organizações, o que significa que as aplicações, sobretudo as que são críticas para o funcionamento do negócio, têm de estar disponíveis a cem por cento, ou muito perto disso, sob pena de se registarem perdas irreparáveis. Aragão Rio (Dell EMC), Nuno Lopes (Schneider Electric), Pedro Vale (Colt), Henrique Amaro (Alcatel-Lucent Enterprise) e Vasco Matos (DOIS). Mais do que nunca as infraestruturas de data center têm de ser à prova de falha e garantir que os negócios não param, ou que param o menos tempo possível, sem consequências danosas. Nuno Lopes, IT distribution account manager na Schneider Electric, ilustrou o que acontece quando assim não é, recordando o mediático episódio da British Airways, de maio deste ano. “Foi um problema na infraestrutura de data center de suporte da companhia área aos aeroportos de Heathrow e Gatewick, em Inglaterra, e levou a que 75 mil passageiros, em 170 aeroportos, em 70 países, ficassem em terra”. Os custos de episódios como este não podem ser desvalorizados: num dia, as ações da holding que detém a British Airways desvalorizaram 180 milhões de libras.
O downtime mínimo significa poucos minutos ou segundos. “Existe uma classificação técnica, os cinco noves”, explicou, que diz respeito ao número de noves necessários à disponibilidade máxima — 99,999%. “Neste caso, o downtime anual é de cerca de cinco minutos”. Em seis noves (99,9999%), o downtime são 31 segundos e em sete noves (99,99999%) são cerca de 3,15 segundos. “É muitíssimo crítico ter essa capacidade de disponibilidade”, referiu. A alta disponibilidade, porém, deixou de ser uma caraterística de uma solução. Vasco Matos, senior account manager da DOIS, realçou que se trata de uma commodity. “O cliente espera, à partida, que a solução seja always-on, partindo do princípio de que as soluções já são 24/7”.
Pedro Vale, sales manager da Colt Technologies, referiu que este tipo de disponibilidade, 24 horas por dias, 7 dias por semana, é hoje “quase mandatória” e sublinhou a importância das telecomunicações ao nível da infraestrutura. “Se não for possível aceder aos dados, se as comunicações não estiverem disponíveis, de nada serve ter equipamentos muito resilientes” Esta preocupação tem sido crescente. “Há muitas empresas a darem mais atenção a este tema, especialmente quando sofrem algum tipo de falha na sua infraestrutura. É nestes momentos que se torna mais visível o papel da resiliência e da redundância. As telecomunicações são tão elementares como a energia”.
Como evitar pontos de falha?
A componente passiva, porém, assume um papel primordial. “Desde o início tem de haver uma preocupação primordial com esta componente física, do desenho da infraestrutura à energia. É por aqui que tudo começa”, aconselhou Henrique Amaro, technical sales and services da Alcatel-Lucent Enterprise (ALE). Se a redundância for pensada a este nível, disse, a tecnologia que é posteriormente adicionada, dos servidores às comunicações, “é muito mais fácil de aplicar ao longo do tempo e tendo em conta os recursos financeiros disponíveis”. Se estes fatores forem pensados a montante, defendeu, “o impacto de uma paragem pode não ser tão grande a nível financeiro”, sendo posteriormente mais fácil “encontrar alternativas com redundância e resiliência”. Fundos ilimitados não são, efetivamente, uma realidade, e o cliente tem de saber o que “não pode mesmo parar na infraestrutura”, segundo Vasco Matos (DOIS). “É possível planear tendo em vista o crescimento futuro e depois definir um passivo que permita desenvolvimentos tecnológicos posteriores. Se a base for future proof, tudo o que for colocado acima, em termos de redundância, sairá mais económico do que algo que foi construído ad hoc. Pensar no futuro é fundamental para que haja um custo controlado do desenvolvimento da solução”, reforçou o senior account manager. Estão as empresas conscientes da importância de ter comunicações à provada de falha? Para a Dell EMC, sim. Aragão Rio referiu que os clientes sensibilizados para a importância da alta disponibilidade têm em mente que a infraestrutura de comunicações “tem de ter dois switches para storage e comunicação entre os servidores, por exemplo”. Na maioria das grandes empresas, sobretudo nas de setores como o da saúde e o financeiro, já existem sistemas de comunicação redundantes em termos de infraestrutura. “E as empresas que têm criticidade aplicacional, com negócios que dependem muito de tudo o que são comunicações, pensam bastante nesta componente. Raramente encontramos um cliente que solicite apenas um switch para ligar a infraestrutura de storage e servidores ou que não tenha à saída do seu data center pelo menos dois circuitos de comunicações independentes, de dois fabricantes diferentes, algo indispensável para aumentar a disponibilidade”. O responsável da Dell EMC apontou um fator que é hoje uma ameaça à disponibilidade: os ciberataques. “A alta disponibilidade tem de ser alargada à segurança dos próprios dados. Os ciberataques são uma forma de intrusão e condicionam o acesso aos dados. É algo que tem de ser debatido com os clientes”. Um alerta também deixado por Henrique Amaro (ALE): “A continuidade do negócio é um tema que não é hoje dissociável do panorama da cibersegurança, cada vez mais marcado por ciberataques que a comprometem — basta recordar os dois episódios mediáticos do ano, o WannaCry e o Petya/NotPetya, para perceber que as paragens também passam pelos hackers”. A importância da alimentação elétricaSem energia, de nada valem soluções tecnológicas pensadas e desenhadas para assegurar que os dados estão sempre disponíveis. Segundo Nuno Lopes (Schneider Electric), antes de escolher o tipo de alimentação, importa ter em conta a dimensão da infraestrutura de data center em questão. “Podemos começar por uma alimentação em média tensão, onde o tradicional, para redes elétricas de alta disponibilidade, supõe uma alimentação por duas fontes distintas, com duas subestações. Na primeira fase de entrada destas alimentações, há que ter em conta backups de grande potência — podem ser grupos de geradores que permitam um nível de potência comutado e com controlo e monitorização automáticos, e não humanos”. Neste capítulo, porém, impõe-se uma abordagem multidisciplinar, que envolva a componente de AVAC, de bombagem, e também a parte elétrica, mas igualmente o ecossistema de data center, da infraestrutura às comunicações. “Se a montante houver uma linha de pensamento que considere elevados níveis de redundância, é possível chegar ao ecossistema de IT com menor probabilidade de falha”.
No momento de planear, lembrou Aragão Rio (Dell EMC), é fundamental que os silos fiquem de parte. “Quando desenhamos sistemas de alta disponibilidade, que têm custos elevados, normalmente não se sentam à mesa todos os intervenientes, porque o IT entende que a energia não lhe diz respeito”. No entanto, advertiu, esta postura “é um erro”, chamando a atenção para a importância de existir a figura do “facilitador”, alguém que garanta, dentro das organizações, que todos estão envolvidos. “Observo que as redundâncias existem nos diversos pontos do data center. No entanto, quando se discutem planos de desastre a sério, ninguém realiza testes à parte elétrica, que pode desligar tudo”. Henrique Amaro (ALE) realçou que os data centers vão crescendo e que os bastidores vão aumentado, mas que “a UPS mantém-se a mesma”: “Vai ficando desgastada, os cabos são os mesmos. Esta mensagem também tem de ser passada”.
Virtualização e a redundância dos ativosA virtualização é hoje um dado adquirido no data center, já que praticamente tudo poder ser virtualizado, dos desktops aos servidores, passando pelo próprio armazenamento. Aragão Rio (Dell EMC) destacou que veio permitir “utilizar melhor os recursos do data center” e por isso mesmo garantir uma continuidade do negócio “mais robusta”, permitindo “recuperar rapidamente uma máquina física mesmo remotamente”. Vasco Matos (DOIS) elucidou: “A camada de virtualização vai imolar tudo o que está por debaixo, pelo que a plataforma subjacente acaba por ser irrelevante para o que se passará depois”. O senior account manager explicou que, por norma, os softwares de virtualização têm mecanismos internos de redundância, que vão distribuindo os dados em função da disponibilidade de cada equipamento, que acaba assim por tornar-se “transparente” para as aplicações. “A virtualização é claramente o facilitador da redundância”, assegurou.
Antever possíveis falhas com monitorização e controloA possibilidade de antever problemas é um dos principais aliados de uma operação sem interrupções. Atualmente é possível, a partir de uma única plataforma, monitorizar e controlar toda a infraestrutura. “Só podemos gerir o que conseguimos medir”, realçou Nuno Lopes (Schneider Electric). “Por esta via consegue-se, de modo preventivo, averiguar a escalabilidade do negócio, do ponto de vista dos dados, mas também ganhar controlo”. Monitorização e controlo, acrescentou, permitem não apenas um tempo de resposta “muito mais imediato”, na eventualidade de uma falha ou de um defeito, como também “uma economia de escala ao nível dos custos envolvidos na exploração de equipamentos e da gestão da intervenção das equipas de manutenção”.
Recuperar quando tudo falhaMesmo com monitorização, as falhas acontecem. Neste caso, é necessário repor tudo novamente. Backup e disaster recovery são um outro nível de continuidade de negócio. O primeiro é hoje denominado de “capacidade de disponibilidade”, segundo Vasco Matos (DOIS), e significa guardar o histórico do que já passou. “Em algumas PME, de menor dimensão, ainda continua a fazer parte do seu plano de disaster recovery”. Nas empresas maiores, “faz mais sentido pensar em continuidade de negócio do que em desastre”, defendeu Pedro Vale (Colt). “Uma PME tem de pensar no que acontece para recuperar os dados, e muitas nem sequer têm esse plano. Hoje é possível montar um plano de desastre ou de continuidade com soluções de cloud em que o custo é mais baixo e o modelo de pagamento é flexível, por utilização — é possível erguer uma infraestrutura de disaster recovery e ativar quando for necessária. “Se uma PME souber tirar partido das tecnologias disponíveis, consegue montar uma solução de desastre com um investimento muito pequeno”, realçou. Antes de desenharem um plano de disaster recovery, porém, as empresas têm de “definir que percentagem e que parte do negócio não pode mesmo falhar e qual a continuidade mínima de negócio que querem assegurar”, alertou Henrique Amaro (ALE). Existem vários níveis de disaster recovery: quente (pronto a funcionar de imediato), morno (parcialmente pronto a funcionar) e frio (pronto a funcionar dentro de alguns dias). “Cada definição diz respeito ao tipo de prontidão que a infraestrutura tem para assegurar backup e continuidade de serviço”, esclareceu Nuno Lopes (Schneider Electric). “Vai depender do negócio e do impacto que a inoperacionalidade tem sobre o mesmo, porque existem custos associado a esta prontidão”. O disaster recovery associado à deslocalização geográfica dos dados tem vindo a tornar-se importante para as grandes empresas, segundo Aragão Rio (Dell EMC). “A prontidão e rapidez com que se consegue recuperar o acesso aos dados é extremamente importante. Antes isto acontecia localmente, com dois sistemas idênticos, agora começa a ser obrigatório que exista dispersão geográfica. Por exemplo, a banca transacional começa a solicitar que isto seja remoto”. E importa ter em mente que muitas vezes o conceito de disaster recovery não tem nada de tecnológico e que pode passar por assegurar que existem condições físicas para a continuidade do negócio, seja do ponto de vista da energia, como já referido, seja do ponto de vista humano. “Quando se fala em disponibilidade também é importante ter em conta a disponibilidade humana. Muitas vezes existe apenas uma pessoa a tomar conta do data center e com todas as chaves de acesso. Ora isto é um risco”, advertiu Aragão Rio. Proteção dispositivos de IoT é imperativaO edge computing, a computação mais próxima da recolha de informação, e a IoT vão multiplicar os possíveis pontos de falha de uma infraestrutura, dada a sua dispersão. Como garantir a disponibilidade contínua neste contexto? Como evidenciou Henrique Amaro (ALE), edge e IoT têm conduzido a uma alteração do paradigma em torno da redundância. “A partir do momento em que os sensores estão ligados à infraestrutura de dados de uma empresa, é mais difícil garantir a sua proteção, porque estes dispositivos são mais difíceis de proteger do ponto de vista da cibersegurança, e podem ser um ponto de entrada para a infraestrutura”. Um dos principais desafios é a segurança. “Não podem ser protegidos como os outros dispositivos, não certamente com antivírus. A alta disponibilidade tem também de preocupar-se com a proteção destes equipamentos”. Assim, o desafio também “está do lado dos fabricantes”, disse, que têm de evitar que esses sensores sejam corrompidos. “Aqui o ponto não é a redundância, é a segurança, quando se passa para standards de comunicação”. Anteveem-se por isso “desafios para a infraestrutura”, alertou Nuno Lopes (Schneider Electric), dado que se estima que o número de dispositivos de IoT se situe entre os 30 e os 50 mil milhões até 2020. “O nível de segurança terá de ser adaptado consoante a criticidade do negócio e da instalação de que a empresa dispõe”. Aragão Rio (Dell EMC) recordou que a novidade não são os sensores, mas a “correlação entre eles” e Pedro Vale (Colt) realçou o papel das telecomunicações neste novo paradigma. “Ao nível da infraestrutura, o desafio é o facto de grande parte destes dados confluírem para umas centenas de localizações a nível mundial, para os data centers de cloud pública e para os grandes colocation providers”, referiu. “Apesar do edge computing, tudo será canalizado para esses locais. Existe aqui um papel relevante ao nível das telecomunicações, que têm de estar capacitadas para suportar esses dados. Ao dia de hoje assistimos a grandes alterações ao nível de infraestrutura submarina. Os cabos que hoje existem não têm capacidade para a quantidade de dados que são produzidos”. A Colt, que tem 700 data center ligados, só na Europa, está a investir em infraestrutura que suporte o volume crescente de dados. A verdade, porém, é que entre os sensores e a cloud, terá de haver um outro nível de computação, que assegura um primeiro processamento dos dados com menor latência. É neste contexto que o edge computing tem vindo a ganhar o seu espaço, sobretudo num mercado com as caraterísticas do português. “Hoje um data center pode ter um único bastidor, de 38 ou 23 Us, tudo depende da dimensão e do que se terciariza num ambiente híbrido. O mais importante é ter em conta as necessidades ao nível da diminuição de latência necessária a cada negócio”, realçou Nuno Lopes (Schneider Electric).
Para o Canal, onde estão as oportunidades?Para os participantes desta Mesa Redonda, o Canal é o elo fundamental entre tecnologia e negócio. E vital para a alta disponibilidade. Vasco Matos (DOIS) caraterizou os Parceiros de “a cola” das soluções, pela capacidade de reunirem elementos de cada fabricante e de entregarem uma solução chave-na- -mão, “algo que nenhum fabricante teria a capacidade de fazer”, realçou, e que os clientes privilegiam acima de tudo. “Todos os atores têm um papel fundamental na transformação digital”, realçou Nuno Lopes (Schneider Electric). “O Canal representa um elemento-chave, é a interface do desenvolvimento tecnológico dos fabricantes, adequando-o às necessidades diárias das empresas”, defendeu. “Terão de continuar a desenvolver competências nas diferentes áreas relacionadas com a alta disponibilidade”. A Dell EMC tem 80% dos seus clientes liderados pelo Canal e Aragão Rio sublinhou que é graças aos Parceiros que os fabricantes conseguem não só aumentar as vendas, como desenhar soluções à medida. “O cliente valoriza ter tudo integrado numa mesma solução e o Parceiro está lá para assegurar isto”. Nesta vertente da alta disponibilidade, referiu Pedro Vale (Colt), o papel do Parceiro “será o do aconselhamento, do desenho e de cada vez mais decifrar estes enigmas da resiliência, da redundância”, recolhendo informação e informando sobre os riscos de não ter um serviço redundante, por exemplo. “Este tipo de detalhe terá de ser sempre acrescentado por um Parceiro. É grande parte do vaßlor acrescentado do que o Parceiro pode dar. O cliente final tem muita dificuldade em chegar à informação. O Parceiro, pela sua experiência e know-how, pela replicação de soluções que já implementou, consegue ajudar o cliente a diferenciar o que é um serviço focado na alta disponibilidade versus um mais standard”. |
Destaques do Canal: Eventos de 2025, entrevista a Aroa Ruzo, acordo entre Ésistemas e Cactus Signage e Programa de Parceiros da Easyvista