Cássio Cardoso, da Qualityware, explica porque eficiência de TI domina cenário mundial de Data Center

Cássio Cardoso, CTO da Qualityware Informática, participou, recentemente, nos Estados Unidos, da 10ª edição do Uptime Symposium. O Uptime Institute, que organiza o evento, é uma instituição de aconselhamento focada na melhoria do desempenho dos negócios de infraestrutura de Tecnologia da Informação e Comunicação com base em inovação, colaboração e certificações.

Neste ano, fica claro o foco dos players do mercado de Data Center na eficiência de TI, buscando soluções inovadoras para gerenciar redução de consumo de recursos. “Há uma busca intensa por eficiência desde concepção de projeto, passando por implementaçãoo, operação e manutenção para redução de custos e sustentabilidade”, resume Cássio.

O Vale do Silício mostra dois bons exemplos. O Vantage Data Center, cujo projeto físico contribui para grande parte dos padrões de energia eficiente, é a maior instalação LEED Platinum de Data Centers da América do Norte. Conta com instalações de refrigeração, baseadas em “free cooling” com extensas câmaras que fazem a captaçãoo, filtragem e circulação forçada do ar quente e frio para a sala de servidores. Quando a temperatura externa não está adequada para o free cooling, entra operaçãoo o sistema de água gelada baseado em chillers. Outro bom exemplo está na CenturyLink, que tem quatro de seus 60 Data Centers globais em Santa Clara, na Califórnia, grande centro de tecnologia perto de San Francisco. Em mais de 45.000 m2 de espaço de colocation combinado, os quatro Data Centers fornecem espaço, energia, rede e segurança para um grande crescimento na região com impacto global. Atendendo muitos padrões de conformidade-chave e com selo de certificação do Uptime Institute M & O Stamp, é um grande centro de excelência operacional, protegido por métodos rigorosos de detecção de incêndios e de supressão em medidas de segurança física e biométrica em vários níveis.

Cássio Cardoso afirma que “acompanhar tendências e ver o que há de melhor dos Data Centers em operação no mundo é muito proveitoso para que melhores práticas possam ser implementadas aqui no Brasil, de acordo com nossas necessidades locais. O grande aprendizado está na importância dos processos de operação, manutenção e monitoramento nas partes ambiental e de energia, algo ainda incipente no Brasil e que pode ser explorado com mais intensidade. No case do “free cooling”, que requer grandes áreas, a solução poderia estar em pequenas máquinas híbridas, exemplifica o diretor da Qualityware Informática.

Outro ponto que chama a atenção do mercado á computação em nuvem, que influencia em aspectos como disponibilidade, compliance, necessidade funcional, segurança, valor, escalabilidade, elasticidade, inovação e flexibilidade. Muda também a conectividade com cargas se movendo internamente, forçando aumento de resiliência e mudando a confiança, exigindo instalações com certificações para atender grandes demandas e provocando oscilações que levam a um superdimensionamento.

Mas, para todos os grandes exemplos que os Estados Unidos mostram, lembra Cássio, “é importante salientar que os americanos contam com uma rede de telecom muito robusta em termos de qualidade, disponibilidade e velocidade para que a infraestrutura de TI possibilite um grande giro da economia local com base no melhor uso dos avanços proporcionados pela tecnologia”.

Compartilhar

Qualityware acompanha tendências e avanços em Data Centers no Uptime Symposium 2015 nos EUA

A Qualityware participou, com seu Diretor Técnico Cássio Cardoso, do simpósio sobre Data Center, organizado pelo Uptime Institute (Uptime Symposium 2015 – http://symposium.uptimeinstitute.com/).

A participação representa a constante busca da Qualityware por novas tecnologias na área de infraestrutura em TI, além de discussões sobre eficiência energética e redução de custos operacionais nesta área.

Segundo Cássio Cardoso, “este simpósio mostra os avanços em pesquisas em busca de melhores tecnologias, que visem principalmente à eficiência e rentabilidade para as empresas que possuem data centers”. O simpósio tem por objetivo também compartilhar conhecimentos e discutir de que forma a indústria de TI pode cumprir suas metas coletivas de desempenho e disponibilidade. Com o crescente aumento da dependência em serviços de TI, o grande desafio debatido neste evento é como manter rápido crescimento da infraestrutura em TI aliado a baixo custo e diminuição de pessoal.

Para 2015, o Uptime confirmou a participação das maiores empresas globais do mercado de data center. Foram mais de 120 apresentações ao todo com participantes de mais de 30 países e 1500 inscritos.
Alguns executivos sênior de operações de grandes infraestruturas em TI participaram de mesas redondas e debates, além de líderes de organizações ambientais.

Ainda neste evento, os participantes visitam Data Centers considerados modelo, tais como Vantage Data Center considerado US Green Building Council 2012 e Century Link certificado e aprovado pelo Uptime Institute até 2017. Nestas visitas técnicas, o objetivo é aprender mais sobre eficiência energética destes locais, que possuem foco em sustentabilidade e energia verde.

Compartilhar

Serviços de TI: eficiência do NOC depende de sistemas e pessoas de alta qualidade

Por Robinson Czelusniak *

Hoje em dia, as empresas utilizam intensamente a TI, pois todo o gerenciamento do “business” está vinculado de alguma forma com tecnologia, seja no sistema financeiro, no sistema de RH, no ERP ou em até em situações mais simples como balanças que fazem pesagem das cargas de uma indústria ou abertura de uma catraca.

Como podemos ver, a TI está envolvida e precisa ser cada vez mais proativa aos problemas e reagir rapidamente, reduzindo o tempo de parada dos sistemas e consequentemente das empresas. E como fazer isso em um mundo cada vez mais conectado e mais distribuído?

Dentro da administração de infraestrutura de TI, a primeira ferramenta capaz de fornecer informações preventivas é o NOC, sigla em inglês que significa Network Operation Center ou o Centro de Operações de Rede, que nada mais é que um conjunto de ferramentas e pessoas que podem antecipar os problemas enfrentados no nosso dia a dia.

Não basta ter um NOC. É preciso de um bem montado que conte com ferramentas que avaliem a saúde do ambiente, que gerem estatísticas do crescimento do ambiente, que monitorem o ambiente em tempo real, mas principalmente que possua uma equipe bem preparada e capaz de analisar, prever possíveis problemas e mitigar os riscos apresentando soluções.

Como apresentado, o NOC é um conjunto de sistemas – softwares – operados por pessoas preparadas. A escolha das pessoas dependerá muito da necessidade de cada projeto e o mercado conta com milhares de ferramentas para monitoramento do ambiente computacional. Basicamente, existem ferramentas comerciais e as “open-source” (software de código aberto, que não significa dizer que sejam gratuitas), e que não deixam a desejar frente a ferramentas comerciais. A escolha das ferramentas também depende do tamanho do ambiente, da quantidade de funcionários que a empresa disponibiliza para operar o NOC e principalmente em qual grau de detalhe é necessário monitorar esse ambiente baseado na criticidade da TI na operação da empresa.

Por exemplo: é possível monitorar, de forma simples, um servidor de e-mail verificando se está ligado ou desligado. Se necessitamos de um nível mais apurado possível, monitorar também quantos e-mails estão nas filas de entrada e saída, se o servidor está em uma blacklist que impeça o envio de mensagens , se o espaço está crescendo fora dos padrões normais e muito mais.

Atualmente as empresas de alto desempenho necessitam de um ambiente de TI monitorado e o NOC é essencial, pois como em outras áreas do conhecimento, ocorre um pensamento disruptivo onde a infraestrutura de TI sai de uma condição tradicionalmente reativa para uma proativa e alinhada com as estratégias do negócio.
O alinhamento da TI com os negócios da empresa está criando um novo cenário para o mundo corporativo onde o CIO não é mais uma gerador de despesas, mas um criador de soluções. E para isso, é necessário medir e ter controle do ambiente.

Entender claramente até onde a empresa pode ir com a atual infraestrutura e principalmente realizar os investimentos nas áreas necessárias na intensidade necessárias são obrigações da nova área de TI e o NOC é um grande aliado.

*Robinson Czelusniak é Gerente da Área de IT Services da Qualityware Informática e responsável por projetos de implantação de NOC com mais de 15 anos de experiência em TI.

Compartilhar

Layout de Data Centers para novos padrões

Por Cássio Cardoso

O mundo de TI está em constante mudança e ultimamente percebe-se uma racionalização das aplicações, virtualizações de hardware e consolidação, deixando as organizações com um grande legado da parte de facilities, leia-se capacidade, que estava inicialmente em operação. Os novos servidores de alta densidade, equipamentos de rede e storage, juntamente com sistemas de infraestrutura convergente como: VCE Vblock Systems, Cisco Unified Data Center, IBM PureSystems e Dell Active Systems, significa que menos espaço será necessário para maior capacidade de processamento a ser disponibilizada ao negócio.

Com a introdução da computação em nuvem, os gerentes de Data Centers e arquitetos de sistemas não tem mais que decidir apenas qual será a melhor infraestrutura para a carga crítica de TI. Agora, eles também terão que decidir através de qual tipo de serviço poderão fazê-lo. Uma carga crítica de TI que geralmente encontra-se totalmente instalada em uma infraestrutura própria interna a empresa, que poderá ser transferida para uma instalaçãoo de colocation ou ser terceirizada através de infraestrutura, plataforma ou software como serviço (IaaS, PaaS ou SaaS).

Mesmo cargas críticas de TI mantidas internamente podem não permanecer para sempre lá, logo pode não fazer muito sentido projetar um data center para operar determinadas cargas de TI de forma interminável. Cloud está a beira de se tornar uma plataforma popular, e as organizações que tiverem construído um data center para hospedar uma aplicação específica por um longo período de tempo, podem estar em desvantagem.

Layout flexível de Data Centers

Quando você estiver projetando um data center para o futuro, considere a infraestrutura e o hardware de TI que ele suportará. Sob o ponto de vista de hardware, uma abordagem completa do gerenciamento do ciclo de vida de TI mantém uma infraestrutura dinâmica. Os ativos de hardware podem crescer e encolher conforme as necessidades de mudança, podendo-se vender o excedente de equipamentos para se recuperar alguns custos. Com determinadas políticas de licenciamento de software, existe a flexibilidade de se adquirir e dispensar licenças conforme a demanda.

As principais demandas, no entanto, giram em torno da infraestrutura. Um data center é um ativo principalmente fixo, se o data center tem 200 metros quadrados e o negócio estabelece que apenas 100 metros quadrados serão necessários para a carga crítica de TI, as paredes não podem convergir. Mesmo se metade do espaço possa ser redirecionado para outra aplicação, para um ambiente de equipes de TI por exemplo, isto soluciona apenas uma pequena parte do problema.

A infraestrutura de um data center legado tem um layout fixo para os serviços. Os quadros de distribuição elétrica do tipo PDU (Power Distribution Unit) e os sistemas de ar condicionado do tipo CRAC (Computer Room Air Conditioner) estão fixos no local. Os equipamentos UPS (Uninterruptible power systems) e os geradores auxiliares são dimensionados para se adequar ao projeto original do data center.

A seguir algumas dicas a serem consideradas no mapeamento do layout do futuro data center:

a) Planejamento do piso

O primeiro passo para iniciar a construção do futuro data center é relativo a parte arquitetônica do projeto, o ambiente físico. A localização de paredes em relação a partes estruturais e soluções de piso elevado é um aspectp muito relevante para proporcionar acréscimos ou decréscimos de área permitindo uma gestão de interferências apropriada.

b) Planejamento da distribuição elétrica e do cabeamento de telecomunicações

Tanto a distribuição elétrica quanto o cabeamento de telecomunicações devem ser super estruturados. Os caminhos de distribuiçãoo elétrica e de telecomunicações devem ser distintos e separados, projetados de uma forma que tenham acessibilidade para alterações futuras de layout.

c) Energia

Ao invés de se instalar as PDUs junto a paredes e pilares, pode-se empregar a solução de quadros autoportantes, com a chegada dos alimentadores por cima do painel. Em uma reforma a distribuição elétrica poderá ser realocada de uma forma tão flexível quanto equipamentos de TI.

Para equipamentos UPSes e geradores, planejar um sistema que permita a adição de novos módulos sem a necessidade de alterações na parte física e de distribuição elétrica.

O consumo de combustível por parte dos geradores está diretamente ligado com o nível de capacidade utilizado. Se houver subutilização de sua capacidade, ocorrerá maior consumo de combustível. Logo, as capacidades de carga de TI e potência disponível do gerador devem ser adequadas ao projeto de engenharia.

d) Planejamento da refrigeração

O emprego de uma solução do tipo free-air cooling ou outro sistema de baixo consumo de energia, reduzirá o impacto de um re-projeto de refrigeraçãoo quando o tamanho do data center for alterado. Se for combinado com abordagens efetivas de corredores quentes e frios, retornos a plenum ou dutados, o sistema de refrigeração estará adequado a necessidade, tendo-se menores preocupações com relocações de equipamentos.

Quando houver a necessidade de utilização no data center de sistemas de refrigeraçãoo baseados em unidades do tipo CRAC, escolha um sistema modular com múltiplas unidades CRAC, balanceadas e com a característica de velocidade variável.

Fonte: SearchDataCenter.com by Clive Longbottom

*Cássio Cardoso é Sócio-Fundador da Qualityware

Compartilhar

Tier: uma palavra e milhares de equívocos

Por Cássio Cardoso, publicado no portal Baguete

Criada em meados de 1990 pelo Uptime Institute, a norma Sistema de Classificação Tier, nasceu com o objetivo central de orientar o projeto de uma topologia de Data Center que proporcionasse elevados níveis de disponibilidade, ditados pelas estratégias e regras de negócios de seus proprietários.
Apesar da qualificação standard (norma), o documento criado também contém regras e procedimentos que avaliam os Data Centers pela sua capacidade de permitir manutenção e resistir a faltas.
Visando evitar confusão, o Uptime Institute recomendou o emprego de números romanos (I, II, III, IV) para identificar seus projetos baseados no Sistema de Classificação Tier.
Em abril de 2005, de alguma forma, a TIA-Telecommunications Industry Association veio a aplicar o sistema de classificação Tier do Uptime Institute em sua norma TIA-942 (Telecommunications Infrastructure for Data Centers), que permaneceu em sua última revisão, a TIA-942-A de agosto de 2010.
O conteúdo das classificações Tier publicado inicialmente no Anexo G da TIA-942 de 2005, e posteriormente no Anexo F da TIA-942-A de 2010, veio acompanhado de outras partes e subsistemas dos Data Centers, subdivididas em arquitetônica, mecânica, elétrica e telecomunicações, adotando a identificação dos Tiers com números arábicos (1, 2, 3, 4).
Complementando esses anexos, foram publicadas tabelas de referência indicando os requisitos de cada subsistema do Data Center versus respectivo Tier.
Apesar dos Anexos terem sido publicados com teor informativo não sendo efetivamente parte integrante da norma, pode-se perceber em diversas situações, em nível global, que estes Anexos tornaram-se de fato diretrizes, sendo “adotados” como roteiro e/ou check-list de projeto.
Esta “adoção” produziu o surgimento de muitas confusões, equívocos e interpretações inadequadas, o que resultou em deficiências nas topologias de projetos colocando em risco a continuidade de serviços e disponibilidade dos Data Centers.
O acordo de separação destas terminologias entre o Uptime Institute e TIA – Telecommunications Industry Association torna-se muito oportuno, neste atual momento mercadológico onde as soluções de virtualização, cloud computing e co-location encontram-se em franca expansão, e que exigem infraestruturas muito robustas e adequadas dos ambientes de missão crítica, os Data Centers.
Futuramente espera-se que este acontecimento venha a permitir aos clientes e proprietários de Data Centers realizar melhores escolhas relativas a projeto, construção, operação e manutenção e, principalmente, retorno de seus investimentos.
*Cássio Cardoso é Sócio-Fundador da Qualityware

Compartilhar