STORAGE Módulo 1 - Introdução ao Storage O aumento do volume de informações que circula nas empresas passou a ser crítico em qualquer

corporação e com ele a importância de contar com ferramentas de armazenamento de dados cresceu. Atualmente, o desafio não é só dimensionar a necessidade de espaço, em função dos terabytes a serem preservados, mas gerenciar esse processo de forma eficiente para garantir acesso rápido e inteligente aos dados armazenados. Com isso, o conceito do gerenciamento dos dados vem evoluindo a cada dia, com o surgimento de novas soluções, estratégias e tendências. Isso porque, antigamente, o computador era conectado diretamente ao seu setor de armazenamento, e nenhum outro PC podia acessar os dados guardados. Os aplicativos eram executados em um mainframe. Na medida em que a computação cliente-servidor foi desenvolvida, os aplicativos passaram a ser executados em servidores dedicados, cada qual com seu próprio sistema de armazenamento. Não tardou a surgir, contudo, a necessidade desses aplicativos compartilharem dados. Conforme a capacidade dos sistemas de disk array (módulos de armazenamento de discos) foi crescendo, um único disk array pôde suprir as necessidades de armazenamento de vários servidores. Assim, nasceu o storage em rede. Hoje, o storage – armazenamento de dados – vai além do seu conceito. Entre as novas modalidades atreladas ao tema estão a virtualização de dados e o gerenciamento do ciclo de vida da informação, por exemplo. Mas o que é virtualização de storage? Nada mais do que o processo de consolidar vários dispositivos físicos, de diversos fabricantes e reorganizá-los em agrupamentos virtuais, lógicos ou em unidades de armazenamento. Essas unidades são apresentadas ao sistema operacional (OS) para utilização por aplicativos ou pelos usuários finais apropriados. Apesar de soar como um recurso atual, a virtualização do armazenamento não é novidade, tanto no conceito como na prática. Definida há quase 20 anos, na computação em mainframes, a tecnologia está se consolidando com o avanço das SANs (Storage Área Networks), que serão tratadas mais detalhadamente nos próximos módulos. Já o gerenciamento do ciclo de vida da informação ou ILM - Information Lifecycle Management - permite diagnosticar quais informações realmente demandam acesso mais ou menos rápido, além de classificar o grau de importância estratégica desse dado ou informação para a corporação. Assim, o modelo de armazenamento pode ser redimensionado, representando acesso mais inteligente, rápido e com menor custo. Esse conceito está integrado ao que se convenciona chamar de Storage Resource Management (SRM). -1-

Virtualização O armazenamento de informação sempre foi parte da infra-estrutura tecnológica de qualquer empresa ou de qualquer usuário. Armazenar informação é fundamental no ambiente tecnológico, independente da arquitetura utilizada. Pela falta de um modelo de padronização na área de storage, as empresas investiram, ao longo do tempo, em ilhas de storage, com diversas marcas para suportar diferentes aplicações. Hoje, o que se observa é uma verdadeira “Torre de Babel” nessa área, com sistemas que não se comunicam por terem arquiteturas proprietárias. Essa diversidade acontece tanto em relação ao uso de recursos físicos de armazenagem (como os discos) até as aplicações. No caso dos discos, isso aconteceu principalmente porque eles foram adquiridos para suportar a demanda cada vez maior de armazenamento em função do uso de aplicações como Customer Relationship Management (CRM), Enterprise Resource Planning (ERP), Business Intelligence (BI) e até correio eletrônico. Em cada época um fornecedor possuía o melhor preço ou a melhor tecnologia para complementar essas soluções. Atualmente, os discos, transformados em commodities, podem ser melhor aproveitados e facilitam a composição de uma estratégia de armazenamento de dados de uma forma inteligente. A virtualização de storage, por exemplo, garante que todos os discos, até então incomunicáveis, possam fazer parte de um único sistema de armazenamento. Dessa forma, a corporação consegue gerenciar de maneira simples os dados armazenados. Além dessas facilidades, a modernização dos recursos para armazenamento possibilitou uma economia considerável para os usuários que agora têm como utilizar os discos para todas as aplicações, com livre escolha de fabricantes. Assim como no universo dos discos, a virtualização contribui para organizar o modelo de aplicações na área de armazenamento. O grande drama enfrentado no passado pelas empresas era a falta de interoperabilidade que existia entre as aplicações, visto que elas aconteciam de forma isolada – em cada departamento – e utilizando software de fabricantes diferentes e muitas vezes proprietários. Elo de integração Mas a virtualização veio resolver esse problema, transformando-se em um elo de integração. Isso porque ela possibilita que soluções de diferentes fabricantes possam conversar entre si e realizar funções de provisionamento dinâmico. Esse recurso permite que as empresas criem “pools” de armazenamento, obtendo uma visão unificada e consolidada da capacidade total de storage. De um lado, a tecnologia dobra a capacidade de utilização do armazenamento nas empresas e, de outro, o -2-

provisionamento dinâmico possibilita que a alocação de mais espaço por uma aplicação ou servidor seja feita automaticamente. Mas não basta só virtualizar, é preciso gerenciar. Segundo o instituto de análise Gartner Group, para cada dólar investido na compra de soluções tecnológicas, cinco são gastos para controlar e manter o ambiente. Investimentos no gerenciamento da informação é prioridade para as empresas que adotam o Storage Resource Management (SRM), permitindo administrar as diversas plataformas de armazenamento. O SRM abrange desde relatórios para classificar os dados e políticas de alocação, até o gerenciamento baseado na aplicação e monitoração do desempenho. Com a classificação de dados, é mais fácil detectar arquivos que não são acessados normalmente e realocá-los em fita, por exemplo, livrando-os de ocupar centenas de gigabytes em dispositivos mais caros. Os CIOs (Chief Information Officers), ainda segundo o estudo do Gartner Group, apontam que cerca de 40% das informações armazenadas pelo usuário final não interessam às empresas. Uma boa solução de SRM, dizem os especialistas, incorpora múltiplas visões, assim como gerencia a capacidade física e lógica de storage, tornando o ambiente de armazenamento muito mais eficaz. A tendência é contar com mais serviços de integração para que os usuários não tenham de gerenciar ambientes estanques de software de diferentes fornecedores. No controle total O primeiro passo para atingir a plena capacidade de controle é construir uma rede de armazenamento inteligente, que permita acesso ao transporte de dados e faça a informação se mover de um lado para o outro. Os passos seguintes são classificar os dados segundo regras de negócios e partir para a automatização, usando ferramentas que facilitem a identificação de dados e utilizando a rede implementada na primeira etapa. Com plataformas de conteúdo fixo, é necessário que estas sejam acessadas por aplicações, independente de estarem em fita ou em disco. Para obter acesso livre e interoperabilidade global entre as aplicações, o que irá proporcionar gerenciamento completo das informações, é necessária a construção de uma rede de armazenamento inteligente. Com um conjunto de software para gerenciamento de storage, é possível identificar as informações que estão sem acesso e solucionar o problema. Em cima dessa estrutura são feitas várias evoluções, como ligação online entre os storages de produção e de backup. Na hora de escolher a melhor solução, principalmente se a intenção é fazer o gerenciamento do ambiente de storage, o administrador da rede vai ter de “juntar pedaços”. Não há ainda fornecedor que disponha de uma solução completa, abrangendo todas as nuances tecnológicas. Para que o gerenciamento seja -3-

aperfeiçoado e também entendido em todos os departamentos da empresa e funcione de maneira linear, é importante que seja implementada uma política de gestão dos recursos de storage. Contudo, ela depende de uma boa capacidade de negociação e de um profundo conhecimento da infra-estrutura existente e das necessidades da empresa. Até porque, as informações transformam-se rapidamente em terabytes, acessadas, simultaneamente, por centenas, quando não, milhares de usuários que criam e acessam dados ao mesmo tempo e com as mais diferentes finalidades. Tecnologias emergentes Com o objetivo de minimizar o caos do gerenciamento das informações corporativas e, ao mesmo tempo, ajudar as organizações a reduzir significativamente os gastos com armazenamento, os fornecedores de storage começam a oferecer soluções para a nova onda desse mercado: a organização das informações tendo como base sua importância para os negócios, em determinado momento. Os nomes ainda variam – alguns fornecedores chamam de hierarquização, outros preferem mais um acrônimo de três letras, o ILM (Information Lifecycle Management – gerenciamento do ciclo de vida da informação) –, mas o conceito é um só. Identificar cada informação, avaliar o quanto é crítica para o negócio e a necessidade de acesso rápido a ela e, finalmente, rever a infra-estrutura de storage, de forma a permitir a alocação apenas dos dados mais importantes em mídias de alta performance e, portanto, mais caras, deixando o restante em equipamentos mais econômicos. Tudo isso feito de maneira dinâmica, automática e transparente para o usuário. Entre as tecnologias emergentes na área de storage, portanto, estão a virtualização, já citada anteriormente, a Internet SCSI e o ILM (Information Lifecycle Management). Ao lado de tecnologias já consolidadas como o NAS (Network Attached Storage) armazenamento conectado à rede. As vantagens de seu uso incluem armazenamento compartilhado, habilidade de adotar diferentes protocolos de arquivos para diferentes ambientes e redução de custos administrativos, resultando em menor custo total de propriedade. Já a SAN (Storage Area Network), rede de armazenamento, pode ser utilizada para conectar múltiplos servidores e é indicada para organizações com necessidade de storage de larga escala e um arsenal complexo de dispositivos de armazenamento. O ILM, gestão do ciclo de vida da informação, é um recurso que contribui para o gerenciamento de storage de forma inteligente e é fundamental para a demanda atual. Estudos mostram que os dados da maioria das aplicações não precisam necessariamente estar disponíveis para acesso online, na medida em que o tempo passa. -4-

Exemplo disso são as mensagens arquivadas na caixa postal do correio eletrônico. Normalmente, após 45 dias do recebimento, essa mensagem, bem como seus anexos, não precisam consumir espaço em um disco mais rápido e, conseqüentemente, mais caro. Assim, caso a empresa necessite comprar discos, a adoção da gestão das informações permite a aquisição de discos mais lentos (e mais baratos), que vão receber automaticamente as informações utilizadas com menos freqüência, reduzindo sensivelmente os novos investimentos em storage. Entre os protocolos de comunicação figuram o FC (Fibre Channel) – uma das tecnologias mais comercializadas para transmitir dados entre dispositivos de computador, adequada para conectar servidores de computadores a dispositivos de armazenamento compartilhado. E o novíssimo iSCSI (Small Computer System Interface) – protocolo emergente que oferece I/O por Ethernet e redes IP e que tem as mesmas vantagens da SAN, mas usa protocolos de networking. Esse protocolo é hoje apontado como a tecnologia que mais vai ajudar o desenvolvimento do mercado de SAN. O FC/IP (Fibre Channel over IP) – junto com o iSCSI, é também uma das principais abordagens da transmissão de dados de armazenamento via redes IP. Também fazem parte desse pacote de tecnologias emergentes as soluções de Disaster Recovery (Prevenção de desstres). Visto que o armazenamento ocupa papel fundamental na estratégia de recuperação dos negócios. A minimização dos prejuízos provocados por um eventual desastre que se abata sobre os sistemas de informação corporativos depende bastante das opções estratégicas e das soluções adotadas pela organização na área de armazenamento. As soluções centram-se cada vez mais na continuidade do negócio e na preservação dos sistemas. A velocidade da recuperação de dados terá de ser entendida por toda a estratégia de TI da corporação e como elemento central do próprio negócio. STORAGE Módulo 2 – Recursos Físicos Não faz muito tempo, era possível armazenar dados em simples disquetes. Depois, com a facilidade cada vez maior de acesso às informações, o volume de dados corporativos cresceu e tornou-se estratégico para o sucesso dos negócios. Assim, o armazenamento transformou-se em procedimento imprescindível para o gerenciamento e a disponibilidade inteligente das informações dentro da organização. Para essa operação, no entanto, são necessários diversos tipos de mídia, ou seja, dispositivos de armazenamento. Estes podem ser divididos em três grupos de unidades: magnéticas, ópticas e ópticas e magnéticas. As fitas magnéticas foram muito úteis no início da década de 60, quando os computadores eram comercializados com unidades de fitas cassete. Hoje, apesar de -5-

terem acesso muito lento, elas ainda são utilizadas em alguns casos para fazer o backup de informações que não precisam ser acessadas freqüentemente. As unidades de fita de cartucho de ¼ polegada, conhecidas como QIC (quarter-inch cartridge), funcionam para realizar backups de muitos discos rígidos. Já as fitas streamer foram as primeiras memórias secundárias, usadas para armazenamento de backups. A aparência desse tipo de fita magnética é similar à das usadas em gravadores antigos. Ela é feita de material plástico e coberta por uma substância magnetizável. Os dados são gravados nos chamados registros físicos dessa mídia. Cada um deles é gravado em trilhas paralelas, que são divididas em frames (quadros). Cada frame é o espaço para armazenar 1 byte. O espaço entre um registro e outro é chamado de gap. As fitas DAT formam a segunda geração das fitas magnéticas. Menores, mais fáceis de armazenar e mais seguras, permitem um armazenamento maior de dados. Sua grande capacidade (2 GB a 4 GB) torna essas mídias ótimas para backup de grandes volumes de dados. Sua aparência assemelha-se à de uma fita de vídeo, em tamanho menor. Mídias removíveis As mídias que serão tratadas a seguir são definidas por muitos como discos rígidos. Mas, apesar disso, diferentemente dos outros discos, são removíveis e podem ser transportadas. Elas são úteis para fazer backup ou transportar grande quantidade de dados, uma vez que os disquetes possuem pouca capacidade e os discos rígidos não podem ser transportados. A desvantagem é que o acesso torna-se um pouco lento. O Jaz é uma dessas mídias. Sua capacidade chega a 2 GB e a taxa de transferência média é de 2 MB por segundo. Assim, esse dispositivo é uma boa opção para fazer backup de discos rígidos e não é muito utilizado para transporte de dados, mesmo porque ele exige interface SCSI (Small Computer System Interface). Com a necessidade de dispositivos de fácil transporte e com alta capacidade de armazenamento, os “zipdisks” e os “superdisks”, por exemplo, surgem como boa opção, cada vez mais difundida. Existem versões com capacidade para 100 MB (mais utilizado) e 250 MB (com mais recursos, porém pouco difundido). E ainda o velho e bom conhecido disquete, denominado como mídia flexível, o qual foi criado na década de 70 e tornou-se o mais popular meio de armazenagem de dados em pequenas quantidades. Hoje, com a avalanche de dados, ele passou a ser substituído por outras mídias como, por exemplo, o CD (Compact Disk). Os discos rígidos, também conhecidos como hard-disk (HD) ou winchester, estão presentes em praticamente todos os computadores e são o meio mais rápido e com maior espaço para armazenar as informações. O HD é um conjunto de discos de -6-

alumínio, que utiliza a leitura e a gravação magnéticas. Fabricado dentro de uma caixa de metal blindada a vácuo, possui, assim como os disquetes, divisão em trilhas e setores. Cada disco possui duas faces, cada face tendo sua cabeça de leitura/gravação exclusiva. Unidades Ópticas Uma unidade óptica é gravada utilizando um laser de alta potência. Com o laser, são feitos furos (pits) em um disco matriz. As áreas não furadas entre os pits, são os chamados lands (espaços). Como os pits têm refletividade diferente dos lands, representa uma informação digital (0 e 1). Para fazer a leitura de um CD-ROM (Compact Disk – Read Only Memory), um laser na cabeça de leitura óptica do drive projeta um feixe de luz que penetra na camada de plástico protetora do disco e colide com o alumínio reflexivo. Ao colidir com um espaço (land), a luz é refletida de volta e é registrada como presença de luz (bit 1) e as cavidades (pits) que não refletem a luz são registradas como ausência de luz (bit 0). As unidades ópticas, no entanto, não sofrem alteração se expostas aos meios magnéticos. Podemos dividir as unidades ópticas em CDs e em DVDs. Os CDs são o tipo mais popular de unidade óptica e muito usados atualmente, principalmente para multimídia. Eles têm capacidade de 650 MB (aproximadamente 500 disquetes), o que faz com que sejam usados para jogos ou instalação de programas. O CD-ROM é o tipo do CD que só serve para leitura. Ele já vem gravado de fábrica e a única coisa a fazer com ele é utilizá-lo para a leitura de suas informações. Já o CDR (Compact Disk Recordable) foi criado em função da necessidade de armazenar grandes quantidades de dados, que não cabem nos disquetes. Ele é virgem e por meio de uma gravadora de CDs é possível gravar suas informações. Porém, ele só pode ser gravado uma única vez. Ele também é conhecido como Worm (Write Once Ready Many) e é muito usado na gravação de programas piratas. Uma das aplicações atuais e mais utilizadas do CDRmais é quando as informações precisam ser guardadas para efeito legal. Isto porque esse recurso não permite a alteração do que ali estiver gravado, garantindo a autenticidade das informações. Existe ainda o CD-RW (Compact Disk Rewriteable), semelhante ao CD-R, pois possui a vantagem de poder ser gravado e regravado diversas vezes. Porém, seu custo ainda é alto. Usando o mesmo princípio dos CDs, o DVD (Digital Versatile Disk) possui uma capacidade muito maior de armazenamento, podendo chegar a 17 GB e uma qualidade de gravação ainda maior. Hoje, o DVD-Rom tem sido muito utilizado para -7-

a gravação de filmes que podem ser vistos pelo computador ou por um aparelho específico de DVD. Eles dividem-se, seguindo o mesmo princípio dos CDs, em DVD-R e DVD-RW. As unidades ópticas-magnéticas são um novo tipo de tecnologia para o armazenamento de dados e que pode vir a desbancar até mesmo os CDs – são os MO (Magneto-Optical) disk. É uma tecnologia híbrida que combina os princípios magnéticos dos discos e os princípios ópticos dos CDs. Podem chegar a armazenar até 2 GB. Essa tecnologia combina gravação mais confiável e rápida a laser, com a possibilidade de regravar várias vezes os dados no disco, permitida pela unidade magnética. Os discos também têm aproximadamente o tamanho de 3,5 polegadas. Dispositivos físicos Entre os meios físicos disponíveis no mundo do storage, destacam-se ainda o Direct Attached Storage (DAS), os discos Redundant Array of Independent Disks (RAID), o ATA (Advanced Technology Attachment) e a arquitetura Blade Server. E também as interfaces iSCSI (Internet Samall Computer System Interface) e ISCSI (Small Computer System Interface). O Direct Attached Storage são drives integrados ao gabinete do computador conectados à CPU via PCI ou outro periférico. É diferente da NAS (Network Attached Storage) e da SAN (Storage Area Network), unidades externas conectadas às workstations e servidores rodando em rede. Com o DAS, cada servidor é dedicado ao storage. Para ficar claro, vale definir o NAS, que de forma sintética pode ser descrito como armazenamento conectado à rede que fornece acesso a arquivos para usuários conectados, utilizando protocolos de transporte em Ethernet e TCP/IP. Já as SANs, permitem que diversos servidores compartilhem espaço em disco, a partir de um ou mais disk array (matriz para discos de storage). As SANs fornecem aos servidores o acesso ao armazenamento em bloco, usando o protocolo Fibre Channel. No meio físico, as interfaces desempenham um papel importantíssimo para facilitar ou mesmo propiciar a interoperabilidade – integração harmoniosa entre hardware e softwares de forma a facilitar a comunicação entre eles. Nesse contexto temos a interface iSCSI, que roda em redes padrão TCP/IP. Uma pequena iSCSI pode ser construída no topo das redes existentes e usar inclusive Windows ou servidores Linux como arrays remotos de armazenamento. Grandes redes também podem se beneficiar do recurso, desde, é claro, que a iSCSI colocou a SAN dentro do mundo dos custos mais acessíveis.

-8-

Já a interface de hardware SCSI possibilita a conexão de até 15 periféricos em uma única placa que se interliga à placa mãe, usando PCI (Peripheral Component Interconect – interconector de componentes periféricos). Os periféricos SCSI são interligados e todos têm uma segunda porta para a conexão com o próximo equipamento em linha. O host SCSI adaptadores estão também disponíveis com dois controladores, suportando 30 periféricos. O que é RAID? Fundamental para os sistemas físicos de storage, o RAID (Redundant Array of Independent Disks – matriz redundante de discos independentes) é um subsistema de disco que provê tolerância a falhas. Trata-se de uma tecnologia que combina vários discos rígidos (HD) para formar uma única unidade lógica, onde os mesmos dados são armazenados em todos (redundância). Em outras palavras, é um conjunto de HDs que funciona como se fosse um só. Isso permite ter uma tolerância alta contra falhas, pois se um disco tiver problemas, os demais continuam funcionando, disponibilizando os dados. O RAID surgiu há mais de 15 anos, resultado de pesquisas realizadas na Universidade de Berkesley, na Califórnia, Estados Unidos. Para que o RAID seja formado, é preciso utilizar, pelo menos, 2 HDs. O sistema operacional, nesse caso, enxergará os discos como uma unidade lógica única. Quando há gravação de dados, os mesmos se repartem entre os discos do RAID (dependendo do nível). Com isso, além de garantir a disponibilidade dos dados em caso de falha de um disco, é possível também equilibrar o acesso às informações, de forma que não haja gargalos. Além do RAID, o ATA (Advanced Technology Attachment) é considerado um dos discos mais baratos do mercado. É o nome oficial que um grupo do American National Standard Institute utiliza para o que a indústria de computadores chama de eletrônica integrada do drive (IDE – integrated drive eletronics). As opções, dependendo do perfil do cliente, passam também pelas NAS. As vantagens de seu uso incluem armazenamento compartilhado, habilidade de adotar diferentes protocolos de arquivos para diferentes ambientes de usuários e redução de custos administrativos, resultando em menor custo total de propriedade. Blade Server - Outro recurso físico bastante usado em data centers são os Blade Servers. Uma arquitetura de múltiplos servidores em um único chassi, que economiza espaço e aprimora o gerenciamento. Em rack ou gabinetes individuais, os chassis permitem melhor suporte. Cada blade tem seus próprios CPU, memória e disco rígido, permitindo também bons recursos de redundância.

-9-

A indústria está oferecendo cada vez mais servidores blade. A participação desse segmento de servidores no mercado mais do que dobrou em 2004, alcançando 450 mil unidades, 7% do mercado, com previsão de chegar a 40% até 2006, segundo o instituto de pesquisa IDC. O rápido avanço dos sistemas de gerenciamento, tecnologia de cluster e a contínua desagregação dos servidores em pequenos equipamentos e componentes permite prever o crescimento dos servidores blades e sistemas modulares. Protocolos - Para que os dados passem ou sejam transmitidos de um meio para outro, ou seja, trafeguem, eles necessitam de interfaces, que foram tratadas anteriormente, e também de protocolos. Portanto, o seu armazenamento nos meios físicos terá de contar com a atuação de protocolos como IP, Fiber Chanel, Gigabit Ethernet, entre outros. Com a popularização do protocolo Fibre Channel, produtos como SAN e NAS ganharam aceitação entre os diretores de TI, porque oferecem melhor performance e armazenamento, além de uma maior escalabilidade, fazendo com que os produtos DAS diminuíssem sua presença no mercado. Enquanto em 1998 o DAS tinha 88% de participação, no ano passado essa porcentagem caiu para 56%, de acordo com a IDC. Até 2006, a previsão dos especialistas é uma queda para 26%. O protocolo Fibre Channel (FC) é uma das tecnologias mais comercializadas para transmitir dados entre dispositivos de computador e adequada para conectar servidores de computadores a dispositivos de armazenamento compartilhado. É o protocolo de alta velocidade usado para desenvolver as chamadas SANs. Embora possa ser usado de forma geral na rede, carregando ATM, IP e outros protocolos, o FC no início suportava tráfego de dados SCSI dos servidores para os disk arrays, serializando comandos. Hoje, o FC apenas suporta conexões de fibra single e multimodo, além de cabo coaxial. Pode ser configurado ponto a ponto, via switch, com ou sem hub e conectarse até 127 nós. Suporta transmitir até 2.12 GB em cada direção e usa o protocolo Gigabit Ehternet. O FC está evoluindo para o FC/IP (Fibre Channel over IP) que, junto com o iSCSI, é uma das principais abordagens da transmissão de dados de armazenamento via redes IP. O protocolo IP Storage - O IP Storage pode ser usado para desenvolver uma SAN, junto com o Gigabit Ethernet. Tradicionalmente, as SANs eram desenvolvidas usando o transporte Fibre Channel porque esse procedimento provia velocidade aos gigabits comparados de 10 Mbps Ethernet a 100 Mbps Ethernet, usados para construir redes de mensagens. Os equipamentos com FC são mais caros e a interoperabilidade entre diferentes fornecedores não é totalmente padronizada. O IP tornou-se mais comum e, consequentemente, o ambiente IP Storage popularizou-se em SANs, estendendo a tecnologia. As SANs consolidaram-se como - 10 -

uma tecnologia promissora, simples e de fácil gerenciamento em um grande e complexo sistema de storage. Mas aí vem o alto custo: a primeira geração das SANs depende de redes FC, que requerem novos cabos, aprender novas ferramentas e switches especializados. Infelizmente isso tornou as SANs difíceis de justificar, a não ser para grandes instalações de storage. VOIP Módulo 3 – Virtualização A virtualização de storage – armazenamento em rede, de forma que os dados guardados possam ser compartilhados – é um conceito usado para definir uma infraestrutura inteligente. Nela, dispositivos diversos, com características, funcionalidades, performance, níveis de serviço e até mídia física diferenciadas são apresentados ao servidor e às aplicações como se fossem virtuais. Assim, simplificase o gerenciamento e diminui-se a complexidade da alocação e de configuração. Essa modalidade nada mais é do que o processo que permite consolidar vários dispositivos físicos de diversos fabricantes e reorganizá-los em agrupamentos virtuais, lógicos ou unidades de armazenamento. Essas unidades são apresentadas ao sistema operacional (SO) para utilização pelos aplicativos e usuários finais determinados. Apesar do crescente interesse na virtualização do armazenamento, o conceito não é novo. Definido há quase 20 anos, na computação dos mainframes, a tecnologia está descobrindo uma nova oportunidade e importância com a emergência das SANs (Storage Area Networks), dispositivos de armazenamento de dados em rede. A área é tão importante no mercado de storage que, em 2007, duas grandes empresas anunciaram investimentos nessa tecnologia: Sun Microsystems e Dell. A Sun anunciou sua entrada no mercado de virtualização no final de 2007 com a plataforma batizada de xVM composta inicialmente de um servidor e do sistema de gerenciamento Ops Center. Já a Dell apostou na compra da EqualLogic, fornecedora de storage area network (SAN) por US$ 1,4 bilhão em novembro de 2007. A compra é considerada como um impulso para os esforços da Dell em oferecer virtualização aos seus clientes. A virtualização permite o uso da infra-estrutura, diminuindo sua ociosidade e tornando possível a implementação da Information Lifecycle Management (ILM) em todas as aplicações, independente da infra-estrutura. Alguns requisitos são essenciais para implementá-la: escalabilidade, gerência ponto-a-ponto, interoperabilidade, aderência a padrões da indústria e a tão sonhada redução do custo total do armazenamento, proporcionando economia real perante as soluções existentes.

- 11 -

Além do compartilhamento das SANs, os benefícios da virtualização também são observados na arquitetura de armazenamento de dispositivos conectados fora da rede – Direct Attached Storage (DAS). Seja em mainframe ou em ambientes de sistema aberto, as tecnologias de virtualização são utilizadas para simplificar e centralizar o gerenciamento e fornecer a flexibilidade no atendimento à demanda do acesso aos dados, onde quer que estejam. Esse recurso elimina as restrições físicas, ao criar uma camada acima do armazenamento físico, que é acessível como um agrupamento lógico de storage e que pode ser alocado quando e onde for necessário. Essa camada oferece a capacidade de combinar dispositivos físicos heterogêneos em entidades virtuais projetadas para atender aos requisitos individuais dos aplicativos. Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizandose os discos físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo de missão critica, sem modificar a implementação do hardware. Na medida em que o novo hardware se torna disponível ou que as características do aplicativo se modificam, as alterações na camada física podem ser realizadas sem interromper o acesso aos dados no dispositivo lógico. As tecnologias de virtualização de armazenamento estão evoluindo, incluindo soluções de banda interna e externa (inband e out-band), com base em storage e em hospedagem. Soluções de armazenamento e hospedagem As soluções com base em armazenamento foram as primeiras tecnologias de virtualização e permitem que vários servidores compartilhem o acesso a dados em um único (e grande) array (matriz) individual. O lado negativo é que esses servidores não podem acessar os dados além de seu próprio array. Além disso, os usuários correm o risco de ficar limitados a soluções que dependem dos fabricantes, com base nas restrições de compatibilidade de hardware do array mais amplo ou dos servidores diretamente conectados. A virtualização com base no armazenamento pode, então, ser mais dispendiosa do que outras alternativas. As soluções baseadas em hospedagem possibilitam os discos dentro de vários arrays, e de diversos fabricantes, sejam representados como um agrupamento virtual para um único servidor host. Isso permite que os profissionais da tecnologia da informação, por exemplo, tenham maior flexibilidade de habilitá-los como independentes dos fabricantes de soluções de armazenamento, embora ainda desfrutem dos benefícios da administração de storage centralizada a partir de um único console. Embora os dados estejam concentrados para acesso apenas por meio de um único servidor, este pode tornar-se altamente disponível, garantindo que os dados sejam utilizados. A desvantagem surge quando vários servidores exigem o acesso - 12 -

compartilhado aos mesmos dados. Nesse caso, a duplicação dos dados ou outros métodos de virtualização de armazenamento podem atrapalhar a aplicação. Um desafio na evolução da virtualização do armazenamento era garantir que os discos de vários arrays e de diversos fabricantes fossem representados virtualmente para mais de um servidor. Essa possibilidade, no entanto, pode ser obtida com uma solução de banda interna (in-band) chamada de virtualização simétrica. Assim como as soluções com base em host, esse tipo de virtualização também é independente do fabricante e pode ser utilizado nas SANs e nas redes locais. No entanto, nessas circunstâncias, é fundamental que o dispositivo de banda interna tenha a escalabilidade para atender as crescentes exigências do gerenciamento de aplicativos e de armazenamento. Já as soluções out-of-band fornecem a capacidade de virtualização simétrica, mas movem o dispositivo de armazenamento para fora do caminho de dados. Essa modalidade também está melhor posicionada para utilizar a capacidade de conexão rápida de um switch SAN. Mas para conseguir esses benefícios, é necessário que o software seja executado nos próprios servidores de aplicativos, para a comunicação do dispositivo virtual. Isso pode aumentar a utilização da CPU e tornará as atualizações de sistemas operacionais mais precárias quando essas soluções estiverem instaladas. Todas as diferentes tecnologias de virtualização são úteis, e a escolha depende do ambiente de TI e dos requisitos corporativos específicos do usuário final. Ao selecionar uma solução, é importante entender o fluxo de dados de um usuário, para garantir que as atuais necessidades de negócios sejam supridas, enquanto é mantida uma capacidade de adaptação às novas exigências que surgirão na medida em que as tecnologias continuam a evoluir e se modificar. É fundamental haver uma camada de virtualização de armazenamento que ofereça compatibilidade, em vez de limitações. Uma vez que os dados não estão associados a dispositivos específicos de hardware, a virtualização permite um nível sem precedentes de flexibilidade no uso de recursos de storage, a fim de atender as exigências referentes aos aplicativos e aos usuários finais. Os dispositivos de armazenamento virtual não estão restritos pelas limitações de capacidade, velocidade ou confiabilidade dos dispositivos físicos que os incluem. A aplicação de software de armazenamento inteligente na camada de virtualização proporciona um meio de resolver os desafios funcionais de storage, sem comprometer a necessidade de disponibilidade dos dados. O provisionamento consiste em fornecer aos usuários ou aplicações a quantidade e o melhor tipo de armazenamento, no momento certo. A virtualização torna muito mais fácil esse processo. Somada à administração centralizada, permite que modificações na camada de armazenamento físico sejam efetuadas sem a interrupção do acesso aos dados, a fim de fornecer, continuamente, a melhor qualidade de serviços de - 13 -

armazenamento em tempo real. Dessa forma o usuário acessa com mais rapidez os dados de que necessita. Redes virtuais Um dos benefícios da tecnologia iSCSI (internet small computer system interface) – é usar protocolo emergente que oferece I/O por Ethernet e redes IP com as mesmas vantagens da SAN, que usa protocolos da infra-estrutura de rede. Entretanto, esse benefício é facilmente ultrapassado. Se a rede tem ainda switches gigabit de reserva, o benefício da iSCSI é imediato. Mas muitas redes são superdimensionadas, envolvendo a interface SCSI e o transporte de grandes quantidades de dados. O cliente não vai precisar gastar muito em upgrades para administrar o tráfico adicional. O uso da infra-estrutura existente é muito importante. Fazer upgrade de uma rede é menos caro que desenvolver uma e fazer uma SAN valer a pena para uma pequena rede que não justifica o alto preço do Fibre Channel (FC). O mercado vai puxar para baixo os custos de uma iSCSI, ao ponto de substituir as FC na tecnologia SAN. A tendência é os fabricantes oferecerem servidores com bandas para a tecnologia iSCSI, assim como fizeram com o FC, oferecendo 1 U e servidores blade integrados com portas iSCSI. Um servidor departamental pode contar com apenas um link de 100 Mbps Ethernet para o storage e tráfico de aplicações, mas um servidor de banco de dados pode facilmente requerer uma conexão Gigabit Ethernet apenas para o tráfico de storage. E se há muitos desses servidores, o custo da iSCSI pode aproximar-se da FC. Uma rede IP e Ethernet, portanto, tem a vantagem de ser reutilizada se no futuro o projeto de SAN for abandonado. Os custos podem ser ainda maiores se o tráfico de storage ficar em cima da WAN (rede que interliga dispositivos em locais remotos). Entretanto, a iSCSI ainda integra as duas alternativas. A virtualização pode ser executada em blocos ou em níveis de arquivo. Nas redes de storage, os blocos são associados às SANs Fibre Channel e os arquivos de storage às Network-Attached Storage (NAS). Em uma típica virtualização em bloco, os dados são mapeados em um ou mais discos. O bloco requerido pode ser distribuído em múltiplos arrays de storage, mas parece para o usuário residir em um único drive. Na vitualização de arquivo, múltiplos objetos podem parecer como apenas um arquivo. Esse tipo de virtualização provê um nível de abstração entre os arquivos e sua localização física. Nessa abordagem, um espaço comum é criado, que permite ao usuário acessar diferentes arquivos sem alterar o nome de sua raiz. O nome do espaço de arquivo aparece ao usuário como um único e grande arquivo de sistema. O arquivo também pode ser virtualizado. Quando aplicado à estrutura de blocos de storage é convertido em objetos ou arquivos. Estes podem residir em servidores ou - 14 -

em sistemas NAS (Network Attached Storage). A vistualização de sistemas de arquivo e o metadado dos sistemas de arquivo individual podem ser combinados para formar uma extensão virtual desse sistema. No caso da NAS, usuários podem acessar arquivos, primeiramente usando os protocolos Network File System (NFS) e Common Internet File System (CIFS) sem estarem familiarizados com os aspectos físicos ou lógicos da infra-estrutura. Idealmente, o sistema de arquivo distribuído deve ser capaz de se espalhar para múltiplos dispositivos NAS, permitindo escalabilidade e acesso fácil dos dados pelos usuários, independente de onde estejam. Essa é a essência da virtualização. Desafios lógicos A virtualização pode também ser implementada em diferentes dispositivos, como arrays, usando software de virtualização residente neste dispositivo. Esse software permite o desenvolvimento de pools de storage em múltiplos arrays. Com o storage baseado na virtualização, as unidades lógicas são mapeadas nos dispositivos físicos via algorítimos ou usando uma abordagem baseada em tabelas. Basicamente, volumes tornam-se independentes dos dispositivos onde residem. Dependendo da solução usada, o storage baseado na virtualização pode incluir RAID, espelhamento disco a disco e replicação de dados. Enquanto a área de storage baseado em virtualização favorece bons resultados para os fornecedores de disk array além de ser relativamente fácil de administrar, sistemas com essa abordagem ainda são tipicamente proprietários e limitados quanto à interoperabilidade entre os fornecedores de hardware e de software. Dispositivos como bibilioteca de fitas podem também ser virtualizados. Na virtualização das fitas, os discos de storage são feitos para parecerem drives de fita. Os discos tipicamente front end de biblioteca de fitas permitem uma função de cache para que os dados possam ser acessados mais rapidamente. Quando o dado não é mais acessado freqüentemente pelos usuários, ele pode ser transferido para a fita. Entretanto, o administrador deve certificar-se de que existe uma quantidade suficiente de fitas para receber os dados sem comprometer a performance. Algumas soluções de virtualização de fitas são também restritas a bibliotecas proprietárias. Enquanto a virtualização cai como uma luva para as corporações que querem otimizar a utilização de storage, alavancar o gerenciamento, provisionar e administrar sistemas de armazenamento e reduzir os custos, existem alguns obstáculos a serem ultrapassados. O primeiro inibidor dessa modalidade é a inexistência de padrões para a tecnologia com a falta de interoperabilidade entre os produtos voltados para a virtualização.

- 15 -

Ainda há muita confusão gerada pela virtualização e o que ela pode trazer. Os potenciais usuários têm sido hesitantes em investir em produtos. Apesar da existência de múltiplas abordagens, a virtualização provê flexibilidade mas pode também causar problemas durante seu uso se a corporação escolher uma solução que, mais tarde, torne-se obsoleta. Mas o mercado não tem dúvidas de que uma verdadeira política baseada na automação do storage requer a maximização do uso da virtualização. Iniciativas de interoperabilidade Os fornecedores de tecnologia se têm preocupado com a interoperabilidade. As iniciativas da EMC, Cisco, Brocade e McData, por exemplo, apontam para a implementação de uma infra-estrutura de virtualização escalável, aberta, interoperável e com custo total menor do que uma SAN tradicional. O primeiro passo foi unir os principais fornecedores de switches de SAN e armazenamento para, juntos, desenvolverem um conjunto de interfaces de programação de aplicações – as APIs padrão. Estas API, ainda em estudo, formarão um padrão para todos os switches inteligentes denominado Fabric Application Interface Standard (FAIS -Padrão para Interfaces de Aplicações em Fabric = rede) e já contam com um comitê do American National Standards Institute (ANSI – Instituto Americano de Padrões Nacionais), o denominado T11.5, parte do subgrupo de comitês que desenvolvem os padrões para Fibre Channel. O padrão FAIS começa por separar o controle do processamento da operação de mapeamento/virtualização em um equipamento denominado CPP – Control Path Processor – ou Processador do Controle de Caminhos. É no CPP onde são executadas as aplicações de armazenamento, tais como réplicas ou cópias entre volumes, migração de volumes dinâmica e mapeamento virtual/físico/array. O padrão FAIS está sendo adotado com suporte aos principais dispositivos de armazenamento do mercado, de diferentes fornecedores (EMC, HDS, HPQ, IBM), aos principais sistemas operacionais (Windows, Linux, Solaris, AIX, HP-UX e VMware) e funciona com os switches inteligentes da Cisco, Brocade e McData. Outro ponto importante do padrão FAIS é que tanto os switches e dispositivos de armazenamento quanto as próprias aplicações podem ter fornecedores distintos e, por ser um padrão baseado em uma API aberta, a interoperabilidade entre os distintos softwares e hardwares está assegurada. Para o usuário, isso significa proteção ao seu investimento, independência de fornecedor, múltiplas alternativas de hardware e software e a possibilidade de implementar a virtualização de forma gradual, adequada às necessidades da empresa. - 16 -

STORAGE Módulo 4 – Gerenciamento Mundialmente, o segmento de software de gerenciamento de storage tem crescido em torno de 14% ao ano, segundo a International Data Corporation. Mas há analistas que apontam a falta de cultura, assim como problemas com padrões de mercado e, conseqüentemente, falhas de integração, como obstáculos a evolução do mercado. Parte dos gastos é atribuída pela IDC ao desejo das corporações de controlar o uso do armazenamento dos funcionários. Além disso, as empresas adotam as soluções como meio de reduzir custos, melhorar a eficiência e utilizar melhor as ferramentas de armazenamento. Os software de gerenciamento de storage permite simplificação e automatização para redes complexas como as SANs (Storage Area Networks). Apesar disso, o mercado brasileiro não tem o hábito de investir nesse nicho de gerenciamento, priorizando investimentos em outras áreas. Mesmo havendo otimização de pessoas e infra-estrutura, os benefícios não são vistos imediatamente, por isso o software de gerenciamento de storage é muitas vezes deixado em segundo plano. Em muitas companhias, os executivos de tecnologia e administradores de dados estão encarando uma explosão de dados em suas redes e a necessidade premente de administrá-los. Com um ambiente de tecnologia cada vez mais complexo e uma situação econômica e de negócios em constante modificação, as organizações de TI estão sobrecarregando seus profissionais. Empregar estruturas de gerenciamento de rede de armazenamento alivia a carga da interoperabilidade e a complexidade de gerenciar redes de vários fabricantes. Amadurecimento do mercado Fornecedores como IBM, Veritas, EMC, HP, StorageTek e Computer Associates estão empenhados em fornecer uma única interface de gerenciamento para as complexas tarefas envolvidas no controle de um crescente número de redes de armazenamento. Dessa forma, diminui a carga dos administradores, liberando tempo para que eles possam trabalhar estrategicamente. Uma estrutura de gerenciamento de storage que seja independente de hardware possibilita às organizações de TI gerenciar, de modo pró-ativo, todo o seu ambiente de redes de armazenamento. Essas estruturas abstraem a complexidade de dispositivos para além da rede e permitem que o administrador se dedique a preocupações estratégicas como aumentar a utilização do armazenamento e a melhoria dos serviços. - 17 -

Não faz muito tempo, as decisões sobre armazenamento e operações em rede eram simples. Havia poucas opções, um número menor de fabricantes e poucas tecnologias para escolher. Atualmente, existem mais fabricantes, mais metodologias de armazenamento conectadas em rede e novas tecnologias. Hoje, há muitos meios para utilização de redes de armazenamento. Independentemente do tamanho da companhia, uma rede de armazenamento bem construída e bem gerenciada pode aumentar a eficiência não apenas para a companhia, mas também para as organizações de TI dentro da empresa. O conceito de uma rede de armazenamento é simples: conectar servidores corporativos a um agrupamento centralizado de discos, facilitando a administração, aumentando o desempenho e tornando o backup de dados mais confiável. É a chamada virtualização de storage, que já foi tratada anteriormente. Por exemplo, uma SAN (Storage Area Network) típica consiste na rede de dispositivos de alto desempenho, mas complexos, que compõem o caminho dos dados. Um grupo de dispositivos altamente inteligentes, incluindo HBAs (adaptadores de barramento host), comutadores e vetores de armazenamento compõem as atuais redes de armazenamento. Para ter controle desses dispositivos são necessários os softwares de gerenciamento. Existem muitos fabricantes que fornecem soluções de NAS (Network Attached Storage) e SAN para as redes de armazenamento, mas poucos oferecem uma solução completa do controle desses dados, fazendo da interoperabilidade e do efetivo gerenciamento das redes de armazenamento um desafio. Gerenciamento básico Muitos administradores controlam e fornecem seus recursos de armazenamento utilizando planilhas e relatórios de inventário que são imediatamente desatualizados. Uma estrutura de gerenciamento de rede de storage elimina essa tarefa manual, descobrindo automaticamente as conexões físicas e lógicas para a rede de armazenamento, exibindo as informações em um mapa gráfico de topologia e conectando os dados em múltiplos relatórios. As redes de armazenamento são ambientes complexos que envolvem muitos componentes, incluindo clientes, servidores de aplicativos, comutadores, hubs e dispositivos de armazenamento. Na medida em que uma rede de storage evolui e seu tamanho aumenta, torna-se cada vez mais difícil identificar precisamente todos os componentes e as relações físicas entre eles. Além disso, o mapeamento da visualização lógica (armazenamento virtual) aumenta a complexidade, porque não existe uma relação física direta óbvia. É crucial para os administradores ter as visualizações físicas e lógicas disponíveis em uma topologia que identifique facilmente todos os componentes, assim como suas relações físicas. - 18 -

Um recurso importante de qualquer estrutura de gerenciamento de armazenamento é a capacidade de controlar os dados sobre desempenho e históricos em tempo real, para os parâmetros de níveis de serviço, como conectividade, espaço disponível e tempo de acesso aos dados. Utilizando inteligentemente todos os recursos de armazenamento disponíveis, os administradores de TI estão em condições de tomar decisões rápidas, empregando a elaboração de relatórios integrados a partir do controle e do gerenciamento de recursos. Ao fazer isso, os administradores podem monitorar seus ambientes e estar preparadas para fazer modificações instantaneamente. Diz-se que um gerenciamento é avançado, quando ele proporciona o controle de uma forma inteligente. Uma vez que os administradores se beneficiam dos recursos de visualização e elaboração de relatórios em uma estrutura de gerenciamento, eles podem começar a utilizar mais recursos, como segurança, fornecimento de armazenamento e gerenciamento pró-ativos. Garantir que os aplicativos tenham os recursos de armazenamento de que necessitam significa fornecer storage seguro, desde vetores à dispositivos de backup e aos hosts dentro da rede de armazenamento. Uma boa estrutura avançada de gerenciamento de storage oferece armazenamento integrado, dividindo por zonas desde os vetores de armazenamento aos hosts, por meio de assistentes fáceis de usar. Os assistentes diminuem a complexidade e facilitam as tarefas de gerenciamento de armazenamento. Recursos avançados também devem oferecer serviços que garantam aos aplicativos mais importantes uma boa qualidade de serviço. Ferramentas permitem aos administradores procurar e alocar o armazenamento por atributo, proporcionando controle inteligente do ambiente. Associação completa As estruturas de gerenciamento de redes de armazenamento permitem às empresas a flexibilidade necessária para responder às prioridades de negócios, que sempre se modificam. Utilizar todos os recursos de uma poderosa estrutura de gerenciamento de rede de storage permite que as organizações respondam rapidamente e modifiquem a alocação de recursos, minimizando o impacto dos custos nos negócios. Uma estrutura básica de gerenciamento deve fornecer aos administradores da tecnologia da informação a capacidade de monitorar a performance de suas redes de armazenamento. As soluções de administração de storage precisam efetuar o controle ativo dos dados, que, por sua vez, possibilita aos administradores de TI estabelecerem políticas de monitoração do desempenho de forma pró-ativa, em vez de reagir aos problemas na medida em que eles ocorrem. - 19 -

O gerenciamento pró-ativo leva a uma maior consistência e eficiência do serviço. Os administradores geralmente agem de modo reativo, quando ocorre um caso de falta de energia ou de quebra de um equipamento, podendo, por vezes, não seguir as políticas estabelecidas. Uma boa estrutura de gerenciamento de armazenamento deve possibilitar que as companhias se adaptem a um ambiente tecnológico em constante mudança, proporcionando flexibilidade para adotar novas tecnologias, à medida que elas são lançadas no mercado. Os sistemas de storage precisam estar em condições de explorar e aproveitar as novas tecnologias e arquiteturas, sem colocar em risco os níveis de serviços. O custo dessas tecnologias não se refere apenas ao de hardware – não se trata do custo de um servidor ou de um vetor de armazenamento considerado a partir de diferentes fabricantes ou mesmo de uma topologia diferente. O componente mais importante na “relação custo e risco” é o custo de precisar treinar novamente pessoas e reequipar com ferramentas apropriadas todos os processos estabelecidos. É fundamental que os gerentes otimizem o uso de sua fonte de maiores custos: as pessoas. Administradores altamente treinados precisam trabalhar estrategicamente para projetar as melhores práticas que possam ser implementadas consistentemente em toda a organização, por funcionários menos habilitados. O único meio de conseguir isso de modo efetivo e eficiente é capacitando aplicativos projetados para reduzir a carga e simplificar ambientes complexos. Os clientes querem que o gerenciamento vá além das soluções tradicionais de backup e recuperação de dados. Com as aplicações de e-business, o planejamento para armazenar as informações precisam abranger confiabilidade, escalabilidade e recuperação de desastres sem comprometer a infra-estrutura. Ter efetivo controle das informações armazenadas, garantir aos usuários acesso aos dados desejados em um prazo que condiz com suas necessidades e, principalmente, reduzir significativamente os custos de armazenamento é a meta dos profissionais envolvidos com storage nas corporações. Esse é o conceito-chave trazido pelo ILM (Information Lifecycle Management) ou gerenciamento do ciclo de vida da informação. Há interesse, e muito, por parte dos usuários, mas a complexidade dos projetos e as barreiras tecnológicas ainda fazem com que as iniciativas comecem a surgir timidamente no mercado local. O ILM é uma estratégia de storage que prevê balancear o custo de armazenamento e gerenciamento da informação de acordo com a importância da informação através do tempo. Um dos reflexos disso é o crescimento da busca por soluções de SRM (Storage Resource Management), uma das bases do conceito. - 20 -

A verdade é que, seja em razão dos benefícios efetivos trazidos pelo gerenciamento do ciclo de vida da informação ou pelo bombardeio sobre o assunto vindo de fornecedores e consultores, é cada vez mais difícil encontrar um profissional de TI que não esteja pensando, em algum nível, sobre o ILM. Para o gerenciamento dos dados, são utilizados softwares de HSM (Hierarchical Storage Management) e SMS (Storage Management Systems), além de equipamentos baseados no conceito de virtualização. Essas ações trazem facilidades à administração do ambiente. A tendência é chegar ao estágio de gerenciar todo o storage de forma centralizada, com visão única. Redução de custos Sobre a possível revolução causada pela utilização dos conceitos de ILM, a redução de custos é um grande apelo, pois é possível utilizar mais espaço do que está disponível. É necessária uma análise cuidadosa das necessidades do cliente para que se coloque o dado no meio mais adequado de armazenamento, uma vez que existem muitas questões em jogo, como tempo de resposta, softwares de replicação, criticidade da informação e arquitetura da solução, por exemplo, segundo os especialistas de TI. Para evitar a duplicação de informações e garantir a segurança dos dados é preciso adotar, por exemplo, ferramentas de automação de backup que permitem a sincronização agendada dos sites remotos ao banco de dados principal com cópia apenas das informações efetivamente modificadas. Um dos principais desafios é oferecer ao usuário a possibilidade de acessar informações quando ele precisa e garantir que essa informação seja única. Fugindo aos olhares utópicos dos analistas ou dos fornecedores, fica claro que a proposta do ILM é válida e interessante e que atinge algumas das principais preocupações dos usuários: otimização das operações e redução de custos. Por outro lado, é fácil entender que a disseminação desse tipo de arquitetura de armazenamento segue um ritmo muito mais lento do que o previsto por especialistas e que a imaturidade da maior parte das soluções ainda faz com que os CIOs atuem com cautela no momento de começar uma iniciativa do gênero. Hoje, o mercado segue a trajetória de armazenamento de conteúdo não estruturado, como e-mails, filmes e imagens. E os fornecedores se estão organizando para atender o crescimento desse tipo de informação, tanto em software quanto em serviços. Isso também inclui prover gerenciamento e estratégias para administrar o ciclo de vida desses dados por meio do ILM. Abrem-se, então, mais perspectivas de vendas em verticais como o setor financeiro (mais especificamente os bancos) e também construção civil. O desafio é guardar as informações mais críticas em mídias com maior custo, como discos de alto - 21 -

desempenho e com alta capacidade de recuperação. Além disso, em outras (mais acessíveis) com importância decrescente para o cliente. Outra tendência do setor caminha para a oferta de serviços. A base do ILM é o arquivamento multicamada e múltiplos dispositivos de armazenamento são integrados à tecnologia na forma do tratamento dos dados definida pelo cliente. Desafios Uma SAN típica consiste de dispositivos de alto desempenho, mas complexos, que compõem o caminho dos dados. Um grupo de dispositivos altamente inteligentes, incluindo HBAs (adaptadores de barramento host), comutadores e vetores de armazenamento compõem as atuais redes de armazenamento. E esses dispositivos precisam de muito gerenciamento. Existem muitos fornecedores de soluções de NAS e SAN para as redes de armazenamento, mas nenhum deles oferece uma completa solução de caminho de dados, fazendo da interoperabilidade e do efetivo gerenciamento das redes de armazenamento um verdadeiro desafio. Gerenciar os recursos disponíveis e atender as necessidades da empresa com um orçamento cada vez mais apertado são os dois grandes desafios dos Chiefs Information Officer (CIOs) no campo do armazenamento de dados. A extensa lista de erros cometidos nas estratégias de storage no dia-a-dia é encabeçada pela não utilização completa dos recursos existentes e acréscimo de novos equipamentos sem conhecer ao certo o que a empresa já possui. Gasta-se muito mais para gerenciar o que o CIO comprou do que o valor da compra. O ponto central é conhecer as necessidades corporativas em vez de investir em aquisição de hardware ininterruptamente, como é prática comum em muitas empresas. Daí a importância do gerenciamento de recursos de storage. O conceito abrange relatórios para classificar os dados, políticas de alocação, automação, análise de tendência e planejamento de capacidade, gerenciamento baseado na aplicação, monitoração de performance e até cobrança departamental pelo uso de storage. É necessário classificar dados. Existem arquivos que não são acessados normalmente e que poderiam ser alocados em fita, no lugar de ocupar, por exemplo, 500 GB em disco. Os fornecedores recomendam uma análise do histórico da empresa para saber qual orçamento para storage será necessário no próximo ano. Outro ponto a ser considerado é a definição de centros de custo dentro da empresa. O atual quadro econômico agrava a necessidade de racionalizar o uso de recursos. Esse procedimento é válido para a área de storage, cujo custo pode aumentar muitas vezes se os dados forem armazenados indiscriminadamente, sem buscar a melhor - 22 -

opção em cada caso. Nesse contexto, preservar o que já foi feito torna-se essencial, assim como provar o retorno de qualquer investimento. Investir no gerenciamento do storage, segundo os executivos de TI, é uma das melhores opções para reduzir os custos de armazenamento. Entre as escolhas estão sistemas de virtualização que permitem que hardwares de diferentes fabricantes possam coexistir na mesma instalação, e funções de provisionamento dinâmico, para utilizar os recursos disponíveis segundo as necessidades da empresa. A missão de executar uma política de gerenciamento de storage varia de acordo com a carteira de fornecedores de cada companhia. Quando a empresa adquire toda a solução de um mesmo fornecedor, o trabalho torna-se mais fácil. Em contrapartida, ela fica amarrada a uma só solução e com pouca margem de manobra na eventualidade de o provedor de TI aumentar seus preços ou sair do mercado. Se optar por múltiplos fornecedores, no entanto, surgem problemas de incompatibilidade. A saída pode ser adquirir soluções especializadas de fornecedores de software para integrar sistemas heterogêneos de storage e obter um ponto único de gerenciamento. Uma visão consolidada e centralizada do ambiente de storage é fundamental. É preciso levar em conta a relação custo/benefício, especialmente para sistemas de backup e recuperação de dados. O CIO precisa considerar duas variáveis: o tempo que a empresa pode ficar parada e o orçamento disponível. Será, portanto, uma decisão de negócios. Não é por outro motivo que estabelecer uma política de gestão dos recursos de storage torna-se um item obrigatório na agenda de médias e grandes empresas. A era da improvisação em armazenamento de dados começa a ficar para trás. Também não é por outro motivo que os fornecedores começam a colocar seu foco nos serviços, para ajudar os clientes a definirem estratégias e políticas de storage mais adequadas ao seu negócio.

STORAGE Módulo 5 - Mercado O mercado mundial de software para armazenamento atingiu seu 15º trimestre consecutivo de crescimento, chegando a US$ 2,8 bilhões no período encerrado em junho de 2007. Segundo pesquisa da IDC, o resultado representa elevação de 10,4% no ano. Entre as áreas em expansão constatadas pela IDC estão também aquelas relacionadas à compliance, legislação, e HSM - hierarchical storage management -, esta última divisão que apresentou elevação de 14,9%.

- 23 -

A líder de mercado no período foi a EMC, com receitas de US$ 685 milhões e 24,6% de participação. Em termos de faturamento, a companhia apresentou elevação de 4,8%, mas em participação de mercado registrou baixa de 1,4 ponto percentual. A segunda colocada nesse mercado foi a Symantec, com US$ 488 milhões em receitas e 17,5% de participação. A IBM ocupou a terceira colocação, com US$ 362 milhões em faturamento e 13% do mercado. A Network Appliance, Hewlett-Packard e CA ocuparam as posições seguintes, com 10,7%, 4,7% e 4,6% do mercado, respectivamente. A pressão na área regulatória, a exigência da guarda de dados e documentos para fins legais, planos de contingência e a popularização da multimídia são alguns dos segmentos que impulsionam os investimentos em storage. A primeira onda do mercado de armazenamento de dados foi tornar o storage independente do servidor e fazer aquisições em separado, momento em que surge o Fibre Channel. Hoje, a tendência é a utilização de redes de armazenamento de dados ser mais aberta e inteligente, com SAN (Storage Area Network) e NAS (Network Attached Storage), só que apoiadas em softwares para adequarem-se melhor à arquitetura. Atualmente, os sistemas de arquivos podem ser distribuídos pelas SANs e múltiplas máquinas, controladas por um servidor.. A SAN – sistemas de armazenamento em rede – é a área mais quente do mercado, prevê a Info-Tech.. Com a queda nos preços dos produtos, que estão ficando “comoditizados”, essa tecnologia está se tornando mais acessível para empresas de médio porte. Por isso, fornecedores como IBM, HP e EMC, assim como as novas LeftHand Network, Compellent Technologies e a Intransa já oferecem produtos às médias empresas com foco nessa tecnologia. A SAN pode ser definida como uma rede de alta velocidade, comparada à LAN (Local Area Network), que permite o estabelecimento de conexões diretas entre os dispositivos de armazenamento e processadores (servidores) centralizados à extensão suportada pela distância das fibras ópticas. A SAN pode ser vista como uma extensão do conceito que possibilita o compartilhamento dos dispositivos de armazenamento entre servidores e interconectados entre si. (Uma SAN pode ser compartilhada entre servidores ou dedicada a um servidor local ou remoto). Outra forte tendência do mercado é aliar o storage com a segurança. A aquisição da Veritas pela Symantec comprova que há uma interseção entre as áreas de segurança e armazenamento nas empresas. A aquisição envolveu valores de US$ 13,5 bilhões. Para a Symantec a estratégia, além de combinar segurança e storage, é expandir seus negócios e sua presença geográfica. Foco nas pequenas e médias empresas

- 24 -

Os fornecedores de storage descobriram as pequenas e médias empresas. Tecnologias antes só disponíveis para grandes instalações de armazenamento, agora encontram seu equivalente para companhias desse nicho de mercado. Organizações como a Brocade e a EMC voltam suas baterias para esse público. Para continuar seu ritmo de crescimento no Brasil, a Brocade, fornecedora de plataforma SAN, prevê oferecer soluções menores para pequenas e médias, com equipamentos de até 16 portas. Outra estratégia é aliar a venda de storage à comercialização de servidores Blade. No setor de telecomunicações, que é uma das áreas nas quais a Brocade quer ampliar seus negócios, a base de clientes conta com nomes como Vivo, Brasil Telecom, TIM e Telefônica Empresas. A estratégia da EMC para o segmento de pequenas e médias empresas foi o lançamento dos pacotes Express Solutions. Eles prometem facilidade de implementação e flexibilidade para crescimento. Os lançamentos fazem parte do conceito "Simplificando o Storage", que abrange uma gama de sistemas, software e serviços. As novas soluções incluem produtos para armazenamento em rede; backup e recuperação de dados; archiving; e proteção dos negócios, com backup remoto dos dados. No segmento de discos, a capacidade de armazenamento não pára de crescer. Para atender o mercado de grandes repositórios de dados, a Hitachi Global Storage Technologies começou a vender no final do ano passado disco rígido de 1Terabyte (TB) para PCs. A nova tecnologia, segundo a empresa, baseia-se no método de gravação perpendicular de dados, uma maneira de armazenar e organizar informações dentro do disco rígido, fazendo com que cada partícula ocupe uma área cada vez menor do disco É crescente a necessidade de espaços maiores de armazenamento para vídeo e música digital e os fabricantes estão cada vez mais atentos a esse mercado. A Toshiba também anunciou lançamentos baseados na gravação perpendicular. Já está previste para esse segundo trimestre de 2005 a chegada de drives de 40GB. Os drives são similares aos hoje utilizados no iPod e dispositivos que tocam música digital. Tanto a fabricante de produtos eletrônicos Seagate Technology como a concorrente Hitachi Global Storage (HGST) oferecem discos rígidos (HD) de apenas 2,5 centímetros de diâmetro, que podem armazenar 6 GB. A Seagate também oferece modelos com diâmetro de 2,5 com capacidades menores: 2,5 GB e 5 GB. Já a Hitachi oferece um aumento em 50% na capacidade de armazenamento do modelo que comercializava anteriormente. Para ter uma idéia de preços, no mercado internacional, a Hitachi comercializa esse produto por US$ 299, 40% menor de quando o HD de 4 GB foi lançado. O novo - 25 -

produto tem dimensões menores porque aloca dados de forma mais compacta na superfície do disco, com densidade de 78 GB por polegada quadrada, contra 56,5 GB por polegada quadrada do modelo anterior. Discos de dimensões reduzidas são destinados a pequenos dispositivos, como players de música digital, em que 6 GB de arquivos MP3 podem armazenar cerca de 150 horas, ou três mil músicas. De acordo com a IDC, apenas as soluções de armazenamento que usam a tecnologia de conexão iSCSI – famosa por ser mais barata e de mais simples instalação, foco da atenção do SMB – vão movimentar 6 bilhões de dólares em 2011 no mundo inteiro, contra os 600 milhões de dólares gerados pelo setor em 2006. Os clientes hoje exigem que o gerenciamento vá além das tradicionais soluções de backup e recuperação de dados. Informação é a moeda da economia do e-business, e o planejamento para armazenar esses dados precisa abranger a confiabilidade, a escalabilidade da solução e planejamento e a recuperação de desastres. Para simplificar o gerenciamento de seus usuários, a StorageTek lançou os discos de armazenamento D-Series e BladeStore/B-Series no padrão SMI-S v1.0.2 (Storage Management Initiative Specification). O SMI-S foi desenvolvido pela SNIA (Storage Networking Industry Association), para auxiliar usuários finais a reduzir complexidade, custos administrativos e desafios de interoperabilidade na implementação e no gerenciamento de ambientes de armazenamento. As soluções de discos secundários de armazenamento foram desenvolvidas em aliança com a LSI Logic Storage Systems, e as soluções de discos primários foram recentemente aprovadas no programa de testes de conformidade da SNIA (CTP – Conformance Testing Program) para conquistar a certificação SMI-S. Também no segmento de discos externos, a IBM lançou o dispositivo de disco IBM TotalStorage DS8000 e sua versão "baby", IBM TotalStorage DS6000. Sua arquitetura permite o endereçamento de até 96 Petabytes (PB), capacidade suficiente para armazenar toda a literatura do Congresso Americano por 2,4 mil vezes. Em processamento, atinge mais de 3 milhões de operações por segundo (IOPs). Tecnologia Worm Já vai longe o tempo em que a IBM anunciou seu primeiro drive de fita magnética em 1950, lançando o conceito de armazenamento de dados no mercado. Apesar dos discos, as fitas continuam firmes até hoje, crescendo exponencialmente em capacidade e ultrapassando limites. A StorageTek anunciou a ampliação de seu portfólio de soluções de tape drives. Entre as inovações está a unidade de fita T9840C, que ganha uma interface FICON nativa com conectividade e alto desempenho em ambientes MVS. O lançamento é - 26 -

uma evolução da família de soluções da companhia, que hoje conta com uma base de mais de mil produtos instalados no Brasil com T9840. Segundo a empresa, o produto promete maior economia para o armazenamento de dados críticos e para o acesso a informações em ambientes z/OS (MVS). A solução conta com tempo médio de acesso a dados de 12 segundos com throughput de dados a 30 MB por segundo para backup e 40 GB de capacidade por cartucho (descompactado). O T9840C também vem com uma ferramenta Worm (Write-OnceRead-Many), projetada para suportar as exigências de regulamentação referentes a armazenamento de dados eletrônicos. Até porque, trata-se de uma mídia que não permite regravação, mantendo, portanto, a integridade dos dados nela contidos. Quem também aposta no Worm é a IBM, que incluiu a tecnologia na unidade de fitas modelo 3592. A nova tecnologia possibilita a armazenagem de grandes quantidades de registros eletrônicos, com segurança, por um longo tempo, visando o cumprimento de requisitos regulatórios e de auditoria interna. Os novos cartuchos de fitas com tecnologia Worm para IBM TotalStorage são voltados para clientes que precisam armazenar grandes volumes de dados por longo tempo e devem garantir a integridade e disponibilidade dessas informações. A integradora Unitech, que representa a provedora de soluções de storage Adic no Brasil, lança a terceira geração de unidades de fita Ultrium, chamada de Linear TapeOpen (LTO). Entre os destaques da nova solução estão capacidades de armazenamento de até 10 Pentabytes (PB), assim como transferência de informações com velocidade de até 50 TB por hora. A família de bibliotecas LTO-3 incorpora recursos inteligentes para automação de fitas, bibliotecas compactas para grupos de trabalho e funções de consolidação de backup corporativo e plataformas multirobótica. Além disso, faz verificação pró-ativa do caminho, gerencia conectividade SAN, pode ser expandida de acordo com a demanda e permite diminuir em cerca de 50% a necessidade de chamadas de serviço. Fusões e parcerias A aquisição da Veritas Software pela Symantec por US$ 13,5 bilhões fortalece o direcionamento da Symantec para oferta de um grupo "holístico" de produtos, integrando soluções de segurança e backup de dados. A fusão mexeu com o mercado de storage e não é para menos, já que o negócio envolve uma das maiores empresas de segurança do mundo absorvendo outra de igual representatividade em sua área de atuação. Segundo a IDC, o mercado de segurança é, de longe, o mais promissor em todo setor TI, aparecendo como prioridade de investimentos em qualquer pesquisa de - 27 -

mercado. Para o instituto, as empresas tendem a investir em soluções completas, ao invés de apostar em produtos específicos. Isso deve alterar o cenário da demanda e fornecimento de hardware e software de infra-estrutura na América Latina. De acordo com os analistas, a demanda não se restringirá mais a soluções contra vírus e hackers, mas ambientes que incluem hardware e software de storage e de gerenciamento de sistemas. Para o lançamento de produtos na área de SANs também foi anunciada uma série de parcerias.A Brocade, especializada em infra-estrutura para redes SAN (Storage Area Network), e a EMC anunciaram o lançamento do EMC Connectrix DS-4100B. De acordo com as parceiras, os diferenciais do produto são taxa de transferência de dados de 4 GB por segundo e escalabilidade de portas sob demanda, proteção sobre o investimento e compatibilidade com ambientes de storage preexistentes. Baseado na família SilkWorm 4100 de switches da Brocade, o Connectrix DS-4100B dá flexibilidade para empresas de médio porte, nas quais pode atuar como switch de core, ou em grandes empresas, sendo capaz de transferir os dados das bordas para um director SAN maior. Para oferecer um portfólio mais completo, a IBM anunciou uma parceria com a Network Appliance pela qual a Big Blue revende a linha da Network Appliance de produtos de storage, concorrendo com a EMC. A NetApp vai utilizar o software Tivoli, da IBM, para a gestão de armazenamento e recomendará os sistemas de fita da IBM aos seus clientes. A IBM também comercializará a linha completa da NetApp. A Sun Microsystems também é fornecedora importante no segmento. Anunciou o Sun StorEdge Enterprise Storage Manager (ESM), software para administração integrada de Storage Area Network (SAN), desenvolvido para ajudar os clientes a diminuir o custo total de propriedade (TCO) do sistema de armazenamento. A grande aposta do mercado de storage é a possibilidade de gerenciar o ambiente de armazenamento virtualmente. Com a virtualização, os clientes podem criar "pools" de armazenamento entre sistemas de diferentes fabricantes, possibilitando uma visão unificada e consolidada da capacidade total de storage. Atualmente, as empresas têm de gerenciar sua capacidade de armazenamento dentro de cada sistema, o que impede o aproveitamento do espaço livre nos diferentes discos de storage. A ausência de um gerenciamento global de armazenamento gera onerosas movimentações de dados e perda de tempo e investimentos. Com foco nesse mercado, a IBM está disponibilizando mundialmente novas versões de seu software de virtualização do ambiente de armazenamento, o IBM TotalStorage SAN Volume Controller. A novidade é que o produto suporta uma maior - 28 -

variedade de dispositivos de armazenamento de outros fornecedores, como EMC, incluindo o Symmetrix e o CLARiiON e HDS, e já está disponível na web para upgrades dos usuários atuais. A Hitachi Data Systems Corporation oferece suporte à virtualização do Hitachi TagmaStore™ Universal Storage Platform para os sistemas de storage EMC Symmetrix séries DMX 800, 1000, 2000, 3000 e Symmetrix 3000, 5000 e 8000. Os sistemas de storage EMC CLARiiON série CX também serão suportados. A vantagem, segundo as companhias, é que os clientes EMC agora podem tirar proveito do Universal Storage Platform, que aumenta a vida útil dos equipamentos de armazenamento instalados, reduz os custos operacionais e de licenciamento de software e oferece uma funcionalidade superior de software, como cópia remota assíncrona e particionamento lógico, um recurso que não existe nos produtos EMC. A solução de virtualização da companhia é baseada em controladora, não depende de compatibilização entre as APIs dos fabricantes de switches e sistemas de storage e muito menos de appliances ou roteadores no caminho dos dados. A Hitachi estendeu os recursos internos de virtualização que desenvolveu durante os últimos doze anos para o storage externo, aproveitando o conceito de portas de storage virtual. Desde o anúncio do Universal Storage Platform, em setembro de 2004, a Hitachi Data Systems realizou testes de virtualização com inúmeros sistemas de storage das marcas HP, IBM, Sun e EMC. Uma das soluções da Veritas para virtualização chama-se Storage Foundation for Windows, um software de gerenciamento e virtualização que se integra às plataformas Windows para gerenciar com flexibilidade e de forma simplificada o armazenamento de dados nestes ambientes. O Veritas Storage Foundation 4.0 for Windows inclui o gerenciamento e a virtualização de volumes, além disso agrega funcionalidades para o Windows Server e Windows Storage Server. Para esse mercado, a HP anunciou o aprofundamento de sua aliança com a Veritas, fornecedora preferencial para soluções de gerenciamento de volumes e sistemas de arquivos para ambientes de alta disponibilidade HP-UX 11i. Storage online Para a IDC, o backup online se tornou uma abordagem atraente para muitos consumidores, com o advento de acesso de banda larga mais barata, maior nível de conforto aos usuários e a crescente necessidade de negócios para segundos sites para propostas de proteção de dados remotos.

- 29 -

A consultoria estima que a receita para o mercado emergente de storage online vai alcançar 715 milhões de dólares até 2011, representando 33,3% de crescimento entre 2006 e 2011. Cerca de metade dos gastos deste mercado serão feitos primeiro na América do Norte, mas outras regiões vão aumentar sua participação até 2011, segundo a companhia. A IDC também prevê que a adoção de consumidores e pequenos negociantes vai dominar o mercado por vários anos com adoções lentas de corporações de médio porte e empresas, o que vai fazer o faturamento crescer lentamente até 2010. Até lá, para a consultoria, práticas de serviços vão começar a se padronizar, a competição vai impedir o aumento de preços, fornecedores vão consolidar e backups online vão ter se tornado uma característica comum em alguns serviços online. A consultoria diz que o armazenamento online começa sua transformação por uma opção de backup simplificada para consumidores e pequenos negócios para uma oferta que pode capacitar grandes negócios a sustentar operações de disaster recovery, regulamentações de compliance e ajudar a frear custos de infra-estrutura de armazenamento. STORAGE Módulo 6 - Implementação No princípio, um computador era conectado diretamente ao seu setor de armazenamento, e nenhum outro computador podia acessar os dados guardados lá. Os aplicativos eram executados em um mainframe. Na medida em que a computação cliente-servidor se desenvolveu, os aplicativos passaram a ser executados em servidores dedicados, cada um com seu próprio armazenamento. Logo depois, os usuários sentiram a necessidade de compartilhar esses dados por meio de aplicativos. Assim, conforme a capacidade dos sistemas de disk array (matriz para discos) foi crescendo, um único array podia suprir as necessidades de armazenamento de vários servidores. Desse modo, nasceu o storage em rede. O primeiro requisito – o compartilhamento de dados entre servidores – foi resolvido pelo NAS (Network Attached Storage). Um dispositivo NAS fornece acesso a arquivos para os clientes conectados, utilizando protocolos de transporte em Ethernet e TCP/IP. As SANs (Storage Area Networks) permitem que diversos servidores compartilhem espaço em disco, a partir de um ou mais disk arrays. As SANs fornecem aos servidores o acesso ao armazenamento em bloco, utilizando a tecnologia de Fibre Channel. No paradigma do NAS, o sistema de arquivos que organiza blocos de armazenamento em objetos que são convenientes para os aplicativos que lidam com eles reside no dispositivo de armazenamento. Este é responsável por alocar espaço e evitar que os clientes se atrapalhem quando fazem solicitações de acesso a arquivos. - 30 -

No lado do host da interconexão, um cliente traduz as solicitações de entrada e de saída de arquivos dos aplicativos em mensagens de rede, e as envia para o dispositivo NAS, para que sejam executadas. Em uma SAN, o sistema de arquivos está no lado do computador da interconexão. O gerenciamento da capacidade de armazenamento para todo o sistema e os conflitos entre as solicitações de acesso a dados dos clientes são resolvidos pela cooperação entre os servidores conectados à SAN. Isso torna o software do lado do servidor muito mais complexo do que com os dispositivos NAS. Ao absorver o sistema de arquivos no dispositivo de armazenamento, o modelo NAS facilita o acesso simultâneo aos dados, efetuado por diferentes tipos de computadores. Atualmente, o NAS é o único meio amplamente disponível para tornar os mesmos dados acessíveis para computadores de diferentes tipos. Além disso, os protocolos de acesso a arquivos do NAS são muito genéricos e ricos em funcionalidade. E também conectam-se a redes com base em TCP/IP, que são projetadas para trabalhar com topologias de interconexão muito generalizadas. Por causa de sua grande funcionalidade e generalidade, esses protocolos são predominantemente implementados em software, que são executados mais lentamente em comparação com o firmware e o hardware no nível do dispositivo, geralmente utilizados para implementar protocolos de SAN. O desempenho do acesso aos dados brutos pelo dispositivo NAS, portanto, tende a ser menor do que o de outros dispositivos SAN semelhantes, e a utilização do processador do servidor e do cliente para o acesso a dados tende a ser maior. Em síntese, atualmente, o equilíbrio entre as vantagens e desvantagens é o seguinte: • Escolha NAS para obter simplicidade de compartilhamento de dados, particularmente entre computadores e sistemas operacionais diferentes. • Escolha SAN para obter o maior desempenho ‘bruto’ de entrada e de saída de dados entre o cliente e o servidor. Esteja preparado para desenvolver algum projeto e gerenciamento operacional adicional, a fim de fazer com que os servidores cooperem (ou, pelo menos, não interfiram) entre si. Em toda a jornada para o armazenamento em rede, é importante manter em vista as vantagens que se quer obter. Os benefícios específicos que as redes de armazenamento oferecem são diferentes em cada situação, mas com as redes de storage, assim como com qualquer aspecto da tecnologia da informação, os benefícios podem ser amplamente classificados. Veja como: - 31 -

• A redução do custo do fornecimento de serviços de informação atuais. • O fornecimento ou a habilitação de novos serviços, que contribuem positivamente para os objetivos corporativos em geral. As redes de armazenamento oferecem amplas oportunidades para que um departamento de serviços de informação ofereça ambos os tipos de benefícios. Por exemplo, no setor de economia de custos. • Se todo o armazenamento online for acessível por todos os computadores, então nenhum armazenamento temporário extra é necessário para organizar os dados que são protegidos por um computador e utilizados por outros. Isso pode representar uma substancial economia de custos, em termos de capital. • Da mesma forma, se os drives de fita e manipuladores de mídia robotizados puderem ser acessados diretamente por todos os computadores, será necessário um número menor desses dispositivos caros e que não são utilizados com tanta freqüência, em toda a empresa. Isso também reduz o custo total de capital corporativo, relacionado ao processamento de informações, sem diminuir a qualidade do serviço fornecido. • No entanto, provavelmente o mais importante é a economia administrativa e operacional, por não haver necessidade de implementar e gerenciar procedimentos para copiar dados de um local para outro. Isso pode reduzir muito o custo referente a pessoas – o único custo componente dos serviços de fornecimento de informações que não diminui a cada ano. A implementação do software Hoje, a maior parte das implementações de armazenamento em rede está concentrada nas interconexões (como Fibre Channel), que permitem a conectividade universal entre os dispositivos de armazenamento e os computadores que se conectam a elas. Mas as interconexões por si mesmas não acrescentam nenhuma funcionalidade ao processamento de informações, elas apenas possibilitam que essa funcionalidade seja acrescentada. Para conseguir os benefícios prometidos pelo armazenamento em rede, não somente a conectividade, o desempenho, a disponibilidade e as funções de hardware devem estar disponíveis para habilitá-los, como também os softwares de sistema e de aplicativos devem tirar proveito do hardware. Ao avaliar a tecnologia de armazenamento em rede, os componentes de hardware devem ser observados detalhadamente, por segurança. No entanto, o mais importante é que também é preciso observar cuidadosamente os recursos de software, a fim de garantir que a adoção proporcione a funcionalidade habilitada pelo hardware. - 32 -

Veja os seguintes exemplos de como o software ajuda a realizar os benefícios do armazenamento em rede: Compartilhamento de drives de fita: um tape drive conectado à SAN pode ser compartilhado entre servidores, porque esses dispositivos são caros e, na verdade, ficam em uso apenas durante a realização de backups. Se um tape drive estiver conectado a computadores por meio de uma SAN, computadores diferentes poderão utilizá-lo em diversos momentos. Todos os computadores terão seu backup efetuado. O investimento em drives de fita é utilizado de modo eficiente, e os gastos de capital permanecem baixos. Compartilhamento de dispositivos de armazenamento online: mantido em um subsistema de Raid (Redundant Array of Inexpensive Disks) corporativo, é similar ao compartilhamento de drives de fita, exceto pelo fato de que os procedimentos e requisitos para as modificações de configuração são mais dinâmicos. Um típico subsistema de Raid corporativo faz com que a capacidade de armazenamento online de um ou mais disk arrays pareça ser a de um ou mais discos muito grandes, rápidos e confiáveis. Um subsistema de Raid é como diversos discos virtuais, do ponto de vista dos servidores host. É bastante razoável que diferentes servidores sejam capazes de acessar esses discos virtuais em diferentes momentos. Por exemplo, um servidor pode coletar os registros diários de transações de uma companhia, feitos em disco, e enviá-los para outro servidor, no final do dia, para resumo, análise ou backup. Substituição de aplicativos com problemas: uma vez que as SANs conectam todos os dispositivos de armazenamento de uma organização a todos os seus servidores, é possível criar ambientes de computação altamente disponíveis, nos quais um computador substituto possa entrar em operação em substituição a um que venha a falhar, reiniciar seus aplicativos, e reiniciar o processamento de seus dados. Afinal, esses equipamentos são computadores, e por isso devem ter condições de reconhecer os sintomas de um defeito e ativar outro computador em seu lugar, automaticamente. O ideal seria que o mesmo acontecesse de modo transparente para aplicativos, uma vez que não é prático reescrever todos os aplicativos da noite para ao dia, a fim de tirar vantagem dos ambientes de computação altamente disponíveis. Compartilhamento de dados: meios mais avançados de clusterização de computadores permitem o compartilhamento simultâneo de dados entre diferentes aplicativos sendo executados em diferentes servidores. Isso pode ser extraordinariamente útil, por exemplo, para o crescimento adicional de aplicativos ou - 33 -

o escalonamento. Simplificando, se um aplicativo supera o tamanho do servidor em que ele está sendo executado, não é necessário substituir o servidor por um maior. Em vez disso, pode-se conectar outro servidor que tenha a potência adicional necessária à SAN, deixando o sistema original no local. Ambos os servidores podem executar cópias ou instâncias separadas do aplicativo, processando a mesma cópia dos dados. Podem ser acrescentados mais servidores, na medida em que aumentam os requisitos de capacidade do aplicativo. Construir uma SAN proporciona benefícios tangíveis para a empresa, ao permitir o aumento do compartilhamento de dados, a utilização de equipamentos e o gerenciamento centralizado de recursos de storage. Isso deve ser equilibrado por uma abordagem racional de segurança de dados para permitir que os benefícios da SAN não comprometam a integridade do patrimônio corporativo mais importante, que são os dados. Uma questão comum relativa à segurança de dados, nos atuais ambientes de SAN, são os inflexíveis e incompatíveis mecanismos de zoneamento nos atuais switches e HBAs (adaptadores de barramento por host). Dependendo da implementação de zoneamento do fabricante e do conhecimento do cliente sobre o software, o esquema de proteção de dados pode não ser válido. Isso, é claro, se a SAN for reconfigurada (ou seja, mover um host ou um dispositivo de armazenamento de uma porta de comutador para outra) ou acrescentar novos hosts (ou seja, novos hosts Microsoft Windows escrevendo etiquetas para LUNs – Logical Unit Number atualmente sendo utilizados por um host Unix). O software pode ajudar a aliviar esse problema, controlando o acesso a ferramentas de zoneamento que gerenciam comutadores e HBAs e fornecendo acesso a listas de controle por LUN, que protegem os dados existentes. Conectividade O armazenamento em rede permite a conectividade entre quaisquer servidores e dispositivos de armazenamento, e também aumenta a capacidade das organizações no sentido de migrar seus dados. O armazenamento em rede pode diminuir os custos do processamento de informações, por meio do aumento do compartilhamento de dispositivos e de capacidade, assim como por meio de comunicações mais eficientes. Isso cria o ambiente para a verdadeira computação global – a capacidade de processar as mesmas informações em qualquer momento, a partir de qualquer central de dados no mundo, com os dados e a execução de aplicativos primários migrando para locais ideais, conforme a necessidade.

- 34 -

Hoje, não bastam apenas sistemas de armazenamento. A necessidade dos dados intactos e seguros é tão grande que contar com backup corporativo é fundamental. Atualmente, os sistemas corporativos requerem soluções de backup cada vez mais velozes, flexíveis e confiáveis, preparadas para atender uma multiplicidade igualmente maior de plataformas. Essa necessidade de garantir a integridade e a segurança da informação é tão grande que os profissionais de redes não podem contar apenas com simples sistemas de armazenamento, necessitando utilizar recursos mais eficientes como backups corporativos, por exemplo. A adoção dessas soluções depende de um correto planejamento tecnológico que deve ser adaptado ao foco do negócio, integrando de forma inteligente os novos hardwares e softwares e que ofereçam meios para gerenciar constantemente esses componentes. Já estão disponíveis no mercado soluções completas e abrangentes, contando com uma infra-estrutura de hardware, software e práticas de pré-venda, manutenção pró-ativa e reativa e serviços profissionais, visando operações de ambiente de missão crítica. O maior desafio, porém, é desenvolver tal infra-estrutura para operar sobre padrões abertos e independentes de plataformas de hardware de storage. Mas, para isso, é preciso contar com uma equipe que compreenda a arquitetura de backup. Existem diversos casos de implementações de backup que não conseguem suportar o alto crescimento do volume de dados que, após um curto intervalo de tempo, requer um custoso processo de reengenharia. Nessas situações, normalmente, cometem-se erros que poderiam ter sido evitados como o subdimensionamento de dispositivos de backup, utilização de softwares com falta de funcionalidades e a falta de planejamento na utilização de redes de dados, incluindo a má implementação de redes privativas de SAN. As restrições de compatibilidade são típicas de softwares dependentes de plataformas de hardware de storage, normalmente implicando em uma adoção de backup com diversas características proprietárias e que simplesmente não funcionam ou funcionam muito mal quando da inclusão de outras plataformas de hardware de storage no ambiente de backup. A infra-estrutura de hardware e software de backup precisa ser flexível para suportar a maior gama possível de sistemas operacionais (em especial Linux, Unix e NT) e poder utilizar as interfaces e utilitários de backup e restores nativos das principais aplicações de mercado. - 35 -

O gerenciamento é outro fator importantíssimo na arquitetura. Ele possibilita que toda a configuração e a monitoração dos processos de backup e recovery sejam feitas centralizadas em um único ponto, independente de localização física do mesmo. Outro ponto é manter um ambiente confiável de backup/recovery, tanto para compatibilidade do software de backup quanto dispositivos de backup, device-drivers de sistemas operacionais, rede (Ethernet ou Fibre Channel), servidores de aplicação/banco de dados e atrelados ao controle e à execução do backup. . A automação deve garantir a confiabilidade da operação, mesmo em situações de falha de alguns dos componentes. A existência de mecanismos que atendam às necessidades de janela de tempo de backup, sem a interrupção da operação normal e para situações de recuperação de desastres, complementam a arquitetura de backup corporativo. O conjunto de produtos de hardware e software por si só nada pode garantir. Uma implementação bem-sucedida de uma solução corporativa de backup envolve práticas que englobam informações colhidas já no processo de pré-venda, no qual devem ser feitos o primeiro levantamento de necessidades e o dimensionamento. Levantamento dos recursos Nesse levantamento, deve ser abordado todo o parque de servidores (que serão os clientes do backup/restore) e de todos os sistemas operacionais, bancos de dados e aplicativos envolvidos e da rede de interligação dos mesmos. Isso é informação básica para a construção dos domínios de storage, reunindo grupos de clientes com master e mídia servers. Também deve ser feita a coleta de informações junto ao cliente em relação ao Service Level Agreement (acordo de qualidade de serviço), exigido para cada aplicação/banco de dados envolvido no processo de backup/recovery, e a respectiva janela de backup. É solicitado ao cliente informar quais serviços estão em processo crítico de continuidade dos negócios e requerem infra-estrutra para disaster recovery. O dimensionamento e a configuração dos servidores de backup e dos dispositivos de backup (incluindo número de unidade de fitas para cada dispositivo) devem ser prescritos, assim como a arquitetura de rede e política de compartilhamento de unidades de fita: uso ou não de Storage Area Network/Fibre Channel. Por fim, deve ser avaliada a configuração dos módulos de software para os sistemas operacionais, aplicativos e bancos de dados envolvidos, além da configuração de ambientes de cluster e infra-estrutura de point-in-time copy e disaster recovery, - 36 -

conforme informado pelo cliente, além dos níveis de serviço e janela máxima de backup. Assim, será possível ter uma solução completa e consistente de forma a garantir escalabilidade, proteção de investimento e minimizar o tempo de interrupção das operações do data center, não gerando impacto negativo nos negócios da corporação. Erros em procedimentos de backup O termo backup está diretamente associado à segurança de dados e deve receber uma atenção especial do administrador de rede. Qualquer descuido pode ser fatal para os dados mais importantes de uma empresa. Manter mídias de backup em locais inadequados e sujeitos à umidade, influência de campos magnéticos e alta temperatura pode danificá-las. Utilizar um mesmo local de armazenamento tanto para pastas e arquivos de backup quanto para todos os dados em uso é outro fator de risco de perda de dados se algum simples problema acontecer. Um deles poderia ser, por exemplo, um dano físico no disco rígido, onde estão guardados os dados e o backup, juntos. Outra falha está em deixar as rotinas de backup acontecerem sem qualquer tipo de gerenciamento e sem observar procedimentos específicos de segurança. É necessária uma atenção especial para essa questão, evitando que o backup seja esquecido ou que a mídia não seja trocada e até mesmo que a política de segurança da empresa seja ignorada. Torna-se imprescindível elaborar um conjunto de procedimentos chamados de política de backup (ou backup off site), que consiste na retirada periódica da mídia de armazenamento do local onde o backup é gerado. Essa mídia é levada geralmente para fora do local. Com isso, mesmo no caso de um acidente (incêndio, explosão etc), os dados estarão resguardados em local seguro. Produtos de backup corporativo Os produtos de backup corporativo que estão disponíveis no mercado são diversificados e projetados para uso ótimo com uma biblioteca de fita, atendendo as necessidades do administrador de rede de maneiras diferentes. Porém, considerando que a demanda por backup de dados é universal, é importante oferecer funcionalidade e confiabilidade juntamente com uma interface apropriada para administradores com variados níveis de experiência.

- 37 -

Flexibilidade também é necessária, pois os administradores de rede devem editar tarefas existentes e reconfigurar parâmetros com rapidez e facilidade quando as circunstâncias assim o exigirem. Um bom produto, portanto, deve ser capaz de lidar com a diversidade de marcas e padrões normalmente encontrados em um ambiente de rede heterogêneo. Estão disponíveis no mercado soluções completas e abrangentes, contando com uma infra-estrutura de hardware e software para maximizar a disponibilidade de níveis de serviço (SLA) visando operações de ambiente de missão crítica. A existência de mecanismos para atender as necessidades de janela de tempo de backup, sem a interrupção da operação normal e para situações de recuperação de desastres, complementa a arquitetura de backup corporativo. É necessário realizar também um levantamento relacionando todos os servidores que serão os clientes do backup/restore e todos os sistemas operacionais, bancos de dados e aplicativos envolvidos e da rede de interligação dos mesmos. Gerenciar informações de forma eficiente é um desafio enfrentado por empresas de todos os portes e segmentos. Um mau gerenciamento dos dados pode ocasionar prejuízos muitas vezes ocultos, como baixa velocidade de acesso, má utilização dos componentes de armazenamento e um alto custo total de propriedade (TCO). Nenhum sistema de armazenamento está completo sem uma solução adequada de cópias de segurança. Assegurar a integridade dos dados é um dos maiores desafios da área de Tecnologia da Informação (TI) da empresa, principalmente porque soluções como espelhamento remoto e cópia de dados não conseguem garantir essa integridade em situações de erros humanos, sabotagens ou mesmo desastres de proporções não previstas. Em muitos desses casos, somente uma cópia tipo backup pode resolver a situação.

STORAGE Módulo 7 - Resultados A maior preocupação de um administrador de TI hoje é maximizar a utilização dos recursos que já possui, inclusive os servidores de storage. O desafio das empresas é conseguir migrar para modelos mais adequados à companhia sem ter que comprar hardware novo antes de uma expansão planejada.

- 38 -

Afinal, a computação, como um serviço essencial, significa contar com servidores no data center que sejam provisionados quando preciso e não ter a necessidade de comprar uma arquitetura de servidores específica de uma determinada empresa Por isso, o armazenamento está caminhando em dois sentidos simultâneos: nova centralização, eliminando as ilhas existentes, e externalização, separando o armazenamento da ligação física ("bus attached") com os servidores. Essas tendências são o que chamamos de modelo de computação "information centric". Nesse modelo, os negócios são construídos em torno de suas informações, visto como o ativo mais estratégico. É uma mudança significativa do modelo "server centric", em que o processador é a peça-chave da computação e o limitador da capacidade de acesso às informações. Assim, as informações são colocadas no centro do negócio e as plataformas de processamento conectadas aos equipamentos inteligentes de armazenamento. O modelo transcende plataformas e ambientes operacionais. Afinal, o objetivo é integrar todas as informações, fornecendo uma simples e única visão. Caminhos do armazenamento Os clientes corporativos possuem um grande número de servidores e aplicações rodando em diversas plataformas. O que precisam é de um sistema de gerenciamento centralizado, um repositório central que informe onde cada aplicação rodará em um data center heterogêneo. Esse sistema de gerenciamento baseado em políticas deve trabalhar com diversos sistemas operacionais, atribuindo a cada aplicação um nível específico de prioridade e critérios de performance. Nesse cenário, o "controlador de políticas" atribuiria aplicações aos servidores tendo como base critérios pré-definidos e gerenciaria os problemas ou as necessidades de novas aplicações baseando-se nos conceitos de prioridade e performance. Estamos, é claro, olhando o nível mais alto do data center e assegurando que os ativos de TI estejam alinhados com as necessidades do negócio. O objetivo principal dos sistemas de armazenamento é proteger seus sistemas e informações críticas, diminuindo possíveis paradas e aumentar a produtividade dos seus funcionários. A solução oferece: • Redução de custos, por meio da otimização do armazenamento e disponibilização das informações, diminuindo custos com aquisição de hardware de armazenamento. • Segurança e gerenciamento do ativo intangível das empresas, ou seja, as informações e dados que ela possui.

- 39 -

• Possibilidade de ação pró-ativa, antecipando-se a problemas, ao invés de reativa, corrigindo falhas, inclusive com levantamento de parque e de recursos ociosos que podem ser melhor aproveitados. Hoje, para gerenciar de modo centralizado o data center, é preciso criar uma complexa arquitetura multicamada, usando as plataformas de cluster separadas para gerenciar cada tipo de hardware. É muito difícil criar uma relação entre todas essas plataformas para obter uma visão clara e abrangente de todo o data center. As maiores dificuldades dos clientes dizem respeito à simplificação desse ambiente. As empresas planejam soluções para melhorar o gerenciamento de um grande número de aplicações, rodando em diversos servidores. É necessário ter a capacidade de administrar adequadamente qualquer tipo de falha e assegurar que todas as aplicações recebam os recursos do sistema, conforme prioridades e compatibilidade pré-definidas. Muitos estudos têm demonstrado que as companhias implementam recursos de armazenamento em excesso e apenas utilizam metade da capacidade adquirida. Isso significa que o custo real de armazenamento nessas empresas é duas vezes maior do que eles esperavam e concordaram em gastar quando adquiriram hardware para essa função. Por isso, adotam software de armazenamento, necessário para controlar e aumentar a utilização dos recursos. As arquiteturas de armazenamento ideais também devem ser flexíveis na implementação e ter uma boa relação custo-benefício, além de integrar-se com outras aplicações da empresa. No atual ambiente, caracterizado por rápidas transformações, é difícil prever quanta capacidade é necessária para um novo aplicativo. É ainda mais difícil prever a capacidade necessária em um ou dois anos. E se ocorrer uma fusão, a criação de filiais ou alguma grande reestruturação? A empresa vai reconstruir toda sua arquitetura de armazenamento? Ou introduzir um novo sistema de gerenciamento que exija um novo treinamento de todos os funcionários de sua organização? Para minimizar o custo e a complexidade, a arquitetura de armazenamento ideal é flexível o suficiente para acomodar modificações das exigências da empresa, ao mesmo tempo em que preserva um sistema consistente de gerenciamento. O software de armazenamento fornece a camada de flexibilidade necessária para preservar consistentes práticas de gerenciamento, independentemente de mudanças nas condições ou nos requisitos da empresa. As redes de armazenamento possibilitam maior utilização de recursos ao oferecer conectividade e simplificam o gerenciamento ao oferecer uma visão centralizada de todos os recursos. A mesma lógica aplica-se quando é examinada a separação da inteligência de armazenamento dos dispositivos propriamente ditos. Ou seja, a - 40 -

separação do gerenciamento de armazenamento do hardware de storage oferece benefícios na consolidação da rede de armazenamento. As ferramentas de virtualização permitem aumento do uso de recursos ao fornecer um mecanismo para consolidar o excesso de armazenamento a partir de vários dispositivos de hardware e apresentá-los como um único e útil repositório de dados. Geralmente, as empresas separam a inteligência de armazenamento das ferramentas de storage, a partir de dispositivos de hardware individuais para obter os benefícios de centralização. Um único conjunto de ferramentas gerencia o hardware de vários fabricantes. Recuperação de dados A crescente quantidade de informações a ser armazenada pelo mercado corporativo e governamental tem sido um bom indicador do potencial de vendas de soluções para o segmento. Desde o início do ano, ao entrarem no Brasil, os norte-americanos são fotografados e deixam suas impressões digitais registradas, por decisão da Justiça Federal. Isso é um exemplo de como as informações aumentam e precisam serarmazenadas, além da necessidade do uso do backup para garantir a recuperação dos dados. As arquiteturas mais usadas para implementar redes de armazenamento nas corporações são a NAS (Networked Attached Storage) e a SAN (Storage Area Network). A opção NAS (Networked Attached Storage) refere-se a uma rede de baixo custo, onde o sistema de storage está conectado à rede LAN e os dados são acessados por meio de protocolos CIFS, sistema de acesso a drives de rede na plataforma Windows, ou NFS, para o ambiente UNIX. Suas principais vantagens são a simplicidade de gerenciamento e a facilidade de integração com serviços de diretórios. Trata-se de uma arquitetura de performance relativamente baixa se comparada com arquitetura SAN. A alternativa NAS vem sendo utilizada para consolidação de servidores de arquivos ou bancos de dados com baixa taxa de acesso e pouca necessidade de performance de I/O. As redes SAN são consideradas as mais modernas e rápidas disponíveis no mercado. São redes flexíveis que utilizam interfaces fiber-channel e switches especiais de alta velocidade para comunicação entre os servidores e os subsistemas de armazenamento. Sua implementação permite a comunicação de diversos servidores com diversos subsistemas de armazenamento, incluindo dispositivos de fita magnética. A arquitetura SAN facilita a administração, aumenta as possibilidades de compartilhamento de recursos de armazenamento disponíveis e é adequada para aplicações que demandem muitos recursos de I/O e atividade de consolidação de storage.

- 41 -

O mercado brasileiro – particularmente as instituições financeiras, governo, telecomunicações e saúde – apresenta um grande potencial de compra para esse tipo de solução para cumprir com algumas exigências da legislação do País e, nos casos dos bancos, para adequarem-se aos requisitos da Basiléia II, as empresas precisam de soluções de alta disponibilidade. Toda e qualquer aplicação que necessite trafegar dados pela rede ganha em performance com esse conceito. Como "subnets", uma SAN agrega largura de banda (bandwith) sem demandar carga adicional nas redes básicas. Além disso, o gerenciamento torna-se mais fácil. Não há mais necessidade de buscar informações em dezenas de servidores, pois elas estarão centralizadas em um único ponto. O resultado é a maior disponibilidade, pois a informação fica disponível nos servidores, independente de aplicações, sendo acessível por uma rede própria, sem degradação das redes básicas. A empresa alcança melhor performance, pois não existe overhead do servidor e do seu barramento (bus) central. Conta com um melhor gerenciamento centralizado, evitando a dispersão natural das bases de dados distribuídas, bem como os inevitáveis problemas de "out of disk space" que ocorrem individualmente nos servidores. O armazenamento consolidado e centralizado reduz o custo de propriedade, principalmente devido à eliminação das dificuldades da conectividade entre diversos ambientes de arquivos heterogêneos, como encontrados nos diversos sistemas operacionais. Ciclo de vida da informação O custo de armazenamento de e-mails pode ser reduzido em até 80% com o uso de soluções de gerenciamento, segundo os fabricantes, por isso mais empresas buscam soluções de ILM (Information Lyfeclycle Management) para bancos de dados, ERP, CRM, correio eletrônico e e-mail. Por isso, além da virtualização, uma grande onda para melhorar a utilização do storage é a implementação do ILM armazenada nos dispositivos da empresa. Estudos mostram que os dados da maioria das aplicações deixam de ter a necessidade de estar disponíveis para acesso online na medida em que o tempo passa. Um exemplo disso são as mensagens arquivadas na caixa postal no correio eletrônico. Normalmente, após 45 dias do recebimento, a mensagem de e-mail e seus anexos não precisam consumir espaço em um disco mais rápido e, conseqüentemente, mais caro. Por isso, se a empresa estiver precisando comprar discos, possivelmente implementar a gestão das informações é uma boa alternativa. Dessa forma, irá proporcionar a compra de discos mais lentos (e mais baratos) e migrar automaticamente as informações utilizadas com menos freqüência para eles, reduzindo sensivelmente os novos investimentos em storage. - 42 -

As empresas requerem cada vez mais o gerenciamento que garanta bons níveis de performance e proteção, para suportar falhas durante o armazenamento (storage media) e elaborar procedimentos completos em caso de problemas mais graves (disaster recovery). Parcerias com fabricantes de software, soluções de grid storage e integração de produtos para criação de soluções mais completas são o foco do mercado. O ILM permite identificar cada informação, avaliar sua criticidade para o negócio e a necessidade de acesso rápido a ela e, finalmente, rever a infra-estrutura de storage, de forma a permitir a alocação apenas dos dados mais importantes em mídias de alta performance e, portanto, mais caras, deixando o restante em equipamentos mais econômicos. Tudo isso feito de maneira dinâmica, automática e transparente para o usuário. As empresas também estão requerendo mais serviços de consultoria. O porquê desse crescimento não é difícil de entender. A base do conceito da categorização das informações e do armazenamento hierárquico é o conhecimento, por parte do cliente, da importância de cada dado para seu negócio. Ou seja, por quanto tempo o material em questão é crítico para o trabalho diário da companhia, quando se torna importante apenas para algumas áreas da corporação, cujo acesso é mais raro e, finalmente, após quanto tempo deixa de ser necessário estar disponível com imediatismo e pode ser armazenado em um arquivo morto. Avaliação da infra-estrutura É importante ainda lembrar que, se parte do conteúdo do arquivo morto é descartável, muitas informações têm de ser guardadas por tempo determinado de acordo com leis ou regras setoriais, sendo que possíveis alterações podem acarretar em sérios problemas para a companhia. Após essa análise de todas as informações – e da categorização de cada uma –, empresas e fornecedores devem fazer uma avaliação da infra-estrutura existente, adequando-a às necessidades observadas. Assim, as informações permanecem guardadas nos equipamentos de alta performance apenas enquanto são críticas para o negócio. A seguir, conforme regras definidas pelos usuários, as informações são encaminhadas para dispositivos mais baratos, que permitem acesso direto a elas, porém, com certa demora – os fornecedores alertam que essa diferença pode ser de segundos. Finalmente, dados considerados históricos vão para mídias com custo ainda mais reduzido e cujo tempo de acesso é um pouco maior. Apesar de ser um dos tipos de dados no qual a implementação do conceito de ILM é mais complexa – por tratar-se de informações semi-estruturadas –, o alto volume de mensagens eletrônicas que invade os servidores corporativos diariamente e a - 43 -

dificuldade dos usuários lidarem com ela resultam em custos altíssimos para a companhia. E isso está motivando os CIOs a encontrarem formas automatizadas de organizá-las e armazená-las. A chave para as ilhas de storage se interconectarem com os outros aplicativos da empresa, como ERP, CRM e outras aplicações, está na interoperabilidade entre os protocolos dos fabricantes. Com a popularização das redes de storage, tornou-se interesse de todo o mercado a padronização dos protocolos. Um movimento importante nesse sentido foi a criação da SNIA (Storage Networking Industry Association) associação que reúne 300 fabricantes mundialmente. A iniciativa Storage Management Iniciative Specification (SMIS) testa e divulga especificações, realiza testes de compatibilidade e interoperabilidade nas redes SAN e NAS, tornando os usuários mais independentes de marcas e fabricantes. O principal objetivo agora é fornecer especificações para o protocolo iSCSI preparando o terreno para a próxima onda das redes globais nos grandes data centers.

VOIP Módulo 8 – Tendências Mais espaço para o armazenamento, redução de custos, interoperabilidade e continuidade de negócios. Essas estratégias permeiam as tendências do storage para os próximos anos. E a preocupação não é apenas por mais espaço para guardar os dados, mas tecnologias que otimizem aqueles já usados, além de poderosas ferramentas de gerenciamento para administrar todo o volume de informações. A interconexão de tecnologias, manter a agilidade para acompanhar as mudanças rápidas e ter sempre os dados disponíveis são as principais preocupações do mundo corporativo. Um dos desafios é recuperar o controle do crescimento desenfreado e complexo das infra-estruturas, simplificando o gerenciamento e a rotina de tarefas administrativas redundantes. As soluções devem detectar ineficiências na maneira como as informações são gerenciadas e armazenadas para fazer mais com a mesma quantidade ou menos recursos. Proteger e garantir a segurança dos dados é o maior desafio das empresas no futuro, de acordo com uma pesquisa divulgada pela CompTIA, uma associação do mercado de TI. A segurança foi citada como a principal preocupação por um terço dos 660 executivos entrevistados ligados a área de storage. Gerenciamento e administração de dados ficaram com o segundo lugar, sendo mencionados por 17% dos participantes do estudo, seguidos por aceleração de acesso a dados armazenados - 44 -

(10%). Apenas 6% dos participantes disseram que o atendimento a regras impostas pelo governo é a principal preocupação. Para acompanhar a velocidade do mercado, os administradores de storage e redes já convivem com a convergência de seus produtos, apontando para um novo tipo de profissional: o engenheiro de storage, que deverá conhecer as aplicações, entender de redes, saber como é o trabalho do administrador de sistemas e conhecer o trabalho do gerente de armazenamento. A rota tomada por empresas como a EMC, Cisco, Brocade e McData segue os princípios de implementar uma infra-estrutura de virtualização escalável e interoperável. Um passo importante foi a união dessas empresas para o desenvolvimento conjunto de interfaces de programação de aplicações APIs (Application Program Interfaces). Em um futuro próximo, essas interfaces vão permitir que as redes locais (LANs), de longa distância (WANs) e redes de armazenamento (SAN e NAS) troquem dados sem problemas de interoperabilidade. A segurança e o storage também já apontam para a consolidação, como atesta a fusão da Symantec com a Veritas, apontando para novos produtos que unem essas áreas. A evolução das arquiteturas de bancos de dados passa pela migração do tradicional DAS (Direct Attached Storage) para o conceito de SAN (Storage Area Network) que se baseia em interligações ópticas dos elementos armazenadores, servidores e switches e o conceito NAS (Network Attached Storage), com interligações baseadas nos padrões das redes locais. Qualquer que seja o modelo de arquitetura de rede: SAN, NAS ou combinação de ambas, a interligação entre a rede principal e backup pode ser feita por meio da solução de telecomunicações de storage sobre redes ópticas, que se baseia em tecnologias de transmissão óptica Synchronous Digital Hierarchy (SDH). Na cadeia de fornecimento dessa solução, estão as empresas de storage, operadoras e fornecedores de equipamentos de telecomunicações. Redes IP A popularização das redes IP acontece, no storage, com a utilização de plataformas iSCSI. Para decolar, o mercado aguarda o desenvolvimento de padrões que estão em curso com iniciativas como a SNIA (Storage Networking Industry Association),que conta com um time de 400 profissionais, dos quais cem fazem parte das grandes companhias de storage. A grande aposta tem sido a Storage Management Initiative (SMI), dentro da SNIA, que une os fornecedores em torno da unificação do processo de gerenciamento. Uma - 45 -

das etapas da SMI tem sido, justamente, fazer intercâmbio de APIs rumo à interoperabilidade baseada em padrões. Com a popularização das redes SAN (Storage Area Network), uma das apostas da indústria é a queda de preços para atingir novos mercados como as pequenas e médias empresas. As pressões sobre os últimos cinco anos – na direção das SAN e NAS, que ampliou a adoção das redes de armazenamento de dados – deve continuar ampliando a venda e oferta de produtos de gerenciamento com o conceito ILM (Information Lifecycle Management) mais ágeis e mais baratos, enquanto o iSCSI continua a ganhar mercado. Nos últimos anos, muitos fabricantes já adaptaram seus produtos para suportar as IP SANs (redes de armazenamento que utilizam o protocolo IP), usando o protocolo iSCSI em conjunto com o FC-IP (Fibre Channel sobre TCP/IP) ou iFCP (Internet Fibre Channel Protocol). Especialistas não acham que a iSCSI vá matar o mercado das SANs, já que o FC e iSCSI endereçam diferentes necessidades. Clientes que não querem uma FC dedicada e contam com grandes volumes de storage devem voltarse para a iSCSI. Além do desenvolvimento das redes, a virtualização caminha rumo à consolidação. Na tecnologia, dispositivos diversos, com características, funcionalidades, performance, níveis de serviço e até mídia física diferenciada, são apresentados ao servidor e às aplicações como se fossem virtuais, simplificando o gerenciamento. O objetivo principal é garantir uma total utilização da infra-estrutura, diminuindo sua ociosidade e tornando mais fácil a implementação do ILM (Information Lifecycle Management) em todas as aplicações, independente de compreenderem a infraestrutura. Alguns requisitos são essenciais para implementar a virtualização: escalabilidade, gerência ponto-a-ponto, interoperabilidade e aderência a padrões da indústria. Grid computing A indústria também aposta no grid computing, arquitetura que adiciona uma camada à SAN, que virtualiza dados em múltiplos arrays. Mas não basta a utilização da tecnologia de integração de discos e a virtualização, se a rede ficar muito lenta. Para superar esse obstáculo, a indústria aponta para o chamado “object storage”, que essencialmente utiliza metadados e endereçamento virtual para otimizar as redes. O object storage usa controladores de metadados para atuar como uma ponte entre o dispositivo de storage e o servidor em que estão armazenados os dados. Dessa forma, pode fornecer a informação solicitada pelo aplicativo de maneira eficiente e sem congestionar a rede.

- 46 -

O storage grid computing é a transposição do conceito da grid computing para o armazenamento, ou seja, diversos sistemas de armazenamento são tratados de uma forma única. Para isso, o segredo é a criação de um modelo de nomenclatura padrão para os dados. Também é fundamental que seja feita a classificação dos dados e a adoção de uma camada de cache à frente da variedade de storage para garantir que as informações críticas sejam acessadas rapidamente. Isso permite o armazenamento de dados em dispositivos de hardware mais baratos. Armazenamento físico Na futurologia dos discos, diversos institutos de pesquisa apontam para diferentes tecnologias, sempre buscando ampliar a capacidade de armazenamento. As linhas de desenvolvimento vão na direção dos discos ópticos, nanotecnologia e chips baseados em polímeros. Físicos da universidade britânica Imperial College, de Londres, estão desenvolvendo um disco óptico do tamanho de um DVD convencional com capacidade de armazenamento 1.000 Gigabytes (GB), que recebeu o nome de MODS – Multiplexed Optical Data Storage. Ele é capaz de armazenar 472 horas de filmes. Os desenvolvedores da tecnologia ainda destacam que os discos MODS não serão os primeiros a desafiar a dominação dos DVDs, no mercado audiovisual, já que os discos BluRay também têm capacidade cinco vezes superior aos discos convencionais (cerca de 25 GB por face). Agora, os pesquisadores da universidade estão trabalhando com colegas do Instituto de Microtecnologia da Universidade de Neuchâtel, na Suíça, e com o Departamento de Engenharia Elétrica e de Computação, da Grécia, para calcular o preço dos discos MODS para produção em série. O grupo também está trabalhando para descobrir um formato que tornaria o disco compatível com aparelhos reprodutores de CD e DVD já existentes. Um dos pesquisadores, Dr. Török, destacou que acredita que os primeiros discos comerciais desse tipo estarão disponíveis entre os anos de 2010 e 2015. Outra linha de pesquisa é com chips de memória com filme plástico e silício, que poderia baratear o armazenamento do futuro. Essa linha de pesquisa reúne a HP e a Princeton University, dos Estados Unidos. Segundo a revista Nature, a passagem da eletricidade sobre o dispositivo de filme plástico funde o polímero, mudando sua condutividade e permitindo que camadas de memória possam ser sobrepostas. A tecnologia seria mais barata, porque não envolve transistores. Intel e AMD prevêem produzir memórias baseadas nesses polímeros, mas as pesquisas ainda são preliminares porque os pesquisadores ainda estão testando a velocidade do registro - 47 -

e leitura do dado. O dispositivo chamado PEDOT pode conter 1 Megabit de dados em um milímetro. Um centímetro cúbico poderia armazenar 1 GB de dados. O que é nanociência e nanotecnologia? Os discos magnéticos e fitas continuam a ampliar suas capacidades de armazenamento com a vantagem do baixo custo. Indo além dos discos magnéticos, os pesquisadores apontam para os avanços na nanotecnologia, unindo proteínas sintéticas e circuitos moleculares para criar chips chamados de nanorobôs. No desenho dos chips, há limitações associadas à fotolitografia. Uma tecnologia-chave é a habilidade de posicionar os circuitos a poucos nanomilímetros um do outro. Para atender essa necessidade, a computação molecular começa a tomar forma. Empresas e institutos de pesquisa desenvolvem os nanorobôs, com a manipulação de proteínas sintéticas que se aproximam da estrutura do DNA. A essência da nanociência e nanotecnologia é a habilidade de trabalhar ao nível molecular, átomo por átomo, para criar grandes estruturas com organização molecular. Nanociência e nanotecnologia dizem respeito ao entendimento, controle e exploração de materiais e sistemas cujas estruturas e componentes exibem propriedades e fenômenos físicos, químicos e biológicos novos e modificados devido a sua escala nanométrica (1-100nm). A meta é explorar essas propriedades para ganhar controle das estruturas e dispositivos ao nível atômico, molecular e supramolecular e aprender a fabricar e a usar eficientemente esses dispositivos para novos chips e sistemas que futuramente vão armazenar grandes volumes de dados. Essa tecnologia aponta para grandes promessas no campo do armazenamento de dados. Nessa direção, a IBM anunciou a tecnologia MEMS (Micro-Electrical-Mechanical System) baseada no conceito Millipede ou Millipede High-density data storage, tecnologia de alta densidade com base em componentes atômicos, colocados em um substrato microscópico. Pequenas depressões criam uma força atômica microscópica em um polímero que recebe os bits de dados armazenados. O polímero pode ser reusado milhões de vezes, ultrapassando os meios magnéticos de gravação. No conceito millipede, um array opera de maneira paralela, onde cada dado é lido, escrito ou apagado, em sua própria área de armazenamento. O Bell Labs, em conjunto com a Lucent e a Imation, tem uma linha de desenvolvimento de sistemas holográficos de storage, reposicionando wafers de silício separados por nanomilímetros para conter os dados.

- 48 -

No mercado de discos multimídia, o dispositivo de 1,8 polegadas deve ir além dos equipamentos de MP3, integrando notebooks, PDAs e equipamentos embarcados (computadores de automóveis). Estes equipados com sistemas de localização que acessam grandes bases de dados, poderão armazenar informações e imagens 3D em discos compactos mínimos.

- 49 -