You are on page 1of 49

STORAGE

Módulo 1 - Introdução ao Storage

O aumento do volume de informações que circula nas empresas passou a ser crítico
em qualquer corporação e com ele a importância de contar com ferramentas de
armazenamento de dados cresceu. Atualmente, o desafio não é só dimensionar a
necessidade de espaço, em função dos terabytes a serem preservados, mas
gerenciar esse processo de forma eficiente para garantir acesso rápido e inteligente
aos dados armazenados. Com isso, o conceito do gerenciamento dos dados vem
evoluindo a cada dia, com o surgimento de novas soluções, estratégias e tendências.

Isso porque, antigamente, o computador era conectado diretamente ao seu setor de


armazenamento, e nenhum outro PC podia acessar os dados guardados. Os
aplicativos eram executados em um mainframe. Na medida em que a computação
cliente-servidor foi desenvolvida, os aplicativos passaram a ser executados em
servidores dedicados, cada qual com seu próprio sistema de armazenamento.

Não tardou a surgir, contudo, a necessidade desses aplicativos compartilharem


dados. Conforme a capacidade dos sistemas de disk array (módulos de
armazenamento de discos) foi crescendo, um único disk array pôde suprir as
necessidades de armazenamento de vários servidores. Assim, nasceu o storage em
rede. Hoje, o storage – armazenamento de dados – vai além do seu conceito. Entre
as novas modalidades atreladas ao tema estão a virtualização de dados e o
gerenciamento do ciclo de vida da informação, por exemplo.

Mas o que é virtualização de storage? Nada mais do que o processo de consolidar


vários dispositivos físicos, de diversos fabricantes e reorganizá-los em agrupamentos
virtuais, lógicos ou em unidades de armazenamento. Essas unidades são
apresentadas ao sistema operacional (OS) para utilização por aplicativos ou pelos
usuários finais apropriados.

Apesar de soar como um recurso atual, a virtualização do armazenamento não é


novidade, tanto no conceito como na prática. Definida há quase 20 anos, na
computação em mainframes, a tecnologia está se consolidando com o avanço das
SANs (Storage Área Networks), que serão tratadas mais detalhadamente nos
próximos módulos.

Já o gerenciamento do ciclo de vida da informação ou ILM - Information Lifecycle


Management - permite diagnosticar quais informações realmente demandam acesso
mais ou menos rápido, além de classificar o grau de importância estratégica desse
dado ou informação para a corporação. Assim, o modelo de armazenamento pode
ser redimensionado, representando acesso mais inteligente, rápido e com menor
custo. Esse conceito está integrado ao que se convenciona chamar de Storage
Resource Management (SRM).
-1-
Virtualização

O armazenamento de informação sempre foi parte da infra-estrutura tecnológica de


qualquer empresa ou de qualquer usuário. Armazenar informação é fundamental no
ambiente tecnológico, independente da arquitetura utilizada. Pela falta de um
modelo de padronização na área de storage, as empresas investiram, ao longo do
tempo, em ilhas de storage, com diversas marcas para suportar diferentes
aplicações. Hoje, o que se observa é uma verdadeira “Torre de Babel” nessa área,
com sistemas que não se comunicam por terem arquiteturas proprietárias.

Essa diversidade acontece tanto em relação ao uso de recursos físicos de


armazenagem (como os discos) até as aplicações. No caso dos discos, isso aconteceu
principalmente porque eles foram adquiridos para suportar a demanda cada vez
maior de armazenamento em função do uso de aplicações como Customer
Relationship Management (CRM), Enterprise Resource Planning (ERP), Business
Intelligence (BI) e até correio eletrônico. Em cada época um fornecedor possuía o
melhor preço ou a melhor tecnologia para complementar essas soluções.

Atualmente, os discos, transformados em commodities, podem ser melhor


aproveitados e facilitam a composição de uma estratégia de armazenamento de
dados de uma forma inteligente. A virtualização de storage, por exemplo, garante
que todos os discos, até então incomunicáveis, possam fazer parte de um único
sistema de armazenamento. Dessa forma, a corporação consegue gerenciar de
maneira simples os dados armazenados. Além dessas facilidades, a modernização
dos recursos para armazenamento possibilitou uma economia considerável para os
usuários que agora têm como utilizar os discos para todas as aplicações, com livre
escolha de fabricantes.

Assim como no universo dos discos, a virtualização contribui para organizar o modelo
de aplicações na área de armazenamento. O grande drama enfrentado no passado
pelas empresas era a falta de interoperabilidade que existia entre as aplicações, visto
que elas aconteciam de forma isolada – em cada departamento – e utilizando
software de fabricantes diferentes e muitas vezes proprietários.

Elo de integração

Mas a virtualização veio resolver esse problema, transformando-se em um elo de


integração. Isso porque ela possibilita que soluções de diferentes fabricantes possam
conversar entre si e realizar funções de provisionamento dinâmico. Esse recurso
permite que as empresas criem “pools” de armazenamento, obtendo uma visão
unificada e consolidada da capacidade total de storage. De um lado, a tecnologia
dobra a capacidade de utilização do armazenamento nas empresas e, de outro, o

-2-
provisionamento dinâmico possibilita que a alocação de mais espaço por uma
aplicação ou servidor seja feita automaticamente.

Mas não basta só virtualizar, é preciso gerenciar. Segundo o instituto de análise


Gartner Group, para cada dólar investido na compra de soluções tecnológicas, cinco
são gastos para controlar e manter o ambiente. Investimentos no gerenciamento da
informação é prioridade para as empresas que adotam o Storage Resource
Management (SRM), permitindo administrar as diversas plataformas de
armazenamento.

O SRM abrange desde relatórios para classificar os dados e políticas de alocação, até
o gerenciamento baseado na aplicação e monitoração do desempenho. Com a
classificação de dados, é mais fácil detectar arquivos que não são acessados
normalmente e realocá-los em fita, por exemplo, livrando-os de ocupar centenas de
gigabytes em dispositivos mais caros.

Os CIOs (Chief Information Officers), ainda segundo o estudo do Gartner Group,


apontam que cerca de 40% das informações armazenadas pelo usuário final não
interessam às empresas. Uma boa solução de SRM, dizem os especialistas, incorpora
múltiplas visões, assim como gerencia a capacidade física e lógica de storage,
tornando o ambiente de armazenamento muito mais eficaz. A tendência é contar
com mais serviços de integração para que os usuários não tenham de gerenciar
ambientes estanques de software de diferentes fornecedores.

No controle total

O primeiro passo para atingir a plena capacidade de controle é construir uma rede de
armazenamento inteligente, que permita acesso ao transporte de dados e faça a
informação se mover de um lado para o outro. Os passos seguintes são classificar os
dados segundo regras de negócios e partir para a automatização, usando
ferramentas que facilitem a identificação de dados e utilizando a rede implementada
na primeira etapa. Com plataformas de conteúdo fixo, é necessário que estas sejam
acessadas por aplicações, independente de estarem em fita ou em disco.

Para obter acesso livre e interoperabilidade global entre as aplicações, o que irá
proporcionar gerenciamento completo das informações, é necessária a construção de
uma rede de armazenamento inteligente. Com um conjunto de software para
gerenciamento de storage, é possível identificar as informações que estão sem
acesso e solucionar o problema. Em cima dessa estrutura são feitas várias evoluções,
como ligação online entre os storages de produção e de backup.

Na hora de escolher a melhor solução, principalmente se a intenção é fazer o


gerenciamento do ambiente de storage, o administrador da rede vai ter de “juntar
pedaços”. Não há ainda fornecedor que disponha de uma solução completa,
abrangendo todas as nuances tecnológicas. Para que o gerenciamento seja
-3-
aperfeiçoado e também entendido em todos os departamentos da empresa e
funcione de maneira linear, é importante que seja implementada uma política de
gestão dos recursos de storage.

Contudo, ela depende de uma boa capacidade de negociação e de um profundo


conhecimento da infra-estrutura existente e das necessidades da empresa. Até
porque, as informações transformam-se rapidamente em terabytes, acessadas,
simultaneamente, por centenas, quando não, milhares de usuários que criam e
acessam dados ao mesmo tempo e com as mais diferentes finalidades.

Tecnologias emergentes

Com o objetivo de minimizar o caos do gerenciamento das informações corporativas


e, ao mesmo tempo, ajudar as organizações a reduzir significativamente os gastos
com armazenamento, os fornecedores de storage começam a oferecer soluções para
a nova onda desse mercado: a organização das informações tendo como base sua
importância para os negócios, em determinado momento.

Os nomes ainda variam – alguns fornecedores chamam de hierarquização, outros


preferem mais um acrônimo de três letras, o ILM (Information Lifecycle Management
– gerenciamento do ciclo de vida da informação) –, mas o conceito é um só.
Identificar cada informação, avaliar o quanto é crítica para o negócio e a necessidade
de acesso rápido a ela e, finalmente, rever a infra-estrutura de storage, de forma a
permitir a alocação apenas dos dados mais importantes em mídias de alta
performance e, portanto, mais caras, deixando o restante em equipamentos mais
econômicos. Tudo isso feito de maneira dinâmica, automática e transparente para o
usuário.

Entre as tecnologias emergentes na área de storage, portanto, estão a virtualização,


já citada anteriormente, a Internet SCSI e o ILM (Information Lifecycle
Management). Ao lado de tecnologias já consolidadas como o NAS (Network
Attached Storage) armazenamento conectado à rede. As vantagens de seu uso
incluem armazenamento compartilhado, habilidade de adotar diferentes protocolos
de arquivos para diferentes ambientes e redução de custos administrativos,
resultando em menor custo total de propriedade.

Já a SAN (Storage Area Network), rede de armazenamento, pode ser utilizada para
conectar múltiplos servidores e é indicada para organizações com necessidade de
storage de larga escala e um arsenal complexo de dispositivos de armazenamento. O
ILM, gestão do ciclo de vida da informação, é um recurso que contribui para o
gerenciamento de storage de forma inteligente e é fundamental para a demanda
atual. Estudos mostram que os dados da maioria das aplicações não precisam
necessariamente estar disponíveis para acesso online, na medida em que o tempo
passa.

-4-
Exemplo disso são as mensagens arquivadas na caixa postal do correio eletrônico.
Normalmente, após 45 dias do recebimento, essa mensagem, bem como seus
anexos, não precisam consumir espaço em um disco mais rápido e,
conseqüentemente, mais caro. Assim, caso a empresa necessite comprar discos, a
adoção da gestão das informações permite a aquisição de discos mais lentos (e mais
baratos), que vão receber automaticamente as informações utilizadas com menos
freqüência, reduzindo sensivelmente os novos investimentos em storage.

Entre os protocolos de comunicação figuram o FC (Fibre Channel) – uma das


tecnologias mais comercializadas para transmitir dados entre dispositivos de
computador, adequada para conectar servidores de computadores a dispositivos de
armazenamento compartilhado. E o novíssimo iSCSI (Small Computer System
Interface) – protocolo emergente que oferece I/O por Ethernet e redes IP e que tem
as mesmas vantagens da SAN, mas usa protocolos de networking.

Esse protocolo é hoje apontado como a tecnologia que mais vai ajudar o
desenvolvimento do mercado de SAN. O FC/IP (Fibre Channel over IP) – junto com o
iSCSI, é também uma das principais abordagens da transmissão de dados de
armazenamento via redes IP. Também fazem parte desse pacote de tecnologias
emergentes as soluções de Disaster Recovery (Prevenção de desstres). Visto que o
armazenamento ocupa papel fundamental na estratégia de recuperação dos
negócios.

A minimização dos prejuízos provocados por um eventual desastre que se abata


sobre os sistemas de informação corporativos depende bastante das opções
estratégicas e das soluções adotadas pela organização na área de armazenamento.
As soluções centram-se cada vez mais na continuidade do negócio e na preservação
dos sistemas. A velocidade da recuperação de dados terá de ser entendida por toda a
estratégia de TI da corporação e como elemento central do próprio negócio.

STORAGE

Módulo 2 – Recursos Físicos

Não faz muito tempo, era possível armazenar dados em simples disquetes. Depois,
com a facilidade cada vez maior de acesso às informações, o volume de dados
corporativos cresceu e tornou-se estratégico para o sucesso dos negócios. Assim, o
armazenamento transformou-se em procedimento imprescindível para o
gerenciamento e a disponibilidade inteligente das informações dentro da
organização. Para essa operação, no entanto, são necessários diversos tipos de
mídia, ou seja, dispositivos de armazenamento. Estes podem ser divididos em três
grupos de unidades: magnéticas, ópticas e ópticas e magnéticas.

As fitas magnéticas foram muito úteis no início da década de 60, quando os


computadores eram comercializados com unidades de fitas cassete. Hoje, apesar de
-5-
terem acesso muito lento, elas ainda são utilizadas em alguns casos para fazer o
backup de informações que não precisam ser acessadas freqüentemente. As
unidades de fita de cartucho de ¼ polegada, conhecidas como QIC (quarter-inch
cartridge), funcionam para realizar backups de muitos discos rígidos.

Já as fitas streamer foram as primeiras memórias secundárias, usadas para


armazenamento de backups. A aparência desse tipo de fita magnética é similar à das
usadas em gravadores antigos. Ela é feita de material plástico e coberta por uma
substância magnetizável. Os dados são gravados nos chamados registros físicos
dessa mídia. Cada um deles é gravado em trilhas paralelas, que são divididas em
frames (quadros). Cada frame é o espaço para armazenar 1 byte. O espaço entre um
registro e outro é chamado de gap.

As fitas DAT formam a segunda geração das fitas magnéticas. Menores, mais fáceis
de armazenar e mais seguras, permitem um armazenamento maior de dados. Sua
grande capacidade (2 GB a 4 GB) torna essas mídias ótimas para backup de grandes
volumes de dados. Sua aparência assemelha-se à de uma fita de vídeo, em tamanho
menor.

Mídias removíveis

As mídias que serão tratadas a seguir são definidas por muitos como discos rígidos.
Mas, apesar disso, diferentemente dos outros discos, são removíveis e podem ser
transportadas. Elas são úteis para fazer backup ou transportar grande quantidade de
dados, uma vez que os disquetes possuem pouca capacidade e os discos rígidos não
podem ser transportados. A desvantagem é que o acesso torna-se um pouco lento.

O Jaz é uma dessas mídias. Sua capacidade chega a 2 GB e a taxa de transferência


média é de 2 MB por segundo. Assim, esse dispositivo é uma boa opção para fazer
backup de discos rígidos e não é muito utilizado para transporte de dados, mesmo
porque ele exige interface SCSI (Small Computer System Interface).

Com a necessidade de dispositivos de fácil transporte e com alta capacidade de


armazenamento, os “zipdisks” e os “superdisks”, por exemplo, surgem como boa
opção, cada vez mais difundida. Existem versões com capacidade para 100 MB (mais
utilizado) e 250 MB (com mais recursos, porém pouco difundido).

E ainda o velho e bom conhecido disquete, denominado como mídia flexível, o qual
foi criado na década de 70 e tornou-se o mais popular meio de armazenagem de
dados em pequenas quantidades. Hoje, com a avalanche de dados, ele passou a ser
substituído por outras mídias como, por exemplo, o CD (Compact Disk).

Os discos rígidos, também conhecidos como hard-disk (HD) ou winchester, estão


presentes em praticamente todos os computadores e são o meio mais rápido e com
maior espaço para armazenar as informações. O HD é um conjunto de discos de
-6-
alumínio, que utiliza a leitura e a gravação magnéticas. Fabricado dentro de uma
caixa de metal blindada a vácuo, possui, assim como os disquetes, divisão em trilhas
e setores. Cada disco possui duas faces, cada face tendo sua cabeça de
leitura/gravação exclusiva.

Unidades Ópticas

Uma unidade óptica é gravada utilizando um laser de alta potência. Com o laser, são
feitos furos (pits) em um disco matriz. As áreas não furadas entre os pits, são os
chamados lands (espaços). Como os pits têm refletividade diferente dos lands,
representa uma informação digital (0 e 1).

Para fazer a leitura de um CD-ROM (Compact Disk – Read Only Memory), um laser
na cabeça de leitura óptica do drive projeta um feixe de luz que penetra na camada
de plástico protetora do disco e colide com o alumínio reflexivo. Ao colidir com um
espaço (land), a luz é refletida de volta e é registrada como presença de luz (bit 1) e
as cavidades (pits) que não refletem a luz são registradas como ausência de luz (bit
0).

As unidades ópticas, no entanto, não sofrem alteração se expostas aos meios


magnéticos. Podemos dividir as unidades ópticas em CDs e em DVDs. Os CDs são o
tipo mais popular de unidade óptica e muito usados atualmente, principalmente para
multimídia. Eles têm capacidade de 650 MB (aproximadamente 500 disquetes), o
que faz com que sejam usados para jogos ou instalação de programas.

O CD-ROM é o tipo do CD que só serve para leitura. Ele já vem gravado de fábrica e
a única coisa a fazer com ele é utilizá-lo para a leitura de suas informações. Já o CD-
R (Compact Disk Recordable) foi criado em função da necessidade de armazenar
grandes quantidades de dados, que não cabem nos disquetes. Ele é virgem e por
meio de uma gravadora de CDs é possível gravar suas informações. Porém, ele só
pode ser gravado uma única vez.

Ele também é conhecido como Worm (Write Once Ready Many) e é muito usado na
gravação de programas piratas. Uma das aplicações atuais e mais utilizadas do CD-
Rmais é quando as informações precisam ser guardadas para efeito legal. Isto
porque esse recurso não permite a alteração do que ali estiver gravado, garantindo a
autenticidade das informações.

Existe ainda o CD-RW (Compact Disk Rewriteable), semelhante ao CD-R, pois possui
a vantagem de poder ser gravado e regravado diversas vezes. Porém, seu custo
ainda é alto.

Usando o mesmo princípio dos CDs, o DVD (Digital Versatile Disk) possui uma
capacidade muito maior de armazenamento, podendo chegar a 17 GB e uma
qualidade de gravação ainda maior. Hoje, o DVD-Rom tem sido muito utilizado para
-7-
a gravação de filmes que podem ser vistos pelo computador ou por um aparelho
específico de DVD. Eles dividem-se, seguindo o mesmo princípio dos CDs, em DVD-R
e DVD-RW.

As unidades ópticas-magnéticas são um novo tipo de tecnologia para o


armazenamento de dados e que pode vir a desbancar até mesmo os CDs – são os
MO (Magneto-Optical) disk. É uma tecnologia híbrida que combina os princípios
magnéticos dos discos e os princípios ópticos dos CDs. Podem chegar a armazenar
até 2 GB. Essa tecnologia combina gravação mais confiável e rápida a laser, com a
possibilidade de regravar várias vezes os dados no disco, permitida pela unidade
magnética. Os discos também têm aproximadamente o tamanho de 3,5 polegadas.

Dispositivos físicos

Entre os meios físicos disponíveis no mundo do storage, destacam-se ainda o Direct


Attached Storage (DAS), os discos Redundant Array of Independent Disks (RAID), o
ATA (Advanced Technology Attachment) e a arquitetura Blade Server. E também as
interfaces iSCSI (Internet Samall Computer System Interface) e ISCSI (Small
Computer System Interface).

O Direct Attached Storage são drives integrados ao gabinete do computador


conectados à CPU via PCI ou outro periférico. É diferente da NAS (Network Attached
Storage) e da SAN (Storage Area Network), unidades externas conectadas às
workstations e servidores rodando em rede. Com o DAS, cada servidor é dedicado ao
storage.

Para ficar claro, vale definir o NAS, que de forma sintética pode ser descrito como
armazenamento conectado à rede que fornece acesso a arquivos para usuários
conectados, utilizando protocolos de transporte em Ethernet e TCP/IP. Já as SANs,
permitem que diversos servidores compartilhem espaço em disco, a partir de um ou
mais disk array (matriz para discos de storage). As SANs fornecem aos servidores o
acesso ao armazenamento em bloco, usando o protocolo Fibre Channel.

No meio físico, as interfaces desempenham um papel importantíssimo para facilitar


ou mesmo propiciar a interoperabilidade – integração harmoniosa entre hardware e
softwares de forma a facilitar a comunicação entre eles.

Nesse contexto temos a interface iSCSI, que roda em redes padrão TCP/IP.

Uma pequena iSCSI pode ser construída no topo das redes existentes e usar
inclusive Windows ou servidores Linux como arrays remotos de armazenamento.
Grandes redes também podem se beneficiar do recurso, desde, é claro, que a iSCSI
colocou a SAN dentro do mundo dos custos mais acessíveis.

-8-
Já a interface de hardware SCSI possibilita a conexão de até 15 periféricos em uma
única placa que se interliga à placa mãe, usando PCI (Peripheral Component
Interconect – interconector de componentes periféricos). Os periféricos SCSI são
interligados e todos têm uma segunda porta para a conexão com o próximo
equipamento em linha. O host SCSI adaptadores estão também disponíveis com dois
controladores, suportando 30 periféricos.

O que é RAID?

Fundamental para os sistemas físicos de storage, o RAID (Redundant Array of


Independent Disks – matriz redundante de discos independentes) é um subsistema
de disco que provê tolerância a falhas. Trata-se de uma tecnologia que combina
vários discos rígidos (HD) para formar uma única unidade lógica, onde os mesmos
dados são armazenados em todos (redundância).

Em outras palavras, é um conjunto de HDs que funciona como se fosse um só. Isso
permite ter uma tolerância alta contra falhas, pois se um disco tiver problemas, os
demais continuam funcionando, disponibilizando os dados. O RAID surgiu há mais de
15 anos, resultado de pesquisas realizadas na Universidade de Berkesley, na
Califórnia, Estados Unidos.

Para que o RAID seja formado, é preciso utilizar, pelo menos, 2 HDs. O sistema
operacional, nesse caso, enxergará os discos como uma unidade lógica única.
Quando há gravação de dados, os mesmos se repartem entre os discos do RAID
(dependendo do nível). Com isso, além de garantir a disponibilidade dos dados em
caso de falha de um disco, é possível também equilibrar o acesso às informações, de
forma que não haja gargalos.

Além do RAID, o ATA (Advanced Technology Attachment) é considerado um dos


discos mais baratos do mercado. É o nome oficial que um grupo do American
National Standard Institute utiliza para o que a indústria de computadores chama de
eletrônica integrada do drive (IDE – integrated drive eletronics).

As opções, dependendo do perfil do cliente, passam também pelas NAS. As


vantagens de seu uso incluem armazenamento compartilhado, habilidade de adotar
diferentes protocolos de arquivos para diferentes ambientes de usuários e redução
de custos administrativos, resultando em menor custo total de propriedade.

Blade Server - Outro recurso físico bastante usado em data centers são os Blade
Servers. Uma arquitetura de múltiplos servidores em um único chassi, que
economiza espaço e aprimora o gerenciamento. Em rack ou gabinetes individuais, os
chassis permitem melhor suporte. Cada blade tem seus próprios CPU, memória e
disco rígido, permitindo também bons recursos de redundância.

-9-
A indústria está oferecendo cada vez mais servidores blade. A participação desse
segmento de servidores no mercado mais do que dobrou em 2004, alcançando 450
mil unidades, 7% do mercado, com previsão de chegar a 40% até 2006, segundo o
instituto de pesquisa IDC. O rápido avanço dos sistemas de gerenciamento,
tecnologia de cluster e a contínua desagregação dos servidores em pequenos
equipamentos e componentes permite prever o crescimento dos servidores blades e
sistemas modulares.

Protocolos - Para que os dados passem ou sejam transmitidos de um meio para


outro, ou seja, trafeguem, eles necessitam de interfaces, que foram tratadas
anteriormente, e também de protocolos. Portanto, o seu armazenamento nos meios
físicos terá de contar com a atuação de protocolos como IP, Fiber Chanel, Gigabit
Ethernet, entre outros.

Com a popularização do protocolo Fibre Channel, produtos como SAN e NAS


ganharam aceitação entre os diretores de TI, porque oferecem melhor performance e
armazenamento, além de uma maior escalabilidade, fazendo com que os produtos
DAS diminuíssem sua presença no mercado. Enquanto em 1998 o DAS tinha 88% de
participação, no ano passado essa porcentagem caiu para 56%, de acordo com a
IDC. Até 2006, a previsão dos especialistas é uma queda para 26%.

O protocolo Fibre Channel (FC) é uma das tecnologias mais comercializadas para
transmitir dados entre dispositivos de computador e adequada para conectar
servidores de computadores a dispositivos de armazenamento compartilhado. É o
protocolo de alta velocidade usado para desenvolver as chamadas SANs. Embora
possa ser usado de forma geral na rede, carregando ATM, IP e outros protocolos, o
FC no início suportava tráfego de dados SCSI dos servidores para os disk arrays,
serializando comandos.

Hoje, o FC apenas suporta conexões de fibra single e multimodo, além de cabo


coaxial. Pode ser configurado ponto a ponto, via switch, com ou sem hub e conectar-
se até 127 nós. Suporta transmitir até 2.12 GB em cada direção e usa o protocolo
Gigabit Ehternet. O FC está evoluindo para o FC/IP (Fibre Channel over IP) que,
junto com o iSCSI, é uma das principais abordagens da transmissão de dados de
armazenamento via redes IP.

O protocolo IP Storage - O IP Storage pode ser usado para desenvolver uma SAN,
junto com o Gigabit Ethernet. Tradicionalmente, as SANs eram desenvolvidas usando
o transporte Fibre Channel porque esse procedimento provia velocidade aos gigabits
comparados de 10 Mbps Ethernet a 100 Mbps Ethernet, usados para construir redes
de mensagens. Os equipamentos com FC são mais caros e a interoperabilidade entre
diferentes fornecedores não é totalmente padronizada.

O IP tornou-se mais comum e, consequentemente, o ambiente IP Storage


popularizou-se em SANs, estendendo a tecnologia. As SANs consolidaram-se como

- 10 -
uma tecnologia promissora, simples e de fácil gerenciamento em um grande e
complexo sistema de storage. Mas aí vem o alto custo: a primeira geração das SANs
depende de redes FC, que requerem novos cabos, aprender novas ferramentas e
switches especializados. Infelizmente isso tornou as SANs difíceis de justificar, a não
ser para grandes instalações de storage.

VOIP

Módulo 3 – Virtualização

A virtualização de storage – armazenamento em rede, de forma que os dados


guardados possam ser compartilhados – é um conceito usado para definir uma infra-
estrutura inteligente. Nela, dispositivos diversos, com características,
funcionalidades, performance, níveis de serviço e até mídia física diferenciadas são
apresentados ao servidor e às aplicações como se fossem virtuais. Assim, simplifica-
se o gerenciamento e diminui-se a complexidade da alocação e de configuração.

Essa modalidade nada mais é do que o processo que permite consolidar vários
dispositivos físicos de diversos fabricantes e reorganizá-los em agrupamentos
virtuais, lógicos ou unidades de armazenamento. Essas unidades são apresentadas
ao sistema operacional (SO) para utilização pelos aplicativos e usuários finais
determinados. Apesar do crescente interesse na virtualização do armazenamento, o
conceito não é novo. Definido há quase 20 anos, na computação dos mainframes, a
tecnologia está descobrindo uma nova oportunidade e importância com a emergência
das SANs (Storage Area Networks), dispositivos de armazenamento de dados em
rede.

A área é tão importante no mercado de storage que, em 2007, duas grandes


empresas anunciaram investimentos nessa tecnologia: Sun Microsystems e Dell. A
Sun anunciou sua entrada no mercado de virtualização no final de 2007 com a
plataforma batizada de xVM composta inicialmente de um servidor e do sistema de
gerenciamento Ops Center. Já a Dell apostou na compra da EqualLogic, fornecedora
de storage area network (SAN) por US$ 1,4 bilhão em novembro de 2007. A compra
é considerada como um impulso para os esforços da Dell em oferecer virtualização
aos seus clientes.

A virtualização permite o uso da infra-estrutura, diminuindo sua ociosidade e


tornando possível a implementação da Information Lifecycle Management (ILM) em
todas as aplicações, independente da infra-estrutura. Alguns requisitos são
essenciais para implementá-la: escalabilidade, gerência ponto-a-ponto,
interoperabilidade, aderência a padrões da indústria e a tão sonhada redução do
custo total do armazenamento, proporcionando economia real perante as soluções
existentes.

- 11 -
Além do compartilhamento das SANs, os benefícios da virtualização também são
observados na arquitetura de armazenamento de dispositivos conectados fora da
rede – Direct Attached Storage (DAS). Seja em mainframe ou em ambientes de
sistema aberto, as tecnologias de virtualização são utilizadas para simplificar e
centralizar o gerenciamento e fornecer a flexibilidade no atendimento à demanda do
acesso aos dados, onde quer que estejam.

Esse recurso elimina as restrições físicas, ao criar uma camada acima do


armazenamento físico, que é acessível como um agrupamento lógico de storage e
que pode ser alocado quando e onde for necessário. Essa camada oferece a
capacidade de combinar dispositivos físicos heterogêneos em entidades virtuais
projetadas para atender aos requisitos individuais dos aplicativos.

Por exemplo, um agrupamento virtual de armazenamento pode ser criado utilizando-


se os discos físicos mais rápidos, a fim de otimizar o desempenho para um aplicativo
de missão critica, sem modificar a implementação do hardware. Na medida em que o
novo hardware se torna disponível ou que as características do aplicativo se
modificam, as alterações na camada física podem ser realizadas sem interromper o
acesso aos dados no dispositivo lógico. As tecnologias de virtualização de
armazenamento estão evoluindo, incluindo soluções de banda interna e externa (in-
band e out-band), com base em storage e em hospedagem.

Soluções de armazenamento e hospedagem

As soluções com base em armazenamento foram as primeiras tecnologias de


virtualização e permitem que vários servidores compartilhem o acesso a dados em
um único (e grande) array (matriz) individual. O lado negativo é que esses
servidores não podem acessar os dados além de seu próprio array. Além disso, os
usuários correm o risco de ficar limitados a soluções que dependem dos fabricantes,
com base nas restrições de compatibilidade de hardware do array mais amplo ou dos
servidores diretamente conectados. A virtualização com base no armazenamento
pode, então, ser mais dispendiosa do que outras alternativas.

As soluções baseadas em hospedagem possibilitam os discos dentro de vários arrays,


e de diversos fabricantes, sejam representados como um agrupamento virtual para
um único servidor host. Isso permite que os profissionais da tecnologia da
informação, por exemplo, tenham maior flexibilidade de habilitá-los como
independentes dos fabricantes de soluções de armazenamento, embora ainda
desfrutem dos benefícios da administração de storage centralizada a partir de um
único console.

Embora os dados estejam concentrados para acesso apenas por meio de um único
servidor, este pode tornar-se altamente disponível, garantindo que os dados sejam
utilizados. A desvantagem surge quando vários servidores exigem o acesso

- 12 -
compartilhado aos mesmos dados. Nesse caso, a duplicação dos dados ou outros
métodos de virtualização de armazenamento podem atrapalhar a aplicação.

Um desafio na evolução da virtualização do armazenamento era garantir que os


discos de vários arrays e de diversos fabricantes fossem representados virtualmente
para mais de um servidor. Essa possibilidade, no entanto, pode ser obtida com uma
solução de banda interna (in-band) chamada de virtualização simétrica. Assim como
as soluções com base em host, esse tipo de virtualização também é independente do
fabricante e pode ser utilizado nas SANs e nas redes locais. No entanto, nessas
circunstâncias, é fundamental que o dispositivo de banda interna tenha a
escalabilidade para atender as crescentes exigências do gerenciamento de aplicativos
e de armazenamento.

Já as soluções out-of-band fornecem a capacidade de virtualização simétrica, mas


movem o dispositivo de armazenamento para fora do caminho de dados. Essa
modalidade também está melhor posicionada para utilizar a capacidade de conexão
rápida de um switch SAN. Mas para conseguir esses benefícios, é necessário que o
software seja executado nos próprios servidores de aplicativos, para a comunicação
do dispositivo virtual. Isso pode aumentar a utilização da CPU e tornará as
atualizações de sistemas operacionais mais precárias quando essas soluções
estiverem instaladas.

Todas as diferentes tecnologias de virtualização são úteis, e a escolha depende do


ambiente de TI e dos requisitos corporativos específicos do usuário final. Ao
selecionar uma solução, é importante entender o fluxo de dados de um usuário, para
garantir que as atuais necessidades de negócios sejam supridas, enquanto é mantida
uma capacidade de adaptação às novas exigências que surgirão na medida em que
as tecnologias continuam a evoluir e se modificar. É fundamental haver uma camada
de virtualização de armazenamento que ofereça compatibilidade, em vez de
limitações.

Uma vez que os dados não estão associados a dispositivos específicos de hardware,
a virtualização permite um nível sem precedentes de flexibilidade no uso de recursos
de storage, a fim de atender as exigências referentes aos aplicativos e aos usuários
finais. Os dispositivos de armazenamento virtual não estão restritos pelas limitações
de capacidade, velocidade ou confiabilidade dos dispositivos físicos que os incluem. A
aplicação de software de armazenamento inteligente na camada de virtualização
proporciona um meio de resolver os desafios funcionais de storage, sem
comprometer a necessidade de disponibilidade dos dados.

O provisionamento consiste em fornecer aos usuários ou aplicações a quantidade e o


melhor tipo de armazenamento, no momento certo. A virtualização torna muito mais
fácil esse processo. Somada à administração centralizada, permite que modificações
na camada de armazenamento físico sejam efetuadas sem a interrupção do acesso
aos dados, a fim de fornecer, continuamente, a melhor qualidade de serviços de

- 13 -
armazenamento em tempo real. Dessa forma o usuário acessa com mais rapidez os
dados de que necessita.

Redes virtuais

Um dos benefícios da tecnologia iSCSI (internet small computer system interface) –


é usar protocolo emergente que oferece I/O por Ethernet e redes IP com as mesmas
vantagens da SAN, que usa protocolos da infra-estrutura de rede. Entretanto, esse
benefício é facilmente ultrapassado. Se a rede tem ainda switches gigabit de reserva,
o benefício da iSCSI é imediato. Mas muitas redes são superdimensionadas,
envolvendo a interface SCSI e o transporte de grandes quantidades de dados. O
cliente não vai precisar gastar muito em upgrades para administrar o tráfico
adicional.

O uso da infra-estrutura existente é muito importante. Fazer upgrade de uma rede é


menos caro que desenvolver uma e fazer uma SAN valer a pena para uma pequena
rede que não justifica o alto preço do Fibre Channel (FC). O mercado vai puxar para
baixo os custos de uma iSCSI, ao ponto de substituir as FC na tecnologia SAN. A
tendência é os fabricantes oferecerem servidores com bandas para a tecnologia
iSCSI, assim como fizeram com o FC, oferecendo 1 U e servidores blade integrados
com portas iSCSI.

Um servidor departamental pode contar com apenas um link de 100 Mbps Ethernet
para o storage e tráfico de aplicações, mas um servidor de banco de dados pode
facilmente requerer uma conexão Gigabit Ethernet apenas para o tráfico de storage.
E se há muitos desses servidores, o custo da iSCSI pode aproximar-se da FC. Uma
rede IP e Ethernet, portanto, tem a vantagem de ser reutilizada se no futuro o
projeto de SAN for abandonado. Os custos podem ser ainda maiores se o tráfico de
storage ficar em cima da WAN (rede que interliga dispositivos em locais remotos).
Entretanto, a iSCSI ainda integra as duas alternativas.

A virtualização pode ser executada em blocos ou em níveis de arquivo. Nas redes de


storage, os blocos são associados às SANs Fibre Channel e os arquivos de storage às
Network-Attached Storage (NAS). Em uma típica virtualização em bloco, os dados
são mapeados em um ou mais discos. O bloco requerido pode ser distribuído em
múltiplos arrays de storage, mas parece para o usuário residir em um único drive.

Na vitualização de arquivo, múltiplos objetos podem parecer como apenas um


arquivo. Esse tipo de virtualização provê um nível de abstração entre os arquivos e
sua localização física. Nessa abordagem, um espaço comum é criado, que permite ao
usuário acessar diferentes arquivos sem alterar o nome de sua raiz. O nome do
espaço de arquivo aparece ao usuário como um único e grande arquivo de sistema.

O arquivo também pode ser virtualizado. Quando aplicado à estrutura de blocos de


storage é convertido em objetos ou arquivos. Estes podem residir em servidores ou
- 14 -
em sistemas NAS (Network Attached Storage). A vistualização de sistemas de
arquivo e o metadado dos sistemas de arquivo individual podem ser combinados
para formar uma extensão virtual desse sistema.

No caso da NAS, usuários podem acessar arquivos, primeiramente usando os


protocolos Network File System (NFS) e Common Internet File System (CIFS) sem
estarem familiarizados com os aspectos físicos ou lógicos da infra-estrutura.
Idealmente, o sistema de arquivo distribuído deve ser capaz de se espalhar para
múltiplos dispositivos NAS, permitindo escalabilidade e acesso fácil dos dados pelos
usuários, independente de onde estejam. Essa é a essência da virtualização.

Desafios lógicos

A virtualização pode também ser implementada em diferentes dispositivos, como


arrays, usando software de virtualização residente neste dispositivo. Esse software
permite o desenvolvimento de pools de storage em múltiplos arrays.

Com o storage baseado na virtualização, as unidades lógicas são mapeadas nos


dispositivos físicos via algorítimos ou usando uma abordagem baseada em tabelas.
Basicamente, volumes tornam-se independentes dos dispositivos onde residem.
Dependendo da solução usada, o storage baseado na virtualização pode incluir RAID,
espelhamento disco a disco e replicação de dados.

Enquanto a área de storage baseado em virtualização favorece bons resultados para


os fornecedores de disk array além de ser relativamente fácil de administrar,
sistemas com essa abordagem ainda são tipicamente proprietários e limitados
quanto à interoperabilidade entre os fornecedores de hardware e de software.

Dispositivos como bibilioteca de fitas podem também ser virtualizados. Na


virtualização das fitas, os discos de storage são feitos para parecerem drives de fita.
Os discos tipicamente front end de biblioteca de fitas permitem uma função de cache
para que os dados possam ser acessados mais rapidamente. Quando o dado não é
mais acessado freqüentemente pelos usuários, ele pode ser transferido para a fita.
Entretanto, o administrador deve certificar-se de que existe uma quantidade
suficiente de fitas para receber os dados sem comprometer a performance. Algumas
soluções de virtualização de fitas são também restritas a bibliotecas proprietárias.

Enquanto a virtualização cai como uma luva para as corporações que querem
otimizar a utilização de storage, alavancar o gerenciamento, provisionar e
administrar sistemas de armazenamento e reduzir os custos, existem alguns
obstáculos a serem ultrapassados. O primeiro inibidor dessa modalidade é a
inexistência de padrões para a tecnologia com a falta de interoperabilidade entre os
produtos voltados para a virtualização.

- 15 -
Ainda há muita confusão gerada pela virtualização e o que ela pode trazer. Os
potenciais usuários têm sido hesitantes em investir em produtos. Apesar da
existência de múltiplas abordagens, a virtualização provê flexibilidade mas pode
também causar problemas durante seu uso se a corporação escolher uma solução
que, mais tarde, torne-se obsoleta. Mas o mercado não tem dúvidas de que uma
verdadeira política baseada na automação do storage requer a maximização do uso
da virtualização.

Iniciativas de interoperabilidade

Os fornecedores de tecnologia se têm preocupado com a interoperabilidade. As


iniciativas da EMC, Cisco, Brocade e McData, por exemplo, apontam para a
implementação de uma infra-estrutura de virtualização escalável, aberta,
interoperável e com custo total menor do que uma SAN tradicional. O primeiro passo
foi unir os principais fornecedores de switches de SAN e armazenamento para,
juntos, desenvolverem um conjunto de interfaces de programação de aplicações – as
APIs padrão.

Estas API, ainda em estudo, formarão um padrão para todos os switches inteligentes
denominado Fabric Application Interface Standard (FAIS -Padrão para Interfaces de
Aplicações em Fabric = rede) e já contam com um comitê do American National
Standards Institute (ANSI – Instituto Americano de Padrões Nacionais), o
denominado T11.5, parte do subgrupo de comitês que desenvolvem os padrões para
Fibre Channel.

O padrão FAIS começa por separar o controle do processamento da operação de


mapeamento/virtualização em um equipamento denominado CPP – Control Path
Processor – ou Processador do Controle de Caminhos. É no CPP onde são executadas
as aplicações de armazenamento, tais como réplicas ou cópias entre volumes,
migração de volumes dinâmica e mapeamento virtual/físico/array.

O padrão FAIS está sendo adotado com suporte aos principais dispositivos de
armazenamento do mercado, de diferentes fornecedores (EMC, HDS, HPQ, IBM), aos
principais sistemas operacionais (Windows, Linux, Solaris, AIX, HP-UX e VMware) e
funciona com os switches inteligentes da Cisco, Brocade e McData. Outro ponto
importante do padrão FAIS é que tanto os switches e dispositivos de armazenamento
quanto as próprias aplicações podem ter fornecedores distintos e, por ser um padrão
baseado em uma API aberta, a interoperabilidade entre os distintos softwares e
hardwares está assegurada.

Para o usuário, isso significa proteção ao seu investimento, independência de


fornecedor, múltiplas alternativas de hardware e software e a possibilidade de
implementar a virtualização de forma gradual, adequada às necessidades da
empresa.

- 16 -
STORAGE

Módulo 4 – Gerenciamento

Mundialmente, o segmento de software de gerenciamento de storage tem crescido


em torno de 14% ao ano, segundo a International Data Corporation. Mas há
analistas que apontam a falta de cultura, assim como problemas com padrões de
mercado e, conseqüentemente, falhas de integração, como obstáculos a evolução do
mercado.

Parte dos gastos é atribuída pela IDC ao desejo das corporações de controlar o uso
do armazenamento dos funcionários. Além disso, as empresas adotam as soluções
como meio de reduzir custos, melhorar a eficiência e utilizar melhor as ferramentas
de armazenamento. Os software de gerenciamento de storage permite simplificação
e automatização para redes complexas como as SANs (Storage Area Networks).

Apesar disso, o mercado brasileiro não tem o hábito de investir nesse nicho de
gerenciamento, priorizando investimentos em outras áreas. Mesmo havendo
otimização de pessoas e infra-estrutura, os benefícios não são vistos imediatamente,
por isso o software de gerenciamento de storage é muitas vezes deixado em
segundo plano. Em muitas companhias, os executivos de tecnologia e
administradores de dados estão encarando uma explosão de dados em suas redes e
a necessidade premente de administrá-los.

Com um ambiente de tecnologia cada vez mais complexo e uma situação econômica
e de negócios em constante modificação, as organizações de TI estão
sobrecarregando seus profissionais. Empregar estruturas de gerenciamento de rede
de armazenamento alivia a carga da interoperabilidade e a complexidade de
gerenciar redes de vários fabricantes.

Amadurecimento do mercado

Fornecedores como IBM, Veritas, EMC, HP, StorageTek e Computer Associates estão
empenhados em fornecer uma única interface de gerenciamento para as complexas
tarefas envolvidas no controle de um crescente número de redes de armazenamento.
Dessa forma, diminui a carga dos administradores, liberando tempo para que eles
possam trabalhar estrategicamente.

Uma estrutura de gerenciamento de storage que seja independente de hardware


possibilita às organizações de TI gerenciar, de modo pró-ativo, todo o seu ambiente
de redes de armazenamento. Essas estruturas abstraem a complexidade de
dispositivos para além da rede e permitem que o administrador se dedique a
preocupações estratégicas como aumentar a utilização do armazenamento e a
melhoria dos serviços.

- 17 -
Não faz muito tempo, as decisões sobre armazenamento e operações em rede eram
simples. Havia poucas opções, um número menor de fabricantes e poucas
tecnologias para escolher. Atualmente, existem mais fabricantes, mais metodologias
de armazenamento conectadas em rede e novas tecnologias. Hoje, há muitos meios
para utilização de redes de armazenamento.

Independentemente do tamanho da companhia, uma rede de armazenamento bem


construída e bem gerenciada pode aumentar a eficiência não apenas para a
companhia, mas também para as organizações de TI dentro da empresa. O conceito
de uma rede de armazenamento é simples: conectar servidores corporativos a um
agrupamento centralizado de discos, facilitando a administração, aumentando o
desempenho e tornando o backup de dados mais confiável. É a chamada
virtualização de storage, que já foi tratada anteriormente.

Por exemplo, uma SAN (Storage Area Network) típica consiste na rede de
dispositivos de alto desempenho, mas complexos, que compõem o caminho dos
dados. Um grupo de dispositivos altamente inteligentes, incluindo HBAs (adaptadores
de barramento host), comutadores e vetores de armazenamento compõem as atuais
redes de armazenamento. Para ter controle desses dispositivos são necessários os
softwares de gerenciamento.

Existem muitos fabricantes que fornecem soluções de NAS (Network Attached


Storage) e SAN para as redes de armazenamento, mas poucos oferecem uma
solução completa do controle desses dados, fazendo da interoperabilidade e do
efetivo gerenciamento das redes de armazenamento um desafio.

Gerenciamento básico

Muitos administradores controlam e fornecem seus recursos de armazenamento


utilizando planilhas e relatórios de inventário que são imediatamente desatualizados.
Uma estrutura de gerenciamento de rede de storage elimina essa tarefa manual,
descobrindo automaticamente as conexões físicas e lógicas para a rede de
armazenamento, exibindo as informações em um mapa gráfico de topologia e
conectando os dados em múltiplos relatórios.

As redes de armazenamento são ambientes complexos que envolvem muitos


componentes, incluindo clientes, servidores de aplicativos, comutadores, hubs e
dispositivos de armazenamento. Na medida em que uma rede de storage evolui e
seu tamanho aumenta, torna-se cada vez mais difícil identificar precisamente todos
os componentes e as relações físicas entre eles.

Além disso, o mapeamento da visualização lógica (armazenamento virtual) aumenta


a complexidade, porque não existe uma relação física direta óbvia. É crucial para os
administradores ter as visualizações físicas e lógicas disponíveis em uma topologia
que identifique facilmente todos os componentes, assim como suas relações físicas.
- 18 -
Um recurso importante de qualquer estrutura de gerenciamento de armazenamento
é a capacidade de controlar os dados sobre desempenho e históricos em tempo real,
para os parâmetros de níveis de serviço, como conectividade, espaço disponível e
tempo de acesso aos dados.

Utilizando inteligentemente todos os recursos de armazenamento disponíveis, os


administradores de TI estão em condições de tomar decisões rápidas, empregando a
elaboração de relatórios integrados a partir do controle e do gerenciamento de
recursos. Ao fazer isso, os administradores podem monitorar seus ambientes e estar
preparadas para fazer modificações instantaneamente.

Diz-se que um gerenciamento é avançado, quando ele proporciona o controle de


uma forma inteligente. Uma vez que os administradores se beneficiam dos recursos
de visualização e elaboração de relatórios em uma estrutura de gerenciamento, eles
podem começar a utilizar mais recursos, como segurança, fornecimento de
armazenamento e gerenciamento pró-ativos.

Garantir que os aplicativos tenham os recursos de armazenamento de que


necessitam significa fornecer storage seguro, desde vetores à dispositivos de backup
e aos hosts dentro da rede de armazenamento. Uma boa estrutura avançada de
gerenciamento de storage oferece armazenamento integrado, dividindo por zonas
desde os vetores de armazenamento aos hosts, por meio de assistentes fáceis de
usar.

Os assistentes diminuem a complexidade e facilitam as tarefas de gerenciamento de


armazenamento. Recursos avançados também devem oferecer serviços que
garantam aos aplicativos mais importantes uma boa qualidade de serviço.
Ferramentas permitem aos administradores procurar e alocar o armazenamento por
atributo, proporcionando controle inteligente do ambiente.

Associação completa

As estruturas de gerenciamento de redes de armazenamento permitem às empresas


a flexibilidade necessária para responder às prioridades de negócios, que sempre se
modificam. Utilizar todos os recursos de uma poderosa estrutura de gerenciamento
de rede de storage permite que as organizações respondam rapidamente e
modifiquem a alocação de recursos, minimizando o impacto dos custos nos negócios.

Uma estrutura básica de gerenciamento deve fornecer aos administradores da


tecnologia da informação a capacidade de monitorar a performance de suas redes de
armazenamento. As soluções de administração de storage precisam efetuar o
controle ativo dos dados, que, por sua vez, possibilita aos administradores de TI
estabelecerem políticas de monitoração do desempenho de forma pró-ativa, em vez
de reagir aos problemas na medida em que eles ocorrem.

- 19 -
O gerenciamento pró-ativo leva a uma maior consistência e eficiência do serviço. Os
administradores geralmente agem de modo reativo, quando ocorre um caso de falta
de energia ou de quebra de um equipamento, podendo, por vezes, não seguir as
políticas estabelecidas.

Uma boa estrutura de gerenciamento de armazenamento deve possibilitar que as


companhias se adaptem a um ambiente tecnológico em constante mudança,
proporcionando flexibilidade para adotar novas tecnologias, à medida que elas são
lançadas no mercado. Os sistemas de storage precisam estar em condições de
explorar e aproveitar as novas tecnologias e arquiteturas, sem colocar em risco os
níveis de serviços.

O custo dessas tecnologias não se refere apenas ao de hardware – não se trata do


custo de um servidor ou de um vetor de armazenamento considerado a partir de
diferentes fabricantes ou mesmo de uma topologia diferente. O componente mais
importante na “relação custo e risco” é o custo de precisar treinar novamente
pessoas e reequipar com ferramentas apropriadas todos os processos estabelecidos.

É fundamental que os gerentes otimizem o uso de sua fonte de maiores custos: as


pessoas. Administradores altamente treinados precisam trabalhar estrategicamente
para projetar as melhores práticas que possam ser implementadas consistentemente
em toda a organização, por funcionários menos habilitados. O único meio de
conseguir isso de modo efetivo e eficiente é capacitando aplicativos projetados para
reduzir a carga e simplificar ambientes complexos.

Os clientes querem que o gerenciamento vá além das soluções tradicionais de


backup e recuperação de dados. Com as aplicações de e-business, o planejamento
para armazenar as informações precisam abranger confiabilidade, escalabilidade e
recuperação de desastres sem comprometer a infra-estrutura.

Ter efetivo controle das informações armazenadas, garantir aos usuários acesso aos
dados desejados em um prazo que condiz com suas necessidades e, principalmente,
reduzir significativamente os custos de armazenamento é a meta dos profissionais
envolvidos com storage nas corporações.

Esse é o conceito-chave trazido pelo ILM (Information Lifecycle Management) ou


gerenciamento do ciclo de vida da informação. Há interesse, e muito, por parte dos
usuários, mas a complexidade dos projetos e as barreiras tecnológicas ainda fazem
com que as iniciativas comecem a surgir timidamente no mercado local.

O ILM é uma estratégia de storage que prevê balancear o custo de armazenamento e


gerenciamento da informação de acordo com a importância da informação através do
tempo. Um dos reflexos disso é o crescimento da busca por soluções de SRM
(Storage Resource Management), uma das bases do conceito.

- 20 -
A verdade é que, seja em razão dos benefícios efetivos trazidos pelo gerenciamento
do ciclo de vida da informação ou pelo bombardeio sobre o assunto vindo de
fornecedores e consultores, é cada vez mais difícil encontrar um profissional de TI
que não esteja pensando, em algum nível, sobre o ILM.

Para o gerenciamento dos dados, são utilizados softwares de HSM (Hierarchical


Storage Management) e SMS (Storage Management Systems), além de
equipamentos baseados no conceito de virtualização. Essas ações trazem facilidades
à administração do ambiente. A tendência é chegar ao estágio de gerenciar todo o
storage de forma centralizada, com visão única.

Redução de custos

Sobre a possível revolução causada pela utilização dos conceitos de ILM, a redução
de custos é um grande apelo, pois é possível utilizar mais espaço do que está
disponível. É necessária uma análise cuidadosa das necessidades do cliente para que
se coloque o dado no meio mais adequado de armazenamento, uma vez que existem
muitas questões em jogo, como tempo de resposta, softwares de replicação,
criticidade da informação e arquitetura da solução, por exemplo, segundo os
especialistas de TI.

Para evitar a duplicação de informações e garantir a segurança dos dados é preciso


adotar, por exemplo, ferramentas de automação de backup que permitem a
sincronização agendada dos sites remotos ao banco de dados principal com cópia
apenas das informações efetivamente modificadas. Um dos principais desafios é
oferecer ao usuário a possibilidade de acessar informações quando ele precisa e
garantir que essa informação seja única.

Fugindo aos olhares utópicos dos analistas ou dos fornecedores, fica claro que a
proposta do ILM é válida e interessante e que atinge algumas das principais
preocupações dos usuários: otimização das operações e redução de custos. Por outro
lado, é fácil entender que a disseminação desse tipo de arquitetura de
armazenamento segue um ritmo muito mais lento do que o previsto por especialistas
e que a imaturidade da maior parte das soluções ainda faz com que os CIOs atuem
com cautela no momento de começar uma iniciativa do gênero.

Hoje, o mercado segue a trajetória de armazenamento de conteúdo não estruturado,


como e-mails, filmes e imagens. E os fornecedores se estão organizando para
atender o crescimento desse tipo de informação, tanto em software quanto em
serviços. Isso também inclui prover gerenciamento e estratégias para administrar o
ciclo de vida desses dados por meio do ILM.

Abrem-se, então, mais perspectivas de vendas em verticais como o setor financeiro


(mais especificamente os bancos) e também construção civil. O desafio é guardar as
informações mais críticas em mídias com maior custo, como discos de alto
- 21 -
desempenho e com alta capacidade de recuperação. Além disso, em outras (mais
acessíveis) com importância decrescente para o cliente. Outra tendência do setor
caminha para a oferta de serviços. A base do ILM é o arquivamento multicamada e
múltiplos dispositivos de armazenamento são integrados à tecnologia na forma do
tratamento dos dados definida pelo cliente.

Desafios

Uma SAN típica consiste de dispositivos de alto desempenho, mas complexos, que
compõem o caminho dos dados. Um grupo de dispositivos altamente inteligentes,
incluindo HBAs (adaptadores de barramento host), comutadores e vetores de
armazenamento compõem as atuais redes de armazenamento. E esses dispositivos
precisam de muito gerenciamento.

Existem muitos fornecedores de soluções de NAS e SAN para as redes de


armazenamento, mas nenhum deles oferece uma completa solução de caminho de
dados, fazendo da interoperabilidade e do efetivo gerenciamento das redes de
armazenamento um verdadeiro desafio.

Gerenciar os recursos disponíveis e atender as necessidades da empresa com um


orçamento cada vez mais apertado são os dois grandes desafios dos Chiefs
Information Officer (CIOs) no campo do armazenamento de dados. A extensa lista de
erros cometidos nas estratégias de storage no dia-a-dia é encabeçada pela não
utilização completa dos recursos existentes e acréscimo de novos equipamentos sem
conhecer ao certo o que a empresa já possui.

Gasta-se muito mais para gerenciar o que o CIO comprou do que o valor da compra.
O ponto central é conhecer as necessidades corporativas em vez de investir em
aquisição de hardware ininterruptamente, como é prática comum em muitas
empresas. Daí a importância do gerenciamento de recursos de storage.

O conceito abrange relatórios para classificar os dados, políticas de alocação,


automação, análise de tendência e planejamento de capacidade, gerenciamento
baseado na aplicação, monitoração de performance e até cobrança departamental
pelo uso de storage.

É necessário classificar dados. Existem arquivos que não são acessados normalmente
e que poderiam ser alocados em fita, no lugar de ocupar, por exemplo, 500 GB em
disco. Os fornecedores recomendam uma análise do histórico da empresa para saber
qual orçamento para storage será necessário no próximo ano. Outro ponto a ser
considerado é a definição de centros de custo dentro da empresa.

O atual quadro econômico agrava a necessidade de racionalizar o uso de recursos.


Esse procedimento é válido para a área de storage, cujo custo pode aumentar muitas
vezes se os dados forem armazenados indiscriminadamente, sem buscar a melhor
- 22 -
opção em cada caso. Nesse contexto, preservar o que já foi feito torna-se essencial,
assim como provar o retorno de qualquer investimento.

Investir no gerenciamento do storage, segundo os executivos de TI, é uma das


melhores opções para reduzir os custos de armazenamento. Entre as escolhas estão
sistemas de virtualização que permitem que hardwares de diferentes fabricantes
possam coexistir na mesma instalação, e funções de provisionamento dinâmico, para
utilizar os recursos disponíveis segundo as necessidades da empresa.

A missão de executar uma política de gerenciamento de storage varia de acordo com


a carteira de fornecedores de cada companhia. Quando a empresa adquire toda a
solução de um mesmo fornecedor, o trabalho torna-se mais fácil. Em contrapartida,
ela fica amarrada a uma só solução e com pouca margem de manobra na
eventualidade de o provedor de TI aumentar seus preços ou sair do mercado.

Se optar por múltiplos fornecedores, no entanto, surgem problemas de


incompatibilidade. A saída pode ser adquirir soluções especializadas de fornecedores
de software para integrar sistemas heterogêneos de storage e obter um ponto único
de gerenciamento.

Uma visão consolidada e centralizada do ambiente de storage é fundamental. É


preciso levar em conta a relação custo/benefício, especialmente para sistemas de
backup e recuperação de dados. O CIO precisa considerar duas variáveis: o tempo
que a empresa pode ficar parada e o orçamento disponível.

Será, portanto, uma decisão de negócios. Não é por outro motivo que estabelecer
uma política de gestão dos recursos de storage torna-se um item obrigatório na
agenda de médias e grandes empresas. A era da improvisação em armazenamento
de dados começa a ficar para trás. Também não é por outro motivo que os
fornecedores começam a colocar seu foco nos serviços, para ajudar os clientes a
definirem estratégias e políticas de storage mais adequadas ao seu negócio.

STORAGE

Módulo 5 - Mercado

O mercado mundial de software para armazenamento atingiu seu 15º trimestre


consecutivo de crescimento, chegando a US$ 2,8 bilhões no período encerrado em
junho de 2007. Segundo pesquisa da IDC, o resultado representa elevação de 10,4%
no ano. Entre as áreas em expansão constatadas pela IDC estão também aquelas
relacionadas à compliance, legislação, e HSM - hierarchical storage management -,
esta última divisão que apresentou elevação de 14,9%.

- 23 -
A líder de mercado no período foi a EMC, com receitas de US$ 685 milhões e 24,6%
de participação. Em termos de faturamento, a companhia apresentou elevação de
4,8%, mas em participação de mercado registrou baixa de 1,4 ponto percentual.
A segunda colocada nesse mercado foi a Symantec, com US$ 488 milhões em
receitas e 17,5% de participação. A IBM ocupou a terceira colocação, com US$ 362
milhões em faturamento e 13% do mercado. A Network Appliance, Hewlett-Packard
e CA ocuparam as posições seguintes, com 10,7%, 4,7% e 4,6% do mercado,
respectivamente.

A pressão na área regulatória, a exigência da guarda de dados e documentos para


fins legais, planos de contingência e a popularização da multimídia são alguns dos
segmentos que impulsionam os investimentos em storage. A primeira onda do
mercado de armazenamento de dados foi tornar o storage independente do servidor
e fazer aquisições em separado, momento em que surge o Fibre Channel. Hoje, a
tendência é a utilização de redes de armazenamento de dados ser mais aberta e
inteligente, com SAN (Storage Area Network) e NAS (Network Attached Storage), só
que apoiadas em softwares para adequarem-se melhor à arquitetura. Atualmente, os
sistemas de arquivos podem ser distribuídos pelas SANs e múltiplas máquinas,
controladas por um servidor..

A SAN – sistemas de armazenamento em rede – é a área mais quente do mercado,


prevê a Info-Tech.. Com a queda nos preços dos produtos, que estão ficando
“comoditizados”, essa tecnologia está se tornando mais acessível para empresas de
médio porte. Por isso, fornecedores como IBM, HP e EMC, assim como as novas
LeftHand Network, Compellent Technologies e a Intransa já oferecem produtos às
médias empresas com foco nessa tecnologia. A SAN pode ser definida como uma
rede de alta velocidade, comparada à LAN (Local Area Network), que permite o
estabelecimento de conexões diretas entre os dispositivos de armazenamento e
processadores (servidores) centralizados à extensão suportada pela distância das
fibras ópticas. A SAN pode ser vista como uma extensão do conceito que possibilita o
compartilhamento dos dispositivos de armazenamento entre servidores e
interconectados entre si. (Uma SAN pode ser compartilhada entre servidores ou
dedicada a um servidor local ou remoto).

Outra forte tendência do mercado é aliar o storage com a segurança. A aquisição da


Veritas pela Symantec comprova que há uma interseção entre as áreas de segurança
e armazenamento nas empresas. A aquisição envolveu valores de US$ 13,5 bilhões.
Para a Symantec a estratégia, além de combinar segurança e storage, é expandir
seus negócios e sua presença geográfica.

Foco nas pequenas e médias empresas

- 24 -
Os fornecedores de storage descobriram as pequenas e médias empresas.
Tecnologias antes só disponíveis para grandes instalações de armazenamento, agora
encontram seu equivalente para companhias desse nicho de mercado. Organizações
como a Brocade e a EMC voltam suas baterias para esse público. Para continuar seu
ritmo de crescimento no Brasil, a Brocade, fornecedora de plataforma SAN, prevê
oferecer soluções menores para pequenas e médias, com equipamentos de até 16
portas.

Outra estratégia é aliar a venda de storage à comercialização de servidores Blade.


No setor de telecomunicações, que é uma das áreas nas quais a Brocade quer
ampliar seus negócios, a base de clientes conta com nomes como Vivo, Brasil
Telecom, TIM e Telefônica Empresas.

A estratégia da EMC para o segmento de pequenas e médias empresas foi o


lançamento dos pacotes Express Solutions. Eles prometem facilidade de
implementação e flexibilidade para crescimento. Os lançamentos fazem parte do
conceito "Simplificando o Storage", que abrange uma gama de sistemas, software e
serviços. As novas soluções incluem produtos para armazenamento em rede; backup
e recuperação de dados; archiving; e proteção dos negócios, com backup remoto dos
dados.

No segmento de discos, a capacidade de armazenamento não pára de crescer. Para


atender o mercado de grandes repositórios de dados, a Hitachi Global Storage
Technologies começou a vender no final do ano passado disco rígido de 1Terabyte
(TB) para PCs. A nova tecnologia, segundo a empresa, baseia-se no método de
gravação perpendicular de dados, uma maneira de armazenar e organizar
informações dentro do disco rígido, fazendo com que cada partícula ocupe uma área
cada vez menor do disco

É crescente a necessidade de espaços maiores de armazenamento para vídeo e


música digital e os fabricantes estão cada vez mais atentos a esse mercado. A
Toshiba também anunciou lançamentos baseados na gravação perpendicular. Já está
previste para esse segundo trimestre de 2005 a chegada de drives de 40GB. Os
drives são similares aos hoje utilizados no iPod e dispositivos que tocam música
digital.

Tanto a fabricante de produtos eletrônicos Seagate Technology como a concorrente


Hitachi Global Storage (HGST) oferecem discos rígidos (HD) de apenas 2,5
centímetros de diâmetro, que podem armazenar 6 GB. A Seagate também oferece
modelos com diâmetro de 2,5 com capacidades menores: 2,5 GB e 5 GB. Já a Hitachi
oferece um aumento em 50% na capacidade de armazenamento do modelo que
comercializava anteriormente.

Para ter uma idéia de preços, no mercado internacional, a Hitachi comercializa esse
produto por US$ 299, 40% menor de quando o HD de 4 GB foi lançado. O novo

- 25 -
produto tem dimensões menores porque aloca dados de forma mais compacta na
superfície do disco, com densidade de 78 GB por polegada quadrada, contra 56,5 GB
por polegada quadrada do modelo anterior. Discos de dimensões reduzidas são
destinados a pequenos dispositivos, como players de música digital, em que 6 GB de
arquivos MP3 podem armazenar cerca de 150 horas, ou três mil músicas.

De acordo com a IDC, apenas as soluções de armazenamento que usam a tecnologia


de conexão iSCSI – famosa por ser mais barata e de mais simples instalação, foco da
atenção do SMB – vão movimentar 6 bilhões de dólares em 2011 no mundo inteiro,
contra os 600 milhões de dólares gerados pelo setor em 2006.

Os clientes hoje exigem que o gerenciamento vá além das tradicionais soluções de


backup e recuperação de dados. Informação é a moeda da economia do e-business,
e o planejamento para armazenar esses dados precisa abranger a confiabilidade, a
escalabilidade da solução e planejamento e a recuperação de desastres.

Para simplificar o gerenciamento de seus usuários, a StorageTek lançou os discos de


armazenamento D-Series e BladeStore/B-Series no padrão SMI-S v1.0.2 (Storage
Management Initiative Specification). O SMI-S foi desenvolvido pela SNIA (Storage
Networking Industry Association), para auxiliar usuários finais a reduzir
complexidade, custos administrativos e desafios de interoperabilidade na
implementação e no gerenciamento de ambientes de armazenamento.

As soluções de discos secundários de armazenamento foram desenvolvidas em


aliança com a LSI Logic Storage Systems, e as soluções de discos primários foram
recentemente aprovadas no programa de testes de conformidade da SNIA (CTP –
Conformance Testing Program) para conquistar a certificação SMI-S.

Também no segmento de discos externos, a IBM lançou o dispositivo de disco IBM


TotalStorage DS8000 e sua versão "baby", IBM TotalStorage DS6000. Sua
arquitetura permite o endereçamento de até 96 Petabytes (PB), capacidade
suficiente para armazenar toda a literatura do Congresso Americano por 2,4 mil
vezes. Em processamento, atinge mais de 3 milhões de operações por segundo
(IOPs).

Tecnologia Worm

Já vai longe o tempo em que a IBM anunciou seu primeiro drive de fita magnética
em 1950, lançando o conceito de armazenamento de dados no mercado. Apesar dos
discos, as fitas continuam firmes até hoje, crescendo exponencialmente em
capacidade e ultrapassando limites.

A StorageTek anunciou a ampliação de seu portfólio de soluções de tape drives.


Entre as inovações está a unidade de fita T9840C, que ganha uma interface FICON
nativa com conectividade e alto desempenho em ambientes MVS. O lançamento é
- 26 -
uma evolução da família de soluções da companhia, que hoje conta com uma base
de mais de mil produtos instalados no Brasil com T9840.

Segundo a empresa, o produto promete maior economia para o armazenamento de


dados críticos e para o acesso a informações em ambientes z/OS (MVS). A solução
conta com tempo médio de acesso a dados de 12 segundos com throughput de
dados a 30 MB por segundo para backup e 40 GB de capacidade por cartucho
(descompactado). O T9840C também vem com uma ferramenta Worm (Write-Once-
Read-Many), projetada para suportar as exigências de regulamentação referentes a
armazenamento de dados eletrônicos. Até porque, trata-se de uma mídia que não
permite regravação, mantendo, portanto, a integridade dos dados nela contidos.

Quem também aposta no Worm é a IBM, que incluiu a tecnologia na unidade de fitas
modelo 3592. A nova tecnologia possibilita a armazenagem de grandes quantidades
de registros eletrônicos, com segurança, por um longo tempo, visando o
cumprimento de requisitos regulatórios e de auditoria interna. Os novos cartuchos de
fitas com tecnologia Worm para IBM TotalStorage são voltados para clientes que
precisam armazenar grandes volumes de dados por longo tempo e devem garantir a
integridade e disponibilidade dessas informações.

A integradora Unitech, que representa a provedora de soluções de storage Adic no


Brasil, lança a terceira geração de unidades de fita Ultrium, chamada de Linear Tape-
Open (LTO). Entre os destaques da nova solução estão capacidades de
armazenamento de até 10 Pentabytes (PB), assim como transferência de
informações com velocidade de até 50 TB por hora.

A família de bibliotecas LTO-3 incorpora recursos inteligentes para automação de


fitas, bibliotecas compactas para grupos de trabalho e funções de consolidação de
backup corporativo e plataformas multirobótica. Além disso, faz verificação pró-ativa
do caminho, gerencia conectividade SAN, pode ser expandida de acordo com a
demanda e permite diminuir em cerca de 50% a necessidade de chamadas de
serviço.

Fusões e parcerias

A aquisição da Veritas Software pela Symantec por US$ 13,5 bilhões fortalece o
direcionamento da Symantec para oferta de um grupo "holístico" de produtos,
integrando soluções de segurança e backup de dados. A fusão mexeu com o mercado
de storage e não é para menos, já que o negócio envolve uma das maiores empresas
de segurança do mundo absorvendo outra de igual representatividade em sua área
de atuação.

Segundo a IDC, o mercado de segurança é, de longe, o mais promissor em todo


setor TI, aparecendo como prioridade de investimentos em qualquer pesquisa de

- 27 -
mercado. Para o instituto, as empresas tendem a investir em soluções completas, ao
invés de apostar em produtos específicos.

Isso deve alterar o cenário da demanda e fornecimento de hardware e software de


infra-estrutura na América Latina. De acordo com os analistas, a demanda não se
restringirá mais a soluções contra vírus e hackers, mas ambientes que incluem
hardware e software de storage e de gerenciamento de sistemas.

Para o lançamento de produtos na área de SANs também foi anunciada uma série de
parcerias.A Brocade, especializada em infra-estrutura para redes SAN (Storage Area
Network), e a EMC anunciaram o lançamento do EMC Connectrix DS-4100B. De
acordo com as parceiras, os diferenciais do produto são taxa de transferência de
dados de 4 GB por segundo e escalabilidade de portas sob demanda, proteção sobre
o investimento e compatibilidade com ambientes de storage preexistentes.

Baseado na família SilkWorm 4100 de switches da Brocade, o Connectrix DS-4100B


dá flexibilidade para empresas de médio porte, nas quais pode atuar como switch de
core, ou em grandes empresas, sendo capaz de transferir os dados das bordas para
um director SAN maior.

Para oferecer um portfólio mais completo, a IBM anunciou uma parceria com a
Network Appliance pela qual a Big Blue revende a linha da Network Appliance de
produtos de storage, concorrendo com a EMC. A NetApp vai utilizar o software Tivoli,
da IBM, para a gestão de armazenamento e recomendará os sistemas de fita da IBM
aos seus clientes. A IBM também comercializará a linha completa da NetApp.

A Sun Microsystems também é fornecedora importante no segmento. Anunciou o


Sun StorEdge Enterprise Storage Manager (ESM), software para administração
integrada de Storage Area Network (SAN), desenvolvido para ajudar os clientes a
diminuir o custo total de propriedade (TCO) do sistema de armazenamento.

A grande aposta do mercado de storage é a possibilidade de gerenciar o ambiente de


armazenamento virtualmente. Com a virtualização, os clientes podem criar "pools"
de armazenamento entre sistemas de diferentes fabricantes, possibilitando uma
visão unificada e consolidada da capacidade total de storage.

Atualmente, as empresas têm de gerenciar sua capacidade de armazenamento


dentro de cada sistema, o que impede o aproveitamento do espaço livre nos
diferentes discos de storage. A ausência de um gerenciamento global de
armazenamento gera onerosas movimentações de dados e perda de tempo e
investimentos.

Com foco nesse mercado, a IBM está disponibilizando mundialmente novas versões
de seu software de virtualização do ambiente de armazenamento, o IBM
TotalStorage SAN Volume Controller. A novidade é que o produto suporta uma maior
- 28 -
variedade de dispositivos de armazenamento de outros fornecedores, como EMC,
incluindo o Symmetrix e o CLARiiON e HDS, e já está disponível na web para
upgrades dos usuários atuais.

A Hitachi Data Systems Corporation oferece suporte à virtualização do Hitachi


TagmaStore™ Universal Storage Platform para os sistemas de storage EMC
Symmetrix séries DMX 800, 1000, 2000, 3000 e Symmetrix 3000, 5000 e 8000. Os
sistemas de storage EMC CLARiiON série CX também serão suportados.

A vantagem, segundo as companhias, é que os clientes EMC agora podem tirar


proveito do Universal Storage Platform, que aumenta a vida útil dos equipamentos
de armazenamento instalados, reduz os custos operacionais e de licenciamento de
software e oferece uma funcionalidade superior de software, como cópia remota
assíncrona e particionamento lógico, um recurso que não existe nos produtos EMC.

A solução de virtualização da companhia é baseada em controladora, não depende


de compatibilização entre as APIs dos fabricantes de switches e sistemas de storage
e muito menos de appliances ou roteadores no caminho dos dados. A Hitachi
estendeu os recursos internos de virtualização que desenvolveu durante os últimos
doze anos para o storage externo, aproveitando o conceito de portas de storage
virtual. Desde o anúncio do Universal Storage Platform, em setembro de 2004, a
Hitachi Data Systems realizou testes de virtualização com inúmeros sistemas de
storage das marcas HP, IBM, Sun e EMC.

Uma das soluções da Veritas para virtualização chama-se Storage Foundation for
Windows, um software de gerenciamento e virtualização que se integra às
plataformas Windows para gerenciar com flexibilidade e de forma simplificada o
armazenamento de dados nestes ambientes. O Veritas Storage Foundation 4.0 for
Windows inclui o gerenciamento e a virtualização de volumes, além disso agrega
funcionalidades para o Windows Server e Windows Storage Server.

Para esse mercado, a HP anunciou o aprofundamento de sua aliança com a Veritas,


fornecedora preferencial para soluções de gerenciamento de volumes e sistemas de
arquivos para ambientes de alta disponibilidade HP-UX 11i.

Storage online

Para a IDC, o backup online se tornou uma abordagem atraente para muitos
consumidores, com o advento de acesso de banda larga mais barata, maior nível de
conforto aos usuários e a crescente necessidade de negócios para segundos sites
para propostas de proteção de dados remotos.

- 29 -
A consultoria estima que a receita para o mercado emergente de storage online vai
alcançar 715 milhões de dólares até 2011, representando 33,3% de crescimento
entre 2006 e 2011. Cerca de metade dos gastos deste mercado serão feitos primeiro
na América do Norte, mas outras regiões vão aumentar sua participação até 2011,
segundo a companhia. A IDC também prevê que a adoção de consumidores e
pequenos negociantes vai dominar o mercado por vários anos com adoções lentas de
corporações de médio porte e empresas, o que vai fazer o faturamento crescer
lentamente até 2010.

Até lá, para a consultoria, práticas de serviços vão começar a se padronizar, a


competição vai impedir o aumento de preços, fornecedores vão consolidar e backups
online vão ter se tornado uma característica comum em alguns serviços online. A
consultoria diz que o armazenamento online começa sua transformação por uma
opção de backup simplificada para consumidores e pequenos negócios para uma
oferta que pode capacitar grandes negócios a sustentar operações de disaster
recovery, regulamentações de compliance e ajudar a frear custos de infra-estrutura
de armazenamento.

STORAGE

Módulo 6 - Implementação

No princípio, um computador era conectado diretamente ao seu setor de


armazenamento, e nenhum outro computador podia acessar os dados guardados lá.
Os aplicativos eram executados em um mainframe. Na medida em que a computação
cliente-servidor se desenvolveu, os aplicativos passaram a ser executados em
servidores dedicados, cada um com seu próprio armazenamento.

Logo depois, os usuários sentiram a necessidade de compartilhar esses dados por


meio de aplicativos. Assim, conforme a capacidade dos sistemas de disk array
(matriz para discos) foi crescendo, um único array podia suprir as necessidades de
armazenamento de vários servidores. Desse modo, nasceu o storage em rede.

O primeiro requisito – o compartilhamento de dados entre servidores – foi resolvido


pelo NAS (Network Attached Storage). Um dispositivo NAS fornece acesso a arquivos
para os clientes conectados, utilizando protocolos de transporte em Ethernet e
TCP/IP. As SANs (Storage Area Networks) permitem que diversos servidores
compartilhem espaço em disco, a partir de um ou mais disk arrays. As SANs
fornecem aos servidores o acesso ao armazenamento em bloco, utilizando a
tecnologia de Fibre Channel.

No paradigma do NAS, o sistema de arquivos que organiza blocos de


armazenamento em objetos que são convenientes para os aplicativos que lidam com
eles reside no dispositivo de armazenamento. Este é responsável por alocar espaço e
evitar que os clientes se atrapalhem quando fazem solicitações de acesso a arquivos.

- 30 -
No lado do host da interconexão, um cliente traduz as solicitações de entrada e de
saída de arquivos dos aplicativos em mensagens de rede, e as envia para o
dispositivo NAS, para que sejam executadas.

Em uma SAN, o sistema de arquivos está no lado do computador da interconexão. O


gerenciamento da capacidade de armazenamento para todo o sistema e os conflitos
entre as solicitações de acesso a dados dos clientes são resolvidos pela cooperação
entre os servidores conectados à SAN. Isso torna o software do lado do servidor
muito mais complexo do que com os dispositivos NAS.

Ao absorver o sistema de arquivos no dispositivo de armazenamento, o modelo NAS


facilita o acesso simultâneo aos dados, efetuado por diferentes tipos de
computadores. Atualmente, o NAS é o único meio amplamente disponível para tornar
os mesmos dados acessíveis para computadores de diferentes tipos.

Além disso, os protocolos de acesso a arquivos do NAS são muito genéricos e ricos
em funcionalidade. E também conectam-se a redes com base em TCP/IP, que são
projetadas para trabalhar com topologias de interconexão muito generalizadas.

Por causa de sua grande funcionalidade e generalidade, esses protocolos são


predominantemente implementados em software, que são executados mais
lentamente em comparação com o firmware e o hardware no nível do dispositivo,
geralmente utilizados para implementar protocolos de SAN.

O desempenho do acesso aos dados brutos pelo dispositivo NAS, portanto, tende a
ser menor do que o de outros dispositivos SAN semelhantes, e a utilização do
processador do servidor e do cliente para o acesso a dados tende a ser maior.

Em síntese, atualmente, o equilíbrio entre as vantagens e desvantagens é o


seguinte:

• Escolha NAS para obter simplicidade de compartilhamento de dados,


particularmente entre computadores e sistemas operacionais diferentes.

• Escolha SAN para obter o maior desempenho ‘bruto’ de entrada e de saída de


dados entre o cliente e o servidor. Esteja preparado para desenvolver algum projeto
e gerenciamento operacional adicional, a fim de fazer com que os servidores
cooperem (ou, pelo menos, não interfiram) entre si.

Em toda a jornada para o armazenamento em rede, é importante manter em vista as


vantagens que se quer obter. Os benefícios específicos que as redes de
armazenamento oferecem são diferentes em cada situação, mas com as redes de
storage, assim como com qualquer aspecto da tecnologia da informação, os
benefícios podem ser amplamente classificados. Veja como:

- 31 -
• A redução do custo do fornecimento de serviços de informação atuais.

• O fornecimento ou a habilitação de novos serviços, que contribuem positivamente


para os objetivos corporativos em geral. As redes de armazenamento oferecem
amplas oportunidades para que um departamento de serviços de informação ofereça
ambos os tipos de benefícios. Por exemplo, no setor de economia de custos.

• Se todo o armazenamento online for acessível por todos os computadores, então


nenhum armazenamento temporário extra é necessário para organizar os dados que
são protegidos por um computador e utilizados por outros. Isso pode representar
uma substancial economia de custos, em termos de capital.

• Da mesma forma, se os drives de fita e manipuladores de mídia robotizados


puderem ser acessados diretamente por todos os computadores, será necessário um
número menor desses dispositivos caros e que não são utilizados com tanta
freqüência, em toda a empresa. Isso também reduz o custo total de capital
corporativo, relacionado ao processamento de informações, sem diminuir a qualidade
do serviço fornecido.

• No entanto, provavelmente o mais importante é a economia administrativa e


operacional, por não haver necessidade de implementar e gerenciar procedimentos
para copiar dados de um local para outro. Isso pode reduzir muito o custo referente
a pessoas – o único custo componente dos serviços de fornecimento de informações
que não diminui a cada ano.

A implementação do software

Hoje, a maior parte das implementações de armazenamento em rede está


concentrada nas interconexões (como Fibre Channel), que permitem a conectividade
universal entre os dispositivos de armazenamento e os computadores que se
conectam a elas. Mas as interconexões por si mesmas não acrescentam nenhuma
funcionalidade ao processamento de informações, elas apenas possibilitam que essa
funcionalidade seja acrescentada.

Para conseguir os benefícios prometidos pelo armazenamento em rede, não somente


a conectividade, o desempenho, a disponibilidade e as funções de hardware devem
estar disponíveis para habilitá-los, como também os softwares de sistema e de
aplicativos devem tirar proveito do hardware.

Ao avaliar a tecnologia de armazenamento em rede, os componentes de hardware


devem ser observados detalhadamente, por segurança. No entanto, o mais
importante é que também é preciso observar cuidadosamente os recursos de
software, a fim de garantir que a adoção proporcione a funcionalidade habilitada pelo
hardware.

- 32 -
Veja os seguintes exemplos de como o software ajuda a realizar os benefícios do
armazenamento em rede:

Compartilhamento de drives de fita: um tape drive conectado à SAN pode ser


compartilhado entre servidores, porque esses dispositivos são caros e, na verdade,
ficam em uso apenas durante a realização de backups.

Se um tape drive estiver conectado a computadores por meio de uma SAN,


computadores diferentes poderão utilizá-lo em diversos momentos. Todos os
computadores terão seu backup efetuado. O investimento em drives de fita é
utilizado de modo eficiente, e os gastos de capital permanecem baixos.

Compartilhamento de dispositivos de armazenamento online: mantido em um


subsistema de Raid (Redundant Array of Inexpensive Disks) corporativo, é similar ao
compartilhamento de drives de fita, exceto pelo fato de que os procedimentos e
requisitos para as modificações de configuração são mais dinâmicos.

Um típico subsistema de Raid corporativo faz com que a capacidade de


armazenamento online de um ou mais disk arrays pareça ser a de um ou mais discos
muito grandes, rápidos e confiáveis. Um subsistema de Raid é como diversos discos
virtuais, do ponto de vista dos servidores host.

É bastante razoável que diferentes servidores sejam capazes de acessar esses discos
virtuais em diferentes momentos. Por exemplo, um servidor pode coletar os registros
diários de transações de uma companhia, feitos em disco, e enviá-los para outro
servidor, no final do dia, para resumo, análise ou backup.

Substituição de aplicativos com problemas: uma vez que as SANs conectam todos os
dispositivos de armazenamento de uma organização a todos os seus servidores, é
possível criar ambientes de computação altamente disponíveis, nos quais um
computador substituto possa entrar em operação em substituição a um que venha a
falhar, reiniciar seus aplicativos, e reiniciar o processamento de seus dados.

Afinal, esses equipamentos são computadores, e por isso devem ter condições de
reconhecer os sintomas de um defeito e ativar outro computador em seu lugar,
automaticamente. O ideal seria que o mesmo acontecesse de modo transparente
para aplicativos, uma vez que não é prático reescrever todos os aplicativos da noite
para ao dia, a fim de tirar vantagem dos ambientes de computação altamente
disponíveis.

Compartilhamento de dados: meios mais avançados de clusterização de


computadores permitem o compartilhamento simultâneo de dados entre diferentes
aplicativos sendo executados em diferentes servidores. Isso pode ser
extraordinariamente útil, por exemplo, para o crescimento adicional de aplicativos ou

- 33 -
o escalonamento. Simplificando, se um aplicativo supera o tamanho do servidor em
que ele está sendo executado, não é necessário substituir o servidor por um maior.

Em vez disso, pode-se conectar outro servidor que tenha a potência adicional
necessária à SAN, deixando o sistema original no local. Ambos os servidores podem
executar cópias ou instâncias separadas do aplicativo, processando a mesma cópia
dos dados. Podem ser acrescentados mais servidores, na medida em que aumentam
os requisitos de capacidade do aplicativo.

Construir uma SAN proporciona benefícios tangíveis para a empresa, ao permitir o


aumento do compartilhamento de dados, a utilização de equipamentos e o
gerenciamento centralizado de recursos de storage. Isso deve ser equilibrado por
uma abordagem racional de segurança de dados para permitir que os benefícios da
SAN não comprometam a integridade do patrimônio corporativo mais importante,
que são os dados.

Uma questão comum relativa à segurança de dados, nos atuais ambientes de SAN,
são os inflexíveis e incompatíveis mecanismos de zoneamento nos atuais switches e
HBAs (adaptadores de barramento por host). Dependendo da implementação de
zoneamento do fabricante e do conhecimento do cliente sobre o software, o esquema
de proteção de dados pode não ser válido.

Isso, é claro, se a SAN for reconfigurada (ou seja, mover um host ou um dispositivo
de armazenamento de uma porta de comutador para outra) ou acrescentar novos
hosts (ou seja, novos hosts Microsoft Windows escrevendo etiquetas para LUNs –
Logical Unit Number atualmente sendo utilizados por um host Unix). O software pode
ajudar a aliviar esse problema, controlando o acesso a ferramentas de zoneamento
que gerenciam comutadores e HBAs e fornecendo acesso a listas de controle por
LUN, que protegem os dados existentes.

Conectividade

O armazenamento em rede permite a conectividade entre quaisquer servidores e


dispositivos de armazenamento, e também aumenta a capacidade das organizações
no sentido de migrar seus dados. O armazenamento em rede pode diminuir os
custos do processamento de informações, por meio do aumento do
compartilhamento de dispositivos e de capacidade, assim como por meio de
comunicações mais eficientes.

Isso cria o ambiente para a verdadeira computação global – a capacidade de


processar as mesmas informações em qualquer momento, a partir de qualquer
central de dados no mundo, com os dados e a execução de aplicativos primários
migrando para locais ideais, conforme a necessidade.

- 34 -
Hoje, não bastam apenas sistemas de armazenamento. A necessidade dos dados
intactos e seguros é tão grande que contar com backup corporativo é fundamental.
Atualmente, os sistemas corporativos requerem soluções de backup cada vez mais
velozes, flexíveis e confiáveis, preparadas para atender uma multiplicidade
igualmente maior de plataformas.

Essa necessidade de garantir a integridade e a segurança da informação é tão


grande que os profissionais de redes não podem contar apenas com simples sistemas
de armazenamento, necessitando utilizar recursos mais eficientes como backups
corporativos, por exemplo.

A adoção dessas soluções depende de um correto planejamento tecnológico que


deve ser adaptado ao foco do negócio, integrando de forma inteligente os novos
hardwares e softwares e que ofereçam meios para gerenciar constantemente esses
componentes.

Já estão disponíveis no mercado soluções completas e abrangentes, contando com


uma infra-estrutura de hardware, software e práticas de pré-venda, manutenção
pró-ativa e reativa e serviços profissionais, visando operações de ambiente de
missão crítica.

O maior desafio, porém, é desenvolver tal infra-estrutura para operar sobre padrões
abertos e independentes de plataformas de hardware de storage. Mas, para isso, é
preciso contar com uma equipe que compreenda a arquitetura de backup.

Existem diversos casos de implementações de backup que não conseguem suportar o


alto crescimento do volume de dados que, após um curto intervalo de tempo, requer
um custoso processo de reengenharia.

Nessas situações, normalmente, cometem-se erros que poderiam ter sido evitados
como o subdimensionamento de dispositivos de backup, utilização de softwares com
falta de funcionalidades e a falta de planejamento na utilização de redes de dados,
incluindo a má implementação de redes privativas de SAN.

As restrições de compatibilidade são típicas de softwares dependentes de


plataformas de hardware de storage, normalmente implicando em uma adoção de
backup com diversas características proprietárias e que simplesmente não funcionam
ou funcionam muito mal quando da inclusão de outras plataformas de hardware de
storage no ambiente de backup.

A infra-estrutura de hardware e software de backup precisa ser flexível para suportar


a maior gama possível de sistemas operacionais (em especial Linux, Unix e NT) e
poder utilizar as interfaces e utilitários de backup e restores nativos das principais
aplicações de mercado.

- 35 -
O gerenciamento é outro fator importantíssimo na arquitetura. Ele possibilita que
toda a configuração e a monitoração dos processos de backup e recovery sejam
feitas centralizadas em um único ponto, independente de localização física do
mesmo.

Outro ponto é manter um ambiente confiável de backup/recovery, tanto para


compatibilidade do software de backup quanto dispositivos de backup, device-drivers
de sistemas operacionais, rede (Ethernet ou Fibre Channel), servidores de
aplicação/banco de dados e atrelados ao controle e à execução do backup. . A
automação deve garantir a confiabilidade da operação, mesmo em situações de falha
de alguns dos componentes.

A existência de mecanismos que atendam às necessidades de janela de tempo de


backup, sem a interrupção da operação normal e para situações de recuperação de
desastres, complementam a arquitetura de backup corporativo.

O conjunto de produtos de hardware e software por si só nada pode garantir. Uma


implementação bem-sucedida de uma solução corporativa de backup envolve
práticas que englobam informações colhidas já no processo de pré-venda, no qual
devem ser feitos o primeiro levantamento de necessidades e o dimensionamento.

Levantamento dos recursos

Nesse levantamento, deve ser abordado todo o parque de servidores (que serão os
clientes do backup/restore) e de todos os sistemas operacionais, bancos de dados e
aplicativos envolvidos e da rede de interligação dos mesmos. Isso é informação
básica para a construção dos domínios de storage, reunindo grupos de clientes com
master e mídia servers.

Também deve ser feita a coleta de informações junto ao cliente em relação ao


Service Level Agreement (acordo de qualidade de serviço), exigido para cada
aplicação/banco de dados envolvido no processo de backup/recovery, e a respectiva
janela de backup. É solicitado ao cliente informar quais serviços estão em processo
crítico de continuidade dos negócios e requerem infra-estrutra para disaster
recovery.

O dimensionamento e a configuração dos servidores de backup e dos dispositivos de


backup (incluindo número de unidade de fitas para cada dispositivo) devem ser
prescritos, assim como a arquitetura de rede e política de compartilhamento de
unidades de fita: uso ou não de Storage Area Network/Fibre Channel.

Por fim, deve ser avaliada a configuração dos módulos de software para os sistemas
operacionais, aplicativos e bancos de dados envolvidos, além da configuração de
ambientes de cluster e infra-estrutura de point-in-time copy e disaster recovery,

- 36 -
conforme informado pelo cliente, além dos níveis de serviço e janela máxima de
backup.

Assim, será possível ter uma solução completa e consistente de forma a garantir
escalabilidade, proteção de investimento e minimizar o tempo de interrupção das
operações do data center, não gerando impacto negativo nos negócios da
corporação.

Erros em procedimentos de backup

O termo backup está diretamente associado à segurança de dados e deve receber


uma atenção especial do administrador de rede. Qualquer descuido pode ser fatal
para os dados mais importantes de uma empresa. Manter mídias de backup em
locais inadequados e sujeitos à umidade, influência de campos magnéticos e alta
temperatura pode danificá-las.

Utilizar um mesmo local de armazenamento tanto para pastas e arquivos de backup


quanto para todos os dados em uso é outro fator de risco de perda de dados se
algum simples problema acontecer. Um deles poderia ser, por exemplo, um dano
físico no disco rígido, onde estão guardados os dados e o backup, juntos.

Outra falha está em deixar as rotinas de backup acontecerem sem qualquer tipo de
gerenciamento e sem observar procedimentos específicos de segurança. É necessária
uma atenção especial para essa questão, evitando que o backup seja esquecido ou
que a mídia não seja trocada e até mesmo que a política de segurança da empresa
seja ignorada.

Torna-se imprescindível elaborar um conjunto de procedimentos chamados de


política de backup (ou backup off site), que consiste na retirada periódica da mídia
de armazenamento do local onde o backup é gerado.

Essa mídia é levada geralmente para fora do local. Com isso, mesmo no caso de um
acidente (incêndio, explosão etc), os dados estarão resguardados em local seguro.

Produtos de backup corporativo

Os produtos de backup corporativo que estão disponíveis no mercado são


diversificados e projetados para uso ótimo com uma biblioteca de fita, atendendo as
necessidades do administrador de rede de maneiras diferentes.

Porém, considerando que a demanda por backup de dados é universal, é importante


oferecer funcionalidade e confiabilidade juntamente com uma interface apropriada
para administradores com variados níveis de experiência.

- 37 -
Flexibilidade também é necessária, pois os administradores de rede devem editar
tarefas existentes e reconfigurar parâmetros com rapidez e facilidade quando as
circunstâncias assim o exigirem.

Um bom produto, portanto, deve ser capaz de lidar com a diversidade de marcas e
padrões normalmente encontrados em um ambiente de rede heterogêneo.

Estão disponíveis no mercado soluções completas e abrangentes, contando com uma


infra-estrutura de hardware e software para maximizar a disponibilidade de níveis de
serviço (SLA) visando operações de ambiente de missão crítica.

A existência de mecanismos para atender as necessidades de janela de tempo de


backup, sem a interrupção da operação normal e para situações de recuperação de
desastres, complementa a arquitetura de backup corporativo.

É necessário realizar também um levantamento relacionando todos os servidores que


serão os clientes do backup/restore e todos os sistemas operacionais, bancos de
dados e aplicativos envolvidos e da rede de interligação dos mesmos.

Gerenciar informações de forma eficiente é um desafio enfrentado por empresas de


todos os portes e segmentos. Um mau gerenciamento dos dados pode ocasionar
prejuízos muitas vezes ocultos, como baixa velocidade de acesso, má utilização dos
componentes de armazenamento e um alto custo total de propriedade (TCO).

Nenhum sistema de armazenamento está completo sem uma solução adequada de


cópias de segurança. Assegurar a integridade dos dados é um dos maiores desafios
da área de Tecnologia da Informação (TI) da empresa, principalmente porque
soluções como espelhamento remoto e cópia de dados não conseguem garantir essa
integridade em situações de erros humanos, sabotagens ou mesmo desastres de
proporções não previstas. Em muitos desses casos, somente uma cópia tipo backup
pode resolver a situação.

STORAGE

Módulo 7 - Resultados

A maior preocupação de um administrador de TI hoje é maximizar a utilização dos


recursos que já possui, inclusive os servidores de storage. O desafio das empresas é
conseguir migrar para modelos mais adequados à companhia sem ter que comprar
hardware novo antes de uma expansão planejada.

- 38 -
Afinal, a computação, como um serviço essencial, significa contar com servidores no
data center que sejam provisionados quando preciso e não ter a necessidade de
comprar uma arquitetura de servidores específica de uma determinada empresa

Por isso, o armazenamento está caminhando em dois sentidos simultâneos: nova


centralização, eliminando as ilhas existentes, e externalização, separando o
armazenamento da ligação física ("bus attached") com os servidores. Essas
tendências são o que chamamos de modelo de computação "information centric".

Nesse modelo, os negócios são construídos em torno de suas informações, visto


como o ativo mais estratégico. É uma mudança significativa do modelo "server
centric", em que o processador é a peça-chave da computação e o limitador da
capacidade de acesso às informações.

Assim, as informações são colocadas no centro do negócio e as plataformas de


processamento conectadas aos equipamentos inteligentes de armazenamento. O
modelo transcende plataformas e ambientes operacionais. Afinal, o objetivo é
integrar todas as informações, fornecendo uma simples e única visão.

Caminhos do armazenamento

Os clientes corporativos possuem um grande número de servidores e aplicações


rodando em diversas plataformas. O que precisam é de um sistema de
gerenciamento centralizado, um repositório central que informe onde cada aplicação
rodará em um data center heterogêneo. Esse sistema de gerenciamento baseado em
políticas deve trabalhar com diversos sistemas operacionais, atribuindo a cada
aplicação um nível específico de prioridade e critérios de performance.

Nesse cenário, o "controlador de políticas" atribuiria aplicações aos servidores tendo


como base critérios pré-definidos e gerenciaria os problemas ou as necessidades de
novas aplicações baseando-se nos conceitos de prioridade e performance. Estamos,
é claro, olhando o nível mais alto do data center e assegurando que os ativos de TI
estejam alinhados com as necessidades do negócio.

O objetivo principal dos sistemas de armazenamento é proteger seus sistemas e


informações críticas, diminuindo possíveis paradas e aumentar a produtividade dos
seus funcionários. A solução oferece:

• Redução de custos, por meio da otimização do armazenamento e disponibilização


das informações, diminuindo custos com aquisição de hardware de armazenamento.

• Segurança e gerenciamento do ativo intangível das empresas, ou seja, as


informações e dados que ela possui.

- 39 -
• Possibilidade de ação pró-ativa, antecipando-se a problemas, ao invés de reativa,
corrigindo falhas, inclusive com levantamento de parque e de recursos ociosos que
podem ser melhor aproveitados.

Hoje, para gerenciar de modo centralizado o data center, é preciso criar uma
complexa arquitetura multicamada, usando as plataformas de cluster separadas para
gerenciar cada tipo de hardware. É muito difícil criar uma relação entre todas essas
plataformas para obter uma visão clara e abrangente de todo o data center. As
maiores dificuldades dos clientes dizem respeito à simplificação desse ambiente.

As empresas planejam soluções para melhorar o gerenciamento de um grande


número de aplicações, rodando em diversos servidores. É necessário ter a
capacidade de administrar adequadamente qualquer tipo de falha e assegurar que
todas as aplicações recebam os recursos do sistema, conforme prioridades e
compatibilidade pré-definidas.

Muitos estudos têm demonstrado que as companhias implementam recursos de


armazenamento em excesso e apenas utilizam metade da capacidade adquirida. Isso
significa que o custo real de armazenamento nessas empresas é duas vezes maior do
que eles esperavam e concordaram em gastar quando adquiriram hardware para
essa função. Por isso, adotam software de armazenamento, necessário para
controlar e aumentar a utilização dos recursos.

As arquiteturas de armazenamento ideais também devem ser flexíveis na


implementação e ter uma boa relação custo-benefício, além de integrar-se com
outras aplicações da empresa. No atual ambiente, caracterizado por rápidas
transformações, é difícil prever quanta capacidade é necessária para um novo
aplicativo. É ainda mais difícil prever a capacidade necessária em um ou dois anos.

E se ocorrer uma fusão, a criação de filiais ou alguma grande reestruturação? A


empresa vai reconstruir toda sua arquitetura de armazenamento? Ou introduzir um
novo sistema de gerenciamento que exija um novo treinamento de todos os
funcionários de sua organização?

Para minimizar o custo e a complexidade, a arquitetura de armazenamento ideal é


flexível o suficiente para acomodar modificações das exigências da empresa, ao
mesmo tempo em que preserva um sistema consistente de gerenciamento. O
software de armazenamento fornece a camada de flexibilidade necessária para
preservar consistentes práticas de gerenciamento, independentemente de mudanças
nas condições ou nos requisitos da empresa.

As redes de armazenamento possibilitam maior utilização de recursos ao oferecer


conectividade e simplificam o gerenciamento ao oferecer uma visão centralizada de
todos os recursos. A mesma lógica aplica-se quando é examinada a separação da
inteligência de armazenamento dos dispositivos propriamente ditos. Ou seja, a
- 40 -
separação do gerenciamento de armazenamento do hardware de storage oferece
benefícios na consolidação da rede de armazenamento.

As ferramentas de virtualização permitem aumento do uso de recursos ao fornecer


um mecanismo para consolidar o excesso de armazenamento a partir de vários
dispositivos de hardware e apresentá-los como um único e útil repositório de dados.
Geralmente, as empresas separam a inteligência de armazenamento das
ferramentas de storage, a partir de dispositivos de hardware individuais para obter
os benefícios de centralização. Um único conjunto de ferramentas gerencia o
hardware de vários fabricantes.

Recuperação de dados

A crescente quantidade de informações a ser armazenada pelo mercado corporativo


e governamental tem sido um bom indicador do potencial de vendas de soluções
para o segmento. Desde o início do ano, ao entrarem no Brasil, os norte-americanos
são fotografados e deixam suas impressões digitais registradas, por decisão da
Justiça Federal. Isso é um exemplo de como as informações aumentam e precisam
serarmazenadas, além da necessidade do uso do backup para garantir a recuperação
dos dados.

As arquiteturas mais usadas para implementar redes de armazenamento nas


corporações são a NAS (Networked Attached Storage) e a SAN (Storage Area
Network). A opção NAS (Networked Attached Storage) refere-se a uma rede de baixo
custo, onde o sistema de storage está conectado à rede LAN e os dados são
acessados por meio de protocolos CIFS, sistema de acesso a drives de rede na
plataforma Windows, ou NFS, para o ambiente UNIX.

Suas principais vantagens são a simplicidade de gerenciamento e a facilidade de


integração com serviços de diretórios. Trata-se de uma arquitetura de performance
relativamente baixa se comparada com arquitetura SAN. A alternativa NAS vem
sendo utilizada para consolidação de servidores de arquivos ou bancos de dados com
baixa taxa de acesso e pouca necessidade de performance de I/O.

As redes SAN são consideradas as mais modernas e rápidas disponíveis no mercado.


São redes flexíveis que utilizam interfaces fiber-channel e switches especiais de alta
velocidade para comunicação entre os servidores e os subsistemas de
armazenamento. Sua implementação permite a comunicação de diversos servidores
com diversos subsistemas de armazenamento, incluindo dispositivos de fita
magnética. A arquitetura SAN facilita a administração, aumenta as possibilidades de
compartilhamento de recursos de armazenamento disponíveis e é adequada para
aplicações que demandem muitos recursos de I/O e atividade de consolidação de
storage.

- 41 -
O mercado brasileiro – particularmente as instituições financeiras, governo,
telecomunicações e saúde – apresenta um grande potencial de compra para esse
tipo de solução para cumprir com algumas exigências da legislação do País e, nos
casos dos bancos, para adequarem-se aos requisitos da Basiléia II, as empresas
precisam de soluções de alta disponibilidade.

Toda e qualquer aplicação que necessite trafegar dados pela rede ganha em
performance com esse conceito. Como "subnets", uma SAN agrega largura de banda
(bandwith) sem demandar carga adicional nas redes básicas. Além disso, o
gerenciamento torna-se mais fácil. Não há mais necessidade de buscar informações
em dezenas de servidores, pois elas estarão centralizadas em um único ponto.

O resultado é a maior disponibilidade, pois a informação fica disponível nos


servidores, independente de aplicações, sendo acessível por uma rede própria, sem
degradação das redes básicas. A empresa alcança melhor performance, pois não
existe overhead do servidor e do seu barramento (bus) central. Conta com um
melhor gerenciamento centralizado, evitando a dispersão natural das bases de dados
distribuídas, bem como os inevitáveis problemas de "out of disk space" que ocorrem
individualmente nos servidores.

O armazenamento consolidado e centralizado reduz o custo de propriedade,


principalmente devido à eliminação das dificuldades da conectividade entre diversos
ambientes de arquivos heterogêneos, como encontrados nos diversos sistemas
operacionais.

Ciclo de vida da informação

O custo de armazenamento de e-mails pode ser reduzido em até 80% com o uso de
soluções de gerenciamento, segundo os fabricantes, por isso mais empresas buscam
soluções de ILM (Information Lyfeclycle Management) para bancos de dados, ERP,
CRM, correio eletrônico e e-mail.

Por isso, além da virtualização, uma grande onda para melhorar a utilização do
storage é a implementação do ILM armazenada nos dispositivos da empresa. Estudos
mostram que os dados da maioria das aplicações deixam de ter a necessidade de
estar disponíveis para acesso online na medida em que o tempo passa. Um exemplo
disso são as mensagens arquivadas na caixa postal no correio eletrônico.

Normalmente, após 45 dias do recebimento, a mensagem de e-mail e seus anexos


não precisam consumir espaço em um disco mais rápido e, conseqüentemente, mais
caro. Por isso, se a empresa estiver precisando comprar discos, possivelmente
implementar a gestão das informações é uma boa alternativa. Dessa forma, irá
proporcionar a compra de discos mais lentos (e mais baratos) e migrar
automaticamente as informações utilizadas com menos freqüência para eles,
reduzindo sensivelmente os novos investimentos em storage.
- 42 -
As empresas requerem cada vez mais o gerenciamento que garanta bons níveis de
performance e proteção, para suportar falhas durante o armazenamento (storage
media) e elaborar procedimentos completos em caso de problemas mais graves
(disaster recovery). Parcerias com fabricantes de software, soluções de grid storage
e integração de produtos para criação de soluções mais completas são o foco do
mercado.

O ILM permite identificar cada informação, avaliar sua criticidade para o negócio e a
necessidade de acesso rápido a ela e, finalmente, rever a infra-estrutura de storage,
de forma a permitir a alocação apenas dos dados mais importantes em mídias de
alta performance e, portanto, mais caras, deixando o restante em equipamentos
mais econômicos. Tudo isso feito de maneira dinâmica, automática e transparente
para o usuário.

As empresas também estão requerendo mais serviços de consultoria. O porquê desse


crescimento não é difícil de entender. A base do conceito da categorização das
informações e do armazenamento hierárquico é o conhecimento, por parte do
cliente, da importância de cada dado para seu negócio. Ou seja, por quanto tempo o
material em questão é crítico para o trabalho diário da companhia, quando se torna
importante apenas para algumas áreas da corporação, cujo acesso é mais raro e,
finalmente, após quanto tempo deixa de ser necessário estar disponível com
imediatismo e pode ser armazenado em um arquivo morto.

Avaliação da infra-estrutura

É importante ainda lembrar que, se parte do conteúdo do arquivo morto é


descartável, muitas informações têm de ser guardadas por tempo determinado de
acordo com leis ou regras setoriais, sendo que possíveis alterações podem acarretar
em sérios problemas para a companhia.

Após essa análise de todas as informações – e da categorização de cada uma –,


empresas e fornecedores devem fazer uma avaliação da infra-estrutura existente,
adequando-a às necessidades observadas. Assim, as informações permanecem
guardadas nos equipamentos de alta performance apenas enquanto são críticas para
o negócio.

A seguir, conforme regras definidas pelos usuários, as informações são


encaminhadas para dispositivos mais baratos, que permitem acesso direto a elas,
porém, com certa demora – os fornecedores alertam que essa diferença pode ser de
segundos. Finalmente, dados considerados históricos vão para mídias com custo
ainda mais reduzido e cujo tempo de acesso é um pouco maior.

Apesar de ser um dos tipos de dados no qual a implementação do conceito de ILM é


mais complexa – por tratar-se de informações semi-estruturadas –, o alto volume de
mensagens eletrônicas que invade os servidores corporativos diariamente e a
- 43 -
dificuldade dos usuários lidarem com ela resultam em custos altíssimos para a
companhia. E isso está motivando os CIOs a encontrarem formas automatizadas de
organizá-las e armazená-las.

A chave para as ilhas de storage se interconectarem com os outros aplicativos da


empresa, como ERP, CRM e outras aplicações, está na interoperabilidade entre os
protocolos dos fabricantes. Com a popularização das redes de storage, tornou-se
interesse de todo o mercado a padronização dos protocolos.

Um movimento importante nesse sentido foi a criação da SNIA (Storage Networking


Industry Association) associação que reúne 300 fabricantes mundialmente. A
iniciativa Storage Management Iniciative Specification (SMIS) testa e divulga
especificações, realiza testes de compatibilidade e interoperabilidade nas redes SAN
e NAS, tornando os usuários mais independentes de marcas e fabricantes.

O principal objetivo agora é fornecer especificações para o protocolo iSCSI


preparando o terreno para a próxima onda das redes globais nos grandes data
centers.

VOIP

Módulo 8 – Tendências

Mais espaço para o armazenamento, redução de custos, interoperabilidade e


continuidade de negócios. Essas estratégias permeiam as tendências do storage para
os próximos anos. E a preocupação não é apenas por mais espaço para guardar os
dados, mas tecnologias que otimizem aqueles já usados, além de poderosas
ferramentas de gerenciamento para administrar todo o volume de informações.

A interconexão de tecnologias, manter a agilidade para acompanhar as mudanças


rápidas e ter sempre os dados disponíveis são as principais preocupações do mundo
corporativo. Um dos desafios é recuperar o controle do crescimento desenfreado e
complexo das infra-estruturas, simplificando o gerenciamento e a rotina de tarefas
administrativas redundantes. As soluções devem detectar ineficiências na maneira
como as informações são gerenciadas e armazenadas para fazer mais com a mesma
quantidade ou menos recursos.

Proteger e garantir a segurança dos dados é o maior desafio das empresas no futuro,
de acordo com uma pesquisa divulgada pela CompTIA, uma associação do mercado
de TI. A segurança foi citada como a principal preocupação por um terço dos 660
executivos entrevistados ligados a área de storage. Gerenciamento e administração
de dados ficaram com o segundo lugar, sendo mencionados por 17% dos
participantes do estudo, seguidos por aceleração de acesso a dados armazenados
- 44 -
(10%). Apenas 6% dos participantes disseram que o atendimento a regras impostas
pelo governo é a principal preocupação.

Para acompanhar a velocidade do mercado, os administradores de storage e redes


já convivem com a convergência de seus produtos, apontando para um novo tipo de
profissional: o engenheiro de storage, que deverá conhecer as aplicações, entender
de redes, saber como é o trabalho do administrador de sistemas e conhecer o
trabalho do gerente de armazenamento.

A rota tomada por empresas como a EMC, Cisco, Brocade e McData segue os
princípios de implementar uma infra-estrutura de virtualização escalável e
interoperável. Um passo importante foi a união dessas empresas para o
desenvolvimento conjunto de interfaces de programação de aplicações APIs
(Application Program Interfaces). Em um futuro próximo, essas interfaces vão
permitir que as redes locais (LANs), de longa distância (WANs) e redes de
armazenamento (SAN e NAS) troquem dados sem problemas de interoperabilidade.

A segurança e o storage também já apontam para a consolidação, como atesta a


fusão da Symantec com a Veritas, apontando para novos produtos que unem essas
áreas.

A evolução das arquiteturas de bancos de dados passa pela migração do tradicional


DAS (Direct Attached Storage) para o conceito de SAN (Storage Area Network) que
se baseia em interligações ópticas dos elementos armazenadores, servidores e
switches e o conceito NAS (Network Attached Storage), com interligações baseadas
nos padrões das redes locais.

Qualquer que seja o modelo de arquitetura de rede: SAN, NAS ou combinação de


ambas, a interligação entre a rede principal e backup pode ser feita por meio da
solução de telecomunicações de storage sobre redes ópticas, que se baseia em
tecnologias de transmissão óptica Synchronous Digital Hierarchy (SDH). Na cadeia
de fornecimento dessa solução, estão as empresas de storage, operadoras e
fornecedores de equipamentos de telecomunicações.

Redes IP

A popularização das redes IP acontece, no storage, com a utilização de plataformas


iSCSI. Para decolar, o mercado aguarda o desenvolvimento de padrões que estão em
curso com iniciativas como a SNIA (Storage Networking Industry Association),que
conta com um time de 400 profissionais, dos quais cem fazem parte das grandes
companhias de storage.

A grande aposta tem sido a Storage Management Initiative (SMI), dentro da SNIA,
que une os fornecedores em torno da unificação do processo de gerenciamento. Uma

- 45 -
das etapas da SMI tem sido, justamente, fazer intercâmbio de APIs rumo à
interoperabilidade baseada em padrões.

Com a popularização das redes SAN (Storage Area Network), uma das apostas da
indústria é a queda de preços para atingir novos mercados como as pequenas e
médias empresas. As pressões sobre os últimos cinco anos – na direção das SAN e
NAS, que ampliou a adoção das redes de armazenamento de dados – deve continuar
ampliando a venda e oferta de produtos de gerenciamento com o conceito ILM
(Information Lifecycle Management) mais ágeis e mais baratos, enquanto o iSCSI
continua a ganhar mercado.

Nos últimos anos, muitos fabricantes já adaptaram seus produtos para suportar as IP
SANs (redes de armazenamento que utilizam o protocolo IP), usando o protocolo
iSCSI em conjunto com o FC-IP (Fibre Channel sobre TCP/IP) ou iFCP (Internet Fibre
Channel Protocol). Especialistas não acham que a iSCSI vá matar o mercado das
SANs, já que o FC e iSCSI endereçam diferentes necessidades. Clientes que não
querem uma FC dedicada e contam com grandes volumes de storage devem voltar-
se para a iSCSI.

Além do desenvolvimento das redes, a virtualização caminha rumo à consolidação.


Na tecnologia, dispositivos diversos, com características, funcionalidades,
performance, níveis de serviço e até mídia física diferenciada, são apresentados ao
servidor e às aplicações como se fossem virtuais, simplificando o gerenciamento.

O objetivo principal é garantir uma total utilização da infra-estrutura, diminuindo sua


ociosidade e tornando mais fácil a implementação do ILM (Information Lifecycle
Management) em todas as aplicações, independente de compreenderem a infra-
estrutura. Alguns requisitos são essenciais para implementar a virtualização:
escalabilidade, gerência ponto-a-ponto, interoperabilidade e aderência a padrões da
indústria.

Grid computing

A indústria também aposta no grid computing, arquitetura que adiciona uma camada
à SAN, que virtualiza dados em múltiplos arrays. Mas não basta a utilização da
tecnologia de integração de discos e a virtualização, se a rede ficar muito lenta. Para
superar esse obstáculo, a indústria aponta para o chamado “object storage”, que
essencialmente utiliza metadados e endereçamento virtual para otimizar as redes.

O object storage usa controladores de metadados para atuar como uma ponte entre
o dispositivo de storage e o servidor em que estão armazenados os dados. Dessa
forma, pode fornecer a informação solicitada pelo aplicativo de maneira eficiente e
sem congestionar a rede.

- 46 -
O storage grid computing é a transposição do conceito da grid computing para o
armazenamento, ou seja, diversos sistemas de armazenamento são tratados de uma
forma única. Para isso, o segredo é a criação de um modelo de nomenclatura padrão
para os dados. Também é fundamental que seja feita a classificação dos dados e a
adoção de uma camada de cache à frente da variedade de storage para garantir que
as informações críticas sejam acessadas rapidamente. Isso permite o
armazenamento de dados em dispositivos de hardware mais baratos.

Armazenamento físico

Na futurologia dos discos, diversos institutos de pesquisa apontam para diferentes


tecnologias, sempre buscando ampliar a capacidade de armazenamento. As linhas de
desenvolvimento vão na direção dos discos ópticos, nanotecnologia e chips baseados
em polímeros.

Físicos da universidade britânica Imperial College, de Londres, estão desenvolvendo


um disco óptico do tamanho de um DVD convencional com capacidade de
armazenamento 1.000 Gigabytes (GB), que recebeu o nome de MODS – Multiplexed
Optical Data Storage. Ele é capaz de armazenar 472 horas de filmes.

Os desenvolvedores da tecnologia ainda destacam que os discos MODS não serão os


primeiros a desafiar a dominação dos DVDs, no mercado audiovisual, já que os
discos BluRay também têm capacidade cinco vezes superior aos discos convencionais
(cerca de 25 GB por face).

Agora, os pesquisadores da universidade estão trabalhando com colegas do Instituto


de Microtecnologia da Universidade de Neuchâtel, na Suíça, e com o Departamento
de Engenharia Elétrica e de Computação, da Grécia, para calcular o preço dos discos
MODS para produção em série.

O grupo também está trabalhando para descobrir um formato que tornaria o disco
compatível com aparelhos reprodutores de CD e DVD já existentes. Um dos
pesquisadores, Dr. Török, destacou que acredita que os primeiros discos comerciais
desse tipo estarão disponíveis entre os anos de 2010 e 2015.

Outra linha de pesquisa é com chips de memória com filme plástico e silício, que
poderia baratear o armazenamento do futuro. Essa linha de pesquisa reúne a HP e a
Princeton University, dos Estados Unidos. Segundo a revista Nature, a passagem da
eletricidade sobre o dispositivo de filme plástico funde o polímero, mudando sua
condutividade e permitindo que camadas de memória possam ser sobrepostas.

A tecnologia seria mais barata, porque não envolve transistores. Intel e AMD
prevêem produzir memórias baseadas nesses polímeros, mas as pesquisas ainda são
preliminares porque os pesquisadores ainda estão testando a velocidade do registro

- 47 -
e leitura do dado. O dispositivo chamado PEDOT pode conter 1 Megabit de dados em
um milímetro. Um centímetro cúbico poderia armazenar 1 GB de dados.

O que é nanociência e nanotecnologia?

Os discos magnéticos e fitas continuam a ampliar suas capacidades de


armazenamento com a vantagem do baixo custo. Indo além dos discos magnéticos,
os pesquisadores apontam para os avanços na nanotecnologia, unindo proteínas
sintéticas e circuitos moleculares para criar chips chamados de nanorobôs. No
desenho dos chips, há limitações associadas à fotolitografia. Uma tecnologia-chave é
a habilidade de posicionar os circuitos a poucos nanomilímetros um do outro.

Para atender essa necessidade, a computação molecular começa a tomar forma.


Empresas e institutos de pesquisa desenvolvem os nanorobôs, com a manipulação de
proteínas sintéticas que se aproximam da estrutura do DNA.

A essência da nanociência e nanotecnologia é a habilidade de trabalhar ao nível


molecular, átomo por átomo, para criar grandes estruturas com organização
molecular. Nanociência e nanotecnologia dizem respeito ao entendimento, controle e
exploração de materiais e sistemas cujas estruturas e componentes exibem
propriedades e fenômenos físicos, químicos e biológicos novos e modificados devido
a sua escala nanométrica (1-100nm).

A meta é explorar essas propriedades para ganhar controle das estruturas e


dispositivos ao nível atômico, molecular e supramolecular e aprender a fabricar e a
usar eficientemente esses dispositivos para novos chips e sistemas que futuramente
vão armazenar grandes volumes de dados. Essa tecnologia aponta para grandes
promessas no campo do armazenamento de dados.

Nessa direção, a IBM anunciou a tecnologia MEMS (Micro-Electrical-Mechanical


System) baseada no conceito Millipede ou Millipede High-density data storage,
tecnologia de alta densidade com base em componentes atômicos, colocados em um
substrato microscópico.

Pequenas depressões criam uma força atômica microscópica em um polímero que


recebe os bits de dados armazenados. O polímero pode ser reusado milhões de
vezes, ultrapassando os meios magnéticos de gravação. No conceito millipede, um
array opera de maneira paralela, onde cada dado é lido, escrito ou apagado, em sua
própria área de armazenamento.

O Bell Labs, em conjunto com a Lucent e a Imation, tem uma linha de


desenvolvimento de sistemas holográficos de storage, reposicionando wafers de
silício separados por nanomilímetros para conter os dados.

- 48 -
No mercado de discos multimídia, o dispositivo de 1,8 polegadas deve ir além dos
equipamentos de MP3, integrando notebooks, PDAs e equipamentos embarcados
(computadores de automóveis). Estes equipados com sistemas de localização que
acessam grandes bases de dados, poderão armazenar informações e imagens 3D em
discos compactos mínimos.

- 49 -

You might also like