You are on page 1of 72

Missão Crítica

Módulo 1 – O que é missão crítica

Definição do que é crítico para a organização. A importância da infra-estrutura de TI


adequada para garantir o desempenho necessário no mundo dos negócios.

Que prejuízos uma instituição bancária poderia ter caso uma pane em seus sistemas
apagasse por completo as informações sobre seus correntistas? E se um provedor de
acesso à Internet ficasse fora do ar durante 24 horas, que impactos causaria nos
seus usuários e quais perdas poderia sofrer? E os sites de vendas online, como o
brasileiro Submarino. O que aconteceria com a empresa, que depende dele para ter
o seu faturamento, se o site não suportasse o acesso dos compradores? E uma
operadora de telefonia que tivesse de enfrentar uma parada nas suas centrais, como
conseguiria registrar o custo das chamadas feitas pelos seus assinantes?

Todas elas poderiam amargar um prejuízo de milhões de reais, além de ter sua
imagem e credibilidade fortemente abaladas. Esses são alguns exemplos de
empresas que não podem prescindir de um ambiente de missão crítica, ou seja, de
uma infra-estrutura tecnológica projetada especificamente para evitar que qualquer
falha em alguns dos sistemas chegue a comprometer a continuidade do
funcionamento das operações e possa ser rapidamente solucionada.

Os primeiros equipamentos de missão crítica, também chamados de tolerantes a


falhas (Fault Tolerance), começaram a ser empregados no Brasil pelo setor militar
por volta da década de 60. Mais tarde, nos anos 70 e 80, os bancos e algumas
corporações que lidavam com grande volume de informações e precisavam contar
com um ambiente extremamente seguro também passaram a utilizar equipamentos
tolerantes a falhas.

Esse tipo de equipamento é espelhado, ou seja, é como se fossem dois


equipamentos idênticos numa mesma estrutura ou gabinete, sendo que um deles em
atividade, enquanto o outro permanece em "stand by". Caso haja alguma falha no
equipamento que está em atividade, o seu "gêmeo" automaticamente assume seu
lugar, dando continuidade às operações como se nada tivesse acontecido.

Esses equipamentos eram caros, da ordem de milhões de dólares, e somente


grandes corporações tinham condição de adquiri-los, mas agora começam a ser
disponibilizados com maior abundância mesmo em empresas menores.

-1–
Opções válidas

Uma alternativa mais acessível em custos são os equipamentos classificados como


de alta disponibilidade (High Availability), que diferem dos tolerantes a falhas em
disponibilidade, visto que ela é desenhada e implementada somente nos elementos
com mais probabilidade de causarem erro, como os discos, por exemplo. Esses
equipamentos não são totalmente espelhados, mas o risco de apresentar falha é
extremamente pequeno.

O índice de uptime (tempo em que todo sistema permanece ativo ou disponível) de


um sistema de alta disponibilidade fica na faixa de 99,9% a 99,99%, enquanto que
os tolerantes a falha apresentam uptime da ordem de 99,999%. A avaliação de
disponibilidade também deve incluir a redundância de nós, interconexões,
controladoras e proteção de falha de energia (nobreaks e geradores). Também deve
ser considerada a redistribuição de carga depois da falha de um nó e a habilidade de
todo o sistema operar durante paralisações planejadas ou não.

Outra opção disponível para as empresas é a adoção da tecnologia de cluster que


pressupõe a aquisição de outro equipamento, não necessariamente igual ao
existente e que não precise ficar em stand by, mas executando outras funções, e que
pode assumir a operação caso o outro equipamento apresente falha. (Iremos
abordar a tecnologia cluster com mais detalhes no decorrer do curso). Essa
tecnologia propicia melhorias significativas no ambiente computacional da empresa,
tanto em capacidade, quanto em disponibilidade.

Cada nó ou servidor adicional fornece uma escalabilidade quase linear dentro de um


sistema em cluster. O mais importante é a capacidade de previsão dessa
escalabilidade em relação à capacidade e ao custo, simplificando as operações e as
atividades de planejamento. Não apenas o hardware deve ser redundante
(duplicado), mas também o software, os aplicativos, o banco de dados e os
protocolos.

A infra-estrutura de TI adequada

Por mais qualidade que se imponha aos equipamentos e por maior que seja a
robustez aplicada ao software básico ou à qualidade na metodologia de
desenvolvimento de aplicativos, os sistemas falham. Uma pesquisa realizada pelo
Gartner Group revelou que, em média, 40% dos casos de paralisação nas operações
das empresas (também chamado de downtime) são causados por falhas em
aplicações (questões de desempenho ou bugs), 40% por erros de operação e cerca
de 20% por falhas em sistemas. No caso dos sistemas, 60% das falhas são causadas
por problemas com hardware e menos de 5% dos danos se devem a desastres. O
fator humano também é preponderante no que se refere a falhas, indo desde um
simples tropeço no fio em que está ligada a máquina à fonte de energia, até um
comando errado.

-2–
Dependendo do segmento de atuação da empresa, falhas nos sistemas podem
causar prejuízos muito significativos. É o que comprovou outra pesquisa, realizada
pela consultoria norte-americana Eagle Rock Alliance com 163 empresas com
faturamentos anuais que variam de US$ 10 milhões a US$ 5 bilhões. O estudo
demonstrou que 46% dos entrevistados afirmaram que cada hora de paralisação das
operações custa para a companhia mais de US$ 50 mil. Para 28% delas, uma hora
de downtime varia de US$ 51 mil a US$ 250 mil, e para 18% delas, algo entre US$
251 mil e US$ 1 milhão. Para uma empresa saber se precisa de um ambiente mais
ou menos crítico, ela deve avaliar quanto perderia por hora se seus sistemas
ficassem inoperantes. Se ela pode tolerar algumas horas de paralisação, não precisa
de uma infra-estrutura tão crítica.

Independente do quanto a infra-estrutura de TI impacta na forma de atuação, todas


as companhias devem tomar alguns cuidados básicos. Um deles é ter em mente que
os sistemas não costumam apresentar problemas a toda hora. Com isso, tende-se a
relaxar nos procedimentos de contingência e de atualização da documentação nos
casos em que o ambiente evolui. O ideal é dispor de uma infra-estrutura sólida, com
hardware, software e banco de dados redundantes ou que disponham de uma
manutenção sistemática e adequada. Se a empresa não conta com sistema de
backup (duplicação dos dados e informações) pode optar por um ambiente de cluster
que, se for bem construído, pode não envolver grandes investimentos.

Pessoas também são importantes, principalmente nos ambientes de missão crítica. É


fundamental contar com profissionais especializados, internos e de terceiros, para
monitorar os sistemas e responsabilizarem-se pelas atualizações e manutenção. É
inegável que a cada dia a Tecnologia da Informação se torna mais estratégica para
as corporações. Não existe uma receita que se aplique a todos indistintamente. Mas
a escolha de soluções deve seguir alguns critérios para garantir o seu desempenho e
evolução.

É importante observar nos hardware, software e banco de dados itens como:

Confiabilidade

*o quanto a máquina e seu sistema operacional são consistentes para operar as


aplicações e serviços necessários, assegurando a integridade da informação e
apresentando capacidade de recuperação da informação danificada.

Segurança

capacidade do sistema se proteger de ataques e intrusões.

-3–
Escalabilidade

capacidade de aumentar o número de processadores, suporte a clustering, e


capacidade de rápido ajuste ao crescimento da carga.

Disponibilidade

capacidade de prevenir e recuperar falhas.

Interoperabilidade

capacidade de conviver com outras tecnologias.

-4–
Módulo 2 – Segurança

O estabelecimento de uma política de segurança dentro da empresa, prevendo


acidentes naturais e demais problemas que possam comprometer a continuidade das
operações.

A questão da segurança

Desde o atentado terrorista que destruiu as torres gêmeas em Nova York, nos
Estados Unidos, em 11 de setembro de 2001, o mundo não é mais o mesmo. O
incidente serviu especialmente para reavivar no setor corporativo a necessidade do
estabelecimento de uma política de segurança eficaz, que não contemple apenas
medidas internas de proteção, mas também a viabilidade de contar com uma outra
unidade. Esta, existente em outro local, própria ou de terceiros, permitirá a
continuidade das operações nos casos de acidentes graves como o ocorrido nos
Estados Unidos, ou mesmo incêndios, terremotos e outros problemas capazes de
abalar seriamente ou destruir as instalações físicas das empresas.

Apesar de o assunto estar mais vivo atualmente, a preocupação com a segurança


não é recente. No tempo dos CPDs (Centros de Processamentos de Dados), quando
reinavam absolutos os mainframes, a maior atenção era direcionada, basicamente, à
parte física do ambiente: instalações, arquivos de discos, fitas e listagens deveriam
estar protegidos contra incêndios, enchentes ou atos de vandalismo. Com isso, a
segurança era garantida por meio de medidas simples, tais como restrição do acesso
ao ambiente – apenas pessoas autorizadas podiam entrar no CPD -, salas
climatizadas e mobiliário adequado.

Essas medidas eram suficientes para garantir, principalmente, a segurança dos


dados. O cenário começou a mudar quando foram implementadas as primeiras redes
e foi iniciada a descentralização do processamento de dados. A ligação dos
microcomputadores ao mainframe passou a ser um fator de preocupação, embora
tida como inevitável. Temia-se que um funcionário pudesse modificar as
informações, como por exemplo, alterar algum item da sua ficha do departamento
pessoal, ou mesmo obter dados confidenciais sobre as condições financeiras da
empresa.

Os questionamentos, restringiam-se aos níveis de segurança que deveriam ser


implementados, especialmente quanto ao tipo de procedimentos facultados aos
funcionários. Uma das principais preocupações das empresas referia-se à sabotagem
ou a ações prejudiciais praticadas por funcionários insatisfeitos ou ex-funcionários.
As instituições financeiras eram as mais temerosas quanto a isso, em função dos
prejuízos que qualquer alteração nas informações poderia trazer. E não eram
preocupações infundadas. Algumas dessas empresas chegaram a amargar prejuízos
consideráveis em decorrência das manipulações eletrônicas que possibilitaram
desvios de dinheiro feitos por parte dos funcionários.

-5–
A ameaça à segurança cresceu sobretudo a partir da segunda metade da década de
80, devido à proliferação do uso de redes corporativas. Os executivos finalmente se
convenceram de que precisavam estipular uma política interna mais severa referente
ao tratamento da informação. Em paralelo, as software houses começaram a
oferecer ao mercado soluções para controle de acesso aos dados. Um dos mais
importantes recursos que passou a ser empregado pelas corporações foi a
criptografia – uma maneira de transformar os dados para que não sejam lidos por
alguém que não tenha uma chave secreta para decodificá-los.

Os primeiros métodos de codificação por criptografia, denominados simétricos, no


entanto, não se mostraram muito eficientes, pois empregavam uma mesma chave
para o emissor e para o receptor. A sua vulnerabilidade residia no fato de que era
necessário que o emissor enviasse a chave secreta para o receptor para que este
pudesse decodificar a mensagem. Do outro lado, a mensagem também poderia ser
quebrada por um programa que tivesse uma tabela de freqüência de uso de letras e
por combinação de letras da língua portuguesa.

A criptografia começou a evoluir a partir de 1975, com o desenvolvimento dos


sistemas assimétricos. A novidade desse método era o uso da teoria dos números,
teoria de informação, análise combinatória e complexidade computacional na
invenção de sistemas de chaves públicas que não eram possíveis de serem
quebrados.

Outros recursos

As software houses também passaram a disponibilizar outros recursos de segurança


como os firewalls, que são como barreiras estabelecidas por um roteador, com
objetivo de bloquear a passagem de mensagens, e que empregam também as
assinaturas digitais que utilizam a técnica da criptografia para garantir a
autenticidade de um documento.

Nos anos 90, com o crescimento da Internet, os problemas em relação à segurança


se multiplicaram. Na mesma proporção que a comunicação era facilitada pela
capacidade de enviar grande volume de informações a longas distâncias, com custos
relativamente baixos, também cresciam os perigos de invasões e ataques aos
sistemas. Os hackers e crakers passaram a ser os grandes vilões e ainda tiram o
sono de executivos de companhias de todos os portes e ramos de atuação. Uma
pesquisa realizada no Brasil sobre segurança da informação mostrou que 40% das
empresas entrevistadas foram vítimas de algum tipo de invasão e 84% dos ataques
ocorreram em menos de um ano. Uma boa parcela das empresas, cerca de 30%, não
soube informar se foi invadida. Outro dado importante revelado pelo estudo é que
apenas 31% das empresas entrevistadas tinham um plano de contingência.

-6–
Atualmente, a segurança é um assunto levado a sério pelas corporações. No entanto,
uma política de proteção não pode ser efetivada da noite para o dia e nem existe
uma fórmula padrão que sirva para todas as empresas. É preciso, inicialmente, fazer
uma análise interna e determinar o que é vital para a companhia, quais são os
maiores riscos e vulnerabilidades de seus sistemas, quais cuidados básicos devem
ser tomados e quais ferramentas de hardware e software mostram-se mais
apropriadas para proteger a empresa em todos os sentidos. Outro aspecto a ser
considerado é que um plano de segurança não pode ser rígido, ou seja, precisa ser
flexível e dinâmico para suportar as necessidades que surgirem em virtude da
velocidade de mudança de fatores físicos, tecnológicos e humanos.

Conscientizar os funcionários e envolvê-los no processo também constitui um


elemento importante para que uma política de segurança seja bem-sucedida. Cada
funcionário precisa entender o seu papel nesse processo e deve ser treinado. A
empresa, de sua parte, precisa agir com transparência para que a equipe de trabalho
atue como uma aliada. Outra medida fundamental é fazer reavaliações periódicas do
plano de segurança para verificar pontos ainda vulneráveis por meio de testes.

As empresas também precisam redobrar a guarda quanto aos vírus de computador,


mantendo atualizados os programas antivírus. O vírus Beagle já fez um grande
estrago em várias corporações no mundo todo, provocando prejuízo da ordem de
bilhões de dólares. Cada vez mais, falhas de segurança em programas e a atitude
frouxa da parte dos funcionários faz com que os vírus atuem nas empresas,
invadindo por meio do sistema de mensagens, pelos sistemas de Instant Message,
como o Messenger, e pelos sistemas de P2P, como o Kazaa.

Novas ameaças virtuais estão no mercado. A mais nova moda são os SPAMs (e-mails
não solicitados) e os SPIMs (SPAM por Instant Messenger). Apesar de não serem
consideradas como problemas de segurança por alguns, Os SPAMs e SPIMs
consomem recursos e diminuem a produtividade dos colaboradores de uma empresa.
Já os Phishings são e-mails enviados por estelionatários para consumidores e
empresas no intuito de conseguir informações privilegiadas sobre a vítima, emulando
sites reais. Além disso, novas formas de comunicação, como a sem fio, levam a
outros problemas de segurança que começam a ser tratados pelos especialistas e
pelas empresas.

O maior problema é que geralmente as companhias pensam nos planos de


contingência e de continuidade de negócios de forma reativa, quando deveria ser de
forma pró-ativa. Entre as táticas mais comuns para proteção dos dados, figuram a
duplicação do ambiente de missão crítica (do hardware e software) e backup dos
dados. Muitas vezes, no entanto, essa duplicação não é bem planejada. Para dez
máquinas, por exemplo, são duplicadas apenas três. Outra questão é relativa à
adoção de geradores em número insuficiente para suportar todos os sistemas em
caso de queda de energia elétrica.

-7–
Uso de geradores, equipamentos de UPS (Uninterruptible Power Supply) e nobreaks
bem configurados e monitorados constantemente para suportar um período razoável
de falta de energia, links duplicados, e caminhos alternativos entre localidades de
contingência são algumas das alternativas válidas. Também é recomendável que
sejam traçados planos de contingência capazes de cobrir paradas nos fornecedores e
parceiros de negócios que são estratégicos para a companhia.

Depois dos atentados terroristas nos Estados um idos, muitas empresas passaram a
considerar ainda a importância de terem outra unidade em um local distante e que
tenha condições de assumir as operações, no caso de ocorrer um acidente que
destrua ou danifique seriamente a estrutura física da sua base operacional. Nesse
aspecto, a instalação de um site de backup num data center constitui uma
alternativa interessante e que já está sendo adotada por muitas companhias. O
assunto será abordado de forma mais abrangente no próximo módulo.

-8–
Módulo 3 – Sites alternativos

Datacenters e terceirização: prós e contras

Sites alternativos. Data centers e terceirização

A terceirização da área de Tecnologia da Informação (TI), também chamada de


outsourcing, é defendida pelos analistas de mercado por ser uma alternativa
eficiente para redução de custos e aumento da competitividade, na medida em que
as empresas deixam de centrar sua atenção numa área que não é sua atividade fim.
Estudos comprovam que a diminuição de custos, em alguns casos, pode chegar a
50%.

Apesar disso, no Brasil as companhias têm mostrado algumas resistências em


transferir para terceiros suas operações, por um fator cultural e também por
temerem o vazamento de informações estratégicas e sigilosas para a concorrência.
Mas, principalmente a partir de 2001, alguns fatores contribuíram para que as
companhias revissem suas posições. A crise energética e os atentados terroristas
ocorridos nos Estados Unidos, em 11 de setembro de 2001, foram duas fortes razões
para que as empresas passassem a analisar com maior atenção a importância de
contar com um segundo site disposto num outro local físico e distante da sua base
operacional.

Outra forte motivação foram as mudanças ocorridas no segmento de outsourcing


com a entrada de novos fornecedores desse tipo de serviço, como as operadoras de
telefonia que, ao lado das chamadas "pure players" (empresas criadas
especificamente para esse fim) e das prestadoras de serviços de TI, passaram a
oferecer um rico e variado leque de produtos e soluções sob medida para
corporações de todos os tipos e portes.

Da parte dos clientes empresariais, as grandes corporações são as que mais apostam
nessa alternativa. São empresas que possuem grandes CPDs e utilizam o data center
para contingência, backup e algumas operações específicas como e-business e
correio eletrônico. Os analistas de mercado acreditam que a tendência para os
próximos anos é que um maior número de empresas decida terceirizar parcialmente
ou totalmente suas áreas de TI. Não apenas como opção de segurança, no caso de
um desastre (incêndio, enchente, explosão, atentados etc), o que lhes permitiria a
continuidade de suas operações, mas também como proteção contra a obsolescência
dos equipamentos e sistemas.

-9–
Principais players

Apesar das perspectivas otimistas, os principais players de serviços terceirizados


deverão enfrentar grandes desafios, a começar pela grande quantidade de
concorrentes nesse mercado. Muitas dessas empresas investiram grandes cifras para
construir a infra-estrutura adequada e hoje enfrentam enorme índice de ociosidade,
uma vez que o mercado, de certa forma, ainda é novo e apesar de várias empresas
estarem pensando seriamente em contratar seus serviços, na prática isso não está
ocorrendo com a velocidade esperada. Por conta disso, as fusões entre players já
começaram e somente os mais capitalizados irão sobreviver.

Todo esse movimento de aluguel de espaço (hospedagem) e outsourcing começou a


ganhar impulso a partir de 1995, quando a Internet comercial foi iniciada no país.
Naquela época, surgiram os primeiros players, entre os quais os antigos bureaus de
informática, que já na década de 70 e 80 atuavam como alternativas para as
grandes corporações rodarem suas folhas de pagamento e contas a pagar e a
receber, entre outras aplicações. Esses bureaus tiveram de investir pesadas cifras
para montar uma infra-estrutura adequada para abrigar aplicações de missão crítica,
principalmente as voltadas à Internet e ao comércio eletrônico. Mas muitas se
enganaram, considerando que as empresas genuinamente virtuais iriam se
multiplicar, quando, na verdade, o desempenho da maioria delas não correspondeu
às expectativas.

Nesse sentido, os bureaus, agora intitulados IDCs (Internet Data Centers) tiveram de
mudar rapidamente o foco e ampliar a carteira de produtos, não se limitando a
apenas oferecer a hospedagem de sites, mas também outsourcing de TI e outros
serviços de alto valor agregado. No rol de antigos bureaus, que evoluíram para IDCs
figuram empresas como Datamec/Unisys, EDS e IBM.

A disputa por uma fatia desse segmento ficou mais acirrada com a entrada das
operadoras de telecomunicações que possuem maior solidez financeira e
capilaridade, podendo oferecer aos clientes maior confiabilidade e pacotes de
serviços mais abrangentes e baratos.Entre as que estão investindo nesse segmento
incluem-se a Tnext (da Telemar), TIC (Telefônica), Brasil Telecom, Intelig e
Embratel. Reforçam o time dos IDCs as chamadas pure players, e as empresas
prestadoras de serviços de comunicação de rede e satélite. Além disso, empresas
sem tradição nesse ramo, mas com necessidades particulares para atender o setor
corporativo com a HP, compraram IDCs para oferecerem serviços em todos os
espectros da terceirização.

- 10 –
Leque de serviços

Existem bons motivos para as empresas optarem pela contratação de um data


center, a começar pela grande capacidade técnica que possuem e pela constante
atualização de hardware e software, o que se traduz em menores custos de operação
e de manutenção dos sistemas. Os IDCs também contam com ambiente físico
adequado, com salas climatizadas e com sistemas de fornecimento de energia
elétrica e de refrigeração redundantes, além de proteção contra incêndios e
acidentes naturais. As modalidades de serviços são variadas e atendem a todos os
tipos e portes de empresa. Entre os principais serviços oferecidos estão:

Shared Hosting

serviços de hospedagem de sites institucionais e de comércio eletrônico. Nessa


modalidade, em geral, duas empresas compartilham o mesmo servidor do data
center.

Dedicated Hosting

hospedagem dedicada, ou seja, o cliente tem espaço exclusivo no servidor do data


center, obtendo também serviços agregados como atualização de aplicativos,
balanceamento de carga, acompanhamento da performance dos sistemas, entre
outros.

Colocation

nessa modalidade, o cliente aluga um espaço físico no data center e utiliza a sua
infra-estrutura de comunicação e energia. Os equipamentos e o gerenciamento das
operações são do cliente.

Dedication

todos os equipamentos, aplicativos, gerenciamento e serviços de manutenção ficam


a cargo do data center.

Outsourcing

o data center assume todas as funções de TI da empresa cliente.

Serviços de segurança e contigência. O data center vira a porta de entrada da


Internet para a empresa e mantém serviços para evitar todos os possíveis ataques
externos. Além disso, serve de contingência para os servidores da empresa
contratante, mantendo espelhos dos dados e aplicativos em seu site.

- 11 –
Outras vantagens oferecidas pela terceirização, além da segurança, suporte 24 X7
(24 horas, sete dias por semana), atualização constante de equipamentos e
sistemas, e consultoria, incluem-se facilidades de conectividade, integração de rede
e gerenciamento do storage (dados). Esses e demais serviços costumam ser
assegurados pelos acordos SLA (Service Level Agreement – acordos de níveis de
serviço) – contratos que se caracterizam por serem bem mais detalhados do que os
convencionais, na medida em que especificam, por escrito, todos os serviços
contratados e as penalidades previstas para o não cumprimento das cláusulas
acordadas entre as partes.

Nos SLAs, são descritos os parâmetros de qualidade oferecidos, a definição das


responsabilidades de ambas as partes, e inclusive métricas claras e mensuráveis
quanto aos níveis de performance dos sistemas, segurança, índice de disponibilidade
da rede, tempo de restauração dos sistemas (em caso de indisponibilidade) e
integridade dos dados.Optar pela terceirização parcial ou total é uma decisão que
deve ser analisada com critério, verificando os benefícios e riscos inerentes.

Também é importante avaliar a idoneidade, experiência e competência das empresas


fornecedoras de serviços e a respectiva saúde financeira, o que irá assegurar sua
longevidade nesse mercado. Os consultores e especialistas recomendam que as
companhias iniciem pela terceirização de algumas aplicações, e se o nível de serviços
for considerado satisfatório, podem migrar aos poucos as demais. É uma forma
válida para reduzir custos e manter a competitividade.

- 12 –
Módulo 4 – Arquitetura de 64 bits

Cada vez mais as organizações processam grande volume de informações. As atuais


arquiteturas de 32 bits dão sinais de limitação e deverão, em breve, ceder lugar aos
sistemas de 64 bits, de maior capacidade e desempenho superior.

Arquitetura de 64 bits – conhecendo os sistemas

O ambiente de tecnologia corporativo não pode ser definido apenas sob o ponto de
vista técnico, mas também como uma infra-estrutura fundamental que permitirá à
companhia se manter competitiva num mercado em constante evolução. Nesse
sentido, qual tecnologia empregar é uma decisão da alta direção, mas sem prescindir
do aval e comprometimento do gestor de TI. Fatores como escalabilidade,
disponibilidade, desempenho, segurança e custo de propriedade devem ser
considerados nesse processo de decisão.

Não é tarefa fácil decidir pela tecnologia a ser adotada, em virtude da grande
velocidade com que as inovações são lançadas, do grande apelo dos fornecedores de
sistemas, e das novas necessidades das empresas que enfrentam o desafio de lidar
com o crescente aumento da quantidade de dados e informações decorrentes do uso
cada vez mais intenso da Internet. Hoje, todos os setores empresariais precisam
compreender claramente o potencial e os riscos da economia digital e decidir qual
caminho seguir a curto, médio e longo prazos.

Muitas empresas que estão embasadas em Tecnologia da Informação já dispõem de


uma plataforma de aplicações em múltiplas camadas e interligadas entre si.
Contudo, elas começam a perceber que poderão ter problemas num futuro não tão
distante, uma vez que as atuais arquiteturas dos processadores, que suportam os
servidores, não foram projetadas para sustentar uma demanda computacional tão
grande e em constante crescimento.

É fato que os processadores atuais de 32 bits, baseados nas arquiteturas CISC


(Complex Instruction Set Computer) e RISC (Reduced Instruction Set Computer) já
começam a dar sinais de limitação, abrindo as perspectivas para os ambientes
baseados nos processadores de 64 bits. Isso porque elas são capazes de acessar
mais memória, processar instruções muito mais complexas e apresentam um
desempenho muito superior.

Evolução da tecnologia

O crescimento da microinformática e do processamento distribuído, especialmente a


partir da década de 80, propiciou o uso em larga escala de computadores baseados
em processadores padrão 286 de 16 bits, extremamente simples para os padrões
atuais, mas que na época representaram grande avanço.

- 13 –
Uma nova mudança, e causadora de verdadeira revolução, viria com a criação dos
primeiros processadores 386, baseados no conjunto de instruções IA32 (32 bits). Ele
representava um método mais sofisticado do que os 286 para execução de múltiplos
programas (multitarefa) no ambiente DOS, graças aos avanços no gerenciamento de
memória. A partir daí, as evoluções foram constantes.

Voltando um pouco na história da computação, durante muitos anos o modelo


predominante dos microprocessadores foi o da Intel Corporation. A própria IBM
ingressou na área de PCs, utilizando o processador Intel 8088. As gerações seguintes
basearam-se na família 80×86, como os 8086, 80286, 80386 e 80486, que eram
versões elaboradas do 8088 original. Mas, a cada versão, eram feitas melhorias,
tornando o PC mais ágil. Apesar de todas as mudanças, até o 80486 todos os
processadores Intel eram baseados em uma filosofia de projeto denominada CISC
(Complex Instruction Set Computing).

Essa filosofia pressupunha o uso de comandos que incorporavam muitas instruções


para executar uma simples operação. Outros sistemas CISC conhecidos são o VAX e
os mainframes da IBM. A idéia principal da arquitetura CISC traduz-se em aproveitar
a diferença significativa entre o tempo de acesso à memória e à velocidade do
processador, construindo um conjunto de instruções complexo e bastante
abrangente, com capacidade de executar diversas funções por instrução.

Uma nova mudança seria impulsionada pelo surgimento da arquitetura RISC


(Reduced Instruction Set Computing), baseada em instruções simples e de menor
tamanho, que podem ser executadas em apenas um ciclo do processador. O termo
"conjunto reduzido de instruções" refere-se justamente ao número reduzido de
instruções que são executadas em um ciclo de clock do processador, enquanto os
processadores comuns levam vários ciclos de clock para selecionar uma única
instrução.

Tudo isso é possível graças à técnica do Pipelined, que possibilita ao hardware


processar mais de uma instrução de cada vez. Uma máquina CISC típica apresenta
quatro fases para a execução: busca, decodificação, execução e escrita. Em uma
máquina RISC existem as mesmas fases, mas estas são executadas em paralelo.
Uma fase não precisa terminar para que outra seja iniciada, o que contribui para
melhorar o processamento global.

Sendo assim, os processadores mais adiantados da IBM e SUN aderiram ao princípio


do RISC. Porém, enquanto a tecnologia avançava para aumentar o tamanho dos
dados e a densidade do transistor, os desenvolvedores de processadores baseados
em RISC começaram a considerar novas formas de aproveitar o espaço novo do
chip. Dessa forma, as gerações posteriores de processadores de desempenho
elevado passaram a apresentar características diferentes em comparação aos
primeiros desenvolvidos sob essa arquitetura.

- 14 –
Hoje, praticamente nenhum processador segue totalmente uma das duas filosofias.
Tanto os processadores da família x86, como os processadores Intel® Pentium II,
Intel® Pentium III, Intel® Pentium® 4, na verdade misturam características das
duas arquiteturas por uma questão de performance. A complexidade da lógica dos
processadores continuou crescendo geometricamente, mas apesar disso estima-se
que as arquiteturas atuais, baseadas no conjunto de instruções IA32 (32 bits), já
chegaram no limite, impossibilitando maiores evoluções no desempenho dos
equipamentos.

Nova arquitetura

As atenções começam a se voltar para os processadores de 64 bits, apontados pelos


especialistas em computação como o novo padrão que deverá se firmar nos
próximos anos. Inicialmente, apenas os computadores de altíssimo desempenho
deverão empregar os novos chips, mas a tendência é que gradualmente os
processadores de 64 bits se tornem padrão nos servidores de rede, micros de alto
desempenho e até nos micros domésticos. Antecipando-se a esse futuro, a Intel vem
trabalhando há alguns anos para desenvolver uma nova arquitetura, mas cada uma
dessas empresas seguiu um caminho diferente.

Em 1994, a Intel e a HP (Hewlett-Packard Company) anunciaram o projeto de


desenvolvimento conjunto de uma arquitetura baseada em instruções de 64 bits para
estações de trabalho, servidores e sistemas de computação empresarial avançados.
A idéia inicial previa para 1999 o lançamento no mercado do primeiro processador de
64 bits, na época batizado de Merced. No entanto, as previsões não se concretizaram
e três anos depois as empresas comunicaram ao mercado que estavam trabalhando
no desenvolvimento de uma nova tecnologia chamada de EPIC - Explicity Parallel
Instruction Computing – baseada nos conceitos denominados VLIW - Very Long
Instruction Word. Finalmente, em 2001, foi lançado o Itanium, o primeiro
processador de 64 bits baseado na arquitetura EPIC, destinado ao mercado de
servidores. A nova plataforma nasceu com a promessa de elevar a capacidade
computacional dos servidores a um novo patamar de desempenho e escalabilidade,
uma vez que o EPIC representa um avanço significativo em relação às arquiteturas
de 32 bits da própria Intel, e as RISC de 64 bits.

Na verdade, o EPIC não pode ser classificado como uma simples evolução da
arquitetura de 32 bits da Intel, mas sim como uma arquitetura totalmente nova, que
se caracteriza pela capacidade de endereçamento de 64 bits, permitindo acesso a
uma memória virtualmente ilimitada, restrita apenas pela tecnologia de memória
física. Outro diferencial é o seu alto grau de paralelismo na execução de instruções.
Testes independentes comprovaram que os sistemas baseados no processador
Itanium e Itanium-2 podem oferecer uma melhoria de desempenho de até 12 vezes
em comparação aos designs RISC proprietários, para transações de segurança
online.

- 15 –
Muitos fabricantes de servidores e PCs, entre os quais se incluem HP/Compaq, IBM e
Dell já estão desenvolvendo novas linhas de produtos baseados na família de
processadores de 64 bits. Quatro sistemas operacionais suportarão esse ambiente:
Microsoft Windows (64 bit Edition para workstations, e 64 bit Windows Advanced
Server Limited Edition, para servidores); HP-UX da Hewlett Packard; AIXda IBM; e
Linux.

As novas gerações do Itanium

Foi em julho de 2002 que a Intel iniciou a distribuição comercial da segunda versão
do Itanium ®, chamada de Itanium 2, e um ano depois, em julho de 2003,
incrementou a família de processadores de 64 bits com o Madison, a terceira geração
do Itanium, que posteriormente deverá ser continuada com os até agora batizados
de Deerfield e Montecito.

No geral, a família do processador Itanium viabiliza diversas opções de plataformas e


software para servidores high-end e workstations, com uma significativa melhoria de
performance em relação ao que oferecem as plataformas proprietárias. Com a
escalabilidade do processador Itanium 2 (a habilidade de conectar processadores uns
aos outros e criar sistemas multiprocessados).

O soquete do processador Itanium 2 é compatível com o de duas futuras gerações de


processadores da família Itanium, o que facilitará a troca do processador. Dessa
forma, o setor corporativo irá preservar investimentos feitos nas plataformas
baseadas no Itanium 2. Com olho no futuro, a Intel já está trabalhando em cinco
futuras gerações do processadores Itanium, com previsão de lançamento para a
segunda metade desta década.

Atualmente, as empresas líderes em software corporativos já estão desenvolvendo


aplicações baseadas em sistemas Itanium 2, incluindo BEA Weblogic, IBM DB2 e
Websphere, Microsoft SQL Server 2000, Oracle9i Database e Oracle9i Application
Server, as plataformas de serviços financeiros da Reuters, SAP R/3 e SAS.

A família do processador Itanium é suportada por um número de sistemas


operacionais muito superior ao de qualquer outra plataforma corporativa high-end.
Os sistemas operacionais que atualmente trabalham com processadores Itanium 2
incluem: Microsoft’s Windows Advanced Server, Limited Edition, e Windows XP 64-Bit
Edition; Hewlett-Packard’s HP-UX;, Red Hat, SuSE e TurboLinux. A HP está portando
seus sistemas operacionais OpenVMS e Non Stop Kernel para a família do
processador Itanium para futuros lançamentos.

- 16 –
Combinado com o amplo suporte do setor de TI, o design inovador do processador
Itanium 2 garante aos usuários corporativos os históricos benefícios das arquiteturas
RISC - nível de desempenho para o mercado corporativo, confiabilidade e
escalabilidade – com uma vasta margem de escolha de fornecedores, sistemas
operacionais e aplicações de software.

O processador Itanium 2 suporta alto volume de transações, cálculos complexos e


uma grande quantidade de dados e usuários. O exclusivo design do processador
Itanium 2 – Explicitly Parallel Instruction Computing (EPIC) – e o cache de nível 3
(L3) integrado de 3 MB proporciona processamento mais rápido nas transações
online, análise de dados, simulação e renderização.

É muito difícil fazer previsões sobre qual modelo irá predominar ou o que ocorrerá no
mercado no futuro próximo. Existem projetos em fase de desenvolvimento e muita
coisa pode mudar. De certo, apenas, segundo avaliam os consultores e analistas de
mercado, é que em algum momento desta década deverão deixar de ser fabricados
os sistemas baseados em RISC, e os sistemas de 64 bits começarão a se tornar
commodities.

- 17 –
Módulo 5 – Roadmap

Para assegurar o bom desempenho na economia digital as corporações precisam


adotar um novo modelo organizacional. É preciso criar um ambiente de cooperação
suportado por tecnologias que sejam aderentes aos objetivos de negócios.

A evolução computacional dentro da organização

Até um passado não muito distante, os sistemas computacionais eram desenvolvidos


para atender a objetivos definidos e limitados, não tendo a preocupação com a
integração e também não levavam em conta os modelos de negócio high-end das
companhias. Grande parte dos esforços e dos investimentos estava voltada para
automatizar operações repetitivas. O nível tecnológico alcançado até então não
permitia o processamento de operações complexas sem grande esforço de análise e
de programação.

Muita coisa mudou num curto espaço de tempo. O advento da programação


orientada a objeto, a criação das interfaces gráficas, novos aplicativos e softwares, o
aperfeiçoamento do hardware, e uma série de outros fatores levaram as empresas a
desviar a atenção dos problemas básicos de bits e bytes e de infra-estrutura para
soluções mais orientadas aos processos de negócios. Com a evolução tecnológica, as
corporações começaram a não mais e tão-somente automatizar as operações
repetitivas, mas a criar sistemas cada vez mais inteligentes e especializados que
exigiam o conhecimento dos negócios e das funções empresariais.

Até o início dos anos 80, a tecnologia das redes ainda era assunto para um seleto
grupo de técnicos. Aos poucos, os mainframes e supercomputadores foram
substituídos por PCs em redes locais, no processo que ficou conhecido como
downsizing. O modelo cliente-servidor começava a se firmar nas empresas,
permitindo aos usuários finais maior intimidade com a informática. Com a
proliferação dos microcomputadores, que substituíram os antigos terminais “burros”,
os usuários começaram a descobrir que o equipamento permitia o acesso a uma
série de novos recursos do que o simples trabalho stand alone.

Ligados ao CPD, os micros passaram a processar as informações de forma mais


rápida e inteligente. Depois passaram a ser interligados ponto-a-ponto em redes
locais ou em redes remotas, ampliando o conceito de comunicação de dados. Novas
evoluções ocorreram, ampliando a conectividade e convergindo para a interconexão
das redes, popularizada a partir dos anos 90 com a Internet.

- 18 –
Novas tecnologias

Hoje, o desafio das corporações é muito grande. Já não é possível, como no passado,
delegar unicamente à área de TI (Tecnologia da Informação) a tarefa de escolher
novos equipamentos e soluções. Não se trata mais de uma questão puramente
tecnológica, mas de negócios. O cenário em que as empresas nasceram e cresceram
mudou radicalmente e continua em transformação. Internet, wirelles, e-business,
uso extenso de banda larga, ferramentas de Business Intelligence, data warehouse,
e uma série de outras soluções e tecnologias obrigam as empresas a reavaliar seus
modelos organizacionais.

Estruturas verticalizadas, cultura de produtos e não de serviços, uso meramente


tático e superficial da Tecnologia da Informação já não se aplicam nos novos tempos.
O modelo tradicional baseado na hierarquia de comando e controle não funciona no
novo contexto porque cria resistências a mudanças e torna o processo decisório lento
e impróprio para o cenário globalizado que requer maior agilidade de resposta. Além
de estarem embasadas em Tecnologia da Informação, as corporações precisam de
modelos organizacionais diferentes, que permitam a interconexão total, que levem a
um ambiente de cooperação, ao gerenciamento do conhecimento e ao trabalho em
equipe.

Já não é possível dissociar os investimentos em TI dos objetivos de negócios. Nesse


sentido, as atenções se voltam para a integração. A premissa básica é a de dispor de
uma estrutura computacional flexível e escalável, capaz de acomodar as mudanças e
o crescimento do ambiente de Tecnologia da Informação, visando preservar os
investimentos já feitos. Em outras palavras, um dos grandes desafios das
organizações no momento é integrar o novo com o legado sem que seja necessário
alterar profundamente as aplicações e estruturas de dados existentes.

Preocupações e cuidados atuais

O crescimento das aplicações Web, a necessidade de otimizar o relacionamento com


fornecedores e parceiros de negócios por meio de soluções de Supply Chain
Management, a visão integrada de clientes possibilitada pelo CRM (Customer
Relationship Management), a consolidação das operações permitidas pelos sistemas
de gestão empresarial (ERP – Enterprise Resource Management), o uso de bancos de
dados mais potentes e de ferramentas de Business Intelligence para análise dos
dados, entre outras questões obrigam cada vez mais as empresas a terem uma visão
horizontal de processos de negócios.

Também não se descartam investimentos em tecnologias inovadoras, desde que


contribuam para a obtenção de vantagens competitivas.

- 19 –
Para suportar toda a carga de dados e informações que se multiplica a cada dia, as
corporações precisam saber planejar o crescimento da sua infra-estrutura, sem
prescindir da atualização das documentações dos novos processos, assim como
reforçar os critérios de segurança e de backup. É fundamental a construção de uma
infra-estrutura confiável de hardware, software e manutenção, de maneira que
permita à empresa preservar as suas operações com o menor risco de falha e de
indisponibilidade.

Servidores maiores e mais potentes, tecnologia de clustering, crescimento do


número de nós na rede e ampliação da capacidade do banco de dados são algumas
das questões que vêm sendo seriamente avaliadas pelas corporações. Trata-se de
uma evolução necessária e de um caminho sem volta.

Outra preocupação importante refere-se à armazenagem dados e de informações


que são fundamentais para o negócio. Em contínuo crescimento, os dados precisam
de mais vias de transporte e de ambientes adequados para serem guardados e de
forma que possam ser recuperados prontamente. Nesse aspecto, as soluções e
inovações na área de armazenamento começam a atrair a atenção de corporações de
todos os tipos e portes. Tudo isso, vem acompanhado de novas formas de
comercialização e de vendas chamada de on-demand (ou uso sob demanda). Com
ela, é possível preparar-se para picos de processamento, como o período das
compras de Natal, e ter sempre os recursos computacionais disponíveis.

Nos próximos módulos, abordaremos com mais detalhes cada um desses


componentes que são fundamentais para assegurar a continuidade das operações
das empresas na economia digital.

- 20 –
Módulo 6 – Hardware: servidores

Empresas de diferentes portes e ramos de atuação estão adotando máquinas


servidoras que permitem compartilhar os recursos na rede. São equipamentos
capazes de processar grandes volumes de dados, dotados com CPUs rápidas e
dispositivos de armazenamento.

Hardware: servidores

A grande maioria das empresas conta, atualmente, com um ambiente de TI


(Tecnologia da Informação) heterogêneo, ou seja, composto por diferentes tipos e
portes de equipamentos. A evolução tecnológica, o desenvolvimento do modelo
cliente/servidor, a necessidade de interligação entre sistemas internos e externos e o
crescimento da Internet foram os principais fatores que contribuíram para que as
companhias passassem a adotar cada vez mais os chamados servidores –
computadores com grande capacidade de processamento que têm como principal
função prover e gerenciar recursos compartilhados da rede para as estações de
trabalho ou mesmo para outros servidores.

Em geral, esses equipamentos contam com um ou mais processadores e dispositivos


de armazenamento (discos rígidos e drives de CD/DVD-ROM) de alta capacidade
porque costumam processar grandes volumes de dados. Mas a configuração do
hardware do servidor depende de uma série de fatores, entre os quais: da
quantidade, tipo e finalidade das aplicações; do número de usuários que irá atender;
da criticidade das operações; e do nível de disponibilidade dos sistemas.

Nesse sentido, pode ser utilizado como servidor uma máquina de menor capacidade,
como por exemplo um Pentium IV monoprocessado (com apenas um processador),
ou máquinas mais sofisticadas que comportam de 1 a 128 processadores, como os
computadores baseados em tecnologia Intel, e de 1 a 256 processadores, como as
máquinas baseadas em arquitetura RISC, como as fabricadas pela HP, IBM e Sun,
entre outras.

Dedicados e não dedicados

Quando uma máquina é utilizada para executar exclusivamente uma tarefa é


chamada de servidor dedicado. A execução de tarefas de rede, por exemplo,
normalmente precisam contar com um equipamento dedicado porque muitos
sistemas operacionais de rede apresentam altos requisitos de memória. Um exemplo
de servidor dedicado seria um PC (Personal Computer) executando o Windows 2003
Server da Microsoft.

- 21 –
De outra parte, os servidores não dedicados são máquinas que podem ser utilizadas,
simultaneamente, como servidoras da rede e como uma estação de trabalho. Em
uma rede local (também chamada de LAN – Local Área Network – formada por
equipamentos conectados entre si operando em curtas distâncias) do tipo peer-to-
peer (ponto a ponto), cada computador tem condição de compartilhar recursos com
os demais. Nesse sentido, um micro operado pelo funcionário X funciona como uma
estação de trabalho normal, mas também pode ser o servidor da impressora,
autorizando os serviços de impressão para todos os funcionários daquele
departamento.

Outro micro, operado pela funcionária Y também serve como ponto central de
armazenamento dos arquivos na rede. Um terceiro computador, operado pelo
funcionário Z, pode disponibilizar para todos os demais o único DVD-ROM da rede, e
finalmente o funcionário W opera o micro em que está instalado o modem que
permite a todos a conexão à Internet. Todos esses quatro micros são servidores,
respectivamente, de impressão, de arquivos, de DVD-ROM e de Internet, mas ao
mesmo tempo são usados como estações de trabalho.

A vantagem oferecida por esses servidores não dedicados é que as máquinas podem
ser melhores utilizadas. O ponto negativo é a necessidade de manter as máquinas
ligadas, mesmo se os respectivos operadores não as estiverem utilizando, de forma a
permitir que os seus recursos estejam disponíveis para os demais usuários. Outra
desvantagem é que com essa configuração todo o sistema fica mais vulnerável.

Em alguns casos específicos, como os de serviços de impressão, o uso de uma


estação de trabalho como servidor (Print Server) aplica-se bem a redes pequenas e
em ambientes em que a impressora não é muito requisitada. Mas nos casos em que
a impressora deve ficar ativa a maior parte do tempo, o ideal é dispor de um
servidor dedicado a essa tarefa porque, do contrário, a máquina ficará muito lenta
para outras tarefas. Pode ser utilizado como Print Server uma máquina de menor
porte, mas que tenha espaço em disco suficiente para instalar um sistema
operacional como o Windows XP, por exemplo, e mais 100 MB livres para permitir os
arquivos temporários do spooler de impressão, ou ainda comprar impressoras que já
venham com o seu próprio Print Server integrado, coisa muita comum atualmente.

Servidores de discos e de arquivos

Em redes mais antigas era comum o emprego de servidores de disco como forma de
reduzir custos. Nesses casos, as estações de trabalho não possuíam discos rígidos,
mas acessavam o disco rígido do servidor, que era disponibilizado por meio da rede.
Nesse tipo de rede, eram instaladas placas com chips de boot nas estações. Nos
chips de memória EPROM, ficavam armazenadas todas as informações necessárias
para inicializar cada micro, possibilitando seu acesso ao disco rígido do servidor e, a
partir disso, carregar o sistema operacional e os programas aplicativos.

- 22 –
Atualmente, o modelo mais utilizado pelas empresas de pequeno e médio portes é o
de servidor de arquivo e impressão. A diferença em relação ao modelo anterior é
que, neste, cada estação deve ter seu próprio disco rígido, onde está instado o
sistema operacional. Essas máquinas apenas acessam o servidor para buscar
arquivos. Outros tipos de servidores dedicados e bastante utilizados pelas empresas
são o de banco de dados e o de Proxy para acesso à Internet.

O modelo cliente-servidor

Basicamente o que diferencia um servidor de uma estação de trabalho não é o


hardware, mas sim o software instalado e a forma como foi configurado. Nos
servidores, são instalados programas específicos que permitem responder às
solicitações feitas pelas estações chamadas de cliente, as quais podem ser os PCs
(desktops e notebooks) comuns de mercado.

O processamento do servidor geralmente inclui: acesso, armazenamento,


organização de dados compartilhados, atualização dos dados previamente
armazenados e gerenciamento dos recursos compartilhados. A comunicação entre o
cliente e o servidor é do tipo transacional e cooperativo. As vantagens oferecidas
pelo modelo cliente-servidor são muitas, a começar pela escalabilidade. Um sistema
desse tipo pode ser expandido verticalmente por adição de mais recursos na
máquina servidora, ou mesmo horizontalmente, por meio do aumento do número de
equipamentos.

Como o processamento é distribuído, o tempo de resposta também é menor. Outra


vantagem é a interoperabilidade com outras plataformas. A adoção desse modelo
também permite a redução de custos operacionais. O desenho da rede depende da
necessidade de cada empresa e das aplicações que irão rodar sob essa plataforma.
Em geral, as companhias possuem ambientes de TI mistos, compostos por
servidores de diferentes portes. Para as operações mais críticas, ou seja, as que não
podem parar, como por exemplo o sistema de billing (cobrança das ligações
telefônicas) das operadoras de telecomunicações, ou os sistemas do setor financeiro,
são normalmente empregados servidores com arquitetura em cluster, que oferecem
maior capacidade de processamento e de disponibilidade.

Em geral, há dois ou mais servidores, de forma que se houver algum problema com
uma das máquinas, a outra imediatamente assume as funções, assegurando a
continuidade das operações. De acordo com os analistas de mercado, mais de 75%
dos ambientes de TI corporativo seguem o modelo cliente-servidor e em cluster.
Entre os fatores que são considerados para a escolha de um servidor um dos mais
importantes é a escalabilidade.

- 23 –
Novas tecnologias de servidores e a consolidação das áreas e dos recursos de TI nas
empresas têm agitado o mercado. Servidores blades, onde vários podem ser
colocados lado a lado, permitem processar centenas de mlihares de transações por
segundo. Um servidor blade é um conceito que pode ser resumido como um servidor
completo em uma placa, que se conecta a um chassi comum e compartilha o
cabeamento, a energia, o resfriamento e o acesso à rede com seis ou mais outros
servidores blade. A vantagem é que essa solução promete menores custos, maior
confiabilidade, menores exigências de espaço e gerenciamento mais fácil do que os
servidores independentes, com praticamente o mesmo poder computacional.

Quando a rede é desenhada, já deve estar previsto o crescimento das operações


para os próximos 2 a 4 anos, que deverá ser suportado pelo sistema. Nesse sentido,
além dos componentes de hardware (dualizados ou não), também é preciso verificar
se o sistema operacional é robusto, permitindo rodar diferentes aplicativos. Também
deve ser analisado se há facilidade para upgrades (expansão de memória ou mesmo
substituição das CPUs por modelos mais atuais), a facilidade para gerenciar todo o
ambiente e a compatibilidade com as demais plataformas utilizadas pela
organização.

- 24 –
Módulo 7 – Hardware: PCs

O bom e velho PC é hoje um equipamento indispensável na maioria das corporações.


A arquitetura aberta e construção modular permitiram evolução rápida e constante, o
que contribuiu para sua popularização e utilização em grande escala.

Hardware: PCs

Os personal computers, conhecidos simplesmente como PCs, são equipamentos cada


vez mais comuns no ambiente doméstico. Mas é no setor corporativo que os PCs são
hoje praticamente imprescindíveis. Nos últimos 30 anos, mais de 900 milhões de
computadores foram adquiridos por empresas de diferentes portes, sendo que, desse
total, 81,5% corresponderam a desktops, 16,4% a notebooks e 2,1% a servidores. A
maior parte desses equipamentos foi vendida nos EUA (50% – equivalendo a 450
milhões de máquinas), Europa (28% – 250 milhões) e na região da Ásia Pacífico
(13% – 117 milhões).

No Brasil, uma pesquisa realizada pela Escola de Administração de Empresas da


Fundação Getúlio Vargas (EAESP/FGV) revelou que a base instalada de PCs chega a
25 milhões, somando os de uso doméstico e corporativo. E as perspectivas são que
até 2008 as vendas de PCs no mundo todo deverão dobrar. Nos ambientes de
missão crítica, os PCs interligados em rede começaram a ser empregados por volta
da metade dos anos 80, quando o modelo de computação centralizada (mainframe
ligado a terminais "burros") foi substituído pela computação distribuída e pelo
modelo cliente-servidor.

Mas inicialmente as redes eram incipientes e as velocidades de processamento eram


cerca de dez vezes mais lentas que as atuais. As aplicações que rodavam sob essas
plataformas eram as mais simples, como processadores de texto e planilhas
eletrônicas. Ao contrário dos PCs atuais, os primeiros modelos não eram tão
amigáveis. O panorama começou a mudar à medida que surgiram as interfaces
gráficas, bem mais intuitivas e fáceis de usar.

A história do PC

Ainda existem muitas controvérsias sobre quando e como teria surgido o primeiro PC
de uso comercial, mas os registros históricos levam a crer que tudo começou no
início da década de 70, quando um jovem engenheiro elétrico, H.Edward Roberts,
abandonou a carreira militar, nos EUA, para se dedicar ao desenvolvimento de kits
de calculadoras, produzidos pela sua empresa MITS -Micro Instrumentation and
Telemetry Systems, instalada na cidade de Albuquerque (Novo México, EUA).

- 25 –
A concorrência acirrada de outras empresas nesse mercado e, especialmente da
Texas Instruments, no entanto, o fizeram investir numa outra direção: a criação de
kits que permitissem a qualquer pessoa com conhecimentos de eletrônica construir
seu próprio computador pessoal. Antes disso, já estavam em processo outras
iniciativas, como a da Digital Equipament Corporation (DEC), que em 1962 já
trabalhava com minicomputadores e chegou a montar um protótipo ainda menor,
equipado com teclado, um drive para fita cassete e um mostrador. Mas o
equipamento não passou de um experimento, assim como outros pequenos
computadores idealizados, na época, pelos engenheiros de empresas como IBM e
Xerox, entre outras.

A grande chance da MITS ocorreu em 1975, quando uma reportagem publicada pela
revista Popular Electronics salientava que o produto, já batizado de Altair, era o
primeiro kit de minicomputador do mundo a rivalizar com os modelos comerciais. Em
apenas uma tarde, a empresa recebeu 400 pedidos e comercializou 4 mil unidades
nos três meses subseqüentes. O problema é que o Altair ainda estava longe de ser o
"computador pessoal" como hoje o conhecemos. Não tinha teclado, nem monitor,
não podia ser programado por software e dispunha de apenas 256 bits de memória.

O Altair era mais voltado aos adeptos da eletrônica e que se reuniam para trocar
informações técnicas e se ajudarem uns aos outros. Desses grupos surgiram
empresas como a Digital Research, Kentucky Fried Computers (mais tarde
incorporada à North Star) e Itty Bitty Machine Company, que começaram a
disponibilizar uma série de componentes como placas, software e periféricos. Apesar
de ter levado algum tempo até a MITS passar a desenvolver programas e acessórios
para o Altair, a empresa chegou a desfrutar de um relativo sucesso com o
equipamento que serviu de inspiração e incentivou outros fabricantes a investirem no
desenvolvimento de computadores pessoais.

Despreparada para enfrentar a concorrência, porém, a MITS acabou sendo comprada


pela Pertec Computer Corporation, fabricante de componentes para computadores de
grande porte e que encerrou a carreira do Altair. Em 1977, a liderança do mercado
de PCs era disputada por três empresas: a Commodore, Tandy Radio Shack e a
Apple Computer. Mas foi a IBM, consolidada como fabricante de computadores de
grande porte (mainframes), que acabou ficando com a fama de ter disponibilizado o
primeiro microcomputador pessoal do mundo, com o lançamento, em 1981, do
primeiro equipamento comercialmente identificado pela sigla PC de "personal
computer".

O lançamento causou alvoroço por ser uma síntese dos melhores recursos que a
indústria de microinformática oferecia na época, e ainda incorporava novidades
importantes, como o sistema operacional PC-DOS 1.0, desenvolvido pela Microsoft
em parceria com a IBM, a instalação do CP/M 86 e de linguagens de programação
como o MS Basic, VisiCalc, UCSD Pascal, entre outros programas de uso comercial.

- 26 –
Visando a consolidação no mercado, a IBM firmou parceria com uma série de
software houses e com programadores para o desenvolvimento de aplicativos
específicos. Com o lançamento do IBM PC, a própria Big Blue começava a apostar
nos sistemas de arquitetura aberta, possibilitando a outros fabricantes a produção de
placas, periféricos e programas, contribuindo para a popularidade do equipamento.
Um ano após o lançamento do IBM PC foram comercializadas 1,6 milhão de
máquinas.

Tempos modernos

Daquela época aos dias atuais, muita coisa mudou e em curto espaço de tempo. O
avanço tecnológico possibilitou a criação de computadores mais ágeis e de diferentes
capacidades e portes. Hoje, os PCs são, grosso modo, classificados em três
categorias: high-end, midrange e low-end. Os equipamentos high-end são
geralmente munidos de 1 a 2 processadores, com memória de até 8 GB e placas
gráficas, sendo voltados para rodar aplicações críticas. Os grandes usuários desse
tipo de equipamento são as indústrias dos setores automobilístico, aeroespacial,
naval e petrolífero, em que é primordial o uso de estações com grande capacidade de
rodar aplicações gráficas como os CAD/CAE/CAM (Computer Aided Design/ Computer
Aided Engineer/ Computer Aided Manufacturing) – programas específicos para
criação de projetos de novos produtos.

Na extremidade oposta estão os PCs low-end, que são máquinas de menor porte,
geralmente equipadas com um processadores de baixa velocidade, capacidade de
memória de até 1GB e discos de 40 GB. Esses PCs são mais utilizados em pequenos
escritórios e rodam aplicativos de uso comum como processadores de texto,
planilhas eletrônicas, programas de apresentação (como o Acrobat e o Power Point,
por exemplo). Na categoria do meio estão os PCs midrange – máquinas
monoprocessadas, mas que empregam um processador mais potente (como o
Pentium IV, por exemplo) e memória de até 2 GB, utilizados em escritórios, mas
cujos usuários precisam de um equipamento mais ágil e com maior capacidade.

O sucesso alcançado por esse tipo de máquina deveu-se, em grande parte, à sua
arquitetura aberta. Os modelos de PC atuais mantêm a principal característica dos
primeiros equipamentos que é a construção modular formada por um conjunto de
componentes eletrônicos ligados entre si de forma a facilitar a manutenção e a
ampliação do hardware. Óbvio que embora conservem, em grande parte, a estrutura
do modelo original e concebido pela IBM, as máquinas atuais foram aperfeiçoadas
graças ao aumento do desempenho de alguns componentes (como os processadores
e a memória) e à assimilação de outras tecnologias, como por exemplo os recursos
multimídia.

- 27 –
Empresas de grande prestígio como Compaq ( adquirida pela HP), HP, Bull, entre
outras, desenvolveram seus modelos seguindo os padrões estabelecidos pela IBM
que resultaram nos chamados "compatíveis IBM PC". Outro tipo de computador PC é
o identificado como "clonado", produzido por empresas de pequeno porte que
compram os componentes avulsos e montam computadores de baixo preço. No setor
corporativo, as estações de trabalho mais usadas são os PCs tradicionais, geralmente
rodando sistema operacional MS-Windows 2000 Professional, XP ou Linux. Apesar de
menos comuns, também são empregados como estações de trabalho os
microcomputadores Macintosh, fabricados pela Apple, que possuem sistema
operacional robusto (MAC OS X), apresentam processador Power PC e são mais
voltados a satisfazer as necessidades de determinados setores profissionais muito
especializados, entre os quais se incluem editoras e empresas de design gráfico.

No modelo cliente-servidor também podem ser empregadas estações cliente dos


tipos diskless (sem disco) e floppy-only (somente com unidades de disquetes) as
quais utilizam o software e dados do servidor. Outra modalidade existente são os
thin client (clientes magros). Neles, o controle da área de TI é total, pois a instalação
e o gerenciamento do computador são feitos de maneira centralizada. Eles têm
processadores e também não possuem discos e utilizam o servidor para processar
seus sistemas. Eles foram desenvolvidos para diminuir o custo total de propriedade
de computadores nas corporações.

Algumas inovações juá estão no mercado de PCs. Os tablets PCs, que permitem
novas interações entre o homens e a máquina, pela escrita ou fala, e ainda o
aumento da produtividade por meio da mobilidade. Essas máquinas têm conexões
sem fio e podem ser transportadas e utilizadas em qualquer tipo de ambiente.

Utilizar os recursos de um servidor não é, para o usuário, diferente do que usar os


recursos do próprio computador. Por meio do software cliente instalado na máquina,
é possível executar tarefas de rede que incluem mapeamento de drives, captura de
portas de impressora, envio de mensagens e acesso a arquivos.

- 28 –
Módulo 8 – Sistemas operacionais

Os sistemas operacionais são vitais para permitir aos usuários controlar e utilizar
todos os recursos do computador. Entre os mais utilizados atualmente pelo setor
corporativo destacam-se o Windows NT, o Unix e o Linux.

Sistemas operacionais: breve panorama

Considerado a alma do computador, o sistema operacional é um conjunto de


programas que gerencia as funções do processador, o input e output (entrada e
saída) de dados, o armazenamento e o acesso aos dispositivos, permitindo ao
usuário controlar e utilizar os recursos do computador como discos, impressoras,
teclado e unidade central. Numa rede, o sistema operacional instalado no servidor é
denominado NOS (Networking Operating System) e permite compartilhar recursos,
transferir arquivos e executar todas as demais atividades de conexão.

Parte do software reside em cada estação cliente, possibilitando a leitura e a


gravação dos dados que estão no servidor como se estivessem localmente. A escolha
de um sistema operacional para uma rede de computadores requer um estudo
criterioso em que são considerados vários aspectos, entre os quais a quantidade de
estações e sua distribuição física, aplicativos, necessidade de interfaces com outros
sistemas operacionais, desempenho e aderência a padrões, entre outros. Os
sistemas operacionais mais utilizados no mercado atualmente são o Windows 2003
(da Microsoft), Unix (da IBM, Sun, HP, SCO, etc), Linux e Netware (da Novell). A
seguir uma breve discrição dos principais sistemas operacionais.

DOS

Criado no final de 1981, pela Microsoft (na época, ainda era uma pequena empresa
desenvolvedora de software), o DOS foi o sistema operacional do primeiro micro
IBM-PC. Comercialmente, esse sistema operacional foi disponibilizado ao mercado de
duas formas: sob a denominação de PC-DOS, embutido nos equipamentos fabricados
pela IBM, e MS-DOS, vendido por meio da Microsoft para os demais fabricantes de
hardware compatível ao IBM-PC.

Desde o seu lançamento, o sistema teve seis versões e seis atualizações de menor
porte. A primeira versão suportava somente discos flexíveis (de 160KB) e ocupava
10 KB da RAM dos PCs que possuíam 64 KB de memória. Com o lançamento do IBM-
XT, em 1983, e o surgimento dos discos rígidos de alta capacidade, foi desenvolvida
a versão 2.0 do DOS, capaz de suportar disco rígido e diretórios. No ano seguinte,
com a chegada dos micros AT, outra versão do DOS (3.0) foi lançada para suportar o
novo drive de 1,2 MB e o utilitário RAMDISK, que possibilitava utilizar a memória que
ultrapassasse os 640 KB, que era o limite suportado pelo sistema operacional.

- 29 –
Em 1985, a atualização da versão 3.0 era disponibilizada para suportar hardware e
software das redes locais. Mas foi em 1991 que a Microsoft realizou a maior
modificação no sistema, incluindo na versão 5.0 uma interface gráfica mais
elaborada, possibilitando ao usuário carregar diversos programas na memória do
computador e ainda conseguir mudar de um para outro, sem precisar abandonar um
dos programas. A versão seguinte, a 6.0, trouxe uma série de novidades, com a
inclusão de programas licenciados de outras empresas. Em 1993, a versão 6.2 do
DOS corrigiu alguns erros da versão anterior e introduziu o comando SCANDISK para
correção de erros físicos nas unidades de disco.

Windows

Em 1985, surgiu a primeira versão do Windows, que não era propriamente um


sistema operacional, mas uma interface gráfica que rodava sob o MS-DOS. O
problema é que ambos consumiam toda a memória do PC básico da época. O
Windows começou a fazer sucesso na versão 2.1, mas emplacou para valer a partir
da versão 3.1, disponibilizada em 1990, já relativamente leve, mesmo para os PCs
mais básicos.

A versão 4.0 do Windows, conhecida como Windows 95, foi disponibilizada no


mercado em 1995, e rapidamente tornou-se um dos sistemas operacionais mais
populares no mundo todo, devido à sua facilidade de uso (por meio do sistema de
janelas), compatibilidade e à grande disponibilidade de software que rodavam sob
ele. Embora fosse um sistema multitarefa e com estrutura de 32 bits, grande parte
do seu código era baseada no Windows 3.11.

Para os ambientes de rede, a Microsoft desenvolveu o Windows NT (New


Technology), o seu primeiro sistema operacional de 32 bits que foi disponibilizado
para o mercado a partir de 1993. Conduzido por David Cutler, ex-projetista da
Digital Equipment Corporation (DEC), o projeto do NT foi considerado ambicioso na
medida em que podia ser utilizado em diversas plataformas de hardware
desenvolvidas por diferentes fabricantes, como as da Digital (Alpha AXP), IBM
(Power PC), Intel (Pentium), Silicon Graphics (MIPS), entre outros. O objetivo da
Microsoft era o de desenvolver um sistema operacional multitarefa para ser utilizado
tanto em ambiente monousuário como multiusuário.

Ele se caracterizava por ser compatível com o sistema operacional MS-DOS. O


Windows NT apresentava-se nas versões para servidores e para estações de
trabalho. A versão para as estações cliente, o Windows NT Workstation, acabou
sendo eleita a preferida pelos desenvolvedores independentes de software por
oferecer um ambiente mais seguro e protegido. Até o final da década de 90, esse
sistema operacional foi considerado o sucessor do Windows 95. Já para o mercado
de servidores, o Windows NT Server era utilizado como servidor de arquivos e
impressão em redes locais, além dos serviços de comunicação, processamento e
banco de dados com alto grau de interoperabilidade.

- 30 –
Tanto o NT Workstation como o NT Server possuíam a mesma estrutura interna e
interface de comunicação. A diferença entre ambos referia-se aos serviços oferecidos
e voltados aos segmentos para os quais cada um deles foi desenvolvido, e ao
número de processadores suportados: o NT Server suportava até 32 processadores,
enquanto que o NT Workstation, apenas 4. Após sucessivas versões, a Microsoft
lançou em 1999 o Windows NT 5.0, que ficou conhecido comercialmente como
Windows 2000, mantendo a mesma estrutura básica do NT 4.0, diferindo pela
inclusão de serviços orientados a ambientes distribuídos e de rede.

Na verdade, foram disponibilizadas quatro diferentes versões do sistema


operacional: 2000 Professional (sucessor do NT Workstation), 2000 Server
(equivalente ao NT Server), 2000 Advanced Server (inclui conceito de clustering e
balanceamento de carga) e o 2000 Datacenter Server (agrega todas as
funcionalidades do Windows 2000 e suporta o endereçamento de até 64 GB). A
geração seguinte de sistemas operacionais da Microsoft foi denominada Windows XP,
lançada em outubro de 2001, em duas versões: doméstica e corporativa, ambas
baseadas no mesmo código-fonte: a versão Home, indicada para o ambiente
doméstico e a versão Professional, focada em empresas.

Em ambas, o software manteve as principais funcionalidades que proporcionavam


estabilidade e confiabilidade ao Windows 2000 Professional, aliadas aos aplicativos
de entretenimento, diversão e conectividade oferecidos pelo Windows Millennium.
Um dos grandes trunfos do Windows XP está em reunir num mesmo produto os
recursos mais utilizados nas plataformas anteriores. Na área de servidores, a última
versão do sistema é o Windows 2003 Server. Nela, além das versões Standard,
Enterprise e Datacenter, surgiu uma versão menor chamada de Webserver para
competir com o Linux nesse segmento de menor valor. Vários serviços foram
agregados ao sistema desde a versão 2000, tais como sistema de terminais, vídeo
streaming, entre outros.

OS/2

Antes de partir para o desenvolvimento do Windows, a Microsoft lançou, em 1986,


em conjunto com a IBM, as primeiras versões do sistema operacional OS/2. Mas, a
partir de 1990, as duas empresas optaram por seguir caminhos separados. A versão
2.0 lançada no primeiro semestre de 1992 apresentava uma série de recursos de
compatibilidade, entre os quais a possibilidade de rodar programas do Windows e do
DOS, e adotava a tecnologia de 32 bits, aproveitando toda a potencialidade dos PCs
386. A interface do OS/2 era muito semelhante à do Windows 95, apresentando área
de trabalho composta por janelas e ícones. Em 1992, a IBM lançou o OS/2 WARP,
que integrava a tecnologia orientada a objeto.

- 31 –
MAC OS

O Mac OS foi o precursor dos sistemas de janela do mercado. Desenvolvido em 1980


como Liza, não obteve sucesso pelo elevado preço do computador que o usava. A
Apple não desistiu e em 1984 lançou o Macintosh. Até 1999, o Mac OS era
proprietário e um dos sistemas mais fáceis de usar no mundo. Hoje, ele é baseado
em uma variante do Unix, o NetBSD, e mantêm as inovações de interface que
tornaram famoso o Mac OS. A última versão do sistema é o Mac OS X que é
compatível com a maioria das aplicações Unix e Linux.

UNIX

Precursor de muitos sistemas operacionais, o UNIX começou a ser desenvolvido por


volta dos anos 60, resultante de um projeto conjunto da AT&T, Honeywell, GE e o
MIT (Massachussets Institute of Techonology), batizado de Multics (Multiplexed
Information and Computing Service). Tratava-se de um sistema modular, montado
em uma bancada de processadores, memórias e equipamentos de comunicação de
alta velocidade. Pelo desenho, partes do computador poderiam ser desligadas para
manutenção, sem que outras partes ou os usuários fossem afetados.

No entanto, devido a atrasos no cronograma do projeto, a AT&T decidiu abandoná-lo


em 1969, mas o MIT continuou trabalhando no seu desenvolvimento. Nesse mesmo
ano, alguns pesquisadores que trabalharam no projeto do Multics, se uniram para
desenvolver um outro projeto na Bell Laboratories, surgindo em 1971 a primeira
versão do Unix. Inicialmente, esse sistema operacional foi utilizado em máquinas da
DEC e em mainframes.

Mas em 1973, o Unix foi reescrito em linguagem C, mantendo apenas uma pequena
parte do Kernel (programa que controla os recursos do computador) escrita em
linguagem Assembly, o que lhe permitiu ser utilizado em outras plataformas de
hardware. O Unix começou a se popularizar a partir de 1975, quando foi lançada a
versão V6 , a primeira disponibilizada fora dos domínios da Bell Laboratories. Nessa
época, a Universidade de Berkley (EUA) comprou os códigos-fontes do Unix,
possibilitando aos alunos realizarem modificações no sistema.

Em 1979, o Unix foi portado para máquinas Vax, da Digital, e a partir de 1992 foi
adaptado para diferentes plataformas (máquinas com tecnologia RISC), como as da
HP, Sun, IBM, DEC, entre outras. Ainda hoje, o Unix é um sistema operacional
voltado para programadores experientes. Houve um trabalho intenso, nos últimos
anos, para tornar a interface mais amigável para o usuário.

- 32 –
Linux

Originalmente escrito por Linus Tovalds, do Departamento de Ciência da Computação


da Universidade de Helsinki, na Finlândia, e contando com a colaboração de vários
programadores voluntários que trabalharam em conjunto pela Internet, o Linux teve
sua primeira versão oficial lançada em 5 de outubro de 1991. O sistema foi
desenvolvido como um hobby por Tovalds, que se inspirou no Minix – um sistema
Unix desenvolvido por Andy Tanenbaum.

Depois da versão 0.10, muitas pessoas do mundo todo começaram a trabalhar no


sistema, que sempre teve como principal característica a de ser um software livre
(open source), ou seja, é distribuído sem restrição de instalação, de forma gratuita,
e junto com o código-fonte, o que permite a qualquer desenvolvedor fazer
modificações e adaptações conforme suas necessidades específicas. Muito utilizado
no ambiente acadêmico e de forma experimental em algumas empresas, o Linux
teve várias revisões e atualmente pode ser considerado como um clone completo do
Unix.

Hoje, as maiores corporações do mundo se utilizam de Linux, tanto nos servidores


como em desktops. No segmento de servidores, o Linux já domina mais de 25% do
mercado. Nos desktops, ele ainda está engatinhando, mas tem vários adeptos.
Muitas empresas de desenvolvimento estão investindo no sistema. IBM, Red Hat,
Sun, Oracle e Novell são as principais distribuidoras do produto e vêm investindo
pesadamente no desenvolvimento do sistema operacional, contribuindo com dinheiro
e recursos para a sua evolução.

- 33 –
Módulo 9 – Disponibilidade

A disponibilidade dos sistemas é um elemento chave para as organizações que cada


vez mais dependem da tecnologia para manterem-se competitivas e atuantes num
mundo globalizado.

Disponibilidade

Para um grande número de pessoas, o computador já é quase tão indispensável


quanto o telefone. Graças ao desenvolvimento tecnológico e à popularização da
Internet, hoje é possível pagar contas de casa ou do escritório sem precisar
enfrentar filas nos guichês bancários, ou ainda fazer compras pela via eletrônica e
receber as mercadorias no local desejado, ou até mesmo comprar passagens aéreas
e contratar pacotes turísticos por meio de um simples click no mouse.

Toda essa comodidade, no entanto, nos deixa cada vez mais dependentes da
tecnologia e qualquer falha no sistema pode afetar nossas vidas de forma negativa.
Se para o usuário doméstico um provável travamento do computador representa um
transtorno, para muitas empresas uma simples falha nos sistemas pode causar
prejuízos monetários de vulto e até mesmo comprometer seriamente a sua imagem
e credibilidade.

Por isso, uma das questões mais importantes que devem ser consideradas para a
construção de um ambiente de TI é a disponibilidade dos sistemas. Grosso modo,
disponibilidade é a proporção de tempo que um sistema permanece ativo e habilitado
para uso. Quanto mais crítica for a operação desse sistema, maior terá de ser a sua
disponibilidade (uptime), ou seja, menor será seu downtime (tempo em que o
sistema fica parado por alguma falha).

Uptime e downtime

Em geral, as estações stand alone e PCs domésticos apresentam um índice de


uptime de 99%. Considerando-se que existem 525.600 minutos em um ano de 365
dias, isso significa que, no período de um ano, essas máquinas podem ficar
indisponíveis durante três dias e meio (ou 90 horas).

Os sistemas considerados de alta disponibilidade (High Availability), de outro lado,


apresentam uptime que varia de 99,9% (correspondendo a oito horas e meia de
indisponibilidade por ano) a 99,99% (equivalente a uma hora de downtime por ano).
Cada número 9 acrescentado após a vírgula, no entanto, representa um custo
adicional e considerável no preço dos sistemas. Por isso, esse tipo de máquina, que
apresenta componentes de hardware redundantes, ou está ligada em cluster a outros
equipamentos, costuma ser empregado em operações críticas.

- 34 –
Bancos e instituições financeiras, atividades de comércio eletrônico, provedores de
acesso à Internet e operadoras de telecomunicações são alguns dos exemplos de
empresas que precisam dispor de um ambiente altamente confiável e cujas falhas
sejam quase que imperceptíveis aos clientes e parceiros de negócios, e que possam
ser rapidamente sanadas de forma a não comprometer a continuidade das
operações.

Nos casos em que os sistemas não podem parar em hipótese alguma porque
qualquer interrupção coloca em risco vidas humanas – como controle de tráfego
aéreo, equipamentos médicos, usinas nucleares, entre outros – são utilizados os
sistemas tolerantes a falhas (Fault Tolerance) que apresentam uptime de 99,999%,
equivalente a 5 minutos de parada em um ano. São sistemas altamente confiáveis e
que apresentam chances mínimas de defeito. No entanto, é preciso considerar que
nada é infalível. Apesar de serem menos prováveis, as falhas também podem ocorrer
nesses ambientes, seja no nível físico, ou mesmo por erro humano (tropeço no fio
que liga a máquina à fonte de energia, ou a execução de um comando errado).

Falha, erro e defeito

Apesar de parecerem sinônimos, as palavras falha, erro e defeito apresentam


significados diferentes quando o assunto é tecnologia. No caso dos sistemas
computacionais, uma falha é algo que acontece no universo físico, ou seja, no nível
mais baixo do hardware, como por exemplo uma flutuação da fonte de alimentação.
Também pode ser considerada falha uma interferência eletromagnética.

Esses dois tipos de problemas podem afetar o funcionamento total ou parcial do


computador. Uma falha pode gerar o erro em alguma informação, uma vez que é
capaz de trocar o valor de um bit de forma inesperada. Como se sabe, um
computador trabalha com bits, sendo que cada um deles corresponde a 0 ou a 1.
Quando ocorre a falha, um bit 0 pode ser lido como 1, o que gera erro de
informação. Se esse dado errado não for detectado e tratadoa, acabará gerando o
defeito: o sistema simplesmente trava, ou ocorre a à perda de informações do
usuário sem aviso prévio, ou ainda é apresentada uma mensagem de erro.

Em outras palavras, uma falha no nível físico pode causar um erro no nível de
informação que, por sua vez, causa um defeito percebido pelo usuário. Os sistemas
tolerantes à falha visam acabar com os erros, ou tratá-los, enquanto não se
transformaram em defeitos. Já os sistemas de alta disponibilidade permitem que as
máquinas travem ou errem, contanto que exista outra que assuma o seu lugar.

- 35 –
Clustering

Normalmente, um ambiente de alta disponibilidade conta com várias máquinas


ligadas por meio da tecnologia de clustering, de forma que se uma delas apresentar
uma falha, a otra imediatamente assume as suas funções. Nesse caso, pode ocorrer
um certo delay (lentidão), enquanto os serviços são restaurados. Além do hardware,
um ambiente de alta disponibilidade também precisa contar com o software
adequado para monitorar as máquinas da rede, controlar e gerenciar os serviços que
estão sendo prestados pelas diversas máquinas e redirecionar as operações de um
equipamento para outro quando houver a detecção de uma falha.

A avaliação da disponibilidade também deverá incluir a redundância de software, de


banco de dados, de nós da rede, das interconexões, e a correta configuração das
controladoras de proteção de falhas de energia elétrica (nobreaks). Deve ser
considerada, ainda, a redistribuição de carga depois que ocorreu a falha em um dos
nós da rede e a habilidade de todo o sistema operar durante as paralisações
planejadas (paradas para manutenção) ou não (acidentes, falhas).

- 36 –
Módulo 10 – Escalabilidade

A capacidade de expansão da infra-estrutura de TI é um item fundamental para as


empresas manterem o seu poder de competitividade num mundo globalizado e em
constante crescimento.

Escalabilidade

Toda empresa almeja crescer e fortalecer sua atuação no mercado e, nesse sentido,
é importante que saiba planejar e equipar seu ambiente de Tecnologia da
Informação (TI) sem pecar pelo excesso ou pela carência. Adquirir um sistema
grande demais, visando crescimento das operações que pode não acontecer no
tempo estimado, implica num custo de aquisição, de operação e de manutenção
bastante alto e, no final , a plataforma tecnológica acaba sendo mais uma fonte de
gastos do que de benefícios. É como se uma pessoa decidisse comprar um ônibus,
esperando transportar 40 passageiros, mas só ter demanda, de fato, para
transportar apenas cinco.

Nesse caso, bastaria comprar um carro ou uma minivan. O inverso também traz
problemas. Um sistema pequeno demais não consegue atender a um crescimento
das operações com a velocidade desejada ou necessária. E isso, no mundo dos
negócios, pode significar a perda da capacidade competitiva e, efetivamente, a perda
de clientes e de oportunidades. Por isso, um dos elementos que devem ser
analisados com bastante critério para formação ou expansão de um ambiente de TI é
a escalabilidade do hardware e do software.

Entende-se por escalabilidade a capacidade de expansão de um equipamento ou de


uma solução, de forma a permitir o atendimento das necessidades da empresa, seja
pelo crescimento do número de usuários do sistema, ou também pelo aumento das
informações a serem processadas, de maneira a preservar o investimento feito
anteriormente. No passado, os fabricantes de sistemas estavam mais preocupados
em apenas otimizar o processamento, aumentar a expansibilidade dos equipamentos
e portar versões do ambiente operacional, sem levar em conta a manutenção da
compatibilidade binária das aplicações existentes.

Esse cenário mudou, em grande parte, graças às solicitações dos grupos de usuários,
aos fatores mercadológicos e ao aumento do nível de competitividade que tornou
inviável o redesenho de aplicações ou mesmo a troca de sistemas menos potentes
por outros de maior capacidade em curto espaço de tempo.

- 37 –
Atualmente, a grande maioria dos fornecedores de TI oferece soluções com alto nível
de escalabilidade. Hoje, por exemplo, é possível migrar de uma versão de sistema
operacional para outra mais nova e, com isso, aumentar significativamente o poder
de processamento da máquina sem haver necessidade de alterar nenhuma linha
binária no ambiente operacional. Na prática, isso significa uma mudança de
plataforma, mantendo as aplicações existentes, resultando em aumento de
produtividade com baixo custo.

Características da escalabilidade

A escalabilidade é um conceito que surgiu por volta dos anos 90, atrelado ao modelo
cliente-servidor. Até então, os ambientes de TI, baseados em mainframes, eram
montados em função da capacidade de processamento. No ambiente distribuído, no
entanto, é fundamental que a rede seja dimensionada para suportar vários
servidores e apresente capacidade de expansão futura. Se não houver um
planejamento nesse sentido e a empresa optar por adquirir uma plataforma não
expansível ou que já esteja no limite de capacidade (tem capacidade para suportar
100 usuários e foi comprada para atender 90, por exemplo), pensando apenas no
benefício imediato, poderá enfrentar problemas e ver-se obrigada a trocar todo o
ambiente, em curto espaço de tempo.

Além do alto custo que algo nesse sentido acarreta, terá ainda de enfrentar o trauma
da mudança, o que sempre traz impactos para toda a organização. Nem todo
hardware e nem todo software é escalável. Por isso, é preciso ter muito critério na
hora da escolha do sistema e procurar obter do fornecedor as informações referentes
à capacidade de expansão. Antes de tomar qualquer decisão, a empresa deve fazer
um estudo para estimar seu crescimento e, com base nessas informações, optar por
soluções que atendam às suas necessidades para, no mínimo, os próximos dois
anos.

A empresa que já comprou o sistema com essa previsão terá de acompanhar os


índices de desempenho dos equipamentos e de todo o ambiente, de forma
constante, para poder tomar ações preventivas caso a utilização dos mesmos esteja
chegando próxima ao limite da sua capacidade. Monitorar os sistemas (redes,
sistemas aplicativos, bases de dados e inter-relação entre aplicações) por meio do
emprego de ferramentas específicas é um procedimento importante para evitar que
os mesmos entrem em colapso, caso o aumento das operações os levem a trabalhar
muito próximo ao limite. O ideal é utilizar 80% da capacidade para não comprometer
o desempenho.

- 38 –
Como escalar

A escalabilidade pode ser medida pelo número de processadores que um mesmo


equipamento pode suportar. É possível, por exemplo, adquirir um servidor com
quatro processadores e, depois de um determinado tempo, acrescentar mais quatro
processadores na mesma máquina. Existem máquinas que chegam a suportar mais
de 64 processadores. Também pode ser considerada escalabilidade, a troca de um
equipamento por outro mais potente, mas que apresenta a mesma arquitetura e
permita rodar os aplicativos da versão anterior. Outra forma de escalabilidade é ligar
várias máquinas em cluster, sendo necessário fazer o balanceamento de carga e a
interligação com o storage (dados). Também é importante que o software permita a
expansão.

Uma nova forma de escalabilidade surgiu recentemente. É o Grid Computing. O Grid


é o termo usado para técnicas e tecnologias que transformam o conjunto dos
recursos de computadores distribuídos por uma rede disponíveis para serem usados
sob demanda. O Grid auxilia e maximiza a utilização dos recursos computacionais de
uma empresa, tornando-os compartilhados para qualquer aplicação e,
potencialmente, oferecendo poder computacional sob demand para terceiros como
um serviço. Quando utilizado com especificações WSFS e WS-Notification, os
recursos do Grid podem aparecer como web services dentro de uma arquitetura SOA.
Inicialmente, essa tecnologia foi utilizada pelo SETI (Search for Extraterrestrial
Intelligence) para a pesquisa de vida extraterreste.

Clustering

Normalmente, um ambiente de alta disponibilidade conta com várias máquinas


ligadas por meio da tecnologia de clustering, de forma que se uma delas apresentar
uma falha, a otra imediatamente assume as suas funções. Nesse caso, pode ocorrer
um certo delay (lentidão), enquanto os serviços são restaurados. Além do hardware,
um ambiente de alta disponibilidade também precisa contar com o software
adequado para monitorar as máquinas da rede, controlar e gerenciar os serviços que
estão sendo prestados pelas diversas máquinas e redirecionar as operações de um
equipamento para outro quando houver a detecção de uma falha.

A avaliação da disponibilidade também deverá incluir a redundância de software, de


banco de dados, de nós da rede, das interconexões, e a correta configuração das
controladoras de proteção de falhas de energia elétrica (nobreaks). Deve ser
considerada, ainda, a redistribuição de carga depois que ocorreu a falha em um dos
nós da rede e a habilidade de todo o sistema operar durante as paralisações
planejadas (paradas para manutenção) ou não (acidentes, falhas).

- 39 –
Módulo 11 – Evolução natural das redes

As redes de computadores têm origem na constatação de que as pessoas raramente


trabalham sozinhas. Como elementos indispensáveis nas organizações atuais, devem
ser bem dimensionadas e gerenciadas.

A evolução das redes

As redes de computadores tiveram origem na constatação de que as pessoas


raramente trabalham sozinhas dentro das corporações. Há constante troca de
informações entre os diversos departamentos. No começo dos anos 80, no entanto,
as tecnologias de redes ainda eram assunto apenas para os profissionais técnicos e
sequer havia uma definição em relação a produtos por parte dos fabricantes de
hardware.

Esse panorama começou a mudar com a conversão dos antigos mainframes e


minicomputadores em redes locais de PCs, no processo que ficou conhecido como
downsizing. As primeiras redes locais datam de 1972 e surgiram nas universidades
americanas. Mas a disseminação do seu uso nas corporações deu-se a partir de
1980, com o lançamento comercial da Ethernet. Tudo partiu da missão que foi
encarregada a Robert Metacalfe, um dos pesquisadores da Xerox, de fazer com que a
primeira impressora laser do mundo pudesse ser utilizada por todos os
pesquisadores da empresa por meio de um sistema de rede.

Era um desafio e tanto que demandou mais de três anos de árduo trabalho. Em
1976, Metacalfe e seu assistente, David Boggs, publicaram o documento "Ethernet:
Distributed Packet-Switching For Local Computers Networks" (comutação por pacotes
distribuída para redes locais de computadores) em que relatavam as especificações
técnicas do sistema, as quais definiam os protocolos de transmissão de dados e a
tecnologia necessária para transportá-los. Três anos mais tarde, Metacalfe saiu da
Xerox, mas antes convenceu a empresa a firmar com a Digital e a Intel um consórcio
para promover a Ethernet como padrão de redes locais de PCs.

O sistema, no entanto, só foi liberado pela Xerox para comercialização em 1980 e


serviu para o estabelecimento do padrão IEEE 802.3, que especifica as camadas
física e lógica da rede local. Foram, então, estipulados três tipos de padrão Ethernet:
o 10Base5, que utiliza um cabo coaxial grosso numa topologia de barramento entre
os nós de até 492 m; o 10Base2, também chamado ThinNet, que usa o cabo coaxial
mais fino, de no máximo 182 m por segmento; e o 10BaseT, que usa pares de fios
trançados conectados em estrela, com segmentos de até 98 m de comprimento. A
tecnologia Ethernet não parou de evoluir, chegando a 100 Mbps pelo método
comutado (100BaseT) e a 1 Gigabit pelo compartilhado e comutado (1000BaseX). A
Ethernet continua sendo uma das tecnologias de redes locais mais utilizadas.

- 40 –
LAN

O caráter local de uma rede é determinado pela abrangência geográfica limitada (no
início era de até 1 Km e depois passou para 10 km) e também pela sua restrição a
uma organização. Uma rede local não se limita a ser apenas uma mera interligação
de equipamentos para possibilitar o uso compartilhado de recursos, uma vez que
preserva a capacidade de processamento individual de cada usuário e possibilita que
os micros se comuniquem com equipamentos de outras redes ou com máquinas de
maior porte, sem perder autonomia.

A LAN - Local Area Network – , em síntese, é uma rede de dados de alta velocidade,
com baixa taxa de erros de transmissão, cobrindo uma área geográfica relativamente
pequena e formada por servidores, estações de trabalho, um sistema operacional de
rede e um link de comunicações. O planejamento desse sistema, também chamada
de arquitetura, inclui hardware (placas, conectores, micros e periféricos), software
(sistema operacional, utilitários e aplicativos), meio de transmissão, método de
acesso, protocolo de comunicação, instruções e informações.

A transferência de mensagens é gerenciada por um protocolo de transporte como


IPX/SPX, NetBEUI e TCP/IP. Uma LAN pode ter de duas a várias centenas de
estações, cada qual separada por distâncias que variam de metros a até quilômetros,
possibilitando aos seus usuários o compartilhamento de recursos como espaço em
disco, impressoras, unidades de CD-ROM etc., que é feito por meio do NOS (software
de rede) e das placas de rede. Todos os dispositivos conectados à rede são
denominados nodos ou nós, entre os quais circulam mensagens com diferentes tipos
de solicitações.

A topologia significa a forma como esses nós estão dispostos ao longo da rede. As
primeiras redes utilizaram a topologia estrela (star) na qual o servidor exercia a
tarefa de distribuir os recursos e a de atender às solicitações dos outros
componentes da rede. As principais vantagens eram simplicidade, facilidade de
controle e possibilidade de usar o sistema telefônico PABX (Private Branch Exchange)
para transmissão de dados. Essa topologia foi adotada pela Tolken Ring, da IBM,
lançada em 1985, pela Starlan, da AT&T, e pelo primeiro sistema de rede no Brasil
da Telsist.

A estrutura em anel utiliza um cabo comum a todos os componentes, mas estes são
interligados em circuito fechado. Com isso, as mensagens circulam em uma direção
pré-estabelecida, em loop contínuo, sendo repetidas e ampliadas em cada nó pelo
qual passam. Uma falha num dos nós pode comprometer a rede toda, embora é
possível determinar configurações que disponham de meios alternativos que entram
em operação quando alguma falha é detectada.

- 41 –
Na topologia de barras ou barramento (bus), todos os componentes da rede são
ligados a um mesmo cabo (que pode ser coaxial, telefônico ou de fibra ótica) em
série. Seu principal inconveniente é o chamado conflito de barra que ocorre quando
todos os usuários resolvem se comunicar ao mesmo tempo, o que retarda a
comunicação e baixa a velocidade da rede. As novas aplicações que incluem
multimídia, tráfego de voz, dados e vídeo, necessitam de velocidades maiores do que
as oferecidas pelo padrão Ethernet. Em conseqüência, surgiram novos padrões que
estão sendo adotados pelo mercado.

O FDDI (Fiber Distributed Data Interface) é uma tecnologia relativamente antiga,


baseada em fibra ótica, cara e muito confiável. Esse padrão provê uma topologia
opcional que contém anéis primário e secundário, com dados fluindo em direções
opostas. Se a linha cai, o anel secundário é utilizado para contornar a falha. Já o Fast
Ethernet (100BaseT) é a opção mais simples para os que desejam migrar da base
instalada em 10BaseT para uma taxa de 100Mbits/sec, permitindo a manutenção do
cabeamento.

Outro padrão é o ATM (Asynchronous Transfer Mode) que surgiu como a alternativa
de melhor desempenho para aplicações com vídeo e voz em tempo real. O ATM
divide todo o tráfego em células ou pacotes de 53 bytes, permitindo com isso que
sejam construídos switches muito rápidos e o pequeno tamanho dos pacotes
assegura que frames de voz e vídeo possam ser inseridos no fluxo com freqüência
suficiente para transmissão em tempo real. Competindo diretamente com o ATM, o
padrão Gigabit Ethernet tem se mostrado como uma opção mais econômica e
eficiente, sendo indicado para a criação de grandes backbones LAN. Padronizado pela
norma IEEE 802.3z, o Gigabit Ethernet opera a um gigabit em par trançado e fibra
ótica.

WAN

Outro tipo de rede utilizada pelas corporações é a WAN - Wide Area Network -, uma
rede que permite a ligação entre computadores que estão localizados em regiões
fisicamente distantes. Essa necessidade de transmissão remota de dados entre
computadores surgiu com os mainframes e as primeiras soluções eram baseadas em
ligações ponto a ponto, feitas por meio de linhas privadas ou discadas.

Com a proliferação do uso de PCs e das LANs, houve um aumento da demanda por
transmissão de dados a longa distância, o que levou à criação de serviços de
transmissão de dados baseados em enlaces ponto a ponto e também em redes de
pacotes, no qual a partir de um único meio físico pode-se estabelecer a comunicação
com vários outros pontos. Um exemplo de serviços sobre redes de pacotes são
aqueles oferecidos pelas empresas de telecomunicações e baseados em redes Frame
Relay.

- 42 –
A redes WAN estão passando por uma evolução grande em razão da oferta de novas
tecnologias de telecomunicações e da utilização de fibras óticas. As redes
implementadas sobre essa tecnologia seguem padrões de hierarquia digital SDH
(Synchronous Digital Hierarchy) em conjunto com a ATM (Asynchronous Transfer
Mode) e permitem o uso integrado de voz e dados. Há um movimento de migração
dos operadores para sistemas WANs baseados na Ethernet.

Existem várias arquiteturas de rede WAN, entre as quais as baseadas no protocolo


TCP/IP (Transmission Control Protocol), que é arquitetura padrão para redes de
máquinas Unix, Novell, Windows NT e OS/2 e também a arquitetura utilizada na
Internet. Já a SNA é a arquitetura de rede proprietária da IBM voltada para acesso
de grande número de nós secundários (terminais, impressoras, micros etc) a um
número pequeno de nós principais (mainframes). Há também os protocolos SPX e
IPX, utilizados pelas redes baseadas em servidores Novell.

A influência da Internet

Com o crescimento da Internet e o emprego de tecnologias de integração como os


ERPs, o volume de dados trafegados pelas redes aumentou sensivelmente, obrigando
as empresas a rever e a modificar a sua infra-estrutura. As corporações buscam
velocidade na obtenção de informações e segurança de dados, mas muitas ainda
precisam saber gerenciar e dimensionar suas redes.

Projetar o tráfego que vai fluir por uma rede não é algo simples e requer um estudo
detalhado para determinar o que precisará ser adicionado a essa infra-estrutura para
não comprometer o chamado QoS (Quality of Service – a qualidade dos serviços). O
ERP e o comércio eletrônico, por exemplo, são soluções que exigem muito da rede e,
portanto, a empresa que implementar esses sistemas deve também saber
dimensionar a infra-estrutura de rede e adotar tecnologias que permitam a sua
expansão ao longo do tempo.

WLANs

As redes evoluíram mais ainda e agora não precisam de meio físico (cabos) para
existirem. São as WLAN (Wireless Local Network). Essas redes começaram a existir
em meados dos anos 80, mas foi no final do século passado que atingiu a sua
maturidade. Baseado no padrão Ethernet 802.11x, a rede sem fio evoluiu e hoje
pode ser encontrada em qualquer empresa ou residência. Sua configuração mais
simples permite velocidade de 11Mbps, mas o novo padrão 802.11g possibilita
velocidades de até 54Mbps, bem próximo de uma rede Fast Ethernet. Existe uma
grande febre de redes sem fio, pois o custo de manutenção e implementação é
infinitamente menor do que de uma rede cabeada, sem grande perda de
desempenho. No futuro, a maioria das redes nas empresas será sem fio.

- 43 –
Módulo 12 – Banco de dados

Os bancos de dados são indispensáveis em qualquer ambiente de TI. O modelo mais


utilizado baseia-se na tecnologia relacional, embora também despertam a atenção os
BDs orientados a objetos e os chamados objeto-relacionais.

Banco de dados

A informação é o bem mais precioso das corporações. A possibilidade de armazenar,


acessar e gerenciar os dados e transformá-los em informações úteis e que auxiliem
no processo de tomada de decisão constitui um elemento-chave para o sucesso no
mundo dos negócios. Nesse sentido, os Bancos de Dados assumem grande
importância no ambiente de TI, sobretudo após o crescimento da Internet que
multiplicou a quantidade de informações que podem ser obtidas em curto espaço de
tempo.

Banco de Dados (BD) é uma coleção de dados relacionados logicamente, de forma


coerente, e com algum significado inerente, ou seja, são informações que interessam
a uma ou mais organizações. O BD também pode ser definido como um conjunto de
tabelas utilizadas para armazenar qualquer tipo de dado (datas, números, nomes,
endereços etc), seguindo um padrão de organização e armazenamento. As principais
modalidades de BD são: Relacional, Orientado a Objetos e Objeto-Relacional.

Banco de dados relacional

O modelo de banco de dados relacional surgiu no início da década de 70, proposto


pelo matemático E.F. Codd, pesquisador da IBM, e fez muito sucesso pela estrutura
de dados simples e pela fundamentação teórica forte. Codd partiu da noção
matemática de relação. Numa visão intuitiva, pode-se entender uma relação como
um conjunto de atributos associado a uma entidade do mundo real.

Por exemplo, um cadastro urbano pode ser descrito por meio da relação: número,
lote, dono, endereço, área e IPTU. Essa relação pode ser representada por meio de
uma tabela, contendo os atributos (número, dono, endereço etc) e os valores desses
atributos (184520, Silva/Roberto, Av.Paulista/95, por exemplo). Em uma tabela
identificamos cada linha a partir de uma chave única, também chamada de chave
primária. Esta chave pode ser simples, formada apenas por uma coluna, ou
composta, formada por duas ou mais colunas.

Os sistemas de gerenciamento de banco de dados possuem mecanismos para


garantir que a unicidade da chave única seja preservada. As chaves únicas também
são utilizadas para criar relacionamentos de uma linha com as outras linhas
armazenadas em outras tabelas. Ao replicarmos o valor de uma chave em outra
tabela, podemos identificar quais linhas se relacionam.

- 44 –
Nas outras tabelas, as chaves são conhecidas como "chaves estrangeiras" e, dessa
forma, é possível criar ligações entre tabelas e representar os relacionamentos com
cardinalidade um-para-muitos e muitos-para-um.

Codd propôs ainda um conjunto de operações sobre as relações, denominado


"álgebra relacional", que incluía as operações de projeção, seleção, união,
intersecção e produto cartesiano. Essas relações são fechadas, ou seja, a aplicação
de uma operação dessa álgebra a uma relação gera sempre outra relação. Todas
essas operações produzem uma nova relação como resultado. As operações de
consulta de um banco relacional são construídas sobre essas operações básicas.

O modelo relacional mostrou-se bastante útil para lidar com os dados das aplicações
administrativas e comerciais. Ainda hoje é a tecnologia mais difundida e utilizada
pelas organizações. Para isso tudo ficar mais amigável para o usuário foram definidas
linguagens de consulta padronizada, sendo a mais utilizada atualmente a SQL -
Structured Query Language. A SQL é mais do que uma linguagem de consulta, na
medida em que possui recursos para a criação de tabelas, definição de regras de
integridade, inclusão e remoção de registros, e funções de controle necessárias para
o gerenciamento de dados.

Entre as principais características dos bancos de dados relacionais incluem-se: a


capacidade de armazenar grande volume de dados, capacidade de executar
pesquisas rápidas e de identificar e tratar os erros para garantir a integridade dos
dados. O maior ganho propiciado pelo modelo relacional é a separação entre os
dados e a lógica de negócios, o que permite reduzir a complexidade das aplicações e
a utilização de recursos oferecidos pelos bancos de dados para preservar a
integridade das informações. Os principais fornecedores de BD relacionais são:
Borland (Interbase e Paradox), Computer Associates (Ingres), IBM (DB2 Informix),
Microsoft (SQL Server e Access), Oracle, Progress e Sybase.

Banco de dados orientado a objetos

Um outro paradigma de banco de dados surgiu na década de 80: o orientado a


objetos, que apresenta características totalmente diferentes do modelo relacional.
Alguns pesquisadores consideram que o modelo orientado a objetos oferece mais
vantagens na medida em que permite o desenvolvimento de aplicações multimídia.

O modelo orientado a objetos armazena objetos e não registros, como as bases de


dados convencionais. Enquanto um registro abriga apenas dados, o objeto engloba
tanto os dados como o comportamento desses dados, ou seja, o trecho do programa
que manipula esses dados (chamado de método). Um objeto pode conter dados de
alta complexidade, o que um registro convencional não consegue comportar. Isso
significa que um objeto pode reunir as mais variadas formas de representação como
imagens, sons, textos e vídeo.

- 45 –
Cada objeto do banco de dados tem a sua própria identidade a qual é invisível ao
programador e ao usuário final. Outro conceito importante do modelo orientado a
objetos é a definição de classes. Um conjunto de objetos que compartilha a mesma
estrutura e o mesmo comportamento pode ser agrupado para formar uma classe.
Um objeto, na verdade, é uma instância de uma classe, tendo suas características
definidas pela classe onde está. Assim, grupos de objetos com o mesmo
comportamento e mesma estrutura também são organizados em classes.

Outro conceito é o de herança, em que uma classe compartilha (herda) a estrutura


de dados (atributos) e métodos (operações) de outras classes. Por exemplo: se uma
classe B herda atributos de outra classe A, todas as características de A são
utilizáveis em B. A principal vantagem disso é a facilidade com que se pode reutilizar
o código e definir classes por refinamento. Uma classe filha pode herdar
características de mais de uma classe original e quando isso ocorre diz-se que houve
uma herança múltipla.

A partir da modelagem de todas as classes necessárias ao banco de dados é criado o


schema que, na verdade, estrutura todo o BD na medida em que define como os
dados irão se comportar. A coleção de dados estruturada pelo schema é chamada de
base. Os refinamentos de uma classe são chamados de subclasses, as quais contêm
os tipos de dados e os métodos da classe da qual é derivada. Uma classe pode criar
uma outra classe ao adicionar ou modificar funcionalidades. A nova classe herda
todos os métodos e atributos da classe original, sendo que essa última passa a ser
chamada de superclasse.

O conceito de encapsulamento também se aplica ao banco de dados orientado a


objetos. Ele tem como objetivo esconder detalhes da implementação dos métodos e
da estrutura dos atributos. Com isso, garante que nenhum dado será acessado ou
modificado por algum método (operação) desconhecido. Todo objeto é considerado
persistente em uma base de dados quando ele continua existindo, após o final da
transação que o criou. Os bancos de dados orientados a objetos evoluíram muito,
atingindo maturidade e maior performance. São produtos estáveis que oferecem
segurança e escalabilidade. Os principais fornecedores são: Intersystems (Caché) e
Computer Associates (Jasmine).

Nas organizações modernas, é difícil afirmar que os bancos de dados relacionais ou


os orientados a objeto são capazes de satisfazer a todas as necessidades de
computação. Enquanto que no modelo relacional, o objetivo é a independência dos
dados, os quais podem ser usados por diversas aplicações, no modelo orientado a
objetos a meta é o encapsulamento e, dessa forma, os dados só podem ser usados
pelos métodos de uma classe específica. No relacional, o usuário vê os dados como
tabelas (estrutura simples de linhas e colunas), e no orientado a objetos, as
estruturas podem ser complexas, mas o usuário não percebe por causa do
encapsulamento. As diferenças e os limites entre os dois paradigmas impulsionaram
uma terceira geração de banco de dados chamada de objeto relacional.

- 46 –
Banco de dados objeto relacional

Novas versões dos bancos de dados relacionais, como a da Oracle e a da IBM (DB2),
foram implementadas a partir do conceito objeto-relacional, o que na prática
significa que são bancos de dados relacionais que embutem características dos
orientados a objetos. O objeto-relacional é um sistema híbrido, baseado no modelo
relacional, já consolidado no mercado e altamente confiável, mas que engloba
também as funcionalidades do orientado a objetos, o qual tem de mais forte o poder
de representação das aplicações.

A tecnologia objeto-relacional é evolucionária, tendo herdado a transação robusta e


as características de gerenciamento de performance da tecnologia relacional,
adicionando a flexibilidade da tecnologia orientada a objetos. Na verdade, esse novo
modelo representa um caminho de migração para os usuários de bancos de dados
relacionais que desejam usar as características do orientado a objetos.

- 47 –
Módulo 13 – Storage

O uso intenso da tecnologia eleva a quantidade de informações geradas nas


empresas. A questão é onde armazenar todos os dados com segurança e
inteligência. Por isso, as soluções de storage ganham maior atenção.

Storage – armazenagem de dados

Após investir pesadas cifras na montagem da infra-estrutura de TI e nas soluções


que permitem integrar os diversos departamentos e interligar a companhia aos
parceiros de negócios e clientes, o setor corporativo enfrenta agora o dilema de lidar
adequadamente com a armazenagem de dados. O volume de informações gerado
cresce a cada dia, impulsionado pelo uso da Web, e é necessário que haja o correto
dimensionamento dos sistemas para que se consiga guardar todos os dados de
forma ordenada e segura.

Segundo o Horison Information Strategies, a história da armazenagem de dados é


marcada por três fases distintas. A primeira delas, ocorrida entre os anos de 1950 e
1980, caracterizou-se pelo uso de equipamentos de armazenamento que eram
conectados diretamente aos processadores centrais. Cada computador era conectado
diretamente ao seu setor de armazenamento e nenhum outro computador podia
acessar os dados guardados lá. Os aplicativos eram executados em um mainframe. O
sistema era dedicado e o compartilhamento das informações era feito por meio da
recriação do mesmo dado em diferentes formatos para variados computadores.

Com a criação do PC e de servidores menores, e o uso do modelo cliente/servidor,


houve uma tendência de montar ilhas departamentais de computação, o que marcou
a segunda fase do storage, que durou de 1980 a 1990, em que cada departamento
possuía seu próprio sistema de hardware e storage. Os aplicativos passaram a ser
executados em servidores dedicados, cada um com seu próprio armazenamento.

Depois, conforme a capacidade dos sistemas de disk array cresceu, um único array
podia suprir as necessidades de armazenamento de vários servidores. Desse modo,
por volta de 1990, nasceu o armazenamento em rede e começaram a surgir novas
tendências que visam a armazenagem de dados num único local, com acesso
compartilhado por toda a empresa e que se baseiam nas arquiteturas que agora se
mostram mais maduras para serem de fato implementadas: SAN e NAS.

- 48 –
SAN e NAS

O SAN - Storage Area Network – é uma rede de alta velocidade, capaz de


interconectar diferentes tipos de componentes de armazenamento com servidores de
dados, atendendo a um grande número de usuários. Em síntese, trata-se de uma
rede de periféricos de armazenamento, gerenciada por um ou mais servidores, sobre
interface fibre channel e que usa os mesmos conceitos de rede local, como switching
e roteamento.

As vantagens propiciadas são muitas em escalabilidade e disponibilidade. Na prática,


os usuários distribuídos podem acessar os dados que estão centralizados em um
único local, eliminando a necessidade de armazenamento departamental e com
possibilidade de acesso simultâneo aos mesmos dados.

Já a arquitetura NAS - Network Attached Storage -, implementa o conceito de array


de disco com sistema operacional próprio. Os componentes de armazenamento são
integrados a uma rede LAN (Local Area Network) e as requisições de arquivos são
mapeadas pelo servidor principal. O NAS introduz um grau de simplicidade ao
gerenciamento do storage porque permite a expansão fácil e quase ilimitada e é
aplicável à maioria das plataformas cliente/servidor. Dessa forma, os dados podem
ser compartilhados entre diferentes servidores e clientes, sem haver necessidade de
desligar máquinas ou fazer muitas alterações na configuração para anexar uma nova
unidade.

Os protocolos de acesso a arquivos do NAS são muito genéricos e ricos em


funcionalidade. E também se conectam a redes com base em TCP/IP, que são
projetadas para trabalhar com topologias de interconexão muito generalizadas. Por
definição, o NAS fornece acesso ao storage baseado em rede e não importa quão
velozes sejam os discos, a velocidade de acesso é limitada à largura de banda da
rede. No entanto, o usuário tem de administrar cada unidade NAS individualmente, o
que eleva os custos de gerenciamento à proporção em que são adicionadas novas
máquinas NAS à rede.

Uma solução baseada nessa tecnologia mostra-se positiva e barata. Para as


aplicações críticas de negócios, recomenda-se o uso de um segmento de rede de
banda larga dedicado. O NAS é indicado para obter simplicidade de
compartilhamento de dados, particularmente entre computadores e sistemas
operacionais diferentes. Antes de escolher a arquitetura de storage mais adequada
para a companhia, é importante que se faça um bom planejamento. Isso parece
óbvio, mas alguns levantamentos feitos nos Estados Unidos demonstraram que
algumas empresas amargaram prejuízos consideráveis devido à opção errada.

- 49 –
Os consultores de mercado recomendam que seja feita uma análise cautelosa sobre
o volume de dados, a infra-estrutura disponível, os usuários dos sistemas, os
processos existentes e a própria linha de negócios da empresa. Outro ponto
importante é saber negociar com os fornecedores de soluções, principalmente se a
opção for pela arquitetura SAN. A recomendação é que seja firmada uma parceria
com os fornecedores de modo que eles se comprometam com os objetivos do projeto
e não apenas em fornecer a tecnologia. Existe uma tendência maior, da parte do
setor corporativo, de investir em SAN pela sua característica que permite concentrar
toda a administração do storage sob uma interface de gerenciamento comum.

Isso porque quando se adquire uma SAN também é disponibilizado um pacote de


software de gerenciamento que possibilita a administração de dados usando uma
GUI (Interface gráfica com o usuário) fácil e independente de plataformas. Na
arquitetura SAN, o storage é levado a um nível além da NAS e acima de mídias e
plataformas físicas. É como se o storage baseado em SAN fosse uma tigela de barro
que pode ser facilmente moldada para satisfazer aos requisitos de negócios da
empresa.

Como o nome indica, SAN é uma rede dedicada que conecta servidores e dispositivos
de storage, utilizando hubs e switches, como nas redes Ethernet tradicionais. Para
fazer parte de uma rede SAN, os servidores e dispositivos precisam ter adaptadores
ou conversores de protocolos apropriados. A parte mais complicada de um projeto
SAN refere-se à escolha do fornecedor da solução, uma vez que produtos de
fabricantes diferentes não são compatíveis entre si. Para reverter esse panorama,
muitos fornecedores já fazem parte do Storage Networking Industry Association
(SNIA), um comitê que visa o estabelecimento de padrões, mas esse processo ainda
está no início.

Empresas tradicionais desse mercado, completaram os testes de interoperabilidade


de seus produtos, supervisionados pela SNIA e estão investindo na criação de
padrões. De acordo com os consultores de mercado, no futuro próximo a medida de
sucesso não será a implementação de uma linha de hardware e software de storage,
mas o quanto esse sistema funcionará em um ambiente heterogêneo.

No Brasil, a maioria dos fabricantes já oferece equipamentos para redes SAN e existe
uma forte tendência de utilização das duas arquiteturas (SAN e NAS) conjugadas, em
face da necessidade de um gerenciamento eficiente. Ambas oferecem a possibilidade
de administração centralizada, o que representa uma vantagem para o administrador
da rede.

As limitações do NAS de escalabilidade e o custo e complexidade dos SANs abriram a


porta para um novo conceito e padrão, o ISCSI. O ISCSI é a mistura da Ethernet
(TCP/IP) e o SCSI. O SCSI é um protocolo bastante antigo utilizado na conexão de
discos com o computador.

- 50 –
Assim, parecia natural que o armazenamento de dados usasse uma tecnologia de
rede similar as mais usadas nas corporações com um dos protocolos mais
consistentes e rápidos existentes. Daí nasceu o ISCSI. Ele é mais barato do que as
redes SAN e consegue escalar bem em redes Ethernet. A expertise existente nas
empresas agora pode ser utilizada a custos mais acessíveis para as corporações.

Benefícios do armazenamento em rede

Os benefícios propiciados pelo armazenamento em rede são diferentes em cada


situação. Com ele, é possível reduzir custos do fornecimento de serviços de
informação. Se todo armazenamento online for acessível a todos os computadores,
isso implica em que nenhum armazenamento temporário extra será necessário para
organizar os dados que estão protegidos por um computador e utilizados por outros.
Isso pode representar uma economia de custos significativa.

Igualmente, se os drives de fita e manipuladores de mídia robotizados puderem ser


acessados diretamente por todos os computadores, será necessário um número
menor desses dispositivos caros, estes que não costumam ser utilizados com tanta
freqüência por toda a empresa. Isso também representa uma redução de custos de
capital, sem comprometer a qualidade dos serviços oferecidos. Outro ganho é a
economia administrativa e operacional propiciada por não haver necessidade de
implementar e gerenciar procedimentos para copiar dados de um local para o outro,
o que efetivamente reduz o custo referente a pessoas.

A maior parte da atenção dirigida ao armazenamento em rede concentra-se nas


interconexões (como a Fibre Channel), que permitem a conectividade universal entre
os dispositivos de armazenamento e os computadores que se conectam a elas. Mas,
as interconexões por si mesmas não acrescentam nenhuma funcionalidade ao
processamento de informações. Para obter os benefícios prometidos pelo
armazenamento em rede, deve-se considerar não apenas a conectividade, o
desempenho, a disponibilidade e as funções de hardware, como também o software
de sistema e de aplicativos, os quais devem tirar o maior proveito do hardware.

Por exemplo, um tape drive conectado à SAN pode ser compartilhado entre
servidores porque esses dispositivos ficam em uso apenas durante a realização dos
backups. Se um tape drive estiver conectado a computadores por meio de uma SAN,
computadores diferentes poderão utilizá-los em diferentes momentos. Todos os
computadores terão o seu backup efetuado. Dessa forma, o investimento em drives
de fita é utilizado de modo eficiente e os gastos de capital permanecem baixos.

Em resumo, o armazenamento em rede permite a conectividade entre diferentes


computadores e também aumenta a capacidade de organização para migração de
dados.

- 51 –
Ele também contribui para reduzir o custo do processamento de informações. Isso
porque permite o compartilhamento de dispositivos e comunicações mais eficientes,
levando à criação de um ambiente de computação global, com capacidade de
processar as mesmas informações em qualquer momento, a partir de qualquer
central de dados no mundo, com dados e a execução de aplicativos primários
migrando para locais ideais, conforme a necessidade.

Gerenciamento e Virtualização

As organizações mais eficientes sabem que uma infra-estrutura enxuta significa uma
infra-estrutura mais simples e mais barata de armazenamento. Mas, para a maioria
das empresas, a implementação de armazenamento de dados é uma tarefa
complexa. Crescer a quantidade de dados requer que a capacidade de
armazenamento se expanda. Isso, por seu turno, aumenta os custos, muito devido
às limitações das tecnologias de gerenciamento existentes. Para muitas companhias,
é um fato da vida que quando você cresce a sua capacidade de armazenamento, é
necessário contratar mais gente para gerenciá-lo. A solução para essa questão
chama-se virtualização.

Esse novo paradigma significa tratar toda a sua capacidade de armazenamento como
se fosse uma única unidade lógica sem se importar coma hierarquia do meio físico
que pode estar envolvido no processo. Isso permite que as aplicações sejam escritas
para uma única interface de programação, eliminando a necessidade de lidar com
vários discos, fitas e dispositivos ópticos que são utilizados. Assim, os custos
diminuiriam. Eis o que procura a indústria e as empresas.

Outro flanco aberto com essa nova tendência é do provisionamento ou


gerenciamento de necessidades. Isso quer dizer que quando uma aplicação, por
exemplo um banco de dados, precisa de mais espaço em disco para crescer, o
próprio sistema se encarrega de obtê-lo e alocá-lo, sem a necessidade de
intervenção humana. O gerenciamento de dados é uma tendência no mundo
corporativo, tanto para a alocação de custos como para previsões de crescimento da
demanda da empresa.

- 52 –
Módulo 14 – Manageability - Como gerenciar o ambiente de TI

O gerenciamento do ambiente de TI é uma tarefa complexa que exige o emprego de


ferramentas adequadas e capazes de garantir a compatibilidade e a integração dos
sistemas.

Manageability – Como gerenciar o ambiente de TI

O gerenciamento do ambiente de Tecnologia da Informação é uma das tarefas mais


complexas de serem executadas pelas empresas. Isso porque a infra-estrutura
precisa ser constantemente atualizada e monitorada. Além disso, há a necessidade
de realizar vários ajustes periódicos devido a uma série de fatores:aumento do
número de usuários, escalabilidade dos sistemas, existência de sites dispersos
geograficamente, acesso remoto ao sistema, novos programas e tecnologias ,
aumento dos níveis de segurança, exigências de crescimento do storage e conflito de
padrões entre diferentes sistemas.

De nada adianta investir milhões de dólares numa plataforma tecnológica de última


geração se houver lentidão causada, por exemplo, por aplicativos ou roteadores
espalhados pela organização e o responsável pela área não souber detectar esses
problemas e nem onde exatamente ocorrem. Na avaliação dos consultores de
mercado, 99% das empresas cresceram suas estruturas de tecnologia de forma
desordenada ao longo dos anos, tendo como justificativa a necessidade de manter os
sistemas funcionando.

Como conseqüência, acabaram criando um ambiente heterogêneo, sem


documentação atualizada e difícil de ser monitorado e controlado. Como resposta a
essa situação já existem no mercado diversas ferramentas que permitem analisar,
gerenciar e monitorar os sistemas de Tecnologia da Iinformação. Não são soluções
recentes. Na verdade, elas foram lançadas há algum tempo, mas só agora é que as
empresas começam a entender a sua importância e passaram a investir nesse
sentido. O principal objetivo das ferramentas de gerenciamento é o de reduzir as
dores-de-cabeça na administração da infra-estrutura de TI, oferecendo serviços de
melhor qualidade e otimizando pessoas e custos. Nesse contexto, são soluções que
precisam ter o aval e o suporte de todas as áreas da empresa, inclusive da alta
direção.

Mudanças organizacionais – Como gerenciar o ambiente de TI

O impacto da Tecnologia da Informação e do seu alinhamento aos objetivos de


negócios da organização obrigou os gerentes e diretores da área de TI a mudar a sua
forma de trabalhar.

- 53 –
Se na teoria a TI representa um recurso fundamental para incrementar a eficiência
dos processos, na prática tornar isso operacional não é uma tarefa simples. Diante
de um conceito abstrato, o melhor caminho a seguir é voltar-se para situações e
objetos concretos que possam ser dimensionados.

Deve-se começar pelo controle dos ativos e da rede de TI. Listar quais são os ativos
presentes na empresa, onde estão localizados, quais serviços e custos estão
associados a eles, são iniciativas que podem economizar muito dinheiro e minimizar
os problemas. Entre as soluções de gerenciamento, destacam-se os frameworks que
são, grosso modo, uma espécie de chassis, ou seja, uma base sobre a qual rodam as
aplicações. Framework é composto por três grandes camadas de software, sendo a
primeira delas constituída por um conjunto de agentes. Na verdade, de programas
capazes de captar informações básicas sobre o funcionamento de um ambiente,
como por exemplo, o desempenho do processador, a taxa de ocupação do disco, o
desempenho de entrada e saída dos dispositivos, o tráfego da rede, entre outros. Em
alguns casos, muitos desses agentes têm inteligência para reconhecer
automaticamente as características de um elemento conectado à rede, registrando-
as na aplicação.

A segunda camada é uma interface com o usuário, na qual são registrados os


elementos de rede e suas configurações. A aplicação é padronizada e as regras e
parâmetros de administração são definidos. E finalmente a terceira camada é a de
administração, na qual monitora-se e gerencia-se o que está acontecendo no
ambiente de TI. Os frameworks se propõem a atender a todas as funcionalidades
para a administração dos ambientes, mas nem sempre conseguem responder
adequadamente às particularidades de uma empresa. Isso porque é praticamente
impossível para um fornecedor de soluções manter um nível de homogeneidade em
todas as disciplinas e que atenda às necessidades de todas as organizações.

Nesse sentido, é importante verificar, entre as ferramentas disponíveis no mercado,


qual a capacidade de integração com outras aplicações. Os frameworks representam
uma evolução das tecnologias de gerenciamento de redes e de recursos de
hardware, incorporando aplicações para gerenciar o atendimento, processos,
contratos e ativos em geral. Mas, são ferramentas complexas, pouco flexíveis e
demoram para ser implementadas.

Para driblar essa situação, muitos fornecedores passaram a desenvolver e a oferecer


produtos modulares, que podem ser implementados de forma gradativa, capazes de
rodar em todas as plataformas de hardware e de sistemas operacionais. Quanto mais
competitivo for o segmento de atuação, mais as empresas precisarão estar atentas
ao gerenciamento do seu ambiente de TI para que maior seja a sua disponibilidade.
Quanto mais dependente da tecnologia uma companhia se tornar, maior será a
importância das ferramentas de gerenciamento.

- 54 –
Principais players e produtos

Há muitas soluções de gerenciamento disponíveis no mercado. Vamos listar alguns


dos principais players e as respectivas ferramentas. Após a fusão com a Compaq, a
Hewlett-Packard (HP) reforçou a plataforma de gerenciamento Openview, capaz de
monitorar o ambiente de TI em quatro níveis: infra-estrutura de rede, redes sem fio
e Internet, sistemas operacionais de servidores e desktops, armazenamento e
aplicações. Nessas camadas, é possível fazer o gerenciamento de falhas, de
performance, de experiência do cliente interno e externo e também de serviços.

O Openview é baseado nas especificações do ITIL (Information Technology


Infraestructure Library), uma metodologia desenvolvida pela Central Computer e
Telecommunications Agency do Reino Unido. Os usuários da ferramenta podem optar
por saber inicialmente onde ocorreu o problema ou qual processo foi afetado. Isso é
possível porque os módulos que suportam as aplicações corporativas verificam desde
a rede até os sistemas, passando por aplicações e armazenamento de dados.

A Tivoli, pertencente ao grupo IBM, é outra tradicional fornecedora de soluções para


gerenciamento, capazes de suportar a linha de negócios de uma companhia e não
apenas a sua infra-estrutura. O portifólio da Tivoli inclui dezenas de produtos que
juntos permitem aos clientes selecionar, integrar e implementar software de
gerenciamento em ambientes complexos. Os principais módulos são: gerenciamento
de disponibilidade, gerenciamento de nível de serviço do negócio, orquestração,
provisionamento, segurança e armazenamento e otimização.

Com forte atuação na área de gerenciamento de ambientes de TI, a Computer


Associates abarca sob o guarda-chuva Unicenter Enterprise Management várias
modalidades principais de ferramentas. Entre elas se destacam o gerenciamento de
banco de dados, jobs, operação, IT resources e serviços, todas baseadas em
arquitetura distribuída. As soluções são modulares e podem ser implementadas aos
poucos.

A BMC Software é outra fornecedora que oferece uma grande quantidade de opções
voltadas a atender funções específicas em todas as plataformas. O carro-chefe da
empresa é o Patrol, para o controle de níveis de serviço, otimização da performance
e prevenção de problemas. São vários grupos de ferramentas, das quais algumas
são voltadas para o gerenciamento de servidores, banco de dados, aplicações, EAI
(Enterprise Application Integration), e-business, desempenho e diagnóstico. Outro
grupo de soluções é voltado para modelagem preditiva e gerenciamento de
capacidade de sistemas, aplicações e banco de dados, e o outros ainda, para o
gerenciamento centralizado de todos os recursos.

- 55 –
A Compuware oferece soluções para acelerar o desenvolvimento, melhorar a
qualidade e administrar o desempenho de sistemas de missão crítica. As várias
famílias de produtos estão divididas em: Application Development, para melhorar a
velocidade no desenvolvimento e gerenciamento de aplicações, Quality Assurance,
para garantir a qualidade dos sistemas desenvolvidos, Application Service
Management, para o gerenciamento da qualidade de serviço das aplciações e IT
Governance and Management, para alinhar a área de TI com os objetivos de negócio
da emrpesa através do gerenciamento de projeto, aplicações e infra-estrutura.

- 56 –
Módulo 15 – Clustering

Utilizar vários computadores ligados em rede para formar um cluster é uma solução
válida para três tipos básicos de aplicação: tolerância a falhas, balanceamento de
carga e processamento paralelo.

Clustering

A tecnologia já faz parte do cotidiano das corporações. E quanto maior for a


dependência das ferramentas de automação dos processos, maior será a
necessidade de garantir a continuidade das operações. Não são todas as empresas,
no entanto, que dispõem de recursos ou precisam contar com máquinas tolerantes a
falhas ou de alta disponibilidade, cujos custos de aquisição e manutenção podem ser
bastante elevados. Uma solução mais econômica e eficiente é a tecnologia
denominada como clustering, em que vários computadores são ligados em rede e
passam a se comportar como se fossem um só.

Existem basicamente três tipos de aplicações que justificam a montagem de um


cluster: tolerância a falhas, balanceamento de carga e processamento paralelo. A
mais utilizada das três é a tolerância a falhas, onde dois ou mais computadores
(normalmente servidores) estão ligados entre si. Em geral, um deles responde por
todo o trabalho, enquanto o outro permanece em stand by e se limita a manter os
dados atualizados em relação ao primeiro e a monitorá-lo constantemente. Caso
ocorra algum problema com o primeiro servidor, o segundo assume suas funções de
forma automática e imediata.

Essa solução é muito utilizada em servidores Web e também em servidores de


bancos de dados em Intranets. Também existe a possibilidade de a segunda
máquina não ficar em stand by, mas responder a outros serviços e trabalhos,
mantendo as atualizações em relação ao primeiro e a capacidade de assumir as suas
funções em caso de falha.

Outra aplicação do clustering é para o balanceamento de carga, usada


principalmente em servidores Web. Para isso, são necessárias três máquinas, no
mínimo, sendo que a primeira recebe todas as requisições e se encarrega de dividi-
las entre as demais. Essa é a opção válida e mais econômica para as empresas que
lidam com grande quantidade de informações, mas não podem ou não querem arcar
com o alto custo de um servidor de grande porte, colocando em seu lugar vários PCs
mais baratos e capazes de fazer o mesmo trabalho.

A terceira aplicação é o processamento paralelo, que visa ser uma opção mais viável
de computação paralela de alto desempenho, muito utilizada na área científica e em
empresas que lidam com um volume gigantesco de dados a serem processados.

- 57 –
Em vez de utilizar sistemas especialistas de processamento paralelo, que são muito
caros e complexos, tanto em hardware como software, pode-se utilizar várias
estações de trabalho comuns e conectá-las entre si de forma que se comportem
como um único equipamento.

O trabalho é dividido em pequenas partes, sendo que o processamento é feito de


maneira distribuída, e posteriormente o quebra-cabeça é montado resultando no
trabalho final. Dessa forma, é possível obter um desempenho compatível aos dos
sistemas de computação paralela, com custos e complexidade substancialmente
inferiores. O modelo de arquitetura de clustering mais utilizado para esse fim é o de
Beowulf.

Clusters Beowulf

Beowulf era um herói de grande força e valentia que tinha como objetivo derrotar o
monstro de Grendel – personagens de um antigo poema épico da língua inglesa. O
nome do herói foi o escolhido para batizar a arquitetura de multicomputadores
utilizados para computação paralela, composta por um conjunto de máquinas
formado por um nó servidor e nós clientes conectados via rede (padrão Ethernet ou
outra topologia qualquer), rodando um sistema operacional paralelo.

Nesse modelo, o servidor tem a função de controlar todo o cluster, distribuir os


arquivos e as tarefas para os nós clientes, além de servir de gateway para conexão
externa. Pode também haver mais de um servidor, dedicados às operações
específicas como monitoração ou gateway, ou para serem utilizados apenas como
console.

O primeiro cluster Beowulf foi desenvolvido por Thomas Sterling e Don Becker,
pesquisadores do Centro de Excelência em Dados Espaciais e Informações Científicas
(Cesdis) da Agência Espacial Americana (NASA) em 1994. O cluster foi montado no
Centro Espacial Goddard, em Greenbelt (Maryland/EUA), sendo utilizado para o
projeto de ciências espaciais e terrestres. Era formado por 16 processadores Intel
486DX4 de 100MHz conectados via rede Ethernet de 100 Mbps, e sistema
operacional Linux.

Os componentes de hardware eram comuns, sendo que cada nó do cluster era


formado por um processador 486DX4 de 100 MHz, placa mãe SiS471 com cache de
256KB, memória RAM de 16 MB/60ns, disco rígido de 540 MB IDE, placa de rede
dual 10Mbps – todos elementos de fácil aquisição e custo acessível. Isso contribuiu
para o enorme sucesso alcançado e para a popularização desse tipo de arquitetura
que, em pouco tempo, passou a ser implementada em diversas universidades e em
instituições de pesquisa. E existem clusters Beowulf de mais de 1000 nós com
desempenho superior a 100 GigaFLOP/s.

- 58 –
O cluster Beowulf é composto geralmente por máquinas de modelos comuns,
disponíveis no mercado. Não há necessidade de nenhum hardware especial, nem
existem dificuldades técnicas adicionais para instalação e implementação. Como
exemplo, são suficientes oito estações de trabalho comuns (de preferência,
semelhantes) com uma placa de rede para se iniciar um cluster do tipo. Há
basicamente duas classes de clusters. A primeira é construída com equipamentos
genéricos de fabricantes conhecidos, apresentando como principal vantagem a
facilidade de assistência técnica e de aquisição e/ou substituição de drivers de
dispositivos, além da compatibilidade entre os componentes.

Outra classe de cluster é composta por equipamentos específicos ou montados a


partir de versões OEM de diversos fabricantes. A vantagem, nesse caso, é a
facilidade de escolha do hardware para aumento da performance. Porém, pode haver
dificuldade para aquisição e substituição de componentes. Em relação à software, um
cluster Beowulf utiliza principalmente o RedHat, que apresenta maior facilidade no
gerenciamento de pacotes e disponibilidade de upgrades do sistema.

Todos os componentes de software são implementados como aplicações adicionais


do sistema operacional Linux, amplamente disponíveis no mercado. Um pacote
completo inclui uma série de ambientes de programação e bibliotecas de
desenvolvimento em forma de pacotes instaláveis individualmente. É recomendado
como configuração mínima: sistema operacional Linux com software de rede;
arquivos-fonte do Kernel; linguagens C, C++, bibliotecas e compiladores; X11 com
bibliotecas e ferramentas de desenvolvimento; sincronizador de tempo; sincronizador
remoto rsync e sistema de arquivos com autofs.

Princípios básicos

Independente da aplicação, todo cluster precisa seguir cinco princípios básicos para
ser eficiente. O primeiro deles refere-se à comodidade. Em um cluster os nós devem
ser máquinas normais interconectadas por uma rede genérica. O sistema operacional
precisa ser padrão, sendo que o software de gerenciamento deve ir acima dele como
uma aplicação qualquer.

O segundo princípio refere-se à escalabilidade. Deve ser possível adicionar


aplicativos, nós, periféricos e interconexões de rede sem que haja necessidade de
interromper a disponibilidade dos serviços do ambiente. A transparência também é
fundamental, ou seja, o cluster construído com um grupo de nós independentes e
agrupados, deve se apresentar aos clientes externos como um único sistema. As
aplicações clientes precisam interagir com o cluster como se esse fosse um único
servidor de alta performance ou de alta disponibilidade.

- 59 –
O quarto princípio refere-se à confiabilidade. O cluster precisa ter capacidade de
detectar falhas internas, assim como tomar providências para que estas não
comprometam o serviço oferecido. E, finalmente, o quinto princípio diz respeito ao
gerenciamento e à manutenção. Por serem tarefas complexas e propensas a gerar
erros, deve-se adotar um mecanismo de fácil configuração e manutenção do
ambiente, de forma a simplificar sua administração.

Resumindo

Um cluster pode ser formado por apenas duas máquinas, ou por vários
equipamentos interligados. Em geral, sua expansão ocorre de forma linear em
relação a investimentos. A tecnologia de clustering também pode ser aplicada a
nobreaks destinados a servidores. Dois nobreaks de 2 KVA podem ser interligados
equivalendo a um nobreak de 4 KVA e assim por diante.

- 60 –
Módulo 16 – Integração e compatibilidade

A dependência das corporações em relação à tecnologia é cada vez maior. Nesse


cenário, cresce a importância de se definir um método para possibilitar a integração
das aplicações e dos diferentes sistemas no ambiente de TI.

EAI e Middleware – Integração e compatibilidade

A grande maioria das empresas conta com um ambiente de TI heterogêneo,


composto por diferentes plataformas e sistemas. A necessidade de integrar
aplicações de uso interno, e também com as de outras empresas que fazem parte da
cadeia de negócios, tem aumentado nos últimos anos, impulsionada pelo
crescimento das operações Internet. Também houve um aumento dos processos de
fusões e aquisições de companhias, obrigando-as igualmente a enfrentar a
dificuldade de integrar vários equipamentos e soluções diversas.

Diante desse quadro, vem se desenvolvendo um novo e promissor mercado para as


ferramentas EAI - Enterprise Application Integration. São soluções que contemplam
a integração de aplicações corporativas e um conjunto de ferramentas e tecnologias,
permitindo o compartilhamento de processos e dados e a comunicação entre
plataformas distintas. Numa mesma organização, mainframes, servidores Unix,
servidores NT e estações de trabalho, de diferentes fabricantes e de gerações
diversas constituem uma base tecnológica valiosa, mas seu real benefício reside na
capacidade desses diferentes sistemas "conversarem" entre si e com os sistemas de
outras empresas, parceiras de negócios.

Mas essa tarefa, em geral, apresenta um alto grau de dificuldade. No entanto, com a
utilização de ferramentas EAI, sistemas estanques podem ser conectados a um único
servidor de integração, empregando um processo capaz de ser repetido inúmeras
vezes. Nesse sentido, para acrescentar uma nova tecnologia ou software basta
reproduzir o procedimento e conectar tudo ao servidor que controla os processos.
Dessa maneira, todos os aplicativos podem se comunicar entre si e trocar dados
utilizando, para isso, o servidor de integração. Para escolher a solução de EAI mais
adequada, as empresas devem, inicialmente, compreender seus processos de
negócios e seus dados para selecionar o que de fato requer uma integração. Esse
processo de escolha pode ser visto sob quatro dimensões: nível de dados, nível de
interface de aplicações, nível de métodos e nível de interface dos usuários.

Dimensões do EAI

O nível de dados do EAI é composto pelos processos, técnicas e tecnologias que


permitem mover e transportar dados entre diferentes fontes e destinos e,
eventualmente, atualizar os dados, mantendo sua integridade.

- 61 –
Dessa forma, é possível mover a informação entre diferentes bancos de dados a um
custo relativamente baixo. Os chamados Message Brokers permitem a construção de
scripts contendo regras para extrair, transformar, traduzir, combinar, reformar e
replicar os dados de uma ou mais base, compatibilizando-os e transportando-os para
uma aplicação ou base target, de acordo com o formato exigido por ela.

Outra dimensão do EAI é o nível de interface de aplicação que, como o nome já diz,
permite a utilização de interfaces por meio das quais os desenvolvedores podem
empacotar muitas aplicações, permitindo o compartilhamento lógico e de
informações. Exemplos desse tipo de EAI podem ser aplicados a pacotes de sistemas
de gestão integrada (ERP), como os da SAP, PeopleSoft e Baan. Para integrar os
sistemas corporativos, é necessário o emprego dessas interfaces que permitem
acessar tanto os dados, quanto os processos, extraindo informações, substituindo
dados, colocando no formato adequado para a aplicação destino e transmitindo.

Outras tecnologias, como as de message brokers, também podem fazer isso. O nível
de métodos de EAI refere-se ao compartilhamento de lógica de negócios. O seu
emprego permite, por exemplo, acessar o método de atualização do registro de um
consumidor a partir de um grande número de aplicações, sem haver necessidade de
reescrever um método para cada aplicação. O mecanismo de compartilhamento de
métodos pelas aplicações inclui objetos distribuídos, servidores de aplicação,
monitores de transação ou uma aplicação única que combina a ação de outras duas.

E finalmente o nível de interface para o usuário possibilita aos desenvolvedores


estabelecer um ponto comum de integração para os usuários. Com isso, as
aplicações que foram escritas para o ambiente mainframe podem ser exibidas de
forma visual para o usuário de outras plataformas. O EAI não é homogêneo e oferece
uma gama variada de opções e ferramentas. Além disso, os produtos, em geral, não
fornecem uma solução acabada. Basicamente, há dois tipos de ferramentas. O
primeiro tem o foco voltado para o compartilhamento de dados, permitindo a
extração e a transformação de informações que podem ser intercambiáveis entre os
pacotes ERP e outras aplicações.

O segundo tipo de ferramenta confia nos recursos de entrega de mensagens para


suportar o compartilhamento direto de dados entre programas, sem a necessidade
de utilizar um arquivo ou um banco de dados intermediário. A tecnologia de
integração é importante, na medida em que permite às companhias não perder o
valor do investimento já realizado em sistemas legados, além de poderem agregar
rapidamente novos software a um custo inferior e integrar sistemas diferentes.

Além do EAI, direcionado para modelar e automatizar os processos comerciais de


uma empresa, o mercado de integração conta também com soluções classificadas
como B2Bi (business-to-business integration), que possibilitam à empresa integrar
seus sistemas aos de seus parceiros de negócios.

- 62 –
Embora à primeira vista as ferramentas EAI e B2Bi possam parecer idênticas,
existem algumas diferenças fundamentais, entre as quais o nível de segurança
oferecido – as B2Bi respondem às exigências de segurança muito mais severas. O
importante é saber se o foco do cliente está na integração interna ou na externa,
para então avaliar os produtos nesses contextos. O recomendável é que o primeiro
foco seja a integração interna de aplicativos e sistemas, para definir e
institucionalizar os processos comerciais. Após esse problema ser solucionado, pode-
se então partir para a integração com os sistemas externos (de parceiros de
negócios).

Middleware

O mercado abriga também as soluções classificadas como middleware, mais


limitadas que as EAI, e que facilitam a integração de aplicações individuais,
permitindo também discretas transações entre elas. Em sentido amplo, ele designa
um software que promove a comunicação e a interoperabilidade entre outros
software. Em geral, os middleware tradicionais exigem alterações significativas nos
sistema de origem e de destino, o que resulta na agregação da camada de
middleware na aplicação ou no depósito de dados.

Por exemplo, para integrar um sistema de contabilidade que roda sob o Windows
2000 com um sistema de patrimônio que roda no mainframe, deve-se selecionar o
produto de middleware de filas de mensagens de forma a permitir aos sistemas
compartilhar informações. Para isso, provavelmente será necessário alterar o
sistema fonte (origem dos dados) e o sistema destino (destino dos dados) para fazer
uso do middleware. Isso precisa ser feito porque a camada de middleware provê
apenas uma interface, uma ligação, e os programas devem ser alterados para
acomodar o middleware, o que implica alto custo e alto risco.

O middleware pode ser classificado como uma das partes mais importantes do
ambiente cliente-servidor. Da menor rede local (LAN) até o maior sistema
distribuído, todos igualmente utilizam alguma solução middleware. Na verdade,
sempre que uma máquina cliente envia uma requisição para o servidor, ou sempre
que algum aplicativo carrega dados de um banco de dados, está presente alguma
forma de middleware, cuja função é a de aplainar incompatibilidades em potencial
entre protocolos de comunicação, linguagens de consulta a banco de dados, lógica de
aplicativos e sistemas operacionais de nível básico.

O middleware pode ser classificado como uma das partes mais importantes do
ambiente cliente-servidor. Da menor rede local (LAN) até o maior sistema
distribuído, todos igualmente utilizam alguma solução middleware.

- 63 –
Na verdade, sempre que uma máquina cliente envia uma requisição para o servidor,
ou sempre que algum aplicativo carrega dados de um banco de dados, está presente
alguma forma de middleware, cuja função é a de aplainar incompatibilidades em
potencial entre protocolos de comunicação, linguagens de consulta a banco de
dados, lógica de aplicativos e sistemas operacionais de nível básico.

A parte do aplicativo cliente/servidor que procura por esses dados precisa acessar
um sistema de middleware que localizará a fonte ou o serviço de dados
independentemente de onde resida, transmitirá a requisição do aplicativo,
reempacotará a resposta e a retransmitirá de volta ao aplicativo. O middleware é
responsável por assegurar que o aplicativo e suas fontes de dados se comuniquem
de forma rápida, eficiente e eficaz, independente de qual sistema operacional,
protocolo de comunicação ou sistema de banco de dados esteja sendo acessado. A
compra de um middleware requer um entendimento fundamental dos problemas e
processos empresariais nos quais deve auxiliar. Também é preciso fazer uma análise
dos diferentes produtos disponíveis no mercado para verificar os benefícios relativos.

A maioria dos fornecedores de middleware recomenda que os usuários comecem


pelo aspecto empresarial antes de atacar as questões tecnológicas para a escolha da
solução. Na verdade, o termo middleware nem sempre é muito claro. Pode ser
entendido como um sistema de componentes que proporciona a transferência de
dados ou o acesso em tempo real por meio de sistemas heterogêneos não ativos. Ou
seja, como um conjunto de tradutores universais e locadores de dados que permitem
ao usuário trabalhar em qualquer plataforma para localizar, acessar, manipular e
mover dados por toda a empresa sem precisar entender ou estar preocupado com a
complexidade dos sistemas de informações organizacionais e suas redes.

Web services e SOA

Outro elemento foi agregado ao arsenal de tecnologias de integração. Ele é mais fácil
de usar, tem custo menor e não interfere tanto nos sistemas existentes. É o Web
Service. É um conjunto de aplicações Web. Estas são auto-contidas, auto-descritas e
modulares e podem ser publicadas, localizadas e utilizadas pela Web. Os Web
Services podem executar funções simples ou processos complicados de negócio.
Vários são seus componentes. Entre eles se destacam: SOAP, para o transporte das
mensagens, UDDI, o diretório de serviço de Web Services, WSDL, que mostra as
características de um Web Service e o XLANG/XAML, que dá suporte a transações
complexas pela web.

Sua utilização em larga escala levou a uma nova arquitetura de sistemas, o SOA
(Service Oriented Architeture). O SOA é uma arquitetura cujo objetivo é manter
agentes de software interagindo entre si. Um serviço é uma unidade de trabalho feita
por um provedor de serviço para atingir um resultado desejado por um consumidor
de serviço. Ambos, o consumidor e o provedor de serviço são papéis encenados por
agentes de software.

- 64 –
Para não tornar tudo muito abstrato, veja o seguinte exemplo. Um CD e um tocador
de CD. O tocador de CD oferece o serviço de tocar CD, o que é muito bom, pois você
pode trocar o player sempre que desejar e continuar a tocar CDs. Você pode tocar o
CD em um aparelho portátil ou em um aparelho com saídas surround. Ambos tocam,
mas a qualidade do serviço oferecido é diferente.

A idéia do SOA muda significantemente a programação orientada a objeto, a qual


sugeria que você deveria ligar os dados e seu processamento. Assim, um estilo de
programação orientada a objeto era como se cada CD devesse ter o seu próprio
tocador e eles não poderiam estar separados. Assim, são feitos os sistemas
atualmente.

- 65 –
Módulo 17 – Confiabilidade

A preocupação com a confiabilidade dos equipamentos surgiu, inicialmente, na


indústria aeronáutica e logo se estendeu para outros segmentos que também
priorizam e dependem do bom funcionamento dos sistemas.

EAI e Middleware – Integração e compatibilidade

A grande maioria das empresas conta com um ambiente de TI heterogêneo,


composto por diferentes plataformas e sistemas. A necessidade de integrar
aplicações de uso interno, e também com as de outras empresas que fazem parte da
cadeia de negócios, tem aumentado nos últimos anos, impulsionada pelo
crescimento das operações Internet. Também houve um aumento dos processos de
fusões e aquisições de companhias, obrigando-as igualmente a enfrentar a
dificuldade de integrar vários equipamentos e soluções diversas.

Diante desse quadro, vem se desenvolvendo um novo e promissor mercado para as


ferramentas EAI - Enterprise Application Integration. São soluções que contemplam
a integração de aplicações corporativas e um conjunto de ferramentas e tecnologias,
permitindo o compartilhamento de processos e dados e a comunicação entre
plataformas distintas. Numa mesma organização, mainframes, servidores Unix,
servidores NT e estações de trabalho, de diferentes fabricantes e de gerações
diversas constituem uma base tecnológica valiosa, mas seu real benefício reside na
capacidade desses diferentes sistemas "conversarem" entre si e com os sistemas de
outras empresas, parceiras de negócios.

Mas essa tarefa, em geral, apresenta um alto grau de dificuldade. No entanto, com a
utilização de ferramentas EAI, sistemas estanques podem ser conectados a um único
servidor de integração, empregando um processo capaz de ser repetido inúmeras
vezes. Nesse sentido, para acrescentar uma nova tecnologia ou software basta
reproduzir o procedimento e conectar tudo ao servidor que controla os processos.
Dessa maneira, todos os aplicativos podem se comunicar entre si e trocar dados
utilizando, para isso, o servidor de integração. Para escolher a solução de EAI mais
adequada, as empresas devem, inicialmente, compreender seus processos de
negócios e seus dados para selecionar o que de fato requer uma integração. Esse
processo de escolha pode ser visto sob quatro dimensões: nível de dados, nível de
interface de aplicações, nível de métodos e nível de interface dos usuários.

Dimensões do EAI

O nível de dados do EAI é composto pelos processos, técnicas e tecnologias que


permitem mover e transportar dados entre diferentes fontes e destinos e,
eventualmente, atualizar os dados, mantendo sua integridade.

- 66 –
Dessa forma, é possível mover a informação entre diferentes bancos de dados a um
custo relativamente baixo. Os chamados Message Brokers permitem a construção de
scripts contendo regras para extrair, transformar, traduzir, combinar, reformar e
replicar os dados de uma ou mais base, compatibilizando-os e transportando-os para
uma aplicação ou base target, de acordo com o formato exigido por ela.

Outra dimensão do EAI é o nível de interface de aplicação que, como o nome já diz,
permite a utilização de interfaces por meio das quais os desenvolvedores podem
empacotar muitas aplicações, permitindo o compartilhamento lógico e de
informações. Exemplos desse tipo de EAI podem ser aplicados a pacotes de sistemas
de gestão integrada (ERP), como os da SAP, PeopleSoft e Baan. Para integrar os
sistemas corporativos, é necessário o emprego dessas interfaces que permitem
acessar tanto os dados, quanto os processos, extraindo informações, substituindo
dados, colocando no formato adequado para a aplicação destino e transmitindo.

Outras tecnologias, como as de message brokers, também podem fazer isso. O nível
de métodos de EAI refere-se ao compartilhamento de lógica de negócios. O seu
emprego permite, por exemplo, acessar o método de atualização do registro de um
consumidor a partir de um grande número de aplicações, sem haver necessidade de
reescrever um método para cada aplicação. O mecanismo de compartilhamento de
métodos pelas aplicações inclui objetos distribuídos, servidores de aplicação,
monitores de transação ou uma aplicação única que combina a ação de outras duas.

E finalmente o nível de interface para o usuário possibilita aos desenvolvedores


estabelecer um ponto comum de integração para os usuários. Com isso, as
aplicações que foram escritas para o ambiente mainframe podem ser exibidas de
forma visual para o usuário de outras plataformas. O EAI não é homogêneo e oferece
uma gama variada de opções e ferramentas. Além disso, os produtos, em geral, não
fornecem uma solução acabada. Basicamente, há dois tipos de ferramentas. O
primeiro tem o foco voltado para o compartilhamento de dados, permitindo a
extração e a transformação de informações que podem ser intercambiáveis entre os
pacotes ERP e outras aplicações.

O segundo tipo de ferramenta confia nos recursos de entrega de mensagens para


suportar o compartilhamento direto de dados entre programas, sem a necessidade
de utilizar um arquivo ou um banco de dados intermediário. A tecnologia de
integração é importante, na medida em que permite às companhias não perder o
valor do investimento já realizado em sistemas legados, além de poderem agregar
rapidamente novos software a um custo inferior e integrar sistemas diferentes.

Além do EAI, direcionado para modelar e automatizar os processos comerciais de


uma empresa, o mercado de integração conta também com soluções classificadas
como B2Bi (business-to-business integration), que possibilitam à empresa integrar
seus sistemas aos de seus parceiros de negócios.

- 67 –
Embora à primeira vista as ferramentas EAI e B2Bi possam parecer idênticas,
existem algumas diferenças fundamentais, entre as quais o nível de segurança
oferecido – as B2Bi respondem às exigências de segurança muito mais severas. O
importante é saber se o foco do cliente está na integração interna ou na externa,
para então avaliar os produtos nesses contextos. O recomendável é que o primeiro
foco seja a integração interna de aplicativos e sistemas, para definir e
institucionalizar os processos comerciais. Após esse problema ser solucionado, pode-
se então partir para a integração com os sistemas externos (de parceiros de
negócios).

Middleware

O mercado abriga também as soluções classificadas como middleware, mais


limitadas que as EAI, e que facilitam a integração de aplicações individuais,
permitindo também discretas transações entre elas. Em sentido amplo, ele designa
um software que promove a comunicação e a interoperabilidade entre outros
software. Em geral, os middleware tradicionais exigem alterações significativas nos
sistema de origem e de destino, o que resulta na agregação da camada de
middleware na aplicação ou no depósito de dados.

Por exemplo, para integrar um sistema de contabilidade que roda sob o Windows
2000 com um sistema de patrimônio que roda no mainframe, deve-se selecionar o
produto de middleware de filas de mensagens de forma a permitir aos sistemas
compartilhar informações. Para isso, provavelmente será necessário alterar o
sistema fonte (origem dos dados) e o sistema destino (destino dos dados) para fazer
uso do middleware. Isso precisa ser feito porque a camada de middleware provê
apenas uma interface, uma ligação, e os programas devem ser alterados para
acomodar o middleware, o que implica alto custo e alto risco.

O middleware pode ser classificado como uma das partes mais importantes do
ambiente cliente-servidor. Da menor rede local (LAN) até o maior sistema
distribuído, todos igualmente utilizam alguma solução middleware. Na verdade,
sempre que uma máquina cliente envia uma requisição para o servidor, ou sempre
que algum aplicativo carrega dados de um banco de dados, está presente alguma
forma de middleware, cuja função é a de aplainar incompatibilidades em potencial
entre protocolos de comunicação, linguagens de consulta a banco de dados, lógica de
aplicativos e sistemas operacionais de nível básico.

O middleware pode ser classificado como uma das partes mais importantes do
ambiente cliente-servidor. Da menor rede local (LAN) até o maior sistema
distribuído, todos igualmente utilizam alguma solução middleware.

- 68 –
Na verdade, sempre que uma máquina cliente envia uma requisição para o servidor,
ou sempre que algum aplicativo carrega dados de um banco de dados, está presente
alguma forma de middleware, cuja função é a de aplainar incompatibilidades em
potencial entre protocolos de comunicação, linguagens de consulta a banco de
dados, lógica de aplicativos e sistemas operacionais de nível básico.

A parte do aplicativo cliente/servidor que procura por esses dados precisa acessar
um sistema de middleware que localizará a fonte ou o serviço de dados
independentemente de onde resida, transmitirá a requisição do aplicativo,
reempacotará a resposta e a retransmitirá de volta ao aplicativo. O middleware é
responsável por assegurar que o aplicativo e suas fontes de dados se comuniquem
de forma rápida, eficiente e eficaz, independente de qual sistema operacional,
protocolo de comunicação ou sistema de banco de dados esteja sendo acessado. A
compra de um middleware requer um entendimento fundamental dos problemas e
processos empresariais nos quais deve auxiliar. Também é preciso fazer uma análise
dos diferentes produtos disponíveis no mercado para verificar os benefícios relativos.

A maioria dos fornecedores de middleware recomenda que os usuários comecem


pelo aspecto empresarial antes de atacar as questões tecnológicas para a escolha da
solução. Na verdade, o termo middleware nem sempre é muito claro. Pode ser
entendido como um sistema de componentes que proporciona a transferência de
dados ou o acesso em tempo real por meio de sistemas heterogêneos não ativos. Ou
seja, como um conjunto de tradutores universais e locadores de dados que permitem
ao usuário trabalhar em qualquer plataforma para localizar, acessar, manipular e
mover dados por toda a empresa sem precisar entender ou estar preocupado com a
complexidade dos sistemas de informações organizacionais e suas redes.

Web services e SOA

Outro elemento foi agregado ao arsenal de tecnologias de integração. Ele é mais fácil
de usar, tem custo menor e não interfere tanto nos sistemas existentes. É o Web
Service. É um conjunto de aplicações Web. Estas são auto-contidas, auto-descritas e
modulares e podem ser publicadas, localizadas e utilizadas pela Web. Os Web
Services podem executar funções simples ou processos complicados de negócio.
Vários são seus componentes. Entre eles se destacam: SOAP, para o transporte das
mensagens, UDDI, o diretório de serviço de Web Services, WSDL, que mostra as
características de um Web Service e o XLANG/XAML, que dá suporte a transações
complexas pela web.

Sua utilização em larga escala levou a uma nova arquitetura de sistemas, o SOA
(Service Oriented Architeture). O SOA é uma arquitetura cujo objetivo é manter
agentes de software interagindo entre si. Um serviço é uma unidade de trabalho feita
por um provedor de serviço para atingir um resultado desejado por um consumidor
de serviço.

- 69 –
Ambos, o consumidor e o provedor de serviço são papéis encenados por agentes de
software. Para não tornar tudo muito abstrato, veja o seguinte exemplo. Um CD e
um tocador de CD. O tocador de CD oferece o serviço de tocar CD, o que é muito
bom, pois você pode trocar o player sempre que desejar e continuar a tocar CDs.
Você pode tocar o CD em um aparelho portátil ou em um aparelho com saídas
surround. Ambos tocam, mas a qualidade do serviço oferecido é diferente.

A idéia do SOA muda significantemente a programação orientada a objeto, a qual


sugeria que você deveria ligar os dados e seu processamento. Assim, um estilo de
programação orientada a objeto era como se cada CD devesse ter o seu próprio
tocador e eles não poderiam estar separados. Assim, são feitos os sistemas
atualmente.

- 70 –
Módulo 18 – Tendências

As facilidades e agilidade propiciadas pela Internet convidam as empresas a cada vez


mais utilizarem esse canal para se relacionarem com fornecedores, distribuidores,
clientes e parceiros de negócios. Com isso, aumentam as preocupações e os
investimentos

Confiabilidade

A preocupação com a confiabilidade dos equipamentos começou na indústria


aeronáutica, por volta da década de 50, em conseqüência do aumento da frota de
aeronaves comerciais. Era imprescindível desenvolver técnicas para garantir a
segurança dos passageiros e da tripulação, uma vez que um avião não tem como
parar no acostamento, caso o motor sofra uma pane em pleno vôo.

Também os instrumentos que monitoram o espaço e o tráfego aéreo precisavam


estar disponíveis ininterruptamente no sentido de evitar colisões das naves e orientá-
las para decolagens e aterrissagens. Por isso, sempre houve muito rigor nesse
segmento, tanto para a confecção, como para a manutenção das aeronaves e
instrumentos afins de forma a reduzir ao máximo possível os riscos de falhas.
Posteriormente, outros segmentos de indústria como os da área nuclear, químicas e
petroquímicas, siderúrgicas, geradoras e distribuidoras de energia, entre outras em
que um mau funcionamento das máquinas coloca em risco vidas humanas também
passaram a se preocupar com a confiabilidade.

Empresas de todos os tipos e portes também têm essa preocupação, uma vez que
estão cada vez mais dependentes da tecnologia. Confiabilidade é definida como a
probabilidade de um sistema ou equipamento executar sua função de maneira
satisfatória dentro de um intervalo de tempo e operando conforme certas condições.
O fator de probabilidade está relacionado ao número de vezes que o sistema opera
adequadamente. Por exemplo, uma probabilidade de 95% significa que, na média, o
sistema irá funcionar adequadamente em 95 vezes das 100 vezes que executar
aquela função.

Tecnologia da Informação

No que se refere aos sistemas computacionais, a confiabilidade está intimamente


relacionada aos conceitos de tolerância a falhas e alta disponibilidade, tanto de
hardware como de software e redes.

- 71 –
Na verdade, três elementos são considerados indispensáveis, principalmente para a
criação de um ambiente de TI de missão crítica: confiabilidade, disponibilidade e
utilidade/ resistência – também conhecidos pela sigla RAS do inglês Reliability,
Availability e Serviceability.

Na teoria, um produto com alta confiabilidade é totalmente livre de falhas técnicas


mas, na prática, no entanto, a confiabilidade é medida em porcentagem de tempo
em que o sistema permanece disponível. Em geral, os PCs domésticos apresentam
disponibilidade de 99% , ou seja, podem falhar, em média, 3,5 dias por ano. Os
equipamentos de alta disponibilidade utilizados nas empresas apresentam índices
mais elevados, que variam de 99,9% (podem falhar 8,5 horas por ano) a 99,99%
(falham 1 hora por ano), e os tolerantes a falha contam com um uptime de 99,999%
(podem falhar 5 minutos em um ano). Em geral, os sistemas que estão há mais
tempo no mercado, ou seja, que apresentaram várias versões durante um período de
tempo, são considerados confiáveis uma vez que normalmente os bugs presentes em
versões anteriores foram eliminados nas versões mais novas.

Sistemas distribuídos

Os sistemas distribuídos, compostos por várias máquinas interligadas por redes,


apresentam maiores dificuldades para assegurar a confiabilidade quando comparados
aos sistemas centralizados. Nestes últimos, a confiabilidade depende de uma única
máquina – o mainframe – já construída sob esse prisma e que, em geral, é
monitorada e mantida por pessoal especializado.

No modelo cliente-servidor, a confiabilidade e a distribuição andam de mãos dadas, o


que requer maior rigor e atenção no que se refere ao gerenciamento e
monitoramento em todos os pontos da rede. Apesar de todos os cuidados que se
possa ter, não há como evitar que uma máquina falhe. Mas é possível fazer com que
essa falha não comprometa a continuidade das operações da empresa. Emprego de
máquinas tolerantes a falhas, clustering, replicação de dados, sites de backup,
planos de contingência e políticas de auditoria e segurança são elementos que
precisam ser enraizados na cultura tecnológica das empresas na proporção em que
estas dependem de TI para sua sobrevivência no mundo dos negócios.

Também se faz necessária a adoção de alguns procedimentos para assegurar o bom


funcionamento dos sistemas. Um deles refere-se à manutenção periódica não apenas
do hardware, como também do software e dos nobreaks. São comuns os contratos
de manutenção firmados com os fornecedores que asseguram a realização de
upgrades (atualizações) automáticos. Os ambientes de TI também costumam passar
por modificações e atualizações, seja no aumento do número de usuários, ampliação
da memória e da capacidade de processamento, ou mesmo na adoção das novas
versões de software. É importante que essas mudanças sejam feitas por pessoal
especializado e que seja mantida uma documentação atualizada de todos os
sistemas.

- 72 –

You might also like