Missão Crítica Módulo 1 – O que é missão crítica Definição do que é crítico para a organização.

A importância da infra-estrutura de TI adequada para garantir o desempenho necessário no mundo dos negócios. Que prejuízos uma instituição bancária poderia ter caso uma pane em seus sistemas apagasse por completo as informações sobre seus correntistas? E se um provedor de acesso à Internet ficasse fora do ar durante 24 horas, que impactos causaria nos seus usuários e quais perdas poderia sofrer? E os sites de vendas online, como o brasileiro Submarino. O que aconteceria com a empresa, que depende dele para ter o seu faturamento, se o site não suportasse o acesso dos compradores? E uma operadora de telefonia que tivesse de enfrentar uma parada nas suas centrais, como conseguiria registrar o custo das chamadas feitas pelos seus assinantes? Todas elas poderiam amargar um prejuízo de milhões de reais, além de ter sua imagem e credibilidade fortemente abaladas. Esses são alguns exemplos de empresas que não podem prescindir de um ambiente de missão crítica, ou seja, de uma infra-estrutura tecnológica projetada especificamente para evitar que qualquer falha em alguns dos sistemas chegue a comprometer a continuidade do funcionamento das operações e possa ser rapidamente solucionada. Os primeiros equipamentos de missão crítica, também chamados de tolerantes a falhas (Fault Tolerance), começaram a ser empregados no Brasil pelo setor militar por volta da década de 60. Mais tarde, nos anos 70 e 80, os bancos e algumas corporações que lidavam com grande volume de informações e precisavam contar com um ambiente extremamente seguro também passaram a utilizar equipamentos tolerantes a falhas. Esse tipo de equipamento é espelhado, ou seja, é como se fossem dois equipamentos idênticos numa mesma estrutura ou gabinete, sendo que um deles em atividade, enquanto o outro permanece em "stand by". Caso haja alguma falha no equipamento que está em atividade, o seu "gêmeo" automaticamente assume seu lugar, dando continuidade às operações como se nada tivesse acontecido. Esses equipamentos eram caros, da ordem de milhões de dólares, e somente grandes corporações tinham condição de adquiri-los, mas agora começam a ser disponibilizados com maior abundância mesmo em empresas menores.

-1–

Opções válidas Uma alternativa mais acessível em custos são os equipamentos classificados como de alta disponibilidade (High Availability), que diferem dos tolerantes a falhas em disponibilidade, visto que ela é desenhada e implementada somente nos elementos com mais probabilidade de causarem erro, como os discos, por exemplo. Esses equipamentos não são totalmente espelhados, mas o risco de apresentar falha é extremamente pequeno. O índice de uptime (tempo em que todo sistema permanece ativo ou disponível) de um sistema de alta disponibilidade fica na faixa de 99,9% a 99,99%, enquanto que os tolerantes a falha apresentam uptime da ordem de 99,999%. A avaliação de disponibilidade também deve incluir a redundância de nós, interconexões, controladoras e proteção de falha de energia (nobreaks e geradores). Também deve ser considerada a redistribuição de carga depois da falha de um nó e a habilidade de todo o sistema operar durante paralisações planejadas ou não. Outra opção disponível para as empresas é a adoção da tecnologia de cluster que pressupõe a aquisição de outro equipamento, não necessariamente igual ao existente e que não precise ficar em stand by, mas executando outras funções, e que pode assumir a operação caso o outro equipamento apresente falha. (Iremos abordar a tecnologia cluster com mais detalhes no decorrer do curso). Essa tecnologia propicia melhorias significativas no ambiente computacional da empresa, tanto em capacidade, quanto em disponibilidade. Cada nó ou servidor adicional fornece uma escalabilidade quase linear dentro de um sistema em cluster. O mais importante é a capacidade de previsão dessa escalabilidade em relação à capacidade e ao custo, simplificando as operações e as atividades de planejamento. Não apenas o hardware deve ser redundante (duplicado), mas também o software, os aplicativos, o banco de dados e os protocolos. A infra-estrutura de TI adequada Por mais qualidade que se imponha aos equipamentos e por maior que seja a robustez aplicada ao software básico ou à qualidade na metodologia de desenvolvimento de aplicativos, os sistemas falham. Uma pesquisa realizada pelo Gartner Group revelou que, em média, 40% dos casos de paralisação nas operações das empresas (também chamado de downtime) são causados por falhas em aplicações (questões de desempenho ou bugs), 40% por erros de operação e cerca de 20% por falhas em sistemas. No caso dos sistemas, 60% das falhas são causadas por problemas com hardware e menos de 5% dos danos se devem a desastres. O fator humano também é preponderante no que se refere a falhas, indo desde um simples tropeço no fio em que está ligada a máquina à fonte de energia, até um comando errado. -2–

Dependendo do segmento de atuação da empresa, falhas nos sistemas podem causar prejuízos muito significativos. É o que comprovou outra pesquisa, realizada pela consultoria norte-americana Eagle Rock Alliance com 163 empresas com faturamentos anuais que variam de US$ 10 milhões a US$ 5 bilhões. O estudo demonstrou que 46% dos entrevistados afirmaram que cada hora de paralisação das operações custa para a companhia mais de US$ 50 mil. Para 28% delas, uma hora de downtime varia de US$ 51 mil a US$ 250 mil, e para 18% delas, algo entre US$ 251 mil e US$ 1 milhão. Para uma empresa saber se precisa de um ambiente mais ou menos crítico, ela deve avaliar quanto perderia por hora se seus sistemas ficassem inoperantes. Se ela pode tolerar algumas horas de paralisação, não precisa de uma infra-estrutura tão crítica. Independente do quanto a infra-estrutura de TI impacta na forma de atuação, todas as companhias devem tomar alguns cuidados básicos. Um deles é ter em mente que os sistemas não costumam apresentar problemas a toda hora. Com isso, tende-se a relaxar nos procedimentos de contingência e de atualização da documentação nos casos em que o ambiente evolui. O ideal é dispor de uma infra-estrutura sólida, com hardware, software e banco de dados redundantes ou que disponham de uma manutenção sistemática e adequada. Se a empresa não conta com sistema de backup (duplicação dos dados e informações) pode optar por um ambiente de cluster que, se for bem construído, pode não envolver grandes investimentos. Pessoas também são importantes, principalmente nos ambientes de missão crítica. É fundamental contar com profissionais especializados, internos e de terceiros, para monitorar os sistemas e responsabilizarem-se pelas atualizações e manutenção. É inegável que a cada dia a Tecnologia da Informação se torna mais estratégica para as corporações. Não existe uma receita que se aplique a todos indistintamente. Mas a escolha de soluções deve seguir alguns critérios para garantir o seu desempenho e evolução. É importante observar nos hardware, software e banco de dados itens como: Confiabilidade *o quanto a máquina e seu sistema operacional são consistentes para operar as aplicações e serviços necessários, assegurando a integridade da informação e apresentando capacidade de recuperação da informação danificada. Segurança capacidade do sistema se proteger de ataques e intrusões.

-3–

Escalabilidade capacidade de aumentar o número de processadores, suporte a clustering, e capacidade de rápido ajuste ao crescimento da carga. Disponibilidade capacidade de prevenir e recuperar falhas. Interoperabilidade capacidade de conviver com outras tecnologias.

-4–

Módulo 2 – Segurança O estabelecimento de uma política de segurança dentro da empresa, prevendo acidentes naturais e demais problemas que possam comprometer a continuidade das operações. A questão da segurança Desde o atentado terrorista que destruiu as torres gêmeas em Nova York, nos Estados Unidos, em 11 de setembro de 2001, o mundo não é mais o mesmo. O incidente serviu especialmente para reavivar no setor corporativo a necessidade do estabelecimento de uma política de segurança eficaz, que não contemple apenas medidas internas de proteção, mas também a viabilidade de contar com uma outra unidade. Esta, existente em outro local, própria ou de terceiros, permitirá a continuidade das operações nos casos de acidentes graves como o ocorrido nos Estados Unidos, ou mesmo incêndios, terremotos e outros problemas capazes de abalar seriamente ou destruir as instalações físicas das empresas. Apesar de o assunto estar mais vivo atualmente, a preocupação com a segurança não é recente. No tempo dos CPDs (Centros de Processamentos de Dados), quando reinavam absolutos os mainframes, a maior atenção era direcionada, basicamente, à parte física do ambiente: instalações, arquivos de discos, fitas e listagens deveriam estar protegidos contra incêndios, enchentes ou atos de vandalismo. Com isso, a segurança era garantida por meio de medidas simples, tais como restrição do acesso ao ambiente – apenas pessoas autorizadas podiam entrar no CPD -, salas climatizadas e mobiliário adequado. Essas medidas eram suficientes para garantir, principalmente, a segurança dos dados. O cenário começou a mudar quando foram implementadas as primeiras redes e foi iniciada a descentralização do processamento de dados. A ligação dos microcomputadores ao mainframe passou a ser um fator de preocupação, embora tida como inevitável. Temia-se que um funcionário pudesse modificar as informações, como por exemplo, alterar algum item da sua ficha do departamento pessoal, ou mesmo obter dados confidenciais sobre as condições financeiras da empresa. Os questionamentos, restringiam-se aos níveis de segurança que deveriam ser implementados, especialmente quanto ao tipo de procedimentos facultados aos funcionários. Uma das principais preocupações das empresas referia-se à sabotagem ou a ações prejudiciais praticadas por funcionários insatisfeitos ou ex-funcionários. As instituições financeiras eram as mais temerosas quanto a isso, em função dos prejuízos que qualquer alteração nas informações poderia trazer. E não eram preocupações infundadas. Algumas dessas empresas chegaram a amargar prejuízos consideráveis em decorrência das manipulações eletrônicas que possibilitaram desvios de dinheiro feitos por parte dos funcionários. -5–

A ameaça à segurança cresceu sobretudo a partir da segunda metade da década de 80, devido à proliferação do uso de redes corporativas. Os executivos finalmente se convenceram de que precisavam estipular uma política interna mais severa referente ao tratamento da informação. Em paralelo, as software houses começaram a oferecer ao mercado soluções para controle de acesso aos dados. Um dos mais importantes recursos que passou a ser empregado pelas corporações foi a criptografia – uma maneira de transformar os dados para que não sejam lidos por alguém que não tenha uma chave secreta para decodificá-los. Os primeiros métodos de codificação por criptografia, denominados simétricos, no entanto, não se mostraram muito eficientes, pois empregavam uma mesma chave para o emissor e para o receptor. A sua vulnerabilidade residia no fato de que era necessário que o emissor enviasse a chave secreta para o receptor para que este pudesse decodificar a mensagem. Do outro lado, a mensagem também poderia ser quebrada por um programa que tivesse uma tabela de freqüência de uso de letras e por combinação de letras da língua portuguesa. A criptografia começou a evoluir a partir de 1975, com o desenvolvimento dos sistemas assimétricos. A novidade desse método era o uso da teoria dos números, teoria de informação, análise combinatória e complexidade computacional na invenção de sistemas de chaves públicas que não eram possíveis de serem quebrados. Outros recursos As software houses também passaram a disponibilizar outros recursos de segurança como os firewalls, que são como barreiras estabelecidas por um roteador, com objetivo de bloquear a passagem de mensagens, e que empregam também as assinaturas digitais que utilizam a técnica da criptografia para garantir a autenticidade de um documento. Nos anos 90, com o crescimento da Internet, os problemas em relação à segurança se multiplicaram. Na mesma proporção que a comunicação era facilitada pela capacidade de enviar grande volume de informações a longas distâncias, com custos relativamente baixos, também cresciam os perigos de invasões e ataques aos sistemas. Os hackers e crakers passaram a ser os grandes vilões e ainda tiram o sono de executivos de companhias de todos os portes e ramos de atuação. Uma pesquisa realizada no Brasil sobre segurança da informação mostrou que 40% das empresas entrevistadas foram vítimas de algum tipo de invasão e 84% dos ataques ocorreram em menos de um ano. Uma boa parcela das empresas, cerca de 30%, não soube informar se foi invadida. Outro dado importante revelado pelo estudo é que apenas 31% das empresas entrevistadas tinham um plano de contingência.

-6–

Atualmente, a segurança é um assunto levado a sério pelas corporações. No entanto, uma política de proteção não pode ser efetivada da noite para o dia e nem existe uma fórmula padrão que sirva para todas as empresas. É preciso, inicialmente, fazer uma análise interna e determinar o que é vital para a companhia, quais são os maiores riscos e vulnerabilidades de seus sistemas, quais cuidados básicos devem ser tomados e quais ferramentas de hardware e software mostram-se mais apropriadas para proteger a empresa em todos os sentidos. Outro aspecto a ser considerado é que um plano de segurança não pode ser rígido, ou seja, precisa ser flexível e dinâmico para suportar as necessidades que surgirem em virtude da velocidade de mudança de fatores físicos, tecnológicos e humanos. Conscientizar os funcionários e envolvê-los no processo também constitui um elemento importante para que uma política de segurança seja bem-sucedida. Cada funcionário precisa entender o seu papel nesse processo e deve ser treinado. A empresa, de sua parte, precisa agir com transparência para que a equipe de trabalho atue como uma aliada. Outra medida fundamental é fazer reavaliações periódicas do plano de segurança para verificar pontos ainda vulneráveis por meio de testes. As empresas também precisam redobrar a guarda quanto aos vírus de computador, mantendo atualizados os programas antivírus. O vírus Beagle já fez um grande estrago em várias corporações no mundo todo, provocando prejuízo da ordem de bilhões de dólares. Cada vez mais, falhas de segurança em programas e a atitude frouxa da parte dos funcionários faz com que os vírus atuem nas empresas, invadindo por meio do sistema de mensagens, pelos sistemas de Instant Message, como o Messenger, e pelos sistemas de P2P, como o Kazaa. Novas ameaças virtuais estão no mercado. A mais nova moda são os SPAMs (e-mails não solicitados) e os SPIMs (SPAM por Instant Messenger). Apesar de não serem consideradas como problemas de segurança por alguns, Os SPAMs e SPIMs consomem recursos e diminuem a produtividade dos colaboradores de uma empresa. Já os Phishings são e-mails enviados por estelionatários para consumidores e empresas no intuito de conseguir informações privilegiadas sobre a vítima, emulando sites reais. Além disso, novas formas de comunicação, como a sem fio, levam a outros problemas de segurança que começam a ser tratados pelos especialistas e pelas empresas. O maior problema é que geralmente as companhias pensam nos planos de contingência e de continuidade de negócios de forma reativa, quando deveria ser de forma pró-ativa. Entre as táticas mais comuns para proteção dos dados, figuram a duplicação do ambiente de missão crítica (do hardware e software) e backup dos dados. Muitas vezes, no entanto, essa duplicação não é bem planejada. Para dez máquinas, por exemplo, são duplicadas apenas três. Outra questão é relativa à adoção de geradores em número insuficiente para suportar todos os sistemas em caso de queda de energia elétrica.

-7–

Uso de geradores, equipamentos de UPS (Uninterruptible Power Supply) e nobreaks bem configurados e monitorados constantemente para suportar um período razoável de falta de energia, links duplicados, e caminhos alternativos entre localidades de contingência são algumas das alternativas válidas. Também é recomendável que sejam traçados planos de contingência capazes de cobrir paradas nos fornecedores e parceiros de negócios que são estratégicos para a companhia. Depois dos atentados terroristas nos Estados um idos, muitas empresas passaram a considerar ainda a importância de terem outra unidade em um local distante e que tenha condições de assumir as operações, no caso de ocorrer um acidente que destrua ou danifique seriamente a estrutura física da sua base operacional. Nesse aspecto, a instalação de um site de backup num data center constitui uma alternativa interessante e que já está sendo adotada por muitas companhias. O assunto será abordado de forma mais abrangente no próximo módulo.

-8–

Módulo 3 – Sites alternativos Datacenters e terceirização: prós e contras Sites alternativos. Data centers e terceirização A terceirização da área de Tecnologia da Informação (TI), também chamada de outsourcing, é defendida pelos analistas de mercado por ser uma alternativa eficiente para redução de custos e aumento da competitividade, na medida em que as empresas deixam de centrar sua atenção numa área que não é sua atividade fim. Estudos comprovam que a diminuição de custos, em alguns casos, pode chegar a 50%. Apesar disso, no Brasil as companhias têm mostrado algumas resistências em transferir para terceiros suas operações, por um fator cultural e também por temerem o vazamento de informações estratégicas e sigilosas para a concorrência. Mas, principalmente a partir de 2001, alguns fatores contribuíram para que as companhias revissem suas posições. A crise energética e os atentados terroristas ocorridos nos Estados Unidos, em 11 de setembro de 2001, foram duas fortes razões para que as empresas passassem a analisar com maior atenção a importância de contar com um segundo site disposto num outro local físico e distante da sua base operacional. Outra forte motivação foram as mudanças ocorridas no segmento de outsourcing com a entrada de novos fornecedores desse tipo de serviço, como as operadoras de telefonia que, ao lado das chamadas "pure players" (empresas criadas especificamente para esse fim) e das prestadoras de serviços de TI, passaram a oferecer um rico e variado leque de produtos e soluções sob medida para corporações de todos os tipos e portes. Da parte dos clientes empresariais, as grandes corporações são as que mais apostam nessa alternativa. São empresas que possuem grandes CPDs e utilizam o data center para contingência, backup e algumas operações específicas como e-business e correio eletrônico. Os analistas de mercado acreditam que a tendência para os próximos anos é que um maior número de empresas decida terceirizar parcialmente ou totalmente suas áreas de TI. Não apenas como opção de segurança, no caso de um desastre (incêndio, enchente, explosão, atentados etc), o que lhes permitiria a continuidade de suas operações, mas também como proteção contra a obsolescência dos equipamentos e sistemas.

-9–

Principais players Apesar das perspectivas otimistas, os principais players de serviços terceirizados deverão enfrentar grandes desafios, a começar pela grande quantidade de concorrentes nesse mercado. Muitas dessas empresas investiram grandes cifras para construir a infra-estrutura adequada e hoje enfrentam enorme índice de ociosidade, uma vez que o mercado, de certa forma, ainda é novo e apesar de várias empresas estarem pensando seriamente em contratar seus serviços, na prática isso não está ocorrendo com a velocidade esperada. Por conta disso, as fusões entre players já começaram e somente os mais capitalizados irão sobreviver. Todo esse movimento de aluguel de espaço (hospedagem) e outsourcing começou a ganhar impulso a partir de 1995, quando a Internet comercial foi iniciada no país. Naquela época, surgiram os primeiros players, entre os quais os antigos bureaus de informática, que já na década de 70 e 80 atuavam como alternativas para as grandes corporações rodarem suas folhas de pagamento e contas a pagar e a receber, entre outras aplicações. Esses bureaus tiveram de investir pesadas cifras para montar uma infra-estrutura adequada para abrigar aplicações de missão crítica, principalmente as voltadas à Internet e ao comércio eletrônico. Mas muitas se enganaram, considerando que as empresas genuinamente virtuais iriam se multiplicar, quando, na verdade, o desempenho da maioria delas não correspondeu às expectativas. Nesse sentido, os bureaus, agora intitulados IDCs (Internet Data Centers) tiveram de mudar rapidamente o foco e ampliar a carteira de produtos, não se limitando a apenas oferecer a hospedagem de sites, mas também outsourcing de TI e outros serviços de alto valor agregado. No rol de antigos bureaus, que evoluíram para IDCs figuram empresas como Datamec/Unisys, EDS e IBM. A disputa por uma fatia desse segmento ficou mais acirrada com a entrada das operadoras de telecomunicações que possuem maior solidez financeira e capilaridade, podendo oferecer aos clientes maior confiabilidade e pacotes de serviços mais abrangentes e baratos.Entre as que estão investindo nesse segmento incluem-se a Tnext (da Telemar), TIC (Telefônica), Brasil Telecom, Intelig e Embratel. Reforçam o time dos IDCs as chamadas pure players, e as empresas prestadoras de serviços de comunicação de rede e satélite. Além disso, empresas sem tradição nesse ramo, mas com necessidades particulares para atender o setor corporativo com a HP, compraram IDCs para oferecerem serviços em todos os espectros da terceirização.

- 10 –

Leque de serviços Existem bons motivos para as empresas optarem pela contratação de um data center, a começar pela grande capacidade técnica que possuem e pela constante atualização de hardware e software, o que se traduz em menores custos de operação e de manutenção dos sistemas. Os IDCs também contam com ambiente físico adequado, com salas climatizadas e com sistemas de fornecimento de energia elétrica e de refrigeração redundantes, além de proteção contra incêndios e acidentes naturais. As modalidades de serviços são variadas e atendem a todos os tipos e portes de empresa. Entre os principais serviços oferecidos estão: Shared Hosting serviços de hospedagem de sites institucionais e de comércio eletrônico. Nessa modalidade, em geral, duas empresas compartilham o mesmo servidor do data center. Dedicated Hosting hospedagem dedicada, ou seja, o cliente tem espaço exclusivo no servidor do data center, obtendo também serviços agregados como atualização de aplicativos, balanceamento de carga, acompanhamento da performance dos sistemas, entre outros. Colocation nessa modalidade, o cliente aluga um espaço físico no data center e utiliza a sua infra-estrutura de comunicação e energia. Os equipamentos e o gerenciamento das operações são do cliente. Dedication todos os equipamentos, aplicativos, gerenciamento e serviços de manutenção ficam a cargo do data center. Outsourcing o data center assume todas as funções de TI da empresa cliente. Serviços de segurança e contigência. O data center vira a porta de entrada da Internet para a empresa e mantém serviços para evitar todos os possíveis ataques externos. Além disso, serve de contingência para os servidores da empresa contratante, mantendo espelhos dos dados e aplicativos em seu site. - 11 –

Outras vantagens oferecidas pela terceirização, além da segurança, suporte 24 X7 (24 horas, sete dias por semana), atualização constante de equipamentos e sistemas, e consultoria, incluem-se facilidades de conectividade, integração de rede e gerenciamento do storage (dados). Esses e demais serviços costumam ser assegurados pelos acordos SLA (Service Level Agreement – acordos de níveis de serviço) – contratos que se caracterizam por serem bem mais detalhados do que os convencionais, na medida em que especificam, por escrito, todos os serviços contratados e as penalidades previstas para o não cumprimento das cláusulas acordadas entre as partes. Nos SLAs, são descritos os parâmetros de qualidade oferecidos, a definição das responsabilidades de ambas as partes, e inclusive métricas claras e mensuráveis quanto aos níveis de performance dos sistemas, segurança, índice de disponibilidade da rede, tempo de restauração dos sistemas (em caso de indisponibilidade) e integridade dos dados.Optar pela terceirização parcial ou total é uma decisão que deve ser analisada com critério, verificando os benefícios e riscos inerentes. Também é importante avaliar a idoneidade, experiência e competência das empresas fornecedoras de serviços e a respectiva saúde financeira, o que irá assegurar sua longevidade nesse mercado. Os consultores e especialistas recomendam que as companhias iniciem pela terceirização de algumas aplicações, e se o nível de serviços for considerado satisfatório, podem migrar aos poucos as demais. É uma forma válida para reduzir custos e manter a competitividade.

- 12 –

Módulo 4 – Arquitetura de 64 bits Cada vez mais as organizações processam grande volume de informações. As atuais arquiteturas de 32 bits dão sinais de limitação e deverão, em breve, ceder lugar aos sistemas de 64 bits, de maior capacidade e desempenho superior. Arquitetura de 64 bits – conhecendo os sistemas O ambiente de tecnologia corporativo não pode ser definido apenas sob o ponto de vista técnico, mas também como uma infra-estrutura fundamental que permitirá à companhia se manter competitiva num mercado em constante evolução. Nesse sentido, qual tecnologia empregar é uma decisão da alta direção, mas sem prescindir do aval e comprometimento do gestor de TI. Fatores como escalabilidade, disponibilidade, desempenho, segurança e custo de propriedade devem ser considerados nesse processo de decisão. Não é tarefa fácil decidir pela tecnologia a ser adotada, em virtude da grande velocidade com que as inovações são lançadas, do grande apelo dos fornecedores de sistemas, e das novas necessidades das empresas que enfrentam o desafio de lidar com o crescente aumento da quantidade de dados e informações decorrentes do uso cada vez mais intenso da Internet. Hoje, todos os setores empresariais precisam compreender claramente o potencial e os riscos da economia digital e decidir qual caminho seguir a curto, médio e longo prazos. Muitas empresas que estão embasadas em Tecnologia da Informação já dispõem de uma plataforma de aplicações em múltiplas camadas e interligadas entre si. Contudo, elas começam a perceber que poderão ter problemas num futuro não tão distante, uma vez que as atuais arquiteturas dos processadores, que suportam os servidores, não foram projetadas para sustentar uma demanda computacional tão grande e em constante crescimento. É fato que os processadores atuais de 32 bits, baseados nas arquiteturas CISC (Complex Instruction Set Computer) e RISC (Reduced Instruction Set Computer) já começam a dar sinais de limitação, abrindo as perspectivas para os ambientes baseados nos processadores de 64 bits. Isso porque elas são capazes de acessar mais memória, processar instruções muito mais complexas e apresentam um desempenho muito superior. Evolução da tecnologia O crescimento da microinformática e do processamento distribuído, especialmente a partir da década de 80, propiciou o uso em larga escala de computadores baseados em processadores padrão 286 de 16 bits, extremamente simples para os padrões atuais, mas que na época representaram grande avanço. - 13 –

Uma nova mudança, e causadora de verdadeira revolução, viria com a criação dos primeiros processadores 386, baseados no conjunto de instruções IA32 (32 bits). Ele representava um método mais sofisticado do que os 286 para execução de múltiplos programas (multitarefa) no ambiente DOS, graças aos avanços no gerenciamento de memória. A partir daí, as evoluções foram constantes. Voltando um pouco na história da computação, durante muitos anos o modelo predominante dos microprocessadores foi o da Intel Corporation. A própria IBM ingressou na área de PCs, utilizando o processador Intel 8088. As gerações seguintes basearam-se na família 80×86, como os 8086, 80286, 80386 e 80486, que eram versões elaboradas do 8088 original. Mas, a cada versão, eram feitas melhorias, tornando o PC mais ágil. Apesar de todas as mudanças, até o 80486 todos os processadores Intel eram baseados em uma filosofia de projeto denominada CISC (Complex Instruction Set Computing). Essa filosofia pressupunha o uso de comandos que incorporavam muitas instruções para executar uma simples operação. Outros sistemas CISC conhecidos são o VAX e os mainframes da IBM. A idéia principal da arquitetura CISC traduz-se em aproveitar a diferença significativa entre o tempo de acesso à memória e à velocidade do processador, construindo um conjunto de instruções complexo e bastante abrangente, com capacidade de executar diversas funções por instrução. Uma nova mudança seria impulsionada pelo surgimento da arquitetura RISC (Reduced Instruction Set Computing), baseada em instruções simples e de menor tamanho, que podem ser executadas em apenas um ciclo do processador. O termo "conjunto reduzido de instruções" refere-se justamente ao número reduzido de instruções que são executadas em um ciclo de clock do processador, enquanto os processadores comuns levam vários ciclos de clock para selecionar uma única instrução. Tudo isso é possível graças à técnica do Pipelined, que possibilita ao hardware processar mais de uma instrução de cada vez. Uma máquina CISC típica apresenta quatro fases para a execução: busca, decodificação, execução e escrita. Em uma máquina RISC existem as mesmas fases, mas estas são executadas em paralelo. Uma fase não precisa terminar para que outra seja iniciada, o que contribui para melhorar o processamento global. Sendo assim, os processadores mais adiantados da IBM e SUN aderiram ao princípio do RISC. Porém, enquanto a tecnologia avançava para aumentar o tamanho dos dados e a densidade do transistor, os desenvolvedores de processadores baseados em RISC começaram a considerar novas formas de aproveitar o espaço novo do chip. Dessa forma, as gerações posteriores de processadores de desempenho elevado passaram a apresentar características diferentes em comparação aos primeiros desenvolvidos sob essa arquitetura. - 14 –

Hoje, praticamente nenhum processador segue totalmente uma das duas filosofias. Tanto os processadores da família x86, como os processadores Intel® Pentium II, Intel® Pentium III, Intel® Pentium® 4, na verdade misturam características das duas arquiteturas por uma questão de performance. A complexidade da lógica dos processadores continuou crescendo geometricamente, mas apesar disso estima-se que as arquiteturas atuais, baseadas no conjunto de instruções IA32 (32 bits), já chegaram no limite, impossibilitando maiores evoluções no desempenho dos equipamentos. Nova arquitetura As atenções começam a se voltar para os processadores de 64 bits, apontados pelos especialistas em computação como o novo padrão que deverá se firmar nos próximos anos. Inicialmente, apenas os computadores de altíssimo desempenho deverão empregar os novos chips, mas a tendência é que gradualmente os processadores de 64 bits se tornem padrão nos servidores de rede, micros de alto desempenho e até nos micros domésticos. Antecipando-se a esse futuro, a Intel vem trabalhando há alguns anos para desenvolver uma nova arquitetura, mas cada uma dessas empresas seguiu um caminho diferente. Em 1994, a Intel e a HP (Hewlett-Packard Company) anunciaram o projeto de desenvolvimento conjunto de uma arquitetura baseada em instruções de 64 bits para estações de trabalho, servidores e sistemas de computação empresarial avançados. A idéia inicial previa para 1999 o lançamento no mercado do primeiro processador de 64 bits, na época batizado de Merced. No entanto, as previsões não se concretizaram e três anos depois as empresas comunicaram ao mercado que estavam trabalhando no desenvolvimento de uma nova tecnologia chamada de EPIC - Explicity Parallel Instruction Computing – baseada nos conceitos denominados VLIW - Very Long Instruction Word. Finalmente, em 2001, foi lançado o Itanium, o primeiro processador de 64 bits baseado na arquitetura EPIC, destinado ao mercado de servidores. A nova plataforma nasceu com a promessa de elevar a capacidade computacional dos servidores a um novo patamar de desempenho e escalabilidade, uma vez que o EPIC representa um avanço significativo em relação às arquiteturas de 32 bits da própria Intel, e as RISC de 64 bits. Na verdade, o EPIC não pode ser classificado como uma simples evolução da arquitetura de 32 bits da Intel, mas sim como uma arquitetura totalmente nova, que se caracteriza pela capacidade de endereçamento de 64 bits, permitindo acesso a uma memória virtualmente ilimitada, restrita apenas pela tecnologia de memória física. Outro diferencial é o seu alto grau de paralelismo na execução de instruções. Testes independentes comprovaram que os sistemas baseados no processador Itanium e Itanium-2 podem oferecer uma melhoria de desempenho de até 12 vezes em comparação aos designs RISC proprietários, para transações de segurança online.

- 15 –

Muitos fabricantes de servidores e PCs, entre os quais se incluem HP/Compaq, IBM e Dell já estão desenvolvendo novas linhas de produtos baseados na família de processadores de 64 bits. Quatro sistemas operacionais suportarão esse ambiente: Microsoft Windows (64 bit Edition para workstations, e 64 bit Windows Advanced Server Limited Edition, para servidores); HP-UX da Hewlett Packard; AIXda IBM; e Linux. As novas gerações do Itanium Foi em julho de 2002 que a Intel iniciou a distribuição comercial da segunda versão do Itanium ®, chamada de Itanium 2, e um ano depois, em julho de 2003, incrementou a família de processadores de 64 bits com o Madison, a terceira geração do Itanium, que posteriormente deverá ser continuada com os até agora batizados de Deerfield e Montecito. No geral, a família do processador Itanium viabiliza diversas opções de plataformas e software para servidores high-end e workstations, com uma significativa melhoria de performance em relação ao que oferecem as plataformas proprietárias. Com a escalabilidade do processador Itanium 2 (a habilidade de conectar processadores uns aos outros e criar sistemas multiprocessados). O soquete do processador Itanium 2 é compatível com o de duas futuras gerações de processadores da família Itanium, o que facilitará a troca do processador. Dessa forma, o setor corporativo irá preservar investimentos feitos nas plataformas baseadas no Itanium 2. Com olho no futuro, a Intel já está trabalhando em cinco futuras gerações do processadores Itanium, com previsão de lançamento para a segunda metade desta década. Atualmente, as empresas líderes em software corporativos já estão desenvolvendo aplicações baseadas em sistemas Itanium 2, incluindo BEA Weblogic, IBM DB2 e Websphere, Microsoft SQL Server 2000, Oracle9i Database e Oracle9i Application Server, as plataformas de serviços financeiros da Reuters, SAP R/3 e SAS. A família do processador Itanium é suportada por um número de sistemas operacionais muito superior ao de qualquer outra plataforma corporativa high-end. Os sistemas operacionais que atualmente trabalham com processadores Itanium 2 incluem: Microsoft’s Windows Advanced Server, Limited Edition, e Windows XP 64-Bit Edition; Hewlett-Packard’s HP-UX;, Red Hat, SuSE e TurboLinux. A HP está portando seus sistemas operacionais OpenVMS e Non Stop Kernel para a família do processador Itanium para futuros lançamentos.

- 16 –

Combinado com o amplo suporte do setor de TI, o design inovador do processador Itanium 2 garante aos usuários corporativos os históricos benefícios das arquiteturas RISC - nível de desempenho para o mercado corporativo, confiabilidade e escalabilidade – com uma vasta margem de escolha de fornecedores, sistemas operacionais e aplicações de software. O processador Itanium 2 suporta alto volume de transações, cálculos complexos e uma grande quantidade de dados e usuários. O exclusivo design do processador Itanium 2 – Explicitly Parallel Instruction Computing (EPIC) – e o cache de nível 3 (L3) integrado de 3 MB proporciona processamento mais rápido nas transações online, análise de dados, simulação e renderização. É muito difícil fazer previsões sobre qual modelo irá predominar ou o que ocorrerá no mercado no futuro próximo. Existem projetos em fase de desenvolvimento e muita coisa pode mudar. De certo, apenas, segundo avaliam os consultores e analistas de mercado, é que em algum momento desta década deverão deixar de ser fabricados os sistemas baseados em RISC, e os sistemas de 64 bits começarão a se tornar commodities.

- 17 –

Módulo 5 – Roadmap Para assegurar o bom desempenho na economia digital as corporações precisam adotar um novo modelo organizacional. É preciso criar um ambiente de cooperação suportado por tecnologias que sejam aderentes aos objetivos de negócios. A evolução computacional dentro da organização Até um passado não muito distante, os sistemas computacionais eram desenvolvidos para atender a objetivos definidos e limitados, não tendo a preocupação com a integração e também não levavam em conta os modelos de negócio high-end das companhias. Grande parte dos esforços e dos investimentos estava voltada para automatizar operações repetitivas. O nível tecnológico alcançado até então não permitia o processamento de operações complexas sem grande esforço de análise e de programação. Muita coisa mudou num curto espaço de tempo. O advento da programação orientada a objeto, a criação das interfaces gráficas, novos aplicativos e softwares, o aperfeiçoamento do hardware, e uma série de outros fatores levaram as empresas a desviar a atenção dos problemas básicos de bits e bytes e de infra-estrutura para soluções mais orientadas aos processos de negócios. Com a evolução tecnológica, as corporações começaram a não mais e tão-somente automatizar as operações repetitivas, mas a criar sistemas cada vez mais inteligentes e especializados que exigiam o conhecimento dos negócios e das funções empresariais. Até o início dos anos 80, a tecnologia das redes ainda era assunto para um seleto grupo de técnicos. Aos poucos, os mainframes e supercomputadores foram substituídos por PCs em redes locais, no processo que ficou conhecido como downsizing. O modelo cliente-servidor começava a se firmar nas empresas, permitindo aos usuários finais maior intimidade com a informática. Com a proliferação dos microcomputadores, que substituíram os antigos terminais “burros”, os usuários começaram a descobrir que o equipamento permitia o acesso a uma série de novos recursos do que o simples trabalho stand alone. Ligados ao CPD, os micros passaram a processar as informações de forma mais rápida e inteligente. Depois passaram a ser interligados ponto-a-ponto em redes locais ou em redes remotas, ampliando o conceito de comunicação de dados. Novas evoluções ocorreram, ampliando a conectividade e convergindo para a interconexão das redes, popularizada a partir dos anos 90 com a Internet.

- 18 –

Novas tecnologias Hoje, o desafio das corporações é muito grande. Já não é possível, como no passado, delegar unicamente à área de TI (Tecnologia da Informação) a tarefa de escolher novos equipamentos e soluções. Não se trata mais de uma questão puramente tecnológica, mas de negócios. O cenário em que as empresas nasceram e cresceram mudou radicalmente e continua em transformação. Internet, wirelles, e-business, uso extenso de banda larga, ferramentas de Business Intelligence, data warehouse, e uma série de outras soluções e tecnologias obrigam as empresas a reavaliar seus modelos organizacionais. Estruturas verticalizadas, cultura de produtos e não de serviços, uso meramente tático e superficial da Tecnologia da Informação já não se aplicam nos novos tempos. O modelo tradicional baseado na hierarquia de comando e controle não funciona no novo contexto porque cria resistências a mudanças e torna o processo decisório lento e impróprio para o cenário globalizado que requer maior agilidade de resposta. Além de estarem embasadas em Tecnologia da Informação, as corporações precisam de modelos organizacionais diferentes, que permitam a interconexão total, que levem a um ambiente de cooperação, ao gerenciamento do conhecimento e ao trabalho em equipe. Já não é possível dissociar os investimentos em TI dos objetivos de negócios. Nesse sentido, as atenções se voltam para a integração. A premissa básica é a de dispor de uma estrutura computacional flexível e escalável, capaz de acomodar as mudanças e o crescimento do ambiente de Tecnologia da Informação, visando preservar os investimentos já feitos. Em outras palavras, um dos grandes desafios das organizações no momento é integrar o novo com o legado sem que seja necessário alterar profundamente as aplicações e estruturas de dados existentes. Preocupações e cuidados atuais O crescimento das aplicações Web, a necessidade de otimizar o relacionamento com fornecedores e parceiros de negócios por meio de soluções de Supply Chain Management, a visão integrada de clientes possibilitada pelo CRM (Customer Relationship Management), a consolidação das operações permitidas pelos sistemas de gestão empresarial (ERP – Enterprise Resource Management), o uso de bancos de dados mais potentes e de ferramentas de Business Intelligence para análise dos dados, entre outras questões obrigam cada vez mais as empresas a terem uma visão horizontal de processos de negócios. Também não se descartam investimentos em tecnologias inovadoras, desde que contribuam para a obtenção de vantagens competitivas.

- 19 –

Para suportar toda a carga de dados e informações que se multiplica a cada dia, as corporações precisam saber planejar o crescimento da sua infra-estrutura, sem prescindir da atualização das documentações dos novos processos, assim como reforçar os critérios de segurança e de backup. É fundamental a construção de uma infra-estrutura confiável de hardware, software e manutenção, de maneira que permita à empresa preservar as suas operações com o menor risco de falha e de indisponibilidade. Servidores maiores e mais potentes, tecnologia de clustering, crescimento do número de nós na rede e ampliação da capacidade do banco de dados são algumas das questões que vêm sendo seriamente avaliadas pelas corporações. Trata-se de uma evolução necessária e de um caminho sem volta. Outra preocupação importante refere-se à armazenagem dados e de informações que são fundamentais para o negócio. Em contínuo crescimento, os dados precisam de mais vias de transporte e de ambientes adequados para serem guardados e de forma que possam ser recuperados prontamente. Nesse aspecto, as soluções e inovações na área de armazenamento começam a atrair a atenção de corporações de todos os tipos e portes. Tudo isso, vem acompanhado de novas formas de comercialização e de vendas chamada de on-demand (ou uso sob demanda). Com ela, é possível preparar-se para picos de processamento, como o período das compras de Natal, e ter sempre os recursos computacionais disponíveis. Nos próximos módulos, abordaremos com mais detalhes cada um desses componentes que são fundamentais para assegurar a continuidade das operações das empresas na economia digital.

- 20 –

Módulo 6 – Hardware: servidores Empresas de diferentes portes e ramos de atuação estão adotando máquinas servidoras que permitem compartilhar os recursos na rede. São equipamentos capazes de processar grandes volumes de dados, dotados com CPUs rápidas e dispositivos de armazenamento. Hardware: servidores A grande maioria das empresas conta, atualmente, com um ambiente de TI (Tecnologia da Informação) heterogêneo, ou seja, composto por diferentes tipos e portes de equipamentos. A evolução tecnológica, o desenvolvimento do modelo cliente/servidor, a necessidade de interligação entre sistemas internos e externos e o crescimento da Internet foram os principais fatores que contribuíram para que as companhias passassem a adotar cada vez mais os chamados servidores – computadores com grande capacidade de processamento que têm como principal função prover e gerenciar recursos compartilhados da rede para as estações de trabalho ou mesmo para outros servidores. Em geral, esses equipamentos contam com um ou mais processadores e dispositivos de armazenamento (discos rígidos e drives de CD/DVD-ROM) de alta capacidade porque costumam processar grandes volumes de dados. Mas a configuração do hardware do servidor depende de uma série de fatores, entre os quais: da quantidade, tipo e finalidade das aplicações; do número de usuários que irá atender; da criticidade das operações; e do nível de disponibilidade dos sistemas. Nesse sentido, pode ser utilizado como servidor uma máquina de menor capacidade, como por exemplo um Pentium IV monoprocessado (com apenas um processador), ou máquinas mais sofisticadas que comportam de 1 a 128 processadores, como os computadores baseados em tecnologia Intel, e de 1 a 256 processadores, como as máquinas baseadas em arquitetura RISC, como as fabricadas pela HP, IBM e Sun, entre outras. Dedicados e não dedicados Quando uma máquina é utilizada para executar exclusivamente uma tarefa é chamada de servidor dedicado. A execução de tarefas de rede, por exemplo, normalmente precisam contar com um equipamento dedicado porque muitos sistemas operacionais de rede apresentam altos requisitos de memória. Um exemplo de servidor dedicado seria um PC (Personal Computer) executando o Windows 2003 Server da Microsoft.

- 21 –

De outra parte, os servidores não dedicados são máquinas que podem ser utilizadas, simultaneamente, como servidoras da rede e como uma estação de trabalho. Em uma rede local (também chamada de LAN – Local Área Network – formada por equipamentos conectados entre si operando em curtas distâncias) do tipo peer-topeer (ponto a ponto), cada computador tem condição de compartilhar recursos com os demais. Nesse sentido, um micro operado pelo funcionário X funciona como uma estação de trabalho normal, mas também pode ser o servidor da impressora, autorizando os serviços de impressão para todos os funcionários daquele departamento. Outro micro, operado pela funcionária Y também serve como ponto central de armazenamento dos arquivos na rede. Um terceiro computador, operado pelo funcionário Z, pode disponibilizar para todos os demais o único DVD-ROM da rede, e finalmente o funcionário W opera o micro em que está instalado o modem que permite a todos a conexão à Internet. Todos esses quatro micros são servidores, respectivamente, de impressão, de arquivos, de DVD-ROM e de Internet, mas ao mesmo tempo são usados como estações de trabalho. A vantagem oferecida por esses servidores não dedicados é que as máquinas podem ser melhores utilizadas. O ponto negativo é a necessidade de manter as máquinas ligadas, mesmo se os respectivos operadores não as estiverem utilizando, de forma a permitir que os seus recursos estejam disponíveis para os demais usuários. Outra desvantagem é que com essa configuração todo o sistema fica mais vulnerável. Em alguns casos específicos, como os de serviços de impressão, o uso de uma estação de trabalho como servidor (Print Server) aplica-se bem a redes pequenas e em ambientes em que a impressora não é muito requisitada. Mas nos casos em que a impressora deve ficar ativa a maior parte do tempo, o ideal é dispor de um servidor dedicado a essa tarefa porque, do contrário, a máquina ficará muito lenta para outras tarefas. Pode ser utilizado como Print Server uma máquina de menor porte, mas que tenha espaço em disco suficiente para instalar um sistema operacional como o Windows XP, por exemplo, e mais 100 MB livres para permitir os arquivos temporários do spooler de impressão, ou ainda comprar impressoras que já venham com o seu próprio Print Server integrado, coisa muita comum atualmente. Servidores de discos e de arquivos Em redes mais antigas era comum o emprego de servidores de disco como forma de reduzir custos. Nesses casos, as estações de trabalho não possuíam discos rígidos, mas acessavam o disco rígido do servidor, que era disponibilizado por meio da rede. Nesse tipo de rede, eram instaladas placas com chips de boot nas estações. Nos chips de memória EPROM, ficavam armazenadas todas as informações necessárias para inicializar cada micro, possibilitando seu acesso ao disco rígido do servidor e, a partir disso, carregar o sistema operacional e os programas aplicativos. - 22 –

Atualmente, o modelo mais utilizado pelas empresas de pequeno e médio portes é o de servidor de arquivo e impressão. A diferença em relação ao modelo anterior é que, neste, cada estação deve ter seu próprio disco rígido, onde está instado o sistema operacional. Essas máquinas apenas acessam o servidor para buscar arquivos. Outros tipos de servidores dedicados e bastante utilizados pelas empresas são o de banco de dados e o de Proxy para acesso à Internet. O modelo cliente-servidor Basicamente o que diferencia um servidor de uma estação de trabalho não é o hardware, mas sim o software instalado e a forma como foi configurado. Nos servidores, são instalados programas específicos que permitem responder às solicitações feitas pelas estações chamadas de cliente, as quais podem ser os PCs (desktops e notebooks) comuns de mercado. O processamento do servidor geralmente inclui: acesso, armazenamento, organização de dados compartilhados, atualização dos dados previamente armazenados e gerenciamento dos recursos compartilhados. A comunicação entre o cliente e o servidor é do tipo transacional e cooperativo. As vantagens oferecidas pelo modelo cliente-servidor são muitas, a começar pela escalabilidade. Um sistema desse tipo pode ser expandido verticalmente por adição de mais recursos na máquina servidora, ou mesmo horizontalmente, por meio do aumento do número de equipamentos. Como o processamento é distribuído, o tempo de resposta também é menor. Outra vantagem é a interoperabilidade com outras plataformas. A adoção desse modelo também permite a redução de custos operacionais. O desenho da rede depende da necessidade de cada empresa e das aplicações que irão rodar sob essa plataforma. Em geral, as companhias possuem ambientes de TI mistos, compostos por servidores de diferentes portes. Para as operações mais críticas, ou seja, as que não podem parar, como por exemplo o sistema de billing (cobrança das ligações telefônicas) das operadoras de telecomunicações, ou os sistemas do setor financeiro, são normalmente empregados servidores com arquitetura em cluster, que oferecem maior capacidade de processamento e de disponibilidade. Em geral, há dois ou mais servidores, de forma que se houver algum problema com uma das máquinas, a outra imediatamente assume as funções, assegurando a continuidade das operações. De acordo com os analistas de mercado, mais de 75% dos ambientes de TI corporativo seguem o modelo cliente-servidor e em cluster. Entre os fatores que são considerados para a escolha de um servidor um dos mais importantes é a escalabilidade.

- 23 –

Novas tecnologias de servidores e a consolidação das áreas e dos recursos de TI nas empresas têm agitado o mercado. Servidores blades, onde vários podem ser colocados lado a lado, permitem processar centenas de mlihares de transações por segundo. Um servidor blade é um conceito que pode ser resumido como um servidor completo em uma placa, que se conecta a um chassi comum e compartilha o cabeamento, a energia, o resfriamento e o acesso à rede com seis ou mais outros servidores blade. A vantagem é que essa solução promete menores custos, maior confiabilidade, menores exigências de espaço e gerenciamento mais fácil do que os servidores independentes, com praticamente o mesmo poder computacional. Quando a rede é desenhada, já deve estar previsto o crescimento das operações para os próximos 2 a 4 anos, que deverá ser suportado pelo sistema. Nesse sentido, além dos componentes de hardware (dualizados ou não), também é preciso verificar se o sistema operacional é robusto, permitindo rodar diferentes aplicativos. Também deve ser analisado se há facilidade para upgrades (expansão de memória ou mesmo substituição das CPUs por modelos mais atuais), a facilidade para gerenciar todo o ambiente e a compatibilidade com as demais plataformas utilizadas pela organização.

- 24 –

Módulo 7 – Hardware: PCs O bom e velho PC é hoje um equipamento indispensável na maioria das corporações. A arquitetura aberta e construção modular permitiram evolução rápida e constante, o que contribuiu para sua popularização e utilização em grande escala. Hardware: PCs Os personal computers, conhecidos simplesmente como PCs, são equipamentos cada vez mais comuns no ambiente doméstico. Mas é no setor corporativo que os PCs são hoje praticamente imprescindíveis. Nos últimos 30 anos, mais de 900 milhões de computadores foram adquiridos por empresas de diferentes portes, sendo que, desse total, 81,5% corresponderam a desktops, 16,4% a notebooks e 2,1% a servidores. A maior parte desses equipamentos foi vendida nos EUA (50% – equivalendo a 450 milhões de máquinas), Europa (28% – 250 milhões) e na região da Ásia Pacífico (13% – 117 milhões). No Brasil, uma pesquisa realizada pela Escola de Administração de Empresas da Fundação Getúlio Vargas (EAESP/FGV) revelou que a base instalada de PCs chega a 25 milhões, somando os de uso doméstico e corporativo. E as perspectivas são que até 2008 as vendas de PCs no mundo todo deverão dobrar. Nos ambientes de missão crítica, os PCs interligados em rede começaram a ser empregados por volta da metade dos anos 80, quando o modelo de computação centralizada (mainframe ligado a terminais "burros") foi substituído pela computação distribuída e pelo modelo cliente-servidor. Mas inicialmente as redes eram incipientes e as velocidades de processamento eram cerca de dez vezes mais lentas que as atuais. As aplicações que rodavam sob essas plataformas eram as mais simples, como processadores de texto e planilhas eletrônicas. Ao contrário dos PCs atuais, os primeiros modelos não eram tão amigáveis. O panorama começou a mudar à medida que surgiram as interfaces gráficas, bem mais intuitivas e fáceis de usar.

A história do PC Ainda existem muitas controvérsias sobre quando e como teria surgido o primeiro PC de uso comercial, mas os registros históricos levam a crer que tudo começou no início da década de 70, quando um jovem engenheiro elétrico, H.Edward Roberts, abandonou a carreira militar, nos EUA, para se dedicar ao desenvolvimento de kits de calculadoras, produzidos pela sua empresa MITS -Micro Instrumentation and Telemetry Systems, instalada na cidade de Albuquerque (Novo México, EUA).

- 25 –

A concorrência acirrada de outras empresas nesse mercado e, especialmente da Texas Instruments, no entanto, o fizeram investir numa outra direção: a criação de kits que permitissem a qualquer pessoa com conhecimentos de eletrônica construir seu próprio computador pessoal. Antes disso, já estavam em processo outras iniciativas, como a da Digital Equipament Corporation (DEC), que em 1962 já trabalhava com minicomputadores e chegou a montar um protótipo ainda menor, equipado com teclado, um drive para fita cassete e um mostrador. Mas o equipamento não passou de um experimento, assim como outros pequenos computadores idealizados, na época, pelos engenheiros de empresas como IBM e Xerox, entre outras. A grande chance da MITS ocorreu em 1975, quando uma reportagem publicada pela revista Popular Electronics salientava que o produto, já batizado de Altair, era o primeiro kit de minicomputador do mundo a rivalizar com os modelos comerciais. Em apenas uma tarde, a empresa recebeu 400 pedidos e comercializou 4 mil unidades nos três meses subseqüentes. O problema é que o Altair ainda estava longe de ser o "computador pessoal" como hoje o conhecemos. Não tinha teclado, nem monitor, não podia ser programado por software e dispunha de apenas 256 bits de memória. O Altair era mais voltado aos adeptos da eletrônica e que se reuniam para trocar informações técnicas e se ajudarem uns aos outros. Desses grupos surgiram empresas como a Digital Research, Kentucky Fried Computers (mais tarde incorporada à North Star) e Itty Bitty Machine Company, que começaram a disponibilizar uma série de componentes como placas, software e periféricos. Apesar de ter levado algum tempo até a MITS passar a desenvolver programas e acessórios para o Altair, a empresa chegou a desfrutar de um relativo sucesso com o equipamento que serviu de inspiração e incentivou outros fabricantes a investirem no desenvolvimento de computadores pessoais. Despreparada para enfrentar a concorrência, porém, a MITS acabou sendo comprada pela Pertec Computer Corporation, fabricante de componentes para computadores de grande porte e que encerrou a carreira do Altair. Em 1977, a liderança do mercado de PCs era disputada por três empresas: a Commodore, Tandy Radio Shack e a Apple Computer. Mas foi a IBM, consolidada como fabricante de computadores de grande porte (mainframes), que acabou ficando com a fama de ter disponibilizado o primeiro microcomputador pessoal do mundo, com o lançamento, em 1981, do primeiro equipamento comercialmente identificado pela sigla PC de "personal computer". O lançamento causou alvoroço por ser uma síntese dos melhores recursos que a indústria de microinformática oferecia na época, e ainda incorporava novidades importantes, como o sistema operacional PC-DOS 1.0, desenvolvido pela Microsoft em parceria com a IBM, a instalação do CP/M 86 e de linguagens de programação como o MS Basic, VisiCalc, UCSD Pascal, entre outros programas de uso comercial.

- 26 –

Visando a consolidação no mercado, a IBM firmou parceria com uma série de software houses e com programadores para o desenvolvimento de aplicativos específicos. Com o lançamento do IBM PC, a própria Big Blue começava a apostar nos sistemas de arquitetura aberta, possibilitando a outros fabricantes a produção de placas, periféricos e programas, contribuindo para a popularidade do equipamento. Um ano após o lançamento do IBM PC foram comercializadas 1,6 milhão de máquinas.

Tempos modernos Daquela época aos dias atuais, muita coisa mudou e em curto espaço de tempo. O avanço tecnológico possibilitou a criação de computadores mais ágeis e de diferentes capacidades e portes. Hoje, os PCs são, grosso modo, classificados em três categorias: high-end, midrange e low-end. Os equipamentos high-end são geralmente munidos de 1 a 2 processadores, com memória de até 8 GB e placas gráficas, sendo voltados para rodar aplicações críticas. Os grandes usuários desse tipo de equipamento são as indústrias dos setores automobilístico, aeroespacial, naval e petrolífero, em que é primordial o uso de estações com grande capacidade de rodar aplicações gráficas como os CAD/CAE/CAM (Computer Aided Design/ Computer Aided Engineer/ Computer Aided Manufacturing) – programas específicos para criação de projetos de novos produtos. Na extremidade oposta estão os PCs low-end, que são máquinas de menor porte, geralmente equipadas com um processadores de baixa velocidade, capacidade de memória de até 1GB e discos de 40 GB. Esses PCs são mais utilizados em pequenos escritórios e rodam aplicativos de uso comum como processadores de texto, planilhas eletrônicas, programas de apresentação (como o Acrobat e o Power Point, por exemplo). Na categoria do meio estão os PCs midrange – máquinas monoprocessadas, mas que empregam um processador mais potente (como o Pentium IV, por exemplo) e memória de até 2 GB, utilizados em escritórios, mas cujos usuários precisam de um equipamento mais ágil e com maior capacidade. O sucesso alcançado por esse tipo de máquina deveu-se, em grande parte, à sua arquitetura aberta. Os modelos de PC atuais mantêm a principal característica dos primeiros equipamentos que é a construção modular formada por um conjunto de componentes eletrônicos ligados entre si de forma a facilitar a manutenção e a ampliação do hardware. Óbvio que embora conservem, em grande parte, a estrutura do modelo original e concebido pela IBM, as máquinas atuais foram aperfeiçoadas graças ao aumento do desempenho de alguns componentes (como os processadores e a memória) e à assimilação de outras tecnologias, como por exemplo os recursos multimídia.

- 27 –

Empresas de grande prestígio como Compaq ( adquirida pela HP), HP, Bull, entre outras, desenvolveram seus modelos seguindo os padrões estabelecidos pela IBM que resultaram nos chamados "compatíveis IBM PC". Outro tipo de computador PC é o identificado como "clonado", produzido por empresas de pequeno porte que compram os componentes avulsos e montam computadores de baixo preço. No setor corporativo, as estações de trabalho mais usadas são os PCs tradicionais, geralmente rodando sistema operacional MS-Windows 2000 Professional, XP ou Linux. Apesar de menos comuns, também são empregados como estações de trabalho os microcomputadores Macintosh, fabricados pela Apple, que possuem sistema operacional robusto (MAC OS X), apresentam processador Power PC e são mais voltados a satisfazer as necessidades de determinados setores profissionais muito especializados, entre os quais se incluem editoras e empresas de design gráfico. No modelo cliente-servidor também podem ser empregadas estações cliente dos tipos diskless (sem disco) e floppy-only (somente com unidades de disquetes) as quais utilizam o software e dados do servidor. Outra modalidade existente são os thin client (clientes magros). Neles, o controle da área de TI é total, pois a instalação e o gerenciamento do computador são feitos de maneira centralizada. Eles têm processadores e também não possuem discos e utilizam o servidor para processar seus sistemas. Eles foram desenvolvidos para diminuir o custo total de propriedade de computadores nas corporações. Algumas inovações juá estão no mercado de PCs. Os tablets PCs, que permitem novas interações entre o homens e a máquina, pela escrita ou fala, e ainda o aumento da produtividade por meio da mobilidade. Essas máquinas têm conexões sem fio e podem ser transportadas e utilizadas em qualquer tipo de ambiente. Utilizar os recursos de um servidor não é, para o usuário, diferente do que usar os recursos do próprio computador. Por meio do software cliente instalado na máquina, é possível executar tarefas de rede que incluem mapeamento de drives, captura de portas de impressora, envio de mensagens e acesso a arquivos.

- 28 –

Módulo 8 – Sistemas operacionais Os sistemas operacionais são vitais para permitir aos usuários controlar e utilizar todos os recursos do computador. Entre os mais utilizados atualmente pelo setor corporativo destacam-se o Windows NT, o Unix e o Linux. Sistemas operacionais: breve panorama Considerado a alma do computador, o sistema operacional é um conjunto de programas que gerencia as funções do processador, o input e output (entrada e saída) de dados, o armazenamento e o acesso aos dispositivos, permitindo ao usuário controlar e utilizar os recursos do computador como discos, impressoras, teclado e unidade central. Numa rede, o sistema operacional instalado no servidor é denominado NOS (Networking Operating System) e permite compartilhar recursos, transferir arquivos e executar todas as demais atividades de conexão. Parte do software reside em cada estação cliente, possibilitando a leitura e a gravação dos dados que estão no servidor como se estivessem localmente. A escolha de um sistema operacional para uma rede de computadores requer um estudo criterioso em que são considerados vários aspectos, entre os quais a quantidade de estações e sua distribuição física, aplicativos, necessidade de interfaces com outros sistemas operacionais, desempenho e aderência a padrões, entre outros. Os sistemas operacionais mais utilizados no mercado atualmente são o Windows 2003 (da Microsoft), Unix (da IBM, Sun, HP, SCO, etc), Linux e Netware (da Novell). A seguir uma breve discrição dos principais sistemas operacionais. DOS Criado no final de 1981, pela Microsoft (na época, ainda era uma pequena empresa desenvolvedora de software), o DOS foi o sistema operacional do primeiro micro IBM-PC. Comercialmente, esse sistema operacional foi disponibilizado ao mercado de duas formas: sob a denominação de PC-DOS, embutido nos equipamentos fabricados pela IBM, e MS-DOS, vendido por meio da Microsoft para os demais fabricantes de hardware compatível ao IBM-PC. Desde o seu lançamento, o sistema teve seis versões e seis atualizações de menor porte. A primeira versão suportava somente discos flexíveis (de 160KB) e ocupava 10 KB da RAM dos PCs que possuíam 64 KB de memória. Com o lançamento do IBMXT, em 1983, e o surgimento dos discos rígidos de alta capacidade, foi desenvolvida a versão 2.0 do DOS, capaz de suportar disco rígido e diretórios. No ano seguinte, com a chegada dos micros AT, outra versão do DOS (3.0) foi lançada para suportar o novo drive de 1,2 MB e o utilitário RAMDISK, que possibilitava utilizar a memória que ultrapassasse os 640 KB, que era o limite suportado pelo sistema operacional. - 29 –

Em 1985, a atualização da versão 3.0 era disponibilizada para suportar hardware e software das redes locais. Mas foi em 1991 que a Microsoft realizou a maior modificação no sistema, incluindo na versão 5.0 uma interface gráfica mais elaborada, possibilitando ao usuário carregar diversos programas na memória do computador e ainda conseguir mudar de um para outro, sem precisar abandonar um dos programas. A versão seguinte, a 6.0, trouxe uma série de novidades, com a inclusão de programas licenciados de outras empresas. Em 1993, a versão 6.2 do DOS corrigiu alguns erros da versão anterior e introduziu o comando SCANDISK para correção de erros físicos nas unidades de disco. Windows Em 1985, surgiu a primeira versão do Windows, que não era propriamente um sistema operacional, mas uma interface gráfica que rodava sob o MS-DOS. O problema é que ambos consumiam toda a memória do PC básico da época. O Windows começou a fazer sucesso na versão 2.1, mas emplacou para valer a partir da versão 3.1, disponibilizada em 1990, já relativamente leve, mesmo para os PCs mais básicos. A versão 4.0 do Windows, conhecida como Windows 95, foi disponibilizada no mercado em 1995, e rapidamente tornou-se um dos sistemas operacionais mais populares no mundo todo, devido à sua facilidade de uso (por meio do sistema de janelas), compatibilidade e à grande disponibilidade de software que rodavam sob ele. Embora fosse um sistema multitarefa e com estrutura de 32 bits, grande parte do seu código era baseada no Windows 3.11. Para os ambientes de rede, a Microsoft desenvolveu o Windows NT (New Technology), o seu primeiro sistema operacional de 32 bits que foi disponibilizado para o mercado a partir de 1993. Conduzido por David Cutler, ex-projetista da Digital Equipment Corporation (DEC), o projeto do NT foi considerado ambicioso na medida em que podia ser utilizado em diversas plataformas de hardware desenvolvidas por diferentes fabricantes, como as da Digital (Alpha AXP), IBM (Power PC), Intel (Pentium), Silicon Graphics (MIPS), entre outros. O objetivo da Microsoft era o de desenvolver um sistema operacional multitarefa para ser utilizado tanto em ambiente monousuário como multiusuário. Ele se caracterizava por ser compatível com o sistema operacional MS-DOS. O Windows NT apresentava-se nas versões para servidores e para estações de trabalho. A versão para as estações cliente, o Windows NT Workstation, acabou sendo eleita a preferida pelos desenvolvedores independentes de software por oferecer um ambiente mais seguro e protegido. Até o final da década de 90, esse sistema operacional foi considerado o sucessor do Windows 95. Já para o mercado de servidores, o Windows NT Server era utilizado como servidor de arquivos e impressão em redes locais, além dos serviços de comunicação, processamento e banco de dados com alto grau de interoperabilidade. - 30 –

Tanto o NT Workstation como o NT Server possuíam a mesma estrutura interna e interface de comunicação. A diferença entre ambos referia-se aos serviços oferecidos e voltados aos segmentos para os quais cada um deles foi desenvolvido, e ao número de processadores suportados: o NT Server suportava até 32 processadores, enquanto que o NT Workstation, apenas 4. Após sucessivas versões, a Microsoft lançou em 1999 o Windows NT 5.0, que ficou conhecido comercialmente como Windows 2000, mantendo a mesma estrutura básica do NT 4.0, diferindo pela inclusão de serviços orientados a ambientes distribuídos e de rede. Na verdade, foram disponibilizadas quatro diferentes versões do sistema operacional: 2000 Professional (sucessor do NT Workstation), 2000 Server (equivalente ao NT Server), 2000 Advanced Server (inclui conceito de clustering e balanceamento de carga) e o 2000 Datacenter Server (agrega todas as funcionalidades do Windows 2000 e suporta o endereçamento de até 64 GB). A geração seguinte de sistemas operacionais da Microsoft foi denominada Windows XP, lançada em outubro de 2001, em duas versões: doméstica e corporativa, ambas baseadas no mesmo código-fonte: a versão Home, indicada para o ambiente doméstico e a versão Professional, focada em empresas. Em ambas, o software manteve as principais funcionalidades que proporcionavam estabilidade e confiabilidade ao Windows 2000 Professional, aliadas aos aplicativos de entretenimento, diversão e conectividade oferecidos pelo Windows Millennium. Um dos grandes trunfos do Windows XP está em reunir num mesmo produto os recursos mais utilizados nas plataformas anteriores. Na área de servidores, a última versão do sistema é o Windows 2003 Server. Nela, além das versões Standard, Enterprise e Datacenter, surgiu uma versão menor chamada de Webserver para competir com o Linux nesse segmento de menor valor. Vários serviços foram agregados ao sistema desde a versão 2000, tais como sistema de terminais, vídeo streaming, entre outros. OS/2 Antes de partir para o desenvolvimento do Windows, a Microsoft lançou, em 1986, em conjunto com a IBM, as primeiras versões do sistema operacional OS/2. Mas, a partir de 1990, as duas empresas optaram por seguir caminhos separados. A versão 2.0 lançada no primeiro semestre de 1992 apresentava uma série de recursos de compatibilidade, entre os quais a possibilidade de rodar programas do Windows e do DOS, e adotava a tecnologia de 32 bits, aproveitando toda a potencialidade dos PCs 386. A interface do OS/2 era muito semelhante à do Windows 95, apresentando área de trabalho composta por janelas e ícones. Em 1992, a IBM lançou o OS/2 WARP, que integrava a tecnologia orientada a objeto.

- 31 –

MAC OS O Mac OS foi o precursor dos sistemas de janela do mercado. Desenvolvido em 1980 como Liza, não obteve sucesso pelo elevado preço do computador que o usava. A Apple não desistiu e em 1984 lançou o Macintosh. Até 1999, o Mac OS era proprietário e um dos sistemas mais fáceis de usar no mundo. Hoje, ele é baseado em uma variante do Unix, o NetBSD, e mantêm as inovações de interface que tornaram famoso o Mac OS. A última versão do sistema é o Mac OS X que é compatível com a maioria das aplicações Unix e Linux. UNIX Precursor de muitos sistemas operacionais, o UNIX começou a ser desenvolvido por volta dos anos 60, resultante de um projeto conjunto da AT&T, Honeywell, GE e o MIT (Massachussets Institute of Techonology), batizado de Multics (Multiplexed Information and Computing Service). Tratava-se de um sistema modular, montado em uma bancada de processadores, memórias e equipamentos de comunicação de alta velocidade. Pelo desenho, partes do computador poderiam ser desligadas para manutenção, sem que outras partes ou os usuários fossem afetados. No entanto, devido a atrasos no cronograma do projeto, a AT&T decidiu abandoná-lo em 1969, mas o MIT continuou trabalhando no seu desenvolvimento. Nesse mesmo ano, alguns pesquisadores que trabalharam no projeto do Multics, se uniram para desenvolver um outro projeto na Bell Laboratories, surgindo em 1971 a primeira versão do Unix. Inicialmente, esse sistema operacional foi utilizado em máquinas da DEC e em mainframes. Mas em 1973, o Unix foi reescrito em linguagem C, mantendo apenas uma pequena parte do Kernel (programa que controla os recursos do computador) escrita em linguagem Assembly, o que lhe permitiu ser utilizado em outras plataformas de hardware. O Unix começou a se popularizar a partir de 1975, quando foi lançada a versão V6 , a primeira disponibilizada fora dos domínios da Bell Laboratories. Nessa época, a Universidade de Berkley (EUA) comprou os códigos-fontes do Unix, possibilitando aos alunos realizarem modificações no sistema. Em 1979, o Unix foi portado para máquinas Vax, da Digital, e a partir de 1992 foi adaptado para diferentes plataformas (máquinas com tecnologia RISC), como as da HP, Sun, IBM, DEC, entre outras. Ainda hoje, o Unix é um sistema operacional voltado para programadores experientes. Houve um trabalho intenso, nos últimos anos, para tornar a interface mais amigável para o usuário.

- 32 –

Linux Originalmente escrito por Linus Tovalds, do Departamento de Ciência da Computação da Universidade de Helsinki, na Finlândia, e contando com a colaboração de vários programadores voluntários que trabalharam em conjunto pela Internet, o Linux teve sua primeira versão oficial lançada em 5 de outubro de 1991. O sistema foi desenvolvido como um hobby por Tovalds, que se inspirou no Minix – um sistema Unix desenvolvido por Andy Tanenbaum. Depois da versão 0.10, muitas pessoas do mundo todo começaram a trabalhar no sistema, que sempre teve como principal característica a de ser um software livre (open source), ou seja, é distribuído sem restrição de instalação, de forma gratuita, e junto com o código-fonte, o que permite a qualquer desenvolvedor fazer modificações e adaptações conforme suas necessidades específicas. Muito utilizado no ambiente acadêmico e de forma experimental em algumas empresas, o Linux teve várias revisões e atualmente pode ser considerado como um clone completo do Unix. Hoje, as maiores corporações do mundo se utilizam de Linux, tanto nos servidores como em desktops. No segmento de servidores, o Linux já domina mais de 25% do mercado. Nos desktops, ele ainda está engatinhando, mas tem vários adeptos. Muitas empresas de desenvolvimento estão investindo no sistema. IBM, Red Hat, Sun, Oracle e Novell são as principais distribuidoras do produto e vêm investindo pesadamente no desenvolvimento do sistema operacional, contribuindo com dinheiro e recursos para a sua evolução.

- 33 –

Módulo 9 – Disponibilidade A disponibilidade dos sistemas é um elemento chave para as organizações que cada vez mais dependem da tecnologia para manterem-se competitivas e atuantes num mundo globalizado. Disponibilidade Para um grande número de pessoas, o computador já é quase tão indispensável quanto o telefone. Graças ao desenvolvimento tecnológico e à popularização da Internet, hoje é possível pagar contas de casa ou do escritório sem precisar enfrentar filas nos guichês bancários, ou ainda fazer compras pela via eletrônica e receber as mercadorias no local desejado, ou até mesmo comprar passagens aéreas e contratar pacotes turísticos por meio de um simples click no mouse. Toda essa comodidade, no entanto, nos deixa cada vez mais dependentes da tecnologia e qualquer falha no sistema pode afetar nossas vidas de forma negativa. Se para o usuário doméstico um provável travamento do computador representa um transtorno, para muitas empresas uma simples falha nos sistemas pode causar prejuízos monetários de vulto e até mesmo comprometer seriamente a sua imagem e credibilidade. Por isso, uma das questões mais importantes que devem ser consideradas para a construção de um ambiente de TI é a disponibilidade dos sistemas. Grosso modo, disponibilidade é a proporção de tempo que um sistema permanece ativo e habilitado para uso. Quanto mais crítica for a operação desse sistema, maior terá de ser a sua disponibilidade (uptime), ou seja, menor será seu downtime (tempo em que o sistema fica parado por alguma falha). Uptime e downtime Em geral, as estações stand alone e PCs domésticos apresentam um índice de uptime de 99%. Considerando-se que existem 525.600 minutos em um ano de 365 dias, isso significa que, no período de um ano, essas máquinas podem ficar indisponíveis durante três dias e meio (ou 90 horas). Os sistemas considerados de alta disponibilidade (High Availability), de outro lado, apresentam uptime que varia de 99,9% (correspondendo a oito horas e meia de indisponibilidade por ano) a 99,99% (equivalente a uma hora de downtime por ano). Cada número 9 acrescentado após a vírgula, no entanto, representa um custo adicional e considerável no preço dos sistemas. Por isso, esse tipo de máquina, que apresenta componentes de hardware redundantes, ou está ligada em cluster a outros equipamentos, costuma ser empregado em operações críticas. - 34 –

Bancos e instituições financeiras, atividades de comércio eletrônico, provedores de acesso à Internet e operadoras de telecomunicações são alguns dos exemplos de empresas que precisam dispor de um ambiente altamente confiável e cujas falhas sejam quase que imperceptíveis aos clientes e parceiros de negócios, e que possam ser rapidamente sanadas de forma a não comprometer a continuidade das operações. Nos casos em que os sistemas não podem parar em hipótese alguma porque qualquer interrupção coloca em risco vidas humanas – como controle de tráfego aéreo, equipamentos médicos, usinas nucleares, entre outros – são utilizados os sistemas tolerantes a falhas (Fault Tolerance) que apresentam uptime de 99,999%, equivalente a 5 minutos de parada em um ano. São sistemas altamente confiáveis e que apresentam chances mínimas de defeito. No entanto, é preciso considerar que nada é infalível. Apesar de serem menos prováveis, as falhas também podem ocorrer nesses ambientes, seja no nível físico, ou mesmo por erro humano (tropeço no fio que liga a máquina à fonte de energia, ou a execução de um comando errado).

Falha, erro e defeito Apesar de parecerem sinônimos, as palavras falha, erro e defeito apresentam significados diferentes quando o assunto é tecnologia. No caso dos sistemas computacionais, uma falha é algo que acontece no universo físico, ou seja, no nível mais baixo do hardware, como por exemplo uma flutuação da fonte de alimentação. Também pode ser considerada falha uma interferência eletromagnética. Esses dois tipos de problemas podem afetar o funcionamento total ou parcial do computador. Uma falha pode gerar o erro em alguma informação, uma vez que é capaz de trocar o valor de um bit de forma inesperada. Como se sabe, um computador trabalha com bits, sendo que cada um deles corresponde a 0 ou a 1. Quando ocorre a falha, um bit 0 pode ser lido como 1, o que gera erro de informação. Se esse dado errado não for detectado e tratadoa, acabará gerando o defeito: o sistema simplesmente trava, ou ocorre a à perda de informações do usuário sem aviso prévio, ou ainda é apresentada uma mensagem de erro. Em outras palavras, uma falha no nível físico pode causar um erro no nível de informação que, por sua vez, causa um defeito percebido pelo usuário. Os sistemas tolerantes à falha visam acabar com os erros, ou tratá-los, enquanto não se transformaram em defeitos. Já os sistemas de alta disponibilidade permitem que as máquinas travem ou errem, contanto que exista outra que assuma o seu lugar.

- 35 –

Clustering Normalmente, um ambiente de alta disponibilidade conta com várias máquinas ligadas por meio da tecnologia de clustering, de forma que se uma delas apresentar uma falha, a otra imediatamente assume as suas funções. Nesse caso, pode ocorrer um certo delay (lentidão), enquanto os serviços são restaurados. Além do hardware, um ambiente de alta disponibilidade também precisa contar com o software adequado para monitorar as máquinas da rede, controlar e gerenciar os serviços que estão sendo prestados pelas diversas máquinas e redirecionar as operações de um equipamento para outro quando houver a detecção de uma falha. A avaliação da disponibilidade também deverá incluir a redundância de software, de banco de dados, de nós da rede, das interconexões, e a correta configuração das controladoras de proteção de falhas de energia elétrica (nobreaks). Deve ser considerada, ainda, a redistribuição de carga depois que ocorreu a falha em um dos nós da rede e a habilidade de todo o sistema operar durante as paralisações planejadas (paradas para manutenção) ou não (acidentes, falhas).

- 36 –

Módulo 10 – Escalabilidade A capacidade de expansão da infra-estrutura de TI é um item fundamental para as empresas manterem o seu poder de competitividade num mundo globalizado e em constante crescimento. Escalabilidade Toda empresa almeja crescer e fortalecer sua atuação no mercado e, nesse sentido, é importante que saiba planejar e equipar seu ambiente de Tecnologia da Informação (TI) sem pecar pelo excesso ou pela carência. Adquirir um sistema grande demais, visando crescimento das operações que pode não acontecer no tempo estimado, implica num custo de aquisição, de operação e de manutenção bastante alto e, no final , a plataforma tecnológica acaba sendo mais uma fonte de gastos do que de benefícios. É como se uma pessoa decidisse comprar um ônibus, esperando transportar 40 passageiros, mas só ter demanda, de fato, para transportar apenas cinco. Nesse caso, bastaria comprar um carro ou uma minivan. O inverso também traz problemas. Um sistema pequeno demais não consegue atender a um crescimento das operações com a velocidade desejada ou necessária. E isso, no mundo dos negócios, pode significar a perda da capacidade competitiva e, efetivamente, a perda de clientes e de oportunidades. Por isso, um dos elementos que devem ser analisados com bastante critério para formação ou expansão de um ambiente de TI é a escalabilidade do hardware e do software. Entende-se por escalabilidade a capacidade de expansão de um equipamento ou de uma solução, de forma a permitir o atendimento das necessidades da empresa, seja pelo crescimento do número de usuários do sistema, ou também pelo aumento das informações a serem processadas, de maneira a preservar o investimento feito anteriormente. No passado, os fabricantes de sistemas estavam mais preocupados em apenas otimizar o processamento, aumentar a expansibilidade dos equipamentos e portar versões do ambiente operacional, sem levar em conta a manutenção da compatibilidade binária das aplicações existentes. Esse cenário mudou, em grande parte, graças às solicitações dos grupos de usuários, aos fatores mercadológicos e ao aumento do nível de competitividade que tornou inviável o redesenho de aplicações ou mesmo a troca de sistemas menos potentes por outros de maior capacidade em curto espaço de tempo.

- 37 –

Atualmente, a grande maioria dos fornecedores de TI oferece soluções com alto nível de escalabilidade. Hoje, por exemplo, é possível migrar de uma versão de sistema operacional para outra mais nova e, com isso, aumentar significativamente o poder de processamento da máquina sem haver necessidade de alterar nenhuma linha binária no ambiente operacional. Na prática, isso significa uma mudança de plataforma, mantendo as aplicações existentes, resultando em aumento de produtividade com baixo custo.

Características da escalabilidade A escalabilidade é um conceito que surgiu por volta dos anos 90, atrelado ao modelo cliente-servidor. Até então, os ambientes de TI, baseados em mainframes, eram montados em função da capacidade de processamento. No ambiente distribuído, no entanto, é fundamental que a rede seja dimensionada para suportar vários servidores e apresente capacidade de expansão futura. Se não houver um planejamento nesse sentido e a empresa optar por adquirir uma plataforma não expansível ou que já esteja no limite de capacidade (tem capacidade para suportar 100 usuários e foi comprada para atender 90, por exemplo), pensando apenas no benefício imediato, poderá enfrentar problemas e ver-se obrigada a trocar todo o ambiente, em curto espaço de tempo. Além do alto custo que algo nesse sentido acarreta, terá ainda de enfrentar o trauma da mudança, o que sempre traz impactos para toda a organização. Nem todo hardware e nem todo software é escalável. Por isso, é preciso ter muito critério na hora da escolha do sistema e procurar obter do fornecedor as informações referentes à capacidade de expansão. Antes de tomar qualquer decisão, a empresa deve fazer um estudo para estimar seu crescimento e, com base nessas informações, optar por soluções que atendam às suas necessidades para, no mínimo, os próximos dois anos. A empresa que já comprou o sistema com essa previsão terá de acompanhar os índices de desempenho dos equipamentos e de todo o ambiente, de forma constante, para poder tomar ações preventivas caso a utilização dos mesmos esteja chegando próxima ao limite da sua capacidade. Monitorar os sistemas (redes, sistemas aplicativos, bases de dados e inter-relação entre aplicações) por meio do emprego de ferramentas específicas é um procedimento importante para evitar que os mesmos entrem em colapso, caso o aumento das operações os levem a trabalhar muito próximo ao limite. O ideal é utilizar 80% da capacidade para não comprometer o desempenho.

- 38 –

Como escalar A escalabilidade pode ser medida pelo número de processadores que um mesmo equipamento pode suportar. É possível, por exemplo, adquirir um servidor com quatro processadores e, depois de um determinado tempo, acrescentar mais quatro processadores na mesma máquina. Existem máquinas que chegam a suportar mais de 64 processadores. Também pode ser considerada escalabilidade, a troca de um equipamento por outro mais potente, mas que apresenta a mesma arquitetura e permita rodar os aplicativos da versão anterior. Outra forma de escalabilidade é ligar várias máquinas em cluster, sendo necessário fazer o balanceamento de carga e a interligação com o storage (dados). Também é importante que o software permita a expansão. Uma nova forma de escalabilidade surgiu recentemente. É o Grid Computing. O Grid é o termo usado para técnicas e tecnologias que transformam o conjunto dos recursos de computadores distribuídos por uma rede disponíveis para serem usados sob demanda. O Grid auxilia e maximiza a utilização dos recursos computacionais de uma empresa, tornando-os compartilhados para qualquer aplicação e, potencialmente, oferecendo poder computacional sob demand para terceiros como um serviço. Quando utilizado com especificações WSFS e WS-Notification, os recursos do Grid podem aparecer como web services dentro de uma arquitetura SOA. Inicialmente, essa tecnologia foi utilizada pelo SETI (Search for Extraterrestrial Intelligence) para a pesquisa de vida extraterreste. Clustering Normalmente, um ambiente de alta disponibilidade conta com várias máquinas ligadas por meio da tecnologia de clustering, de forma que se uma delas apresentar uma falha, a otra imediatamente assume as suas funções. Nesse caso, pode ocorrer um certo delay (lentidão), enquanto os serviços são restaurados. Além do hardware, um ambiente de alta disponibilidade também precisa contar com o software adequado para monitorar as máquinas da rede, controlar e gerenciar os serviços que estão sendo prestados pelas diversas máquinas e redirecionar as operações de um equipamento para outro quando houver a detecção de uma falha. A avaliação da disponibilidade também deverá incluir a redundância de software, de banco de dados, de nós da rede, das interconexões, e a correta configuração das controladoras de proteção de falhas de energia elétrica (nobreaks). Deve ser considerada, ainda, a redistribuição de carga depois que ocorreu a falha em um dos nós da rede e a habilidade de todo o sistema operar durante as paralisações planejadas (paradas para manutenção) ou não (acidentes, falhas).

- 39 –

Módulo 11 – Evolução natural das redes As redes de computadores têm origem na constatação de que as pessoas raramente trabalham sozinhas. Como elementos indispensáveis nas organizações atuais, devem ser bem dimensionadas e gerenciadas. A evolução das redes As redes de computadores tiveram origem na constatação de que as pessoas raramente trabalham sozinhas dentro das corporações. Há constante troca de informações entre os diversos departamentos. No começo dos anos 80, no entanto, as tecnologias de redes ainda eram assunto apenas para os profissionais técnicos e sequer havia uma definição em relação a produtos por parte dos fabricantes de hardware. Esse panorama começou a mudar com a conversão dos antigos mainframes e minicomputadores em redes locais de PCs, no processo que ficou conhecido como downsizing. As primeiras redes locais datam de 1972 e surgiram nas universidades americanas. Mas a disseminação do seu uso nas corporações deu-se a partir de 1980, com o lançamento comercial da Ethernet. Tudo partiu da missão que foi encarregada a Robert Metacalfe, um dos pesquisadores da Xerox, de fazer com que a primeira impressora laser do mundo pudesse ser utilizada por todos os pesquisadores da empresa por meio de um sistema de rede. Era um desafio e tanto que demandou mais de três anos de árduo trabalho. Em 1976, Metacalfe e seu assistente, David Boggs, publicaram o documento "Ethernet: Distributed Packet-Switching For Local Computers Networks" (comutação por pacotes distribuída para redes locais de computadores) em que relatavam as especificações técnicas do sistema, as quais definiam os protocolos de transmissão de dados e a tecnologia necessária para transportá-los. Três anos mais tarde, Metacalfe saiu da Xerox, mas antes convenceu a empresa a firmar com a Digital e a Intel um consórcio para promover a Ethernet como padrão de redes locais de PCs. O sistema, no entanto, só foi liberado pela Xerox para comercialização em 1980 e serviu para o estabelecimento do padrão IEEE 802.3, que especifica as camadas física e lógica da rede local. Foram, então, estipulados três tipos de padrão Ethernet: o 10Base5, que utiliza um cabo coaxial grosso numa topologia de barramento entre os nós de até 492 m; o 10Base2, também chamado ThinNet, que usa o cabo coaxial mais fino, de no máximo 182 m por segmento; e o 10BaseT, que usa pares de fios trançados conectados em estrela, com segmentos de até 98 m de comprimento. A tecnologia Ethernet não parou de evoluir, chegando a 100 Mbps pelo método comutado (100BaseT) e a 1 Gigabit pelo compartilhado e comutado (1000BaseX). A Ethernet continua sendo uma das tecnologias de redes locais mais utilizadas. - 40 –

LAN O caráter local de uma rede é determinado pela abrangência geográfica limitada (no início era de até 1 Km e depois passou para 10 km) e também pela sua restrição a uma organização. Uma rede local não se limita a ser apenas uma mera interligação de equipamentos para possibilitar o uso compartilhado de recursos, uma vez que preserva a capacidade de processamento individual de cada usuário e possibilita que os micros se comuniquem com equipamentos de outras redes ou com máquinas de maior porte, sem perder autonomia. A LAN - Local Area Network – , em síntese, é uma rede de dados de alta velocidade, com baixa taxa de erros de transmissão, cobrindo uma área geográfica relativamente pequena e formada por servidores, estações de trabalho, um sistema operacional de rede e um link de comunicações. O planejamento desse sistema, também chamada de arquitetura, inclui hardware (placas, conectores, micros e periféricos), software (sistema operacional, utilitários e aplicativos), meio de transmissão, método de acesso, protocolo de comunicação, instruções e informações. A transferência de mensagens é gerenciada por um protocolo de transporte como IPX/SPX, NetBEUI e TCP/IP. Uma LAN pode ter de duas a várias centenas de estações, cada qual separada por distâncias que variam de metros a até quilômetros, possibilitando aos seus usuários o compartilhamento de recursos como espaço em disco, impressoras, unidades de CD-ROM etc., que é feito por meio do NOS (software de rede) e das placas de rede. Todos os dispositivos conectados à rede são denominados nodos ou nós, entre os quais circulam mensagens com diferentes tipos de solicitações. A topologia significa a forma como esses nós estão dispostos ao longo da rede. As primeiras redes utilizaram a topologia estrela (star) na qual o servidor exercia a tarefa de distribuir os recursos e a de atender às solicitações dos outros componentes da rede. As principais vantagens eram simplicidade, facilidade de controle e possibilidade de usar o sistema telefônico PABX (Private Branch Exchange) para transmissão de dados. Essa topologia foi adotada pela Tolken Ring, da IBM, lançada em 1985, pela Starlan, da AT&T, e pelo primeiro sistema de rede no Brasil da Telsist. A estrutura em anel utiliza um cabo comum a todos os componentes, mas estes são interligados em circuito fechado. Com isso, as mensagens circulam em uma direção pré-estabelecida, em loop contínuo, sendo repetidas e ampliadas em cada nó pelo qual passam. Uma falha num dos nós pode comprometer a rede toda, embora é possível determinar configurações que disponham de meios alternativos que entram em operação quando alguma falha é detectada.

- 41 –

Na topologia de barras ou barramento (bus), todos os componentes da rede são ligados a um mesmo cabo (que pode ser coaxial, telefônico ou de fibra ótica) em série. Seu principal inconveniente é o chamado conflito de barra que ocorre quando todos os usuários resolvem se comunicar ao mesmo tempo, o que retarda a comunicação e baixa a velocidade da rede. As novas aplicações que incluem multimídia, tráfego de voz, dados e vídeo, necessitam de velocidades maiores do que as oferecidas pelo padrão Ethernet. Em conseqüência, surgiram novos padrões que estão sendo adotados pelo mercado. O FDDI (Fiber Distributed Data Interface) é uma tecnologia relativamente antiga, baseada em fibra ótica, cara e muito confiável. Esse padrão provê uma topologia opcional que contém anéis primário e secundário, com dados fluindo em direções opostas. Se a linha cai, o anel secundário é utilizado para contornar a falha. Já o Fast Ethernet (100BaseT) é a opção mais simples para os que desejam migrar da base instalada em 10BaseT para uma taxa de 100Mbits/sec, permitindo a manutenção do cabeamento. Outro padrão é o ATM (Asynchronous Transfer Mode) que surgiu como a alternativa de melhor desempenho para aplicações com vídeo e voz em tempo real. O ATM divide todo o tráfego em células ou pacotes de 53 bytes, permitindo com isso que sejam construídos switches muito rápidos e o pequeno tamanho dos pacotes assegura que frames de voz e vídeo possam ser inseridos no fluxo com freqüência suficiente para transmissão em tempo real. Competindo diretamente com o ATM, o padrão Gigabit Ethernet tem se mostrado como uma opção mais econômica e eficiente, sendo indicado para a criação de grandes backbones LAN. Padronizado pela norma IEEE 802.3z, o Gigabit Ethernet opera a um gigabit em par trançado e fibra ótica. WAN Outro tipo de rede utilizada pelas corporações é a WAN - Wide Area Network -, uma rede que permite a ligação entre computadores que estão localizados em regiões fisicamente distantes. Essa necessidade de transmissão remota de dados entre computadores surgiu com os mainframes e as primeiras soluções eram baseadas em ligações ponto a ponto, feitas por meio de linhas privadas ou discadas. Com a proliferação do uso de PCs e das LANs, houve um aumento da demanda por transmissão de dados a longa distância, o que levou à criação de serviços de transmissão de dados baseados em enlaces ponto a ponto e também em redes de pacotes, no qual a partir de um único meio físico pode-se estabelecer a comunicação com vários outros pontos. Um exemplo de serviços sobre redes de pacotes são aqueles oferecidos pelas empresas de telecomunicações e baseados em redes Frame Relay.

- 42 –

A redes WAN estão passando por uma evolução grande em razão da oferta de novas tecnologias de telecomunicações e da utilização de fibras óticas. As redes implementadas sobre essa tecnologia seguem padrões de hierarquia digital SDH (Synchronous Digital Hierarchy) em conjunto com a ATM (Asynchronous Transfer Mode) e permitem o uso integrado de voz e dados. Há um movimento de migração dos operadores para sistemas WANs baseados na Ethernet. Existem várias arquiteturas de rede WAN, entre as quais as baseadas no protocolo TCP/IP (Transmission Control Protocol), que é arquitetura padrão para redes de máquinas Unix, Novell, Windows NT e OS/2 e também a arquitetura utilizada na Internet. Já a SNA é a arquitetura de rede proprietária da IBM voltada para acesso de grande número de nós secundários (terminais, impressoras, micros etc) a um número pequeno de nós principais (mainframes). Há também os protocolos SPX e IPX, utilizados pelas redes baseadas em servidores Novell.

A influência da Internet Com o crescimento da Internet e o emprego de tecnologias de integração como os ERPs, o volume de dados trafegados pelas redes aumentou sensivelmente, obrigando as empresas a rever e a modificar a sua infra-estrutura. As corporações buscam velocidade na obtenção de informações e segurança de dados, mas muitas ainda precisam saber gerenciar e dimensionar suas redes. Projetar o tráfego que vai fluir por uma rede não é algo simples e requer um estudo detalhado para determinar o que precisará ser adicionado a essa infra-estrutura para não comprometer o chamado QoS (Quality of Service – a qualidade dos serviços). O ERP e o comércio eletrônico, por exemplo, são soluções que exigem muito da rede e, portanto, a empresa que implementar esses sistemas deve também saber dimensionar a infra-estrutura de rede e adotar tecnologias que permitam a sua expansão ao longo do tempo. WLANs As redes evoluíram mais ainda e agora não precisam de meio físico (cabos) para existirem. São as WLAN (Wireless Local Network). Essas redes começaram a existir em meados dos anos 80, mas foi no final do século passado que atingiu a sua maturidade. Baseado no padrão Ethernet 802.11x, a rede sem fio evoluiu e hoje pode ser encontrada em qualquer empresa ou residência. Sua configuração mais simples permite velocidade de 11Mbps, mas o novo padrão 802.11g possibilita velocidades de até 54Mbps, bem próximo de uma rede Fast Ethernet. Existe uma grande febre de redes sem fio, pois o custo de manutenção e implementação é infinitamente menor do que de uma rede cabeada, sem grande perda de desempenho. No futuro, a maioria das redes nas empresas será sem fio. - 43 –

Módulo 12 – Banco de dados Os bancos de dados são indispensáveis em qualquer ambiente de TI. O modelo mais utilizado baseia-se na tecnologia relacional, embora também despertam a atenção os BDs orientados a objetos e os chamados objeto-relacionais. Banco de dados A informação é o bem mais precioso das corporações. A possibilidade de armazenar, acessar e gerenciar os dados e transformá-los em informações úteis e que auxiliem no processo de tomada de decisão constitui um elemento-chave para o sucesso no mundo dos negócios. Nesse sentido, os Bancos de Dados assumem grande importância no ambiente de TI, sobretudo após o crescimento da Internet que multiplicou a quantidade de informações que podem ser obtidas em curto espaço de tempo. Banco de Dados (BD) é uma coleção de dados relacionados logicamente, de forma coerente, e com algum significado inerente, ou seja, são informações que interessam a uma ou mais organizações. O BD também pode ser definido como um conjunto de tabelas utilizadas para armazenar qualquer tipo de dado (datas, números, nomes, endereços etc), seguindo um padrão de organização e armazenamento. As principais modalidades de BD são: Relacional, Orientado a Objetos e Objeto-Relacional. Banco de dados relacional O modelo de banco de dados relacional surgiu no início da década de 70, proposto pelo matemático E.F. Codd, pesquisador da IBM, e fez muito sucesso pela estrutura de dados simples e pela fundamentação teórica forte. Codd partiu da noção matemática de relação. Numa visão intuitiva, pode-se entender uma relação como um conjunto de atributos associado a uma entidade do mundo real. Por exemplo, um cadastro urbano pode ser descrito por meio da relação: número, lote, dono, endereço, área e IPTU. Essa relação pode ser representada por meio de uma tabela, contendo os atributos (número, dono, endereço etc) e os valores desses atributos (184520, Silva/Roberto, Av.Paulista/95, por exemplo). Em uma tabela identificamos cada linha a partir de uma chave única, também chamada de chave primária. Esta chave pode ser simples, formada apenas por uma coluna, ou composta, formada por duas ou mais colunas. Os sistemas de gerenciamento de banco de dados possuem mecanismos para garantir que a unicidade da chave única seja preservada. As chaves únicas também são utilizadas para criar relacionamentos de uma linha com as outras linhas armazenadas em outras tabelas. Ao replicarmos o valor de uma chave em outra tabela, podemos identificar quais linhas se relacionam. - 44 –

Nas outras tabelas, as chaves são conhecidas como "chaves estrangeiras" e, dessa forma, é possível criar ligações entre tabelas e representar os relacionamentos com cardinalidade um-para-muitos e muitos-para-um. Codd propôs ainda um conjunto de operações sobre as relações, denominado "álgebra relacional", que incluía as operações de projeção, seleção, união, intersecção e produto cartesiano. Essas relações são fechadas, ou seja, a aplicação de uma operação dessa álgebra a uma relação gera sempre outra relação. Todas essas operações produzem uma nova relação como resultado. As operações de consulta de um banco relacional são construídas sobre essas operações básicas. O modelo relacional mostrou-se bastante útil para lidar com os dados das aplicações administrativas e comerciais. Ainda hoje é a tecnologia mais difundida e utilizada pelas organizações. Para isso tudo ficar mais amigável para o usuário foram definidas linguagens de consulta padronizada, sendo a mais utilizada atualmente a SQL Structured Query Language. A SQL é mais do que uma linguagem de consulta, na medida em que possui recursos para a criação de tabelas, definição de regras de integridade, inclusão e remoção de registros, e funções de controle necessárias para o gerenciamento de dados. Entre as principais características dos bancos de dados relacionais incluem-se: a capacidade de armazenar grande volume de dados, capacidade de executar pesquisas rápidas e de identificar e tratar os erros para garantir a integridade dos dados. O maior ganho propiciado pelo modelo relacional é a separação entre os dados e a lógica de negócios, o que permite reduzir a complexidade das aplicações e a utilização de recursos oferecidos pelos bancos de dados para preservar a integridade das informações. Os principais fornecedores de BD relacionais são: Borland (Interbase e Paradox), Computer Associates (Ingres), IBM (DB2 Informix), Microsoft (SQL Server e Access), Oracle, Progress e Sybase. Banco de dados orientado a objetos Um outro paradigma de banco de dados surgiu na década de 80: o orientado a objetos, que apresenta características totalmente diferentes do modelo relacional. Alguns pesquisadores consideram que o modelo orientado a objetos oferece mais vantagens na medida em que permite o desenvolvimento de aplicações multimídia. O modelo orientado a objetos armazena objetos e não registros, como as bases de dados convencionais. Enquanto um registro abriga apenas dados, o objeto engloba tanto os dados como o comportamento desses dados, ou seja, o trecho do programa que manipula esses dados (chamado de método). Um objeto pode conter dados de alta complexidade, o que um registro convencional não consegue comportar. Isso significa que um objeto pode reunir as mais variadas formas de representação como imagens, sons, textos e vídeo. - 45 –

Cada objeto do banco de dados tem a sua própria identidade a qual é invisível ao programador e ao usuário final. Outro conceito importante do modelo orientado a objetos é a definição de classes. Um conjunto de objetos que compartilha a mesma estrutura e o mesmo comportamento pode ser agrupado para formar uma classe. Um objeto, na verdade, é uma instância de uma classe, tendo suas características definidas pela classe onde está. Assim, grupos de objetos com o mesmo comportamento e mesma estrutura também são organizados em classes. Outro conceito é o de herança, em que uma classe compartilha (herda) a estrutura de dados (atributos) e métodos (operações) de outras classes. Por exemplo: se uma classe B herda atributos de outra classe A, todas as características de A são utilizáveis em B. A principal vantagem disso é a facilidade com que se pode reutilizar o código e definir classes por refinamento. Uma classe filha pode herdar características de mais de uma classe original e quando isso ocorre diz-se que houve uma herança múltipla. A partir da modelagem de todas as classes necessárias ao banco de dados é criado o schema que, na verdade, estrutura todo o BD na medida em que define como os dados irão se comportar. A coleção de dados estruturada pelo schema é chamada de base. Os refinamentos de uma classe são chamados de subclasses, as quais contêm os tipos de dados e os métodos da classe da qual é derivada. Uma classe pode criar uma outra classe ao adicionar ou modificar funcionalidades. A nova classe herda todos os métodos e atributos da classe original, sendo que essa última passa a ser chamada de superclasse. O conceito de encapsulamento também se aplica ao banco de dados orientado a objetos. Ele tem como objetivo esconder detalhes da implementação dos métodos e da estrutura dos atributos. Com isso, garante que nenhum dado será acessado ou modificado por algum método (operação) desconhecido. Todo objeto é considerado persistente em uma base de dados quando ele continua existindo, após o final da transação que o criou. Os bancos de dados orientados a objetos evoluíram muito, atingindo maturidade e maior performance. São produtos estáveis que oferecem segurança e escalabilidade. Os principais fornecedores são: Intersystems (Caché) e Computer Associates (Jasmine). Nas organizações modernas, é difícil afirmar que os bancos de dados relacionais ou os orientados a objeto são capazes de satisfazer a todas as necessidades de computação. Enquanto que no modelo relacional, o objetivo é a independência dos dados, os quais podem ser usados por diversas aplicações, no modelo orientado a objetos a meta é o encapsulamento e, dessa forma, os dados só podem ser usados pelos métodos de uma classe específica. No relacional, o usuário vê os dados como tabelas (estrutura simples de linhas e colunas), e no orientado a objetos, as estruturas podem ser complexas, mas o usuário não percebe por causa do encapsulamento. As diferenças e os limites entre os dois paradigmas impulsionaram uma terceira geração de banco de dados chamada de objeto relacional. - 46 –

Banco de dados objeto relacional Novas versões dos bancos de dados relacionais, como a da Oracle e a da IBM (DB2), foram implementadas a partir do conceito objeto-relacional, o que na prática significa que são bancos de dados relacionais que embutem características dos orientados a objetos. O objeto-relacional é um sistema híbrido, baseado no modelo relacional, já consolidado no mercado e altamente confiável, mas que engloba também as funcionalidades do orientado a objetos, o qual tem de mais forte o poder de representação das aplicações. A tecnologia objeto-relacional é evolucionária, tendo herdado a transação robusta e as características de gerenciamento de performance da tecnologia relacional, adicionando a flexibilidade da tecnologia orientada a objetos. Na verdade, esse novo modelo representa um caminho de migração para os usuários de bancos de dados relacionais que desejam usar as características do orientado a objetos.

- 47 –

Módulo 13 – Storage O uso intenso da tecnologia eleva a quantidade de informações geradas nas empresas. A questão é onde armazenar todos os dados com segurança e inteligência. Por isso, as soluções de storage ganham maior atenção. Storage – armazenagem de dados Após investir pesadas cifras na montagem da infra-estrutura de TI e nas soluções que permitem integrar os diversos departamentos e interligar a companhia aos parceiros de negócios e clientes, o setor corporativo enfrenta agora o dilema de lidar adequadamente com a armazenagem de dados. O volume de informações gerado cresce a cada dia, impulsionado pelo uso da Web, e é necessário que haja o correto dimensionamento dos sistemas para que se consiga guardar todos os dados de forma ordenada e segura. Segundo o Horison Information Strategies, a história da armazenagem de dados é marcada por três fases distintas. A primeira delas, ocorrida entre os anos de 1950 e 1980, caracterizou-se pelo uso de equipamentos de armazenamento que eram conectados diretamente aos processadores centrais. Cada computador era conectado diretamente ao seu setor de armazenamento e nenhum outro computador podia acessar os dados guardados lá. Os aplicativos eram executados em um mainframe. O sistema era dedicado e o compartilhamento das informações era feito por meio da recriação do mesmo dado em diferentes formatos para variados computadores. Com a criação do PC e de servidores menores, e o uso do modelo cliente/servidor, houve uma tendência de montar ilhas departamentais de computação, o que marcou a segunda fase do storage, que durou de 1980 a 1990, em que cada departamento possuía seu próprio sistema de hardware e storage. Os aplicativos passaram a ser executados em servidores dedicados, cada um com seu próprio armazenamento. Depois, conforme a capacidade dos sistemas de disk array cresceu, um único array podia suprir as necessidades de armazenamento de vários servidores. Desse modo, por volta de 1990, nasceu o armazenamento em rede e começaram a surgir novas tendências que visam a armazenagem de dados num único local, com acesso compartilhado por toda a empresa e que se baseiam nas arquiteturas que agora se mostram mais maduras para serem de fato implementadas: SAN e NAS.

- 48 –

SAN e NAS O SAN - Storage Area Network – é uma rede de alta velocidade, capaz de interconectar diferentes tipos de componentes de armazenamento com servidores de dados, atendendo a um grande número de usuários. Em síntese, trata-se de uma rede de periféricos de armazenamento, gerenciada por um ou mais servidores, sobre interface fibre channel e que usa os mesmos conceitos de rede local, como switching e roteamento. As vantagens propiciadas são muitas em escalabilidade e disponibilidade. Na prática, os usuários distribuídos podem acessar os dados que estão centralizados em um único local, eliminando a necessidade de armazenamento departamental e com possibilidade de acesso simultâneo aos mesmos dados. Já a arquitetura NAS - Network Attached Storage -, implementa o conceito de array de disco com sistema operacional próprio. Os componentes de armazenamento são integrados a uma rede LAN (Local Area Network) e as requisições de arquivos são mapeadas pelo servidor principal. O NAS introduz um grau de simplicidade ao gerenciamento do storage porque permite a expansão fácil e quase ilimitada e é aplicável à maioria das plataformas cliente/servidor. Dessa forma, os dados podem ser compartilhados entre diferentes servidores e clientes, sem haver necessidade de desligar máquinas ou fazer muitas alterações na configuração para anexar uma nova unidade. Os protocolos de acesso a arquivos do NAS são muito genéricos e ricos em funcionalidade. E também se conectam a redes com base em TCP/IP, que são projetadas para trabalhar com topologias de interconexão muito generalizadas. Por definição, o NAS fornece acesso ao storage baseado em rede e não importa quão velozes sejam os discos, a velocidade de acesso é limitada à largura de banda da rede. No entanto, o usuário tem de administrar cada unidade NAS individualmente, o que eleva os custos de gerenciamento à proporção em que são adicionadas novas máquinas NAS à rede. Uma solução baseada nessa tecnologia mostra-se positiva e barata. Para as aplicações críticas de negócios, recomenda-se o uso de um segmento de rede de banda larga dedicado. O NAS é indicado para obter simplicidade de compartilhamento de dados, particularmente entre computadores e sistemas operacionais diferentes. Antes de escolher a arquitetura de storage mais adequada para a companhia, é importante que se faça um bom planejamento. Isso parece óbvio, mas alguns levantamentos feitos nos Estados Unidos demonstraram que algumas empresas amargaram prejuízos consideráveis devido à opção errada.

- 49 –

Os consultores de mercado recomendam que seja feita uma análise cautelosa sobre o volume de dados, a infra-estrutura disponível, os usuários dos sistemas, os processos existentes e a própria linha de negócios da empresa. Outro ponto importante é saber negociar com os fornecedores de soluções, principalmente se a opção for pela arquitetura SAN. A recomendação é que seja firmada uma parceria com os fornecedores de modo que eles se comprometam com os objetivos do projeto e não apenas em fornecer a tecnologia. Existe uma tendência maior, da parte do setor corporativo, de investir em SAN pela sua característica que permite concentrar toda a administração do storage sob uma interface de gerenciamento comum. Isso porque quando se adquire uma SAN também é disponibilizado um pacote de software de gerenciamento que possibilita a administração de dados usando uma GUI (Interface gráfica com o usuário) fácil e independente de plataformas. Na arquitetura SAN, o storage é levado a um nível além da NAS e acima de mídias e plataformas físicas. É como se o storage baseado em SAN fosse uma tigela de barro que pode ser facilmente moldada para satisfazer aos requisitos de negócios da empresa. Como o nome indica, SAN é uma rede dedicada que conecta servidores e dispositivos de storage, utilizando hubs e switches, como nas redes Ethernet tradicionais. Para fazer parte de uma rede SAN, os servidores e dispositivos precisam ter adaptadores ou conversores de protocolos apropriados. A parte mais complicada de um projeto SAN refere-se à escolha do fornecedor da solução, uma vez que produtos de fabricantes diferentes não são compatíveis entre si. Para reverter esse panorama, muitos fornecedores já fazem parte do Storage Networking Industry Association (SNIA), um comitê que visa o estabelecimento de padrões, mas esse processo ainda está no início. Empresas tradicionais desse mercado, completaram os testes de interoperabilidade de seus produtos, supervisionados pela SNIA e estão investindo na criação de padrões. De acordo com os consultores de mercado, no futuro próximo a medida de sucesso não será a implementação de uma linha de hardware e software de storage, mas o quanto esse sistema funcionará em um ambiente heterogêneo. No Brasil, a maioria dos fabricantes já oferece equipamentos para redes SAN e existe uma forte tendência de utilização das duas arquiteturas (SAN e NAS) conjugadas, em face da necessidade de um gerenciamento eficiente. Ambas oferecem a possibilidade de administração centralizada, o que representa uma vantagem para o administrador da rede. As limitações do NAS de escalabilidade e o custo e complexidade dos SANs abriram a porta para um novo conceito e padrão, o ISCSI. O ISCSI é a mistura da Ethernet (TCP/IP) e o SCSI. O SCSI é um protocolo bastante antigo utilizado na conexão de discos com o computador. - 50 –

Assim, parecia natural que o armazenamento de dados usasse uma tecnologia de rede similar as mais usadas nas corporações com um dos protocolos mais consistentes e rápidos existentes. Daí nasceu o ISCSI. Ele é mais barato do que as redes SAN e consegue escalar bem em redes Ethernet. A expertise existente nas empresas agora pode ser utilizada a custos mais acessíveis para as corporações. Benefícios do armazenamento em rede Os benefícios propiciados pelo armazenamento em rede são diferentes em cada situação. Com ele, é possível reduzir custos do fornecimento de serviços de informação. Se todo armazenamento online for acessível a todos os computadores, isso implica em que nenhum armazenamento temporário extra será necessário para organizar os dados que estão protegidos por um computador e utilizados por outros. Isso pode representar uma economia de custos significativa. Igualmente, se os drives de fita e manipuladores de mídia robotizados puderem ser acessados diretamente por todos os computadores, será necessário um número menor desses dispositivos caros, estes que não costumam ser utilizados com tanta freqüência por toda a empresa. Isso também representa uma redução de custos de capital, sem comprometer a qualidade dos serviços oferecidos. Outro ganho é a economia administrativa e operacional propiciada por não haver necessidade de implementar e gerenciar procedimentos para copiar dados de um local para o outro, o que efetivamente reduz o custo referente a pessoas. A maior parte da atenção dirigida ao armazenamento em rede concentra-se nas interconexões (como a Fibre Channel), que permitem a conectividade universal entre os dispositivos de armazenamento e os computadores que se conectam a elas. Mas, as interconexões por si mesmas não acrescentam nenhuma funcionalidade ao processamento de informações. Para obter os benefícios prometidos pelo armazenamento em rede, deve-se considerar não apenas a conectividade, o desempenho, a disponibilidade e as funções de hardware, como também o software de sistema e de aplicativos, os quais devem tirar o maior proveito do hardware. Por exemplo, um tape drive conectado à SAN pode ser compartilhado entre servidores porque esses dispositivos ficam em uso apenas durante a realização dos backups. Se um tape drive estiver conectado a computadores por meio de uma SAN, computadores diferentes poderão utilizá-los em diferentes momentos. Todos os computadores terão o seu backup efetuado. Dessa forma, o investimento em drives de fita é utilizado de modo eficiente e os gastos de capital permanecem baixos. Em resumo, o armazenamento em rede permite a conectividade entre diferentes computadores e também aumenta a capacidade de organização para migração de dados.

- 51 –

Ele também contribui para reduzir o custo do processamento de informações. Isso porque permite o compartilhamento de dispositivos e comunicações mais eficientes, levando à criação de um ambiente de computação global, com capacidade de processar as mesmas informações em qualquer momento, a partir de qualquer central de dados no mundo, com dados e a execução de aplicativos primários migrando para locais ideais, conforme a necessidade. Gerenciamento e Virtualização As organizações mais eficientes sabem que uma infra-estrutura enxuta significa uma infra-estrutura mais simples e mais barata de armazenamento. Mas, para a maioria das empresas, a implementação de armazenamento de dados é uma tarefa complexa. Crescer a quantidade de dados requer que a capacidade de armazenamento se expanda. Isso, por seu turno, aumenta os custos, muito devido às limitações das tecnologias de gerenciamento existentes. Para muitas companhias, é um fato da vida que quando você cresce a sua capacidade de armazenamento, é necessário contratar mais gente para gerenciá-lo. A solução para essa questão chama-se virtualização. Esse novo paradigma significa tratar toda a sua capacidade de armazenamento como se fosse uma única unidade lógica sem se importar coma hierarquia do meio físico que pode estar envolvido no processo. Isso permite que as aplicações sejam escritas para uma única interface de programação, eliminando a necessidade de lidar com vários discos, fitas e dispositivos ópticos que são utilizados. Assim, os custos diminuiriam. Eis o que procura a indústria e as empresas. Outro flanco aberto com essa nova tendência é do provisionamento ou gerenciamento de necessidades. Isso quer dizer que quando uma aplicação, por exemplo um banco de dados, precisa de mais espaço em disco para crescer, o próprio sistema se encarrega de obtê-lo e alocá-lo, sem a necessidade de intervenção humana. O gerenciamento de dados é uma tendência no mundo corporativo, tanto para a alocação de custos como para previsões de crescimento da demanda da empresa.

- 52 –

Módulo 14 – Manageability - Como gerenciar o ambiente de TI O gerenciamento do ambiente de TI é uma tarefa complexa que exige o emprego de ferramentas adequadas e capazes de garantir a compatibilidade e a integração dos sistemas. Manageability – Como gerenciar o ambiente de TI O gerenciamento do ambiente de Tecnologia da Informação é uma das tarefas mais complexas de serem executadas pelas empresas. Isso porque a infra-estrutura precisa ser constantemente atualizada e monitorada. Além disso, há a necessidade de realizar vários ajustes periódicos devido a uma série de fatores:aumento do número de usuários, escalabilidade dos sistemas, existência de sites dispersos geograficamente, acesso remoto ao sistema, novos programas e tecnologias , aumento dos níveis de segurança, exigências de crescimento do storage e conflito de padrões entre diferentes sistemas. De nada adianta investir milhões de dólares numa plataforma tecnológica de última geração se houver lentidão causada, por exemplo, por aplicativos ou roteadores espalhados pela organização e o responsável pela área não souber detectar esses problemas e nem onde exatamente ocorrem. Na avaliação dos consultores de mercado, 99% das empresas cresceram suas estruturas de tecnologia de forma desordenada ao longo dos anos, tendo como justificativa a necessidade de manter os sistemas funcionando. Como conseqüência, acabaram criando um ambiente heterogêneo, sem documentação atualizada e difícil de ser monitorado e controlado. Como resposta a essa situação já existem no mercado diversas ferramentas que permitem analisar, gerenciar e monitorar os sistemas de Tecnologia da Iinformação. Não são soluções recentes. Na verdade, elas foram lançadas há algum tempo, mas só agora é que as empresas começam a entender a sua importância e passaram a investir nesse sentido. O principal objetivo das ferramentas de gerenciamento é o de reduzir as dores-de-cabeça na administração da infra-estrutura de TI, oferecendo serviços de melhor qualidade e otimizando pessoas e custos. Nesse contexto, são soluções que precisam ter o aval e o suporte de todas as áreas da empresa, inclusive da alta direção. Mudanças organizacionais – Como gerenciar o ambiente de TI O impacto da Tecnologia da Informação e do seu alinhamento aos objetivos de negócios da organização obrigou os gerentes e diretores da área de TI a mudar a sua forma de trabalhar.

- 53 –

Se na teoria a TI representa um recurso fundamental para incrementar a eficiência dos processos, na prática tornar isso operacional não é uma tarefa simples. Diante de um conceito abstrato, o melhor caminho a seguir é voltar-se para situações e objetos concretos que possam ser dimensionados. Deve-se começar pelo controle dos ativos e da rede de TI. Listar quais são os ativos presentes na empresa, onde estão localizados, quais serviços e custos estão associados a eles, são iniciativas que podem economizar muito dinheiro e minimizar os problemas. Entre as soluções de gerenciamento, destacam-se os frameworks que são, grosso modo, uma espécie de chassis, ou seja, uma base sobre a qual rodam as aplicações. Framework é composto por três grandes camadas de software, sendo a primeira delas constituída por um conjunto de agentes. Na verdade, de programas capazes de captar informações básicas sobre o funcionamento de um ambiente, como por exemplo, o desempenho do processador, a taxa de ocupação do disco, o desempenho de entrada e saída dos dispositivos, o tráfego da rede, entre outros. Em alguns casos, muitos desses agentes têm inteligência para reconhecer automaticamente as características de um elemento conectado à rede, registrandoas na aplicação. A segunda camada é uma interface com o usuário, na qual são registrados os elementos de rede e suas configurações. A aplicação é padronizada e as regras e parâmetros de administração são definidos. E finalmente a terceira camada é a de administração, na qual monitora-se e gerencia-se o que está acontecendo no ambiente de TI. Os frameworks se propõem a atender a todas as funcionalidades para a administração dos ambientes, mas nem sempre conseguem responder adequadamente às particularidades de uma empresa. Isso porque é praticamente impossível para um fornecedor de soluções manter um nível de homogeneidade em todas as disciplinas e que atenda às necessidades de todas as organizações. Nesse sentido, é importante verificar, entre as ferramentas disponíveis no mercado, qual a capacidade de integração com outras aplicações. Os frameworks representam uma evolução das tecnologias de gerenciamento de redes e de recursos de hardware, incorporando aplicações para gerenciar o atendimento, processos, contratos e ativos em geral. Mas, são ferramentas complexas, pouco flexíveis e demoram para ser implementadas. Para driblar essa situação, muitos fornecedores passaram a desenvolver e a oferecer produtos modulares, que podem ser implementados de forma gradativa, capazes de rodar em todas as plataformas de hardware e de sistemas operacionais. Quanto mais competitivo for o segmento de atuação, mais as empresas precisarão estar atentas ao gerenciamento do seu ambiente de TI para que maior seja a sua disponibilidade. Quanto mais dependente da tecnologia uma companhia se tornar, maior será a importância das ferramentas de gerenciamento.

- 54 –

Principais players e produtos Há muitas soluções de gerenciamento disponíveis no mercado. Vamos listar alguns dos principais players e as respectivas ferramentas. Após a fusão com a Compaq, a Hewlett-Packard (HP) reforçou a plataforma de gerenciamento Openview, capaz de monitorar o ambiente de TI em quatro níveis: infra-estrutura de rede, redes sem fio e Internet, sistemas operacionais de servidores e desktops, armazenamento e aplicações. Nessas camadas, é possível fazer o gerenciamento de falhas, de performance, de experiência do cliente interno e externo e também de serviços. O Openview é baseado nas especificações do ITIL (Information Technology Infraestructure Library), uma metodologia desenvolvida pela Central Computer e Telecommunications Agency do Reino Unido. Os usuários da ferramenta podem optar por saber inicialmente onde ocorreu o problema ou qual processo foi afetado. Isso é possível porque os módulos que suportam as aplicações corporativas verificam desde a rede até os sistemas, passando por aplicações e armazenamento de dados. A Tivoli, pertencente ao grupo IBM, é outra tradicional fornecedora de soluções para gerenciamento, capazes de suportar a linha de negócios de uma companhia e não apenas a sua infra-estrutura. O portifólio da Tivoli inclui dezenas de produtos que juntos permitem aos clientes selecionar, integrar e implementar software de gerenciamento em ambientes complexos. Os principais módulos são: gerenciamento de disponibilidade, gerenciamento de nível de serviço do negócio, orquestração, provisionamento, segurança e armazenamento e otimização. Com forte atuação na área de gerenciamento de ambientes de TI, a Computer Associates abarca sob o guarda-chuva Unicenter Enterprise Management várias modalidades principais de ferramentas. Entre elas se destacam o gerenciamento de banco de dados, jobs, operação, IT resources e serviços, todas baseadas em arquitetura distribuída. As soluções são modulares e podem ser implementadas aos poucos. A BMC Software é outra fornecedora que oferece uma grande quantidade de opções voltadas a atender funções específicas em todas as plataformas. O carro-chefe da empresa é o Patrol, para o controle de níveis de serviço, otimização da performance e prevenção de problemas. São vários grupos de ferramentas, das quais algumas são voltadas para o gerenciamento de servidores, banco de dados, aplicações, EAI (Enterprise Application Integration), e-business, desempenho e diagnóstico. Outro grupo de soluções é voltado para modelagem preditiva e gerenciamento de capacidade de sistemas, aplicações e banco de dados, e o outros ainda, para o gerenciamento centralizado de todos os recursos.

- 55 –

A Compuware oferece soluções para acelerar o desenvolvimento, melhorar a qualidade e administrar o desempenho de sistemas de missão crítica. As várias famílias de produtos estão divididas em: Application Development, para melhorar a velocidade no desenvolvimento e gerenciamento de aplicações, Quality Assurance, para garantir a qualidade dos sistemas desenvolvidos, Application Service Management, para o gerenciamento da qualidade de serviço das aplciações e IT Governance and Management, para alinhar a área de TI com os objetivos de negócio da emrpesa através do gerenciamento de projeto, aplicações e infra-estrutura.

- 56 –

Módulo 15 – Clustering Utilizar vários computadores ligados em rede para formar um cluster é uma solução válida para três tipos básicos de aplicação: tolerância a falhas, balanceamento de carga e processamento paralelo. Clustering A tecnologia já faz parte do cotidiano das corporações. E quanto maior for a dependência das ferramentas de automação dos processos, maior será a necessidade de garantir a continuidade das operações. Não são todas as empresas, no entanto, que dispõem de recursos ou precisam contar com máquinas tolerantes a falhas ou de alta disponibilidade, cujos custos de aquisição e manutenção podem ser bastante elevados. Uma solução mais econômica e eficiente é a tecnologia denominada como clustering, em que vários computadores são ligados em rede e passam a se comportar como se fossem um só. Existem basicamente três tipos de aplicações que justificam a montagem de um cluster: tolerância a falhas, balanceamento de carga e processamento paralelo. A mais utilizada das três é a tolerância a falhas, onde dois ou mais computadores (normalmente servidores) estão ligados entre si. Em geral, um deles responde por todo o trabalho, enquanto o outro permanece em stand by e se limita a manter os dados atualizados em relação ao primeiro e a monitorá-lo constantemente. Caso ocorra algum problema com o primeiro servidor, o segundo assume suas funções de forma automática e imediata. Essa solução é muito utilizada em servidores Web e também em servidores de bancos de dados em Intranets. Também existe a possibilidade de a segunda máquina não ficar em stand by, mas responder a outros serviços e trabalhos, mantendo as atualizações em relação ao primeiro e a capacidade de assumir as suas funções em caso de falha. Outra aplicação do clustering é para o balanceamento de carga, usada principalmente em servidores Web. Para isso, são necessárias três máquinas, no mínimo, sendo que a primeira recebe todas as requisições e se encarrega de dividilas entre as demais. Essa é a opção válida e mais econômica para as empresas que lidam com grande quantidade de informações, mas não podem ou não querem arcar com o alto custo de um servidor de grande porte, colocando em seu lugar vários PCs mais baratos e capazes de fazer o mesmo trabalho. A terceira aplicação é o processamento paralelo, que visa ser uma opção mais viável de computação paralela de alto desempenho, muito utilizada na área científica e em empresas que lidam com um volume gigantesco de dados a serem processados. - 57 –

Em vez de utilizar sistemas especialistas de processamento paralelo, que são muito caros e complexos, tanto em hardware como software, pode-se utilizar várias estações de trabalho comuns e conectá-las entre si de forma que se comportem como um único equipamento. O trabalho é dividido em pequenas partes, sendo que o processamento é feito de maneira distribuída, e posteriormente o quebra-cabeça é montado resultando no trabalho final. Dessa forma, é possível obter um desempenho compatível aos dos sistemas de computação paralela, com custos e complexidade substancialmente inferiores. O modelo de arquitetura de clustering mais utilizado para esse fim é o de Beowulf. Clusters Beowulf Beowulf era um herói de grande força e valentia que tinha como objetivo derrotar o monstro de Grendel – personagens de um antigo poema épico da língua inglesa. O nome do herói foi o escolhido para batizar a arquitetura de multicomputadores utilizados para computação paralela, composta por um conjunto de máquinas formado por um nó servidor e nós clientes conectados via rede (padrão Ethernet ou outra topologia qualquer), rodando um sistema operacional paralelo. Nesse modelo, o servidor tem a função de controlar todo o cluster, distribuir os arquivos e as tarefas para os nós clientes, além de servir de gateway para conexão externa. Pode também haver mais de um servidor, dedicados às operações específicas como monitoração ou gateway, ou para serem utilizados apenas como console. O primeiro cluster Beowulf foi desenvolvido por Thomas Sterling e Don Becker, pesquisadores do Centro de Excelência em Dados Espaciais e Informações Científicas (Cesdis) da Agência Espacial Americana (NASA) em 1994. O cluster foi montado no Centro Espacial Goddard, em Greenbelt (Maryland/EUA), sendo utilizado para o projeto de ciências espaciais e terrestres. Era formado por 16 processadores Intel 486DX4 de 100MHz conectados via rede Ethernet de 100 Mbps, e sistema operacional Linux. Os componentes de hardware eram comuns, sendo que cada nó do cluster era formado por um processador 486DX4 de 100 MHz, placa mãe SiS471 com cache de 256KB, memória RAM de 16 MB/60ns, disco rígido de 540 MB IDE, placa de rede dual 10Mbps – todos elementos de fácil aquisição e custo acessível. Isso contribuiu para o enorme sucesso alcançado e para a popularização desse tipo de arquitetura que, em pouco tempo, passou a ser implementada em diversas universidades e em instituições de pesquisa. E existem clusters Beowulf de mais de 1000 nós com desempenho superior a 100 GigaFLOP/s.

- 58 –

O cluster Beowulf é composto geralmente por máquinas de modelos comuns, disponíveis no mercado. Não há necessidade de nenhum hardware especial, nem existem dificuldades técnicas adicionais para instalação e implementação. Como exemplo, são suficientes oito estações de trabalho comuns (de preferência, semelhantes) com uma placa de rede para se iniciar um cluster do tipo. Há basicamente duas classes de clusters. A primeira é construída com equipamentos genéricos de fabricantes conhecidos, apresentando como principal vantagem a facilidade de assistência técnica e de aquisição e/ou substituição de drivers de dispositivos, além da compatibilidade entre os componentes. Outra classe de cluster é composta por equipamentos específicos ou montados a partir de versões OEM de diversos fabricantes. A vantagem, nesse caso, é a facilidade de escolha do hardware para aumento da performance. Porém, pode haver dificuldade para aquisição e substituição de componentes. Em relação à software, um cluster Beowulf utiliza principalmente o RedHat, que apresenta maior facilidade no gerenciamento de pacotes e disponibilidade de upgrades do sistema. Todos os componentes de software são implementados como aplicações adicionais do sistema operacional Linux, amplamente disponíveis no mercado. Um pacote completo inclui uma série de ambientes de programação e bibliotecas de desenvolvimento em forma de pacotes instaláveis individualmente. É recomendado como configuração mínima: sistema operacional Linux com software de rede; arquivos-fonte do Kernel; linguagens C, C++, bibliotecas e compiladores; X11 com bibliotecas e ferramentas de desenvolvimento; sincronizador de tempo; sincronizador remoto rsync e sistema de arquivos com autofs. Princípios básicos Independente da aplicação, todo cluster precisa seguir cinco princípios básicos para ser eficiente. O primeiro deles refere-se à comodidade. Em um cluster os nós devem ser máquinas normais interconectadas por uma rede genérica. O sistema operacional precisa ser padrão, sendo que o software de gerenciamento deve ir acima dele como uma aplicação qualquer. O segundo princípio refere-se à escalabilidade. Deve ser possível adicionar aplicativos, nós, periféricos e interconexões de rede sem que haja necessidade de interromper a disponibilidade dos serviços do ambiente. A transparência também é fundamental, ou seja, o cluster construído com um grupo de nós independentes e agrupados, deve se apresentar aos clientes externos como um único sistema. As aplicações clientes precisam interagir com o cluster como se esse fosse um único servidor de alta performance ou de alta disponibilidade.

- 59 –

O quarto princípio refere-se à confiabilidade. O cluster precisa ter capacidade de detectar falhas internas, assim como tomar providências para que estas não comprometam o serviço oferecido. E, finalmente, o quinto princípio diz respeito ao gerenciamento e à manutenção. Por serem tarefas complexas e propensas a gerar erros, deve-se adotar um mecanismo de fácil configuração e manutenção do ambiente, de forma a simplificar sua administração. Resumindo Um cluster pode ser formado por apenas duas máquinas, ou por vários equipamentos interligados. Em geral, sua expansão ocorre de forma linear em relação a investimentos. A tecnologia de clustering também pode ser aplicada a nobreaks destinados a servidores. Dois nobreaks de 2 KVA podem ser interligados equivalendo a um nobreak de 4 KVA e assim por diante.

- 60 –

Módulo 16 – Integração e compatibilidade A dependência das corporações em relação à tecnologia é cada vez maior. Nesse cenário, cresce a importância de se definir um método para possibilitar a integração das aplicações e dos diferentes sistemas no ambiente de TI. EAI e Middleware – Integração e compatibilidade A grande maioria das empresas conta com um ambiente de TI heterogêneo, composto por diferentes plataformas e sistemas. A necessidade de integrar aplicações de uso interno, e também com as de outras empresas que fazem parte da cadeia de negócios, tem aumentado nos últimos anos, impulsionada pelo crescimento das operações Internet. Também houve um aumento dos processos de fusões e aquisições de companhias, obrigando-as igualmente a enfrentar a dificuldade de integrar vários equipamentos e soluções diversas. Diante desse quadro, vem se desenvolvendo um novo e promissor mercado para as ferramentas EAI - Enterprise Application Integration. São soluções que contemplam a integração de aplicações corporativas e um conjunto de ferramentas e tecnologias, permitindo o compartilhamento de processos e dados e a comunicação entre plataformas distintas. Numa mesma organização, mainframes, servidores Unix, servidores NT e estações de trabalho, de diferentes fabricantes e de gerações diversas constituem uma base tecnológica valiosa, mas seu real benefício reside na capacidade desses diferentes sistemas "conversarem" entre si e com os sistemas de outras empresas, parceiras de negócios. Mas essa tarefa, em geral, apresenta um alto grau de dificuldade. No entanto, com a utilização de ferramentas EAI, sistemas estanques podem ser conectados a um único servidor de integração, empregando um processo capaz de ser repetido inúmeras vezes. Nesse sentido, para acrescentar uma nova tecnologia ou software basta reproduzir o procedimento e conectar tudo ao servidor que controla os processos. Dessa maneira, todos os aplicativos podem se comunicar entre si e trocar dados utilizando, para isso, o servidor de integração. Para escolher a solução de EAI mais adequada, as empresas devem, inicialmente, compreender seus processos de negócios e seus dados para selecionar o que de fato requer uma integração. Esse processo de escolha pode ser visto sob quatro dimensões: nível de dados, nível de interface de aplicações, nível de métodos e nível de interface dos usuários. Dimensões do EAI O nível de dados do EAI é composto pelos processos, técnicas e tecnologias que permitem mover e transportar dados entre diferentes fontes e destinos e, eventualmente, atualizar os dados, mantendo sua integridade. - 61 –

Dessa forma, é possível mover a informação entre diferentes bancos de dados a um custo relativamente baixo. Os chamados Message Brokers permitem a construção de scripts contendo regras para extrair, transformar, traduzir, combinar, reformar e replicar os dados de uma ou mais base, compatibilizando-os e transportando-os para uma aplicação ou base target, de acordo com o formato exigido por ela. Outra dimensão do EAI é o nível de interface de aplicação que, como o nome já diz, permite a utilização de interfaces por meio das quais os desenvolvedores podem empacotar muitas aplicações, permitindo o compartilhamento lógico e de informações. Exemplos desse tipo de EAI podem ser aplicados a pacotes de sistemas de gestão integrada (ERP), como os da SAP, PeopleSoft e Baan. Para integrar os sistemas corporativos, é necessário o emprego dessas interfaces que permitem acessar tanto os dados, quanto os processos, extraindo informações, substituindo dados, colocando no formato adequado para a aplicação destino e transmitindo. Outras tecnologias, como as de message brokers, também podem fazer isso. O nível de métodos de EAI refere-se ao compartilhamento de lógica de negócios. O seu emprego permite, por exemplo, acessar o método de atualização do registro de um consumidor a partir de um grande número de aplicações, sem haver necessidade de reescrever um método para cada aplicação. O mecanismo de compartilhamento de métodos pelas aplicações inclui objetos distribuídos, servidores de aplicação, monitores de transação ou uma aplicação única que combina a ação de outras duas. E finalmente o nível de interface para o usuário possibilita aos desenvolvedores estabelecer um ponto comum de integração para os usuários. Com isso, as aplicações que foram escritas para o ambiente mainframe podem ser exibidas de forma visual para o usuário de outras plataformas. O EAI não é homogêneo e oferece uma gama variada de opções e ferramentas. Além disso, os produtos, em geral, não fornecem uma solução acabada. Basicamente, há dois tipos de ferramentas. O primeiro tem o foco voltado para o compartilhamento de dados, permitindo a extração e a transformação de informações que podem ser intercambiáveis entre os pacotes ERP e outras aplicações. O segundo tipo de ferramenta confia nos recursos de entrega de mensagens para suportar o compartilhamento direto de dados entre programas, sem a necessidade de utilizar um arquivo ou um banco de dados intermediário. A tecnologia de integração é importante, na medida em que permite às companhias não perder o valor do investimento já realizado em sistemas legados, além de poderem agregar rapidamente novos software a um custo inferior e integrar sistemas diferentes. Além do EAI, direcionado para modelar e automatizar os processos comerciais de uma empresa, o mercado de integração conta também com soluções classificadas como B2Bi (business-to-business integration), que possibilitam à empresa integrar seus sistemas aos de seus parceiros de negócios. - 62 –

Embora à primeira vista as ferramentas EAI e B2Bi possam parecer idênticas, existem algumas diferenças fundamentais, entre as quais o nível de segurança oferecido – as B2Bi respondem às exigências de segurança muito mais severas. O importante é saber se o foco do cliente está na integração interna ou na externa, para então avaliar os produtos nesses contextos. O recomendável é que o primeiro foco seja a integração interna de aplicativos e sistemas, para definir e institucionalizar os processos comerciais. Após esse problema ser solucionado, podese então partir para a integração com os sistemas externos (de parceiros de negócios). Middleware O mercado abriga também as soluções classificadas como middleware, mais limitadas que as EAI, e que facilitam a integração de aplicações individuais, permitindo também discretas transações entre elas. Em sentido amplo, ele designa um software que promove a comunicação e a interoperabilidade entre outros software. Em geral, os middleware tradicionais exigem alterações significativas nos sistema de origem e de destino, o que resulta na agregação da camada de middleware na aplicação ou no depósito de dados. Por exemplo, para integrar um sistema de contabilidade que roda sob o Windows 2000 com um sistema de patrimônio que roda no mainframe, deve-se selecionar o produto de middleware de filas de mensagens de forma a permitir aos sistemas compartilhar informações. Para isso, provavelmente será necessário alterar o sistema fonte (origem dos dados) e o sistema destino (destino dos dados) para fazer uso do middleware. Isso precisa ser feito porque a camada de middleware provê apenas uma interface, uma ligação, e os programas devem ser alterados para acomodar o middleware, o que implica alto custo e alto risco. O middleware pode ser classificado como uma das partes mais importantes do ambiente cliente-servidor. Da menor rede local (LAN) até o maior sistema distribuído, todos igualmente utilizam alguma solução middleware. Na verdade, sempre que uma máquina cliente envia uma requisição para o servidor, ou sempre que algum aplicativo carrega dados de um banco de dados, está presente alguma forma de middleware, cuja função é a de aplainar incompatibilidades em potencial entre protocolos de comunicação, linguagens de consulta a banco de dados, lógica de aplicativos e sistemas operacionais de nível básico. O middleware pode ser classificado como uma das partes mais importantes do ambiente cliente-servidor. Da menor rede local (LAN) até o maior sistema distribuído, todos igualmente utilizam alguma solução middleware.

- 63 –

Na verdade, sempre que uma máquina cliente envia uma requisição para o servidor, ou sempre que algum aplicativo carrega dados de um banco de dados, está presente alguma forma de middleware, cuja função é a de aplainar incompatibilidades em potencial entre protocolos de comunicação, linguagens de consulta a banco de dados, lógica de aplicativos e sistemas operacionais de nível básico. A parte do aplicativo cliente/servidor que procura por esses dados precisa acessar um sistema de middleware que localizará a fonte ou o serviço de dados independentemente de onde resida, transmitirá a requisição do aplicativo, reempacotará a resposta e a retransmitirá de volta ao aplicativo. O middleware é responsável por assegurar que o aplicativo e suas fontes de dados se comuniquem de forma rápida, eficiente e eficaz, independente de qual sistema operacional, protocolo de comunicação ou sistema de banco de dados esteja sendo acessado. A compra de um middleware requer um entendimento fundamental dos problemas e processos empresariais nos quais deve auxiliar. Também é preciso fazer uma análise dos diferentes produtos disponíveis no mercado para verificar os benefícios relativos. A maioria dos fornecedores de middleware recomenda que os usuários comecem pelo aspecto empresarial antes de atacar as questões tecnológicas para a escolha da solução. Na verdade, o termo middleware nem sempre é muito claro. Pode ser entendido como um sistema de componentes que proporciona a transferência de dados ou o acesso em tempo real por meio de sistemas heterogêneos não ativos. Ou seja, como um conjunto de tradutores universais e locadores de dados que permitem ao usuário trabalhar em qualquer plataforma para localizar, acessar, manipular e mover dados por toda a empresa sem precisar entender ou estar preocupado com a complexidade dos sistemas de informações organizacionais e suas redes. Web services e SOA Outro elemento foi agregado ao arsenal de tecnologias de integração. Ele é mais fácil de usar, tem custo menor e não interfere tanto nos sistemas existentes. É o Web Service. É um conjunto de aplicações Web. Estas são auto-contidas, auto-descritas e modulares e podem ser publicadas, localizadas e utilizadas pela Web. Os Web Services podem executar funções simples ou processos complicados de negócio. Vários são seus componentes. Entre eles se destacam: SOAP, para o transporte das mensagens, UDDI, o diretório de serviço de Web Services, WSDL, que mostra as características de um Web Service e o XLANG/XAML, que dá suporte a transações complexas pela web. Sua utilização em larga escala levou a uma nova arquitetura de sistemas, o SOA (Service Oriented Architeture). O SOA é uma arquitetura cujo objetivo é manter agentes de software interagindo entre si. Um serviço é uma unidade de trabalho feita por um provedor de serviço para atingir um resultado desejado por um consumidor de serviço. Ambos, o consumidor e o provedor de serviço são papéis encenados por agentes de software. - 64 –

Para não tornar tudo muito abstrato, veja o seguinte exemplo. Um CD e um tocador de CD. O tocador de CD oferece o serviço de tocar CD, o que é muito bom, pois você pode trocar o player sempre que desejar e continuar a tocar CDs. Você pode tocar o CD em um aparelho portátil ou em um aparelho com saídas surround. Ambos tocam, mas a qualidade do serviço oferecido é diferente. A idéia do SOA muda significantemente a programação orientada a objeto, a qual sugeria que você deveria ligar os dados e seu processamento. Assim, um estilo de programação orientada a objeto era como se cada CD devesse ter o seu próprio tocador e eles não poderiam estar separados. Assim, são feitos os sistemas atualmente.

- 65 –

Módulo 17 – Confiabilidade A preocupação com a confiabilidade dos equipamentos surgiu, inicialmente, na indústria aeronáutica e logo se estendeu para outros segmentos que também priorizam e dependem do bom funcionamento dos sistemas. EAI e Middleware – Integração e compatibilidade A grande maioria das empresas conta com um ambiente de TI heterogêneo, composto por diferentes plataformas e sistemas. A necessidade de integrar aplicações de uso interno, e também com as de outras empresas que fazem parte da cadeia de negócios, tem aumentado nos últimos anos, impulsionada pelo crescimento das operações Internet. Também houve um aumento dos processos de fusões e aquisições de companhias, obrigando-as igualmente a enfrentar a dificuldade de integrar vários equipamentos e soluções diversas. Diante desse quadro, vem se desenvolvendo um novo e promissor mercado para as ferramentas EAI - Enterprise Application Integration. São soluções que contemplam a integração de aplicações corporativas e um conjunto de ferramentas e tecnologias, permitindo o compartilhamento de processos e dados e a comunicação entre plataformas distintas. Numa mesma organização, mainframes, servidores Unix, servidores NT e estações de trabalho, de diferentes fabricantes e de gerações diversas constituem uma base tecnológica valiosa, mas seu real benefício reside na capacidade desses diferentes sistemas "conversarem" entre si e com os sistemas de outras empresas, parceiras de negócios. Mas essa tarefa, em geral, apresenta um alto grau de dificuldade. No entanto, com a utilização de ferramentas EAI, sistemas estanques podem ser conectados a um único servidor de integração, empregando um processo capaz de ser repetido inúmeras vezes. Nesse sentido, para acrescentar uma nova tecnologia ou software basta reproduzir o procedimento e conectar tudo ao servidor que controla os processos. Dessa maneira, todos os aplicativos podem se comunicar entre si e trocar dados utilizando, para isso, o servidor de integração. Para escolher a solução de EAI mais adequada, as empresas devem, inicialmente, compreender seus processos de negócios e seus dados para selecionar o que de fato requer uma integração. Esse processo de escolha pode ser visto sob quatro dimensões: nível de dados, nível de interface de aplicações, nível de métodos e nível de interface dos usuários. Dimensões do EAI O nível de dados do EAI é composto pelos processos, técnicas e tecnologias que permitem mover e transportar dados entre diferentes fontes e destinos e, eventualmente, atualizar os dados, mantendo sua integridade. - 66 –

Dessa forma, é possível mover a informação entre diferentes bancos de dados a um custo relativamente baixo. Os chamados Message Brokers permitem a construção de scripts contendo regras para extrair, transformar, traduzir, combinar, reformar e replicar os dados de uma ou mais base, compatibilizando-os e transportando-os para uma aplicação ou base target, de acordo com o formato exigido por ela. Outra dimensão do EAI é o nível de interface de aplicação que, como o nome já diz, permite a utilização de interfaces por meio das quais os desenvolvedores podem empacotar muitas aplicações, permitindo o compartilhamento lógico e de informações. Exemplos desse tipo de EAI podem ser aplicados a pacotes de sistemas de gestão integrada (ERP), como os da SAP, PeopleSoft e Baan. Para integrar os sistemas corporativos, é necessário o emprego dessas interfaces que permitem acessar tanto os dados, quanto os processos, extraindo informações, substituindo dados, colocando no formato adequado para a aplicação destino e transmitindo. Outras tecnologias, como as de message brokers, também podem fazer isso. O nível de métodos de EAI refere-se ao compartilhamento de lógica de negócios. O seu emprego permite, por exemplo, acessar o método de atualização do registro de um consumidor a partir de um grande número de aplicações, sem haver necessidade de reescrever um método para cada aplicação. O mecanismo de compartilhamento de métodos pelas aplicações inclui objetos distribuídos, servidores de aplicação, monitores de transação ou uma aplicação única que combina a ação de outras duas. E finalmente o nível de interface para o usuário possibilita aos desenvolvedores estabelecer um ponto comum de integração para os usuários. Com isso, as aplicações que foram escritas para o ambiente mainframe podem ser exibidas de forma visual para o usuário de outras plataformas. O EAI não é homogêneo e oferece uma gama variada de opções e ferramentas. Além disso, os produtos, em geral, não fornecem uma solução acabada. Basicamente, há dois tipos de ferramentas. O primeiro tem o foco voltado para o compartilhamento de dados, permitindo a extração e a transformação de informações que podem ser intercambiáveis entre os pacotes ERP e outras aplicações. O segundo tipo de ferramenta confia nos recursos de entrega de mensagens para suportar o compartilhamento direto de dados entre programas, sem a necessidade de utilizar um arquivo ou um banco de dados intermediário. A tecnologia de integração é importante, na medida em que permite às companhias não perder o valor do investimento já realizado em sistemas legados, além de poderem agregar rapidamente novos software a um custo inferior e integrar sistemas diferentes. Além do EAI, direcionado para modelar e automatizar os processos comerciais de uma empresa, o mercado de integração conta também com soluções classificadas como B2Bi (business-to-business integration), que possibilitam à empresa integrar seus sistemas aos de seus parceiros de negócios. - 67 –

Embora à primeira vista as ferramentas EAI e B2Bi possam parecer idênticas, existem algumas diferenças fundamentais, entre as quais o nível de segurança oferecido – as B2Bi respondem às exigências de segurança muito mais severas. O importante é saber se o foco do cliente está na integração interna ou na externa, para então avaliar os produtos nesses contextos. O recomendável é que o primeiro foco seja a integração interna de aplicativos e sistemas, para definir e institucionalizar os processos comerciais. Após esse problema ser solucionado, podese então partir para a integração com os sistemas externos (de parceiros de negócios). Middleware O mercado abriga também as soluções classificadas como middleware, mais limitadas que as EAI, e que facilitam a integração de aplicações individuais, permitindo também discretas transações entre elas. Em sentido amplo, ele designa um software que promove a comunicação e a interoperabilidade entre outros software. Em geral, os middleware tradicionais exigem alterações significativas nos sistema de origem e de destino, o que resulta na agregação da camada de middleware na aplicação ou no depósito de dados. Por exemplo, para integrar um sistema de contabilidade que roda sob o Windows 2000 com um sistema de patrimônio que roda no mainframe, deve-se selecionar o produto de middleware de filas de mensagens de forma a permitir aos sistemas compartilhar informações. Para isso, provavelmente será necessário alterar o sistema fonte (origem dos dados) e o sistema destino (destino dos dados) para fazer uso do middleware. Isso precisa ser feito porque a camada de middleware provê apenas uma interface, uma ligação, e os programas devem ser alterados para acomodar o middleware, o que implica alto custo e alto risco. O middleware pode ser classificado como uma das partes mais importantes do ambiente cliente-servidor. Da menor rede local (LAN) até o maior sistema distribuído, todos igualmente utilizam alguma solução middleware. Na verdade, sempre que uma máquina cliente envia uma requisição para o servidor, ou sempre que algum aplicativo carrega dados de um banco de dados, está presente alguma forma de middleware, cuja função é a de aplainar incompatibilidades em potencial entre protocolos de comunicação, linguagens de consulta a banco de dados, lógica de aplicativos e sistemas operacionais de nível básico. O middleware pode ser classificado como uma das partes mais importantes do ambiente cliente-servidor. Da menor rede local (LAN) até o maior sistema distribuído, todos igualmente utilizam alguma solução middleware.

- 68 –

Na verdade, sempre que uma máquina cliente envia uma requisição para o servidor, ou sempre que algum aplicativo carrega dados de um banco de dados, está presente alguma forma de middleware, cuja função é a de aplainar incompatibilidades em potencial entre protocolos de comunicação, linguagens de consulta a banco de dados, lógica de aplicativos e sistemas operacionais de nível básico. A parte do aplicativo cliente/servidor que procura por esses dados precisa acessar um sistema de middleware que localizará a fonte ou o serviço de dados independentemente de onde resida, transmitirá a requisição do aplicativo, reempacotará a resposta e a retransmitirá de volta ao aplicativo. O middleware é responsável por assegurar que o aplicativo e suas fontes de dados se comuniquem de forma rápida, eficiente e eficaz, independente de qual sistema operacional, protocolo de comunicação ou sistema de banco de dados esteja sendo acessado. A compra de um middleware requer um entendimento fundamental dos problemas e processos empresariais nos quais deve auxiliar. Também é preciso fazer uma análise dos diferentes produtos disponíveis no mercado para verificar os benefícios relativos. A maioria dos fornecedores de middleware recomenda que os usuários comecem pelo aspecto empresarial antes de atacar as questões tecnológicas para a escolha da solução. Na verdade, o termo middleware nem sempre é muito claro. Pode ser entendido como um sistema de componentes que proporciona a transferência de dados ou o acesso em tempo real por meio de sistemas heterogêneos não ativos. Ou seja, como um conjunto de tradutores universais e locadores de dados que permitem ao usuário trabalhar em qualquer plataforma para localizar, acessar, manipular e mover dados por toda a empresa sem precisar entender ou estar preocupado com a complexidade dos sistemas de informações organizacionais e suas redes. Web services e SOA Outro elemento foi agregado ao arsenal de tecnologias de integração. Ele é mais fácil de usar, tem custo menor e não interfere tanto nos sistemas existentes. É o Web Service. É um conjunto de aplicações Web. Estas são auto-contidas, auto-descritas e modulares e podem ser publicadas, localizadas e utilizadas pela Web. Os Web Services podem executar funções simples ou processos complicados de negócio. Vários são seus componentes. Entre eles se destacam: SOAP, para o transporte das mensagens, UDDI, o diretório de serviço de Web Services, WSDL, que mostra as características de um Web Service e o XLANG/XAML, que dá suporte a transações complexas pela web. Sua utilização em larga escala levou a uma nova arquitetura de sistemas, o SOA (Service Oriented Architeture). O SOA é uma arquitetura cujo objetivo é manter agentes de software interagindo entre si. Um serviço é uma unidade de trabalho feita por um provedor de serviço para atingir um resultado desejado por um consumidor de serviço. - 69 –

Ambos, o consumidor e o provedor de serviço são papéis encenados por agentes de software. Para não tornar tudo muito abstrato, veja o seguinte exemplo. Um CD e um tocador de CD. O tocador de CD oferece o serviço de tocar CD, o que é muito bom, pois você pode trocar o player sempre que desejar e continuar a tocar CDs. Você pode tocar o CD em um aparelho portátil ou em um aparelho com saídas surround. Ambos tocam, mas a qualidade do serviço oferecido é diferente. A idéia do SOA muda significantemente a programação orientada a objeto, a qual sugeria que você deveria ligar os dados e seu processamento. Assim, um estilo de programação orientada a objeto era como se cada CD devesse ter o seu próprio tocador e eles não poderiam estar separados. Assim, são feitos os sistemas atualmente.

- 70 –

Módulo 18 – Tendências As facilidades e agilidade propiciadas pela Internet convidam as empresas a cada vez mais utilizarem esse canal para se relacionarem com fornecedores, distribuidores, clientes e parceiros de negócios. Com isso, aumentam as preocupações e os investimentos Confiabilidade A preocupação com a confiabilidade dos equipamentos começou na indústria aeronáutica, por volta da década de 50, em conseqüência do aumento da frota de aeronaves comerciais. Era imprescindível desenvolver técnicas para garantir a segurança dos passageiros e da tripulação, uma vez que um avião não tem como parar no acostamento, caso o motor sofra uma pane em pleno vôo. Também os instrumentos que monitoram o espaço e o tráfego aéreo precisavam estar disponíveis ininterruptamente no sentido de evitar colisões das naves e orientálas para decolagens e aterrissagens. Por isso, sempre houve muito rigor nesse segmento, tanto para a confecção, como para a manutenção das aeronaves e instrumentos afins de forma a reduzir ao máximo possível os riscos de falhas. Posteriormente, outros segmentos de indústria como os da área nuclear, químicas e petroquímicas, siderúrgicas, geradoras e distribuidoras de energia, entre outras em que um mau funcionamento das máquinas coloca em risco vidas humanas também passaram a se preocupar com a confiabilidade. Empresas de todos os tipos e portes também têm essa preocupação, uma vez que estão cada vez mais dependentes da tecnologia. Confiabilidade é definida como a probabilidade de um sistema ou equipamento executar sua função de maneira satisfatória dentro de um intervalo de tempo e operando conforme certas condições. O fator de probabilidade está relacionado ao número de vezes que o sistema opera adequadamente. Por exemplo, uma probabilidade de 95% significa que, na média, o sistema irá funcionar adequadamente em 95 vezes das 100 vezes que executar aquela função. Tecnologia da Informação No que se refere aos sistemas computacionais, a confiabilidade está intimamente relacionada aos conceitos de tolerância a falhas e alta disponibilidade, tanto de hardware como de software e redes.

- 71 –

Na verdade, três elementos são considerados indispensáveis, principalmente para a criação de um ambiente de TI de missão crítica: confiabilidade, disponibilidade e utilidade/ resistência – também conhecidos pela sigla RAS do inglês Reliability, Availability e Serviceability. Na teoria, um produto com alta confiabilidade é totalmente livre de falhas técnicas mas, na prática, no entanto, a confiabilidade é medida em porcentagem de tempo em que o sistema permanece disponível. Em geral, os PCs domésticos apresentam disponibilidade de 99% , ou seja, podem falhar, em média, 3,5 dias por ano. Os equipamentos de alta disponibilidade utilizados nas empresas apresentam índices mais elevados, que variam de 99,9% (podem falhar 8,5 horas por ano) a 99,99% (falham 1 hora por ano), e os tolerantes a falha contam com um uptime de 99,999% (podem falhar 5 minutos em um ano). Em geral, os sistemas que estão há mais tempo no mercado, ou seja, que apresentaram várias versões durante um período de tempo, são considerados confiáveis uma vez que normalmente os bugs presentes em versões anteriores foram eliminados nas versões mais novas. Sistemas distribuídos Os sistemas distribuídos, compostos por várias máquinas interligadas por redes, apresentam maiores dificuldades para assegurar a confiabilidade quando comparados aos sistemas centralizados. Nestes últimos, a confiabilidade depende de uma única máquina – o mainframe – já construída sob esse prisma e que, em geral, é monitorada e mantida por pessoal especializado. No modelo cliente-servidor, a confiabilidade e a distribuição andam de mãos dadas, o que requer maior rigor e atenção no que se refere ao gerenciamento e monitoramento em todos os pontos da rede. Apesar de todos os cuidados que se possa ter, não há como evitar que uma máquina falhe. Mas é possível fazer com que essa falha não comprometa a continuidade das operações da empresa. Emprego de máquinas tolerantes a falhas, clustering, replicação de dados, sites de backup, planos de contingência e políticas de auditoria e segurança são elementos que precisam ser enraizados na cultura tecnológica das empresas na proporção em que estas dependem de TI para sua sobrevivência no mundo dos negócios. Também se faz necessária a adoção de alguns procedimentos para assegurar o bom funcionamento dos sistemas. Um deles refere-se à manutenção periódica não apenas do hardware, como também do software e dos nobreaks. São comuns os contratos de manutenção firmados com os fornecedores que asseguram a realização de upgrades (atualizações) automáticos. Os ambientes de TI também costumam passar por modificações e atualizações, seja no aumento do número de usuários, ampliação da memória e da capacidade de processamento, ou mesmo na adoção das novas versões de software. É importante que essas mudanças sejam feitas por pessoal especializado e que seja mantida uma documentação atualizada de todos os sistemas. - 72 –

Sign up to vote on this title
UsefulNot useful