Professional Documents
Culture Documents
Que prejuízos uma instituição bancária poderia ter caso uma pane em seus sistemas
apagasse por completo as informações sobre seus correntistas? E se um provedor de
acesso à Internet ficasse fora do ar durante 24 horas, que impactos causaria nos
seus usuários e quais perdas poderia sofrer? E os sites de vendas online, como o
brasileiro Submarino. O que aconteceria com a empresa, que depende dele para ter
o seu faturamento, se o site não suportasse o acesso dos compradores? E uma
operadora de telefonia que tivesse de enfrentar uma parada nas suas centrais, como
conseguiria registrar o custo das chamadas feitas pelos seus assinantes?
Todas elas poderiam amargar um prejuízo de milhões de reais, além de ter sua
imagem e credibilidade fortemente abaladas. Esses são alguns exemplos de
empresas que não podem prescindir de um ambiente de missão crítica, ou seja, de
uma infra-estrutura tecnológica projetada especificamente para evitar que qualquer
falha em alguns dos sistemas chegue a comprometer a continuidade do
funcionamento das operações e possa ser rapidamente solucionada.
-1–
Opções válidas
A infra-estrutura de TI adequada
Por mais qualidade que se imponha aos equipamentos e por maior que seja a
robustez aplicada ao software básico ou à qualidade na metodologia de
desenvolvimento de aplicativos, os sistemas falham. Uma pesquisa realizada pelo
Gartner Group revelou que, em média, 40% dos casos de paralisação nas operações
das empresas (também chamado de downtime) são causados por falhas em
aplicações (questões de desempenho ou bugs), 40% por erros de operação e cerca
de 20% por falhas em sistemas. No caso dos sistemas, 60% das falhas são causadas
por problemas com hardware e menos de 5% dos danos se devem a desastres. O
fator humano também é preponderante no que se refere a falhas, indo desde um
simples tropeço no fio em que está ligada a máquina à fonte de energia, até um
comando errado.
-2–
Dependendo do segmento de atuação da empresa, falhas nos sistemas podem
causar prejuízos muito significativos. É o que comprovou outra pesquisa, realizada
pela consultoria norte-americana Eagle Rock Alliance com 163 empresas com
faturamentos anuais que variam de US$ 10 milhões a US$ 5 bilhões. O estudo
demonstrou que 46% dos entrevistados afirmaram que cada hora de paralisação das
operações custa para a companhia mais de US$ 50 mil. Para 28% delas, uma hora
de downtime varia de US$ 51 mil a US$ 250 mil, e para 18% delas, algo entre US$
251 mil e US$ 1 milhão. Para uma empresa saber se precisa de um ambiente mais
ou menos crítico, ela deve avaliar quanto perderia por hora se seus sistemas
ficassem inoperantes. Se ela pode tolerar algumas horas de paralisação, não precisa
de uma infra-estrutura tão crítica.
Confiabilidade
Segurança
-3–
Escalabilidade
Disponibilidade
Interoperabilidade
-4–
Módulo 2 – Segurança
A questão da segurança
Desde o atentado terrorista que destruiu as torres gêmeas em Nova York, nos
Estados Unidos, em 11 de setembro de 2001, o mundo não é mais o mesmo. O
incidente serviu especialmente para reavivar no setor corporativo a necessidade do
estabelecimento de uma política de segurança eficaz, que não contemple apenas
medidas internas de proteção, mas também a viabilidade de contar com uma outra
unidade. Esta, existente em outro local, própria ou de terceiros, permitirá a
continuidade das operações nos casos de acidentes graves como o ocorrido nos
Estados Unidos, ou mesmo incêndios, terremotos e outros problemas capazes de
abalar seriamente ou destruir as instalações físicas das empresas.
-5–
A ameaça à segurança cresceu sobretudo a partir da segunda metade da década de
80, devido à proliferação do uso de redes corporativas. Os executivos finalmente se
convenceram de que precisavam estipular uma política interna mais severa referente
ao tratamento da informação. Em paralelo, as software houses começaram a
oferecer ao mercado soluções para controle de acesso aos dados. Um dos mais
importantes recursos que passou a ser empregado pelas corporações foi a
criptografia – uma maneira de transformar os dados para que não sejam lidos por
alguém que não tenha uma chave secreta para decodificá-los.
Outros recursos
-6–
Atualmente, a segurança é um assunto levado a sério pelas corporações. No entanto,
uma política de proteção não pode ser efetivada da noite para o dia e nem existe
uma fórmula padrão que sirva para todas as empresas. É preciso, inicialmente, fazer
uma análise interna e determinar o que é vital para a companhia, quais são os
maiores riscos e vulnerabilidades de seus sistemas, quais cuidados básicos devem
ser tomados e quais ferramentas de hardware e software mostram-se mais
apropriadas para proteger a empresa em todos os sentidos. Outro aspecto a ser
considerado é que um plano de segurança não pode ser rígido, ou seja, precisa ser
flexível e dinâmico para suportar as necessidades que surgirem em virtude da
velocidade de mudança de fatores físicos, tecnológicos e humanos.
Novas ameaças virtuais estão no mercado. A mais nova moda são os SPAMs (e-mails
não solicitados) e os SPIMs (SPAM por Instant Messenger). Apesar de não serem
consideradas como problemas de segurança por alguns, Os SPAMs e SPIMs
consomem recursos e diminuem a produtividade dos colaboradores de uma empresa.
Já os Phishings são e-mails enviados por estelionatários para consumidores e
empresas no intuito de conseguir informações privilegiadas sobre a vítima, emulando
sites reais. Além disso, novas formas de comunicação, como a sem fio, levam a
outros problemas de segurança que começam a ser tratados pelos especialistas e
pelas empresas.
-7–
Uso de geradores, equipamentos de UPS (Uninterruptible Power Supply) e nobreaks
bem configurados e monitorados constantemente para suportar um período razoável
de falta de energia, links duplicados, e caminhos alternativos entre localidades de
contingência são algumas das alternativas válidas. Também é recomendável que
sejam traçados planos de contingência capazes de cobrir paradas nos fornecedores e
parceiros de negócios que são estratégicos para a companhia.
Depois dos atentados terroristas nos Estados um idos, muitas empresas passaram a
considerar ainda a importância de terem outra unidade em um local distante e que
tenha condições de assumir as operações, no caso de ocorrer um acidente que
destrua ou danifique seriamente a estrutura física da sua base operacional. Nesse
aspecto, a instalação de um site de backup num data center constitui uma
alternativa interessante e que já está sendo adotada por muitas companhias. O
assunto será abordado de forma mais abrangente no próximo módulo.
-8–
Módulo 3 – Sites alternativos
Da parte dos clientes empresariais, as grandes corporações são as que mais apostam
nessa alternativa. São empresas que possuem grandes CPDs e utilizam o data center
para contingência, backup e algumas operações específicas como e-business e
correio eletrônico. Os analistas de mercado acreditam que a tendência para os
próximos anos é que um maior número de empresas decida terceirizar parcialmente
ou totalmente suas áreas de TI. Não apenas como opção de segurança, no caso de
um desastre (incêndio, enchente, explosão, atentados etc), o que lhes permitiria a
continuidade de suas operações, mas também como proteção contra a obsolescência
dos equipamentos e sistemas.
-9–
Principais players
Nesse sentido, os bureaus, agora intitulados IDCs (Internet Data Centers) tiveram de
mudar rapidamente o foco e ampliar a carteira de produtos, não se limitando a
apenas oferecer a hospedagem de sites, mas também outsourcing de TI e outros
serviços de alto valor agregado. No rol de antigos bureaus, que evoluíram para IDCs
figuram empresas como Datamec/Unisys, EDS e IBM.
A disputa por uma fatia desse segmento ficou mais acirrada com a entrada das
operadoras de telecomunicações que possuem maior solidez financeira e
capilaridade, podendo oferecer aos clientes maior confiabilidade e pacotes de
serviços mais abrangentes e baratos.Entre as que estão investindo nesse segmento
incluem-se a Tnext (da Telemar), TIC (Telefônica), Brasil Telecom, Intelig e
Embratel. Reforçam o time dos IDCs as chamadas pure players, e as empresas
prestadoras de serviços de comunicação de rede e satélite. Além disso, empresas
sem tradição nesse ramo, mas com necessidades particulares para atender o setor
corporativo com a HP, compraram IDCs para oferecerem serviços em todos os
espectros da terceirização.
- 10 –
Leque de serviços
Shared Hosting
Dedicated Hosting
Colocation
nessa modalidade, o cliente aluga um espaço físico no data center e utiliza a sua
infra-estrutura de comunicação e energia. Os equipamentos e o gerenciamento das
operações são do cliente.
Dedication
Outsourcing
- 11 –
Outras vantagens oferecidas pela terceirização, além da segurança, suporte 24 X7
(24 horas, sete dias por semana), atualização constante de equipamentos e
sistemas, e consultoria, incluem-se facilidades de conectividade, integração de rede
e gerenciamento do storage (dados). Esses e demais serviços costumam ser
assegurados pelos acordos SLA (Service Level Agreement – acordos de níveis de
serviço) – contratos que se caracterizam por serem bem mais detalhados do que os
convencionais, na medida em que especificam, por escrito, todos os serviços
contratados e as penalidades previstas para o não cumprimento das cláusulas
acordadas entre as partes.
- 12 –
Módulo 4 – Arquitetura de 64 bits
O ambiente de tecnologia corporativo não pode ser definido apenas sob o ponto de
vista técnico, mas também como uma infra-estrutura fundamental que permitirá à
companhia se manter competitiva num mercado em constante evolução. Nesse
sentido, qual tecnologia empregar é uma decisão da alta direção, mas sem prescindir
do aval e comprometimento do gestor de TI. Fatores como escalabilidade,
disponibilidade, desempenho, segurança e custo de propriedade devem ser
considerados nesse processo de decisão.
Não é tarefa fácil decidir pela tecnologia a ser adotada, em virtude da grande
velocidade com que as inovações são lançadas, do grande apelo dos fornecedores de
sistemas, e das novas necessidades das empresas que enfrentam o desafio de lidar
com o crescente aumento da quantidade de dados e informações decorrentes do uso
cada vez mais intenso da Internet. Hoje, todos os setores empresariais precisam
compreender claramente o potencial e os riscos da economia digital e decidir qual
caminho seguir a curto, médio e longo prazos.
Evolução da tecnologia
- 13 –
Uma nova mudança, e causadora de verdadeira revolução, viria com a criação dos
primeiros processadores 386, baseados no conjunto de instruções IA32 (32 bits). Ele
representava um método mais sofisticado do que os 286 para execução de múltiplos
programas (multitarefa) no ambiente DOS, graças aos avanços no gerenciamento de
memória. A partir daí, as evoluções foram constantes.
- 14 –
Hoje, praticamente nenhum processador segue totalmente uma das duas filosofias.
Tanto os processadores da família x86, como os processadores Intel® Pentium II,
Intel® Pentium III, Intel® Pentium® 4, na verdade misturam características das
duas arquiteturas por uma questão de performance. A complexidade da lógica dos
processadores continuou crescendo geometricamente, mas apesar disso estima-se
que as arquiteturas atuais, baseadas no conjunto de instruções IA32 (32 bits), já
chegaram no limite, impossibilitando maiores evoluções no desempenho dos
equipamentos.
Nova arquitetura
Na verdade, o EPIC não pode ser classificado como uma simples evolução da
arquitetura de 32 bits da Intel, mas sim como uma arquitetura totalmente nova, que
se caracteriza pela capacidade de endereçamento de 64 bits, permitindo acesso a
uma memória virtualmente ilimitada, restrita apenas pela tecnologia de memória
física. Outro diferencial é o seu alto grau de paralelismo na execução de instruções.
Testes independentes comprovaram que os sistemas baseados no processador
Itanium e Itanium-2 podem oferecer uma melhoria de desempenho de até 12 vezes
em comparação aos designs RISC proprietários, para transações de segurança
online.
- 15 –
Muitos fabricantes de servidores e PCs, entre os quais se incluem HP/Compaq, IBM e
Dell já estão desenvolvendo novas linhas de produtos baseados na família de
processadores de 64 bits. Quatro sistemas operacionais suportarão esse ambiente:
Microsoft Windows (64 bit Edition para workstations, e 64 bit Windows Advanced
Server Limited Edition, para servidores); HP-UX da Hewlett Packard; AIXda IBM; e
Linux.
Foi em julho de 2002 que a Intel iniciou a distribuição comercial da segunda versão
do Itanium ®, chamada de Itanium 2, e um ano depois, em julho de 2003,
incrementou a família de processadores de 64 bits com o Madison, a terceira geração
do Itanium, que posteriormente deverá ser continuada com os até agora batizados
de Deerfield e Montecito.
- 16 –
Combinado com o amplo suporte do setor de TI, o design inovador do processador
Itanium 2 garante aos usuários corporativos os históricos benefícios das arquiteturas
RISC - nível de desempenho para o mercado corporativo, confiabilidade e
escalabilidade – com uma vasta margem de escolha de fornecedores, sistemas
operacionais e aplicações de software.
É muito difícil fazer previsões sobre qual modelo irá predominar ou o que ocorrerá no
mercado no futuro próximo. Existem projetos em fase de desenvolvimento e muita
coisa pode mudar. De certo, apenas, segundo avaliam os consultores e analistas de
mercado, é que em algum momento desta década deverão deixar de ser fabricados
os sistemas baseados em RISC, e os sistemas de 64 bits começarão a se tornar
commodities.
- 17 –
Módulo 5 – Roadmap
Até o início dos anos 80, a tecnologia das redes ainda era assunto para um seleto
grupo de técnicos. Aos poucos, os mainframes e supercomputadores foram
substituídos por PCs em redes locais, no processo que ficou conhecido como
downsizing. O modelo cliente-servidor começava a se firmar nas empresas,
permitindo aos usuários finais maior intimidade com a informática. Com a
proliferação dos microcomputadores, que substituíram os antigos terminais “burros”,
os usuários começaram a descobrir que o equipamento permitia o acesso a uma
série de novos recursos do que o simples trabalho stand alone.
- 18 –
Novas tecnologias
Hoje, o desafio das corporações é muito grande. Já não é possível, como no passado,
delegar unicamente à área de TI (Tecnologia da Informação) a tarefa de escolher
novos equipamentos e soluções. Não se trata mais de uma questão puramente
tecnológica, mas de negócios. O cenário em que as empresas nasceram e cresceram
mudou radicalmente e continua em transformação. Internet, wirelles, e-business,
uso extenso de banda larga, ferramentas de Business Intelligence, data warehouse,
e uma série de outras soluções e tecnologias obrigam as empresas a reavaliar seus
modelos organizacionais.
- 19 –
Para suportar toda a carga de dados e informações que se multiplica a cada dia, as
corporações precisam saber planejar o crescimento da sua infra-estrutura, sem
prescindir da atualização das documentações dos novos processos, assim como
reforçar os critérios de segurança e de backup. É fundamental a construção de uma
infra-estrutura confiável de hardware, software e manutenção, de maneira que
permita à empresa preservar as suas operações com o menor risco de falha e de
indisponibilidade.
- 20 –
Módulo 6 – Hardware: servidores
Hardware: servidores
Nesse sentido, pode ser utilizado como servidor uma máquina de menor capacidade,
como por exemplo um Pentium IV monoprocessado (com apenas um processador),
ou máquinas mais sofisticadas que comportam de 1 a 128 processadores, como os
computadores baseados em tecnologia Intel, e de 1 a 256 processadores, como as
máquinas baseadas em arquitetura RISC, como as fabricadas pela HP, IBM e Sun,
entre outras.
- 21 –
De outra parte, os servidores não dedicados são máquinas que podem ser utilizadas,
simultaneamente, como servidoras da rede e como uma estação de trabalho. Em
uma rede local (também chamada de LAN – Local Área Network – formada por
equipamentos conectados entre si operando em curtas distâncias) do tipo peer-to-
peer (ponto a ponto), cada computador tem condição de compartilhar recursos com
os demais. Nesse sentido, um micro operado pelo funcionário X funciona como uma
estação de trabalho normal, mas também pode ser o servidor da impressora,
autorizando os serviços de impressão para todos os funcionários daquele
departamento.
Outro micro, operado pela funcionária Y também serve como ponto central de
armazenamento dos arquivos na rede. Um terceiro computador, operado pelo
funcionário Z, pode disponibilizar para todos os demais o único DVD-ROM da rede, e
finalmente o funcionário W opera o micro em que está instalado o modem que
permite a todos a conexão à Internet. Todos esses quatro micros são servidores,
respectivamente, de impressão, de arquivos, de DVD-ROM e de Internet, mas ao
mesmo tempo são usados como estações de trabalho.
A vantagem oferecida por esses servidores não dedicados é que as máquinas podem
ser melhores utilizadas. O ponto negativo é a necessidade de manter as máquinas
ligadas, mesmo se os respectivos operadores não as estiverem utilizando, de forma a
permitir que os seus recursos estejam disponíveis para os demais usuários. Outra
desvantagem é que com essa configuração todo o sistema fica mais vulnerável.
Em redes mais antigas era comum o emprego de servidores de disco como forma de
reduzir custos. Nesses casos, as estações de trabalho não possuíam discos rígidos,
mas acessavam o disco rígido do servidor, que era disponibilizado por meio da rede.
Nesse tipo de rede, eram instaladas placas com chips de boot nas estações. Nos
chips de memória EPROM, ficavam armazenadas todas as informações necessárias
para inicializar cada micro, possibilitando seu acesso ao disco rígido do servidor e, a
partir disso, carregar o sistema operacional e os programas aplicativos.
- 22 –
Atualmente, o modelo mais utilizado pelas empresas de pequeno e médio portes é o
de servidor de arquivo e impressão. A diferença em relação ao modelo anterior é
que, neste, cada estação deve ter seu próprio disco rígido, onde está instado o
sistema operacional. Essas máquinas apenas acessam o servidor para buscar
arquivos. Outros tipos de servidores dedicados e bastante utilizados pelas empresas
são o de banco de dados e o de Proxy para acesso à Internet.
O modelo cliente-servidor
Em geral, há dois ou mais servidores, de forma que se houver algum problema com
uma das máquinas, a outra imediatamente assume as funções, assegurando a
continuidade das operações. De acordo com os analistas de mercado, mais de 75%
dos ambientes de TI corporativo seguem o modelo cliente-servidor e em cluster.
Entre os fatores que são considerados para a escolha de um servidor um dos mais
importantes é a escalabilidade.
- 23 –
Novas tecnologias de servidores e a consolidação das áreas e dos recursos de TI nas
empresas têm agitado o mercado. Servidores blades, onde vários podem ser
colocados lado a lado, permitem processar centenas de mlihares de transações por
segundo. Um servidor blade é um conceito que pode ser resumido como um servidor
completo em uma placa, que se conecta a um chassi comum e compartilha o
cabeamento, a energia, o resfriamento e o acesso à rede com seis ou mais outros
servidores blade. A vantagem é que essa solução promete menores custos, maior
confiabilidade, menores exigências de espaço e gerenciamento mais fácil do que os
servidores independentes, com praticamente o mesmo poder computacional.
- 24 –
Módulo 7 – Hardware: PCs
Hardware: PCs
A história do PC
Ainda existem muitas controvérsias sobre quando e como teria surgido o primeiro PC
de uso comercial, mas os registros históricos levam a crer que tudo começou no
início da década de 70, quando um jovem engenheiro elétrico, H.Edward Roberts,
abandonou a carreira militar, nos EUA, para se dedicar ao desenvolvimento de kits
de calculadoras, produzidos pela sua empresa MITS -Micro Instrumentation and
Telemetry Systems, instalada na cidade de Albuquerque (Novo México, EUA).
- 25 –
A concorrência acirrada de outras empresas nesse mercado e, especialmente da
Texas Instruments, no entanto, o fizeram investir numa outra direção: a criação de
kits que permitissem a qualquer pessoa com conhecimentos de eletrônica construir
seu próprio computador pessoal. Antes disso, já estavam em processo outras
iniciativas, como a da Digital Equipament Corporation (DEC), que em 1962 já
trabalhava com minicomputadores e chegou a montar um protótipo ainda menor,
equipado com teclado, um drive para fita cassete e um mostrador. Mas o
equipamento não passou de um experimento, assim como outros pequenos
computadores idealizados, na época, pelos engenheiros de empresas como IBM e
Xerox, entre outras.
A grande chance da MITS ocorreu em 1975, quando uma reportagem publicada pela
revista Popular Electronics salientava que o produto, já batizado de Altair, era o
primeiro kit de minicomputador do mundo a rivalizar com os modelos comerciais. Em
apenas uma tarde, a empresa recebeu 400 pedidos e comercializou 4 mil unidades
nos três meses subseqüentes. O problema é que o Altair ainda estava longe de ser o
"computador pessoal" como hoje o conhecemos. Não tinha teclado, nem monitor,
não podia ser programado por software e dispunha de apenas 256 bits de memória.
O Altair era mais voltado aos adeptos da eletrônica e que se reuniam para trocar
informações técnicas e se ajudarem uns aos outros. Desses grupos surgiram
empresas como a Digital Research, Kentucky Fried Computers (mais tarde
incorporada à North Star) e Itty Bitty Machine Company, que começaram a
disponibilizar uma série de componentes como placas, software e periféricos. Apesar
de ter levado algum tempo até a MITS passar a desenvolver programas e acessórios
para o Altair, a empresa chegou a desfrutar de um relativo sucesso com o
equipamento que serviu de inspiração e incentivou outros fabricantes a investirem no
desenvolvimento de computadores pessoais.
O lançamento causou alvoroço por ser uma síntese dos melhores recursos que a
indústria de microinformática oferecia na época, e ainda incorporava novidades
importantes, como o sistema operacional PC-DOS 1.0, desenvolvido pela Microsoft
em parceria com a IBM, a instalação do CP/M 86 e de linguagens de programação
como o MS Basic, VisiCalc, UCSD Pascal, entre outros programas de uso comercial.
- 26 –
Visando a consolidação no mercado, a IBM firmou parceria com uma série de
software houses e com programadores para o desenvolvimento de aplicativos
específicos. Com o lançamento do IBM PC, a própria Big Blue começava a apostar
nos sistemas de arquitetura aberta, possibilitando a outros fabricantes a produção de
placas, periféricos e programas, contribuindo para a popularidade do equipamento.
Um ano após o lançamento do IBM PC foram comercializadas 1,6 milhão de
máquinas.
Tempos modernos
Daquela época aos dias atuais, muita coisa mudou e em curto espaço de tempo. O
avanço tecnológico possibilitou a criação de computadores mais ágeis e de diferentes
capacidades e portes. Hoje, os PCs são, grosso modo, classificados em três
categorias: high-end, midrange e low-end. Os equipamentos high-end são
geralmente munidos de 1 a 2 processadores, com memória de até 8 GB e placas
gráficas, sendo voltados para rodar aplicações críticas. Os grandes usuários desse
tipo de equipamento são as indústrias dos setores automobilístico, aeroespacial,
naval e petrolífero, em que é primordial o uso de estações com grande capacidade de
rodar aplicações gráficas como os CAD/CAE/CAM (Computer Aided Design/ Computer
Aided Engineer/ Computer Aided Manufacturing) – programas específicos para
criação de projetos de novos produtos.
Na extremidade oposta estão os PCs low-end, que são máquinas de menor porte,
geralmente equipadas com um processadores de baixa velocidade, capacidade de
memória de até 1GB e discos de 40 GB. Esses PCs são mais utilizados em pequenos
escritórios e rodam aplicativos de uso comum como processadores de texto,
planilhas eletrônicas, programas de apresentação (como o Acrobat e o Power Point,
por exemplo). Na categoria do meio estão os PCs midrange – máquinas
monoprocessadas, mas que empregam um processador mais potente (como o
Pentium IV, por exemplo) e memória de até 2 GB, utilizados em escritórios, mas
cujos usuários precisam de um equipamento mais ágil e com maior capacidade.
O sucesso alcançado por esse tipo de máquina deveu-se, em grande parte, à sua
arquitetura aberta. Os modelos de PC atuais mantêm a principal característica dos
primeiros equipamentos que é a construção modular formada por um conjunto de
componentes eletrônicos ligados entre si de forma a facilitar a manutenção e a
ampliação do hardware. Óbvio que embora conservem, em grande parte, a estrutura
do modelo original e concebido pela IBM, as máquinas atuais foram aperfeiçoadas
graças ao aumento do desempenho de alguns componentes (como os processadores
e a memória) e à assimilação de outras tecnologias, como por exemplo os recursos
multimídia.
- 27 –
Empresas de grande prestígio como Compaq ( adquirida pela HP), HP, Bull, entre
outras, desenvolveram seus modelos seguindo os padrões estabelecidos pela IBM
que resultaram nos chamados "compatíveis IBM PC". Outro tipo de computador PC é
o identificado como "clonado", produzido por empresas de pequeno porte que
compram os componentes avulsos e montam computadores de baixo preço. No setor
corporativo, as estações de trabalho mais usadas são os PCs tradicionais, geralmente
rodando sistema operacional MS-Windows 2000 Professional, XP ou Linux. Apesar de
menos comuns, também são empregados como estações de trabalho os
microcomputadores Macintosh, fabricados pela Apple, que possuem sistema
operacional robusto (MAC OS X), apresentam processador Power PC e são mais
voltados a satisfazer as necessidades de determinados setores profissionais muito
especializados, entre os quais se incluem editoras e empresas de design gráfico.
Algumas inovações juá estão no mercado de PCs. Os tablets PCs, que permitem
novas interações entre o homens e a máquina, pela escrita ou fala, e ainda o
aumento da produtividade por meio da mobilidade. Essas máquinas têm conexões
sem fio e podem ser transportadas e utilizadas em qualquer tipo de ambiente.
- 28 –
Módulo 8 – Sistemas operacionais
Os sistemas operacionais são vitais para permitir aos usuários controlar e utilizar
todos os recursos do computador. Entre os mais utilizados atualmente pelo setor
corporativo destacam-se o Windows NT, o Unix e o Linux.
DOS
Criado no final de 1981, pela Microsoft (na época, ainda era uma pequena empresa
desenvolvedora de software), o DOS foi o sistema operacional do primeiro micro
IBM-PC. Comercialmente, esse sistema operacional foi disponibilizado ao mercado de
duas formas: sob a denominação de PC-DOS, embutido nos equipamentos fabricados
pela IBM, e MS-DOS, vendido por meio da Microsoft para os demais fabricantes de
hardware compatível ao IBM-PC.
Desde o seu lançamento, o sistema teve seis versões e seis atualizações de menor
porte. A primeira versão suportava somente discos flexíveis (de 160KB) e ocupava
10 KB da RAM dos PCs que possuíam 64 KB de memória. Com o lançamento do IBM-
XT, em 1983, e o surgimento dos discos rígidos de alta capacidade, foi desenvolvida
a versão 2.0 do DOS, capaz de suportar disco rígido e diretórios. No ano seguinte,
com a chegada dos micros AT, outra versão do DOS (3.0) foi lançada para suportar o
novo drive de 1,2 MB e o utilitário RAMDISK, que possibilitava utilizar a memória que
ultrapassasse os 640 KB, que era o limite suportado pelo sistema operacional.
- 29 –
Em 1985, a atualização da versão 3.0 era disponibilizada para suportar hardware e
software das redes locais. Mas foi em 1991 que a Microsoft realizou a maior
modificação no sistema, incluindo na versão 5.0 uma interface gráfica mais
elaborada, possibilitando ao usuário carregar diversos programas na memória do
computador e ainda conseguir mudar de um para outro, sem precisar abandonar um
dos programas. A versão seguinte, a 6.0, trouxe uma série de novidades, com a
inclusão de programas licenciados de outras empresas. Em 1993, a versão 6.2 do
DOS corrigiu alguns erros da versão anterior e introduziu o comando SCANDISK para
correção de erros físicos nas unidades de disco.
Windows
- 30 –
Tanto o NT Workstation como o NT Server possuíam a mesma estrutura interna e
interface de comunicação. A diferença entre ambos referia-se aos serviços oferecidos
e voltados aos segmentos para os quais cada um deles foi desenvolvido, e ao
número de processadores suportados: o NT Server suportava até 32 processadores,
enquanto que o NT Workstation, apenas 4. Após sucessivas versões, a Microsoft
lançou em 1999 o Windows NT 5.0, que ficou conhecido comercialmente como
Windows 2000, mantendo a mesma estrutura básica do NT 4.0, diferindo pela
inclusão de serviços orientados a ambientes distribuídos e de rede.
OS/2
- 31 –
MAC OS
UNIX
Mas em 1973, o Unix foi reescrito em linguagem C, mantendo apenas uma pequena
parte do Kernel (programa que controla os recursos do computador) escrita em
linguagem Assembly, o que lhe permitiu ser utilizado em outras plataformas de
hardware. O Unix começou a se popularizar a partir de 1975, quando foi lançada a
versão V6 , a primeira disponibilizada fora dos domínios da Bell Laboratories. Nessa
época, a Universidade de Berkley (EUA) comprou os códigos-fontes do Unix,
possibilitando aos alunos realizarem modificações no sistema.
Em 1979, o Unix foi portado para máquinas Vax, da Digital, e a partir de 1992 foi
adaptado para diferentes plataformas (máquinas com tecnologia RISC), como as da
HP, Sun, IBM, DEC, entre outras. Ainda hoje, o Unix é um sistema operacional
voltado para programadores experientes. Houve um trabalho intenso, nos últimos
anos, para tornar a interface mais amigável para o usuário.
- 32 –
Linux
- 33 –
Módulo 9 – Disponibilidade
Disponibilidade
Toda essa comodidade, no entanto, nos deixa cada vez mais dependentes da
tecnologia e qualquer falha no sistema pode afetar nossas vidas de forma negativa.
Se para o usuário doméstico um provável travamento do computador representa um
transtorno, para muitas empresas uma simples falha nos sistemas pode causar
prejuízos monetários de vulto e até mesmo comprometer seriamente a sua imagem
e credibilidade.
Por isso, uma das questões mais importantes que devem ser consideradas para a
construção de um ambiente de TI é a disponibilidade dos sistemas. Grosso modo,
disponibilidade é a proporção de tempo que um sistema permanece ativo e habilitado
para uso. Quanto mais crítica for a operação desse sistema, maior terá de ser a sua
disponibilidade (uptime), ou seja, menor será seu downtime (tempo em que o
sistema fica parado por alguma falha).
Uptime e downtime
- 34 –
Bancos e instituições financeiras, atividades de comércio eletrônico, provedores de
acesso à Internet e operadoras de telecomunicações são alguns dos exemplos de
empresas que precisam dispor de um ambiente altamente confiável e cujas falhas
sejam quase que imperceptíveis aos clientes e parceiros de negócios, e que possam
ser rapidamente sanadas de forma a não comprometer a continuidade das
operações.
Nos casos em que os sistemas não podem parar em hipótese alguma porque
qualquer interrupção coloca em risco vidas humanas – como controle de tráfego
aéreo, equipamentos médicos, usinas nucleares, entre outros – são utilizados os
sistemas tolerantes a falhas (Fault Tolerance) que apresentam uptime de 99,999%,
equivalente a 5 minutos de parada em um ano. São sistemas altamente confiáveis e
que apresentam chances mínimas de defeito. No entanto, é preciso considerar que
nada é infalível. Apesar de serem menos prováveis, as falhas também podem ocorrer
nesses ambientes, seja no nível físico, ou mesmo por erro humano (tropeço no fio
que liga a máquina à fonte de energia, ou a execução de um comando errado).
Em outras palavras, uma falha no nível físico pode causar um erro no nível de
informação que, por sua vez, causa um defeito percebido pelo usuário. Os sistemas
tolerantes à falha visam acabar com os erros, ou tratá-los, enquanto não se
transformaram em defeitos. Já os sistemas de alta disponibilidade permitem que as
máquinas travem ou errem, contanto que exista outra que assuma o seu lugar.
- 35 –
Clustering
- 36 –
Módulo 10 – Escalabilidade
Escalabilidade
Toda empresa almeja crescer e fortalecer sua atuação no mercado e, nesse sentido,
é importante que saiba planejar e equipar seu ambiente de Tecnologia da
Informação (TI) sem pecar pelo excesso ou pela carência. Adquirir um sistema
grande demais, visando crescimento das operações que pode não acontecer no
tempo estimado, implica num custo de aquisição, de operação e de manutenção
bastante alto e, no final , a plataforma tecnológica acaba sendo mais uma fonte de
gastos do que de benefícios. É como se uma pessoa decidisse comprar um ônibus,
esperando transportar 40 passageiros, mas só ter demanda, de fato, para
transportar apenas cinco.
Nesse caso, bastaria comprar um carro ou uma minivan. O inverso também traz
problemas. Um sistema pequeno demais não consegue atender a um crescimento
das operações com a velocidade desejada ou necessária. E isso, no mundo dos
negócios, pode significar a perda da capacidade competitiva e, efetivamente, a perda
de clientes e de oportunidades. Por isso, um dos elementos que devem ser
analisados com bastante critério para formação ou expansão de um ambiente de TI é
a escalabilidade do hardware e do software.
Esse cenário mudou, em grande parte, graças às solicitações dos grupos de usuários,
aos fatores mercadológicos e ao aumento do nível de competitividade que tornou
inviável o redesenho de aplicações ou mesmo a troca de sistemas menos potentes
por outros de maior capacidade em curto espaço de tempo.
- 37 –
Atualmente, a grande maioria dos fornecedores de TI oferece soluções com alto nível
de escalabilidade. Hoje, por exemplo, é possível migrar de uma versão de sistema
operacional para outra mais nova e, com isso, aumentar significativamente o poder
de processamento da máquina sem haver necessidade de alterar nenhuma linha
binária no ambiente operacional. Na prática, isso significa uma mudança de
plataforma, mantendo as aplicações existentes, resultando em aumento de
produtividade com baixo custo.
Características da escalabilidade
A escalabilidade é um conceito que surgiu por volta dos anos 90, atrelado ao modelo
cliente-servidor. Até então, os ambientes de TI, baseados em mainframes, eram
montados em função da capacidade de processamento. No ambiente distribuído, no
entanto, é fundamental que a rede seja dimensionada para suportar vários
servidores e apresente capacidade de expansão futura. Se não houver um
planejamento nesse sentido e a empresa optar por adquirir uma plataforma não
expansível ou que já esteja no limite de capacidade (tem capacidade para suportar
100 usuários e foi comprada para atender 90, por exemplo), pensando apenas no
benefício imediato, poderá enfrentar problemas e ver-se obrigada a trocar todo o
ambiente, em curto espaço de tempo.
Além do alto custo que algo nesse sentido acarreta, terá ainda de enfrentar o trauma
da mudança, o que sempre traz impactos para toda a organização. Nem todo
hardware e nem todo software é escalável. Por isso, é preciso ter muito critério na
hora da escolha do sistema e procurar obter do fornecedor as informações referentes
à capacidade de expansão. Antes de tomar qualquer decisão, a empresa deve fazer
um estudo para estimar seu crescimento e, com base nessas informações, optar por
soluções que atendam às suas necessidades para, no mínimo, os próximos dois
anos.
- 38 –
Como escalar
Clustering
- 39 –
Módulo 11 – Evolução natural das redes
Era um desafio e tanto que demandou mais de três anos de árduo trabalho. Em
1976, Metacalfe e seu assistente, David Boggs, publicaram o documento "Ethernet:
Distributed Packet-Switching For Local Computers Networks" (comutação por pacotes
distribuída para redes locais de computadores) em que relatavam as especificações
técnicas do sistema, as quais definiam os protocolos de transmissão de dados e a
tecnologia necessária para transportá-los. Três anos mais tarde, Metacalfe saiu da
Xerox, mas antes convenceu a empresa a firmar com a Digital e a Intel um consórcio
para promover a Ethernet como padrão de redes locais de PCs.
- 40 –
LAN
O caráter local de uma rede é determinado pela abrangência geográfica limitada (no
início era de até 1 Km e depois passou para 10 km) e também pela sua restrição a
uma organização. Uma rede local não se limita a ser apenas uma mera interligação
de equipamentos para possibilitar o uso compartilhado de recursos, uma vez que
preserva a capacidade de processamento individual de cada usuário e possibilita que
os micros se comuniquem com equipamentos de outras redes ou com máquinas de
maior porte, sem perder autonomia.
A LAN - Local Area Network – , em síntese, é uma rede de dados de alta velocidade,
com baixa taxa de erros de transmissão, cobrindo uma área geográfica relativamente
pequena e formada por servidores, estações de trabalho, um sistema operacional de
rede e um link de comunicações. O planejamento desse sistema, também chamada
de arquitetura, inclui hardware (placas, conectores, micros e periféricos), software
(sistema operacional, utilitários e aplicativos), meio de transmissão, método de
acesso, protocolo de comunicação, instruções e informações.
A topologia significa a forma como esses nós estão dispostos ao longo da rede. As
primeiras redes utilizaram a topologia estrela (star) na qual o servidor exercia a
tarefa de distribuir os recursos e a de atender às solicitações dos outros
componentes da rede. As principais vantagens eram simplicidade, facilidade de
controle e possibilidade de usar o sistema telefônico PABX (Private Branch Exchange)
para transmissão de dados. Essa topologia foi adotada pela Tolken Ring, da IBM,
lançada em 1985, pela Starlan, da AT&T, e pelo primeiro sistema de rede no Brasil
da Telsist.
A estrutura em anel utiliza um cabo comum a todos os componentes, mas estes são
interligados em circuito fechado. Com isso, as mensagens circulam em uma direção
pré-estabelecida, em loop contínuo, sendo repetidas e ampliadas em cada nó pelo
qual passam. Uma falha num dos nós pode comprometer a rede toda, embora é
possível determinar configurações que disponham de meios alternativos que entram
em operação quando alguma falha é detectada.
- 41 –
Na topologia de barras ou barramento (bus), todos os componentes da rede são
ligados a um mesmo cabo (que pode ser coaxial, telefônico ou de fibra ótica) em
série. Seu principal inconveniente é o chamado conflito de barra que ocorre quando
todos os usuários resolvem se comunicar ao mesmo tempo, o que retarda a
comunicação e baixa a velocidade da rede. As novas aplicações que incluem
multimídia, tráfego de voz, dados e vídeo, necessitam de velocidades maiores do que
as oferecidas pelo padrão Ethernet. Em conseqüência, surgiram novos padrões que
estão sendo adotados pelo mercado.
Outro padrão é o ATM (Asynchronous Transfer Mode) que surgiu como a alternativa
de melhor desempenho para aplicações com vídeo e voz em tempo real. O ATM
divide todo o tráfego em células ou pacotes de 53 bytes, permitindo com isso que
sejam construídos switches muito rápidos e o pequeno tamanho dos pacotes
assegura que frames de voz e vídeo possam ser inseridos no fluxo com freqüência
suficiente para transmissão em tempo real. Competindo diretamente com o ATM, o
padrão Gigabit Ethernet tem se mostrado como uma opção mais econômica e
eficiente, sendo indicado para a criação de grandes backbones LAN. Padronizado pela
norma IEEE 802.3z, o Gigabit Ethernet opera a um gigabit em par trançado e fibra
ótica.
WAN
Outro tipo de rede utilizada pelas corporações é a WAN - Wide Area Network -, uma
rede que permite a ligação entre computadores que estão localizados em regiões
fisicamente distantes. Essa necessidade de transmissão remota de dados entre
computadores surgiu com os mainframes e as primeiras soluções eram baseadas em
ligações ponto a ponto, feitas por meio de linhas privadas ou discadas.
Com a proliferação do uso de PCs e das LANs, houve um aumento da demanda por
transmissão de dados a longa distância, o que levou à criação de serviços de
transmissão de dados baseados em enlaces ponto a ponto e também em redes de
pacotes, no qual a partir de um único meio físico pode-se estabelecer a comunicação
com vários outros pontos. Um exemplo de serviços sobre redes de pacotes são
aqueles oferecidos pelas empresas de telecomunicações e baseados em redes Frame
Relay.
- 42 –
A redes WAN estão passando por uma evolução grande em razão da oferta de novas
tecnologias de telecomunicações e da utilização de fibras óticas. As redes
implementadas sobre essa tecnologia seguem padrões de hierarquia digital SDH
(Synchronous Digital Hierarchy) em conjunto com a ATM (Asynchronous Transfer
Mode) e permitem o uso integrado de voz e dados. Há um movimento de migração
dos operadores para sistemas WANs baseados na Ethernet.
A influência da Internet
Projetar o tráfego que vai fluir por uma rede não é algo simples e requer um estudo
detalhado para determinar o que precisará ser adicionado a essa infra-estrutura para
não comprometer o chamado QoS (Quality of Service – a qualidade dos serviços). O
ERP e o comércio eletrônico, por exemplo, são soluções que exigem muito da rede e,
portanto, a empresa que implementar esses sistemas deve também saber
dimensionar a infra-estrutura de rede e adotar tecnologias que permitam a sua
expansão ao longo do tempo.
WLANs
As redes evoluíram mais ainda e agora não precisam de meio físico (cabos) para
existirem. São as WLAN (Wireless Local Network). Essas redes começaram a existir
em meados dos anos 80, mas foi no final do século passado que atingiu a sua
maturidade. Baseado no padrão Ethernet 802.11x, a rede sem fio evoluiu e hoje
pode ser encontrada em qualquer empresa ou residência. Sua configuração mais
simples permite velocidade de 11Mbps, mas o novo padrão 802.11g possibilita
velocidades de até 54Mbps, bem próximo de uma rede Fast Ethernet. Existe uma
grande febre de redes sem fio, pois o custo de manutenção e implementação é
infinitamente menor do que de uma rede cabeada, sem grande perda de
desempenho. No futuro, a maioria das redes nas empresas será sem fio.
- 43 –
Módulo 12 – Banco de dados
Banco de dados
Por exemplo, um cadastro urbano pode ser descrito por meio da relação: número,
lote, dono, endereço, área e IPTU. Essa relação pode ser representada por meio de
uma tabela, contendo os atributos (número, dono, endereço etc) e os valores desses
atributos (184520, Silva/Roberto, Av.Paulista/95, por exemplo). Em uma tabela
identificamos cada linha a partir de uma chave única, também chamada de chave
primária. Esta chave pode ser simples, formada apenas por uma coluna, ou
composta, formada por duas ou mais colunas.
- 44 –
Nas outras tabelas, as chaves são conhecidas como "chaves estrangeiras" e, dessa
forma, é possível criar ligações entre tabelas e representar os relacionamentos com
cardinalidade um-para-muitos e muitos-para-um.
O modelo relacional mostrou-se bastante útil para lidar com os dados das aplicações
administrativas e comerciais. Ainda hoje é a tecnologia mais difundida e utilizada
pelas organizações. Para isso tudo ficar mais amigável para o usuário foram definidas
linguagens de consulta padronizada, sendo a mais utilizada atualmente a SQL -
Structured Query Language. A SQL é mais do que uma linguagem de consulta, na
medida em que possui recursos para a criação de tabelas, definição de regras de
integridade, inclusão e remoção de registros, e funções de controle necessárias para
o gerenciamento de dados.
- 45 –
Cada objeto do banco de dados tem a sua própria identidade a qual é invisível ao
programador e ao usuário final. Outro conceito importante do modelo orientado a
objetos é a definição de classes. Um conjunto de objetos que compartilha a mesma
estrutura e o mesmo comportamento pode ser agrupado para formar uma classe.
Um objeto, na verdade, é uma instância de uma classe, tendo suas características
definidas pela classe onde está. Assim, grupos de objetos com o mesmo
comportamento e mesma estrutura também são organizados em classes.
- 46 –
Banco de dados objeto relacional
Novas versões dos bancos de dados relacionais, como a da Oracle e a da IBM (DB2),
foram implementadas a partir do conceito objeto-relacional, o que na prática
significa que são bancos de dados relacionais que embutem características dos
orientados a objetos. O objeto-relacional é um sistema híbrido, baseado no modelo
relacional, já consolidado no mercado e altamente confiável, mas que engloba
também as funcionalidades do orientado a objetos, o qual tem de mais forte o poder
de representação das aplicações.
- 47 –
Módulo 13 – Storage
Depois, conforme a capacidade dos sistemas de disk array cresceu, um único array
podia suprir as necessidades de armazenamento de vários servidores. Desse modo,
por volta de 1990, nasceu o armazenamento em rede e começaram a surgir novas
tendências que visam a armazenagem de dados num único local, com acesso
compartilhado por toda a empresa e que se baseiam nas arquiteturas que agora se
mostram mais maduras para serem de fato implementadas: SAN e NAS.
- 48 –
SAN e NAS
- 49 –
Os consultores de mercado recomendam que seja feita uma análise cautelosa sobre
o volume de dados, a infra-estrutura disponível, os usuários dos sistemas, os
processos existentes e a própria linha de negócios da empresa. Outro ponto
importante é saber negociar com os fornecedores de soluções, principalmente se a
opção for pela arquitetura SAN. A recomendação é que seja firmada uma parceria
com os fornecedores de modo que eles se comprometam com os objetivos do projeto
e não apenas em fornecer a tecnologia. Existe uma tendência maior, da parte do
setor corporativo, de investir em SAN pela sua característica que permite concentrar
toda a administração do storage sob uma interface de gerenciamento comum.
Como o nome indica, SAN é uma rede dedicada que conecta servidores e dispositivos
de storage, utilizando hubs e switches, como nas redes Ethernet tradicionais. Para
fazer parte de uma rede SAN, os servidores e dispositivos precisam ter adaptadores
ou conversores de protocolos apropriados. A parte mais complicada de um projeto
SAN refere-se à escolha do fornecedor da solução, uma vez que produtos de
fabricantes diferentes não são compatíveis entre si. Para reverter esse panorama,
muitos fornecedores já fazem parte do Storage Networking Industry Association
(SNIA), um comitê que visa o estabelecimento de padrões, mas esse processo ainda
está no início.
No Brasil, a maioria dos fabricantes já oferece equipamentos para redes SAN e existe
uma forte tendência de utilização das duas arquiteturas (SAN e NAS) conjugadas, em
face da necessidade de um gerenciamento eficiente. Ambas oferecem a possibilidade
de administração centralizada, o que representa uma vantagem para o administrador
da rede.
- 50 –
Assim, parecia natural que o armazenamento de dados usasse uma tecnologia de
rede similar as mais usadas nas corporações com um dos protocolos mais
consistentes e rápidos existentes. Daí nasceu o ISCSI. Ele é mais barato do que as
redes SAN e consegue escalar bem em redes Ethernet. A expertise existente nas
empresas agora pode ser utilizada a custos mais acessíveis para as corporações.
Por exemplo, um tape drive conectado à SAN pode ser compartilhado entre
servidores porque esses dispositivos ficam em uso apenas durante a realização dos
backups. Se um tape drive estiver conectado a computadores por meio de uma SAN,
computadores diferentes poderão utilizá-los em diferentes momentos. Todos os
computadores terão o seu backup efetuado. Dessa forma, o investimento em drives
de fita é utilizado de modo eficiente e os gastos de capital permanecem baixos.
- 51 –
Ele também contribui para reduzir o custo do processamento de informações. Isso
porque permite o compartilhamento de dispositivos e comunicações mais eficientes,
levando à criação de um ambiente de computação global, com capacidade de
processar as mesmas informações em qualquer momento, a partir de qualquer
central de dados no mundo, com dados e a execução de aplicativos primários
migrando para locais ideais, conforme a necessidade.
Gerenciamento e Virtualização
As organizações mais eficientes sabem que uma infra-estrutura enxuta significa uma
infra-estrutura mais simples e mais barata de armazenamento. Mas, para a maioria
das empresas, a implementação de armazenamento de dados é uma tarefa
complexa. Crescer a quantidade de dados requer que a capacidade de
armazenamento se expanda. Isso, por seu turno, aumenta os custos, muito devido
às limitações das tecnologias de gerenciamento existentes. Para muitas companhias,
é um fato da vida que quando você cresce a sua capacidade de armazenamento, é
necessário contratar mais gente para gerenciá-lo. A solução para essa questão
chama-se virtualização.
Esse novo paradigma significa tratar toda a sua capacidade de armazenamento como
se fosse uma única unidade lógica sem se importar coma hierarquia do meio físico
que pode estar envolvido no processo. Isso permite que as aplicações sejam escritas
para uma única interface de programação, eliminando a necessidade de lidar com
vários discos, fitas e dispositivos ópticos que são utilizados. Assim, os custos
diminuiriam. Eis o que procura a indústria e as empresas.
- 52 –
Módulo 14 – Manageability - Como gerenciar o ambiente de TI
- 53 –
Se na teoria a TI representa um recurso fundamental para incrementar a eficiência
dos processos, na prática tornar isso operacional não é uma tarefa simples. Diante
de um conceito abstrato, o melhor caminho a seguir é voltar-se para situações e
objetos concretos que possam ser dimensionados.
Deve-se começar pelo controle dos ativos e da rede de TI. Listar quais são os ativos
presentes na empresa, onde estão localizados, quais serviços e custos estão
associados a eles, são iniciativas que podem economizar muito dinheiro e minimizar
os problemas. Entre as soluções de gerenciamento, destacam-se os frameworks que
são, grosso modo, uma espécie de chassis, ou seja, uma base sobre a qual rodam as
aplicações. Framework é composto por três grandes camadas de software, sendo a
primeira delas constituída por um conjunto de agentes. Na verdade, de programas
capazes de captar informações básicas sobre o funcionamento de um ambiente,
como por exemplo, o desempenho do processador, a taxa de ocupação do disco, o
desempenho de entrada e saída dos dispositivos, o tráfego da rede, entre outros. Em
alguns casos, muitos desses agentes têm inteligência para reconhecer
automaticamente as características de um elemento conectado à rede, registrando-
as na aplicação.
- 54 –
Principais players e produtos
A BMC Software é outra fornecedora que oferece uma grande quantidade de opções
voltadas a atender funções específicas em todas as plataformas. O carro-chefe da
empresa é o Patrol, para o controle de níveis de serviço, otimização da performance
e prevenção de problemas. São vários grupos de ferramentas, das quais algumas
são voltadas para o gerenciamento de servidores, banco de dados, aplicações, EAI
(Enterprise Application Integration), e-business, desempenho e diagnóstico. Outro
grupo de soluções é voltado para modelagem preditiva e gerenciamento de
capacidade de sistemas, aplicações e banco de dados, e o outros ainda, para o
gerenciamento centralizado de todos os recursos.
- 55 –
A Compuware oferece soluções para acelerar o desenvolvimento, melhorar a
qualidade e administrar o desempenho de sistemas de missão crítica. As várias
famílias de produtos estão divididas em: Application Development, para melhorar a
velocidade no desenvolvimento e gerenciamento de aplicações, Quality Assurance,
para garantir a qualidade dos sistemas desenvolvidos, Application Service
Management, para o gerenciamento da qualidade de serviço das aplciações e IT
Governance and Management, para alinhar a área de TI com os objetivos de negócio
da emrpesa através do gerenciamento de projeto, aplicações e infra-estrutura.
- 56 –
Módulo 15 – Clustering
Utilizar vários computadores ligados em rede para formar um cluster é uma solução
válida para três tipos básicos de aplicação: tolerância a falhas, balanceamento de
carga e processamento paralelo.
Clustering
A terceira aplicação é o processamento paralelo, que visa ser uma opção mais viável
de computação paralela de alto desempenho, muito utilizada na área científica e em
empresas que lidam com um volume gigantesco de dados a serem processados.
- 57 –
Em vez de utilizar sistemas especialistas de processamento paralelo, que são muito
caros e complexos, tanto em hardware como software, pode-se utilizar várias
estações de trabalho comuns e conectá-las entre si de forma que se comportem
como um único equipamento.
Clusters Beowulf
Beowulf era um herói de grande força e valentia que tinha como objetivo derrotar o
monstro de Grendel – personagens de um antigo poema épico da língua inglesa. O
nome do herói foi o escolhido para batizar a arquitetura de multicomputadores
utilizados para computação paralela, composta por um conjunto de máquinas
formado por um nó servidor e nós clientes conectados via rede (padrão Ethernet ou
outra topologia qualquer), rodando um sistema operacional paralelo.
O primeiro cluster Beowulf foi desenvolvido por Thomas Sterling e Don Becker,
pesquisadores do Centro de Excelência em Dados Espaciais e Informações Científicas
(Cesdis) da Agência Espacial Americana (NASA) em 1994. O cluster foi montado no
Centro Espacial Goddard, em Greenbelt (Maryland/EUA), sendo utilizado para o
projeto de ciências espaciais e terrestres. Era formado por 16 processadores Intel
486DX4 de 100MHz conectados via rede Ethernet de 100 Mbps, e sistema
operacional Linux.
- 58 –
O cluster Beowulf é composto geralmente por máquinas de modelos comuns,
disponíveis no mercado. Não há necessidade de nenhum hardware especial, nem
existem dificuldades técnicas adicionais para instalação e implementação. Como
exemplo, são suficientes oito estações de trabalho comuns (de preferência,
semelhantes) com uma placa de rede para se iniciar um cluster do tipo. Há
basicamente duas classes de clusters. A primeira é construída com equipamentos
genéricos de fabricantes conhecidos, apresentando como principal vantagem a
facilidade de assistência técnica e de aquisição e/ou substituição de drivers de
dispositivos, além da compatibilidade entre os componentes.
Princípios básicos
Independente da aplicação, todo cluster precisa seguir cinco princípios básicos para
ser eficiente. O primeiro deles refere-se à comodidade. Em um cluster os nós devem
ser máquinas normais interconectadas por uma rede genérica. O sistema operacional
precisa ser padrão, sendo que o software de gerenciamento deve ir acima dele como
uma aplicação qualquer.
- 59 –
O quarto princípio refere-se à confiabilidade. O cluster precisa ter capacidade de
detectar falhas internas, assim como tomar providências para que estas não
comprometam o serviço oferecido. E, finalmente, o quinto princípio diz respeito ao
gerenciamento e à manutenção. Por serem tarefas complexas e propensas a gerar
erros, deve-se adotar um mecanismo de fácil configuração e manutenção do
ambiente, de forma a simplificar sua administração.
Resumindo
Um cluster pode ser formado por apenas duas máquinas, ou por vários
equipamentos interligados. Em geral, sua expansão ocorre de forma linear em
relação a investimentos. A tecnologia de clustering também pode ser aplicada a
nobreaks destinados a servidores. Dois nobreaks de 2 KVA podem ser interligados
equivalendo a um nobreak de 4 KVA e assim por diante.
- 60 –
Módulo 16 – Integração e compatibilidade
Mas essa tarefa, em geral, apresenta um alto grau de dificuldade. No entanto, com a
utilização de ferramentas EAI, sistemas estanques podem ser conectados a um único
servidor de integração, empregando um processo capaz de ser repetido inúmeras
vezes. Nesse sentido, para acrescentar uma nova tecnologia ou software basta
reproduzir o procedimento e conectar tudo ao servidor que controla os processos.
Dessa maneira, todos os aplicativos podem se comunicar entre si e trocar dados
utilizando, para isso, o servidor de integração. Para escolher a solução de EAI mais
adequada, as empresas devem, inicialmente, compreender seus processos de
negócios e seus dados para selecionar o que de fato requer uma integração. Esse
processo de escolha pode ser visto sob quatro dimensões: nível de dados, nível de
interface de aplicações, nível de métodos e nível de interface dos usuários.
Dimensões do EAI
- 61 –
Dessa forma, é possível mover a informação entre diferentes bancos de dados a um
custo relativamente baixo. Os chamados Message Brokers permitem a construção de
scripts contendo regras para extrair, transformar, traduzir, combinar, reformar e
replicar os dados de uma ou mais base, compatibilizando-os e transportando-os para
uma aplicação ou base target, de acordo com o formato exigido por ela.
Outra dimensão do EAI é o nível de interface de aplicação que, como o nome já diz,
permite a utilização de interfaces por meio das quais os desenvolvedores podem
empacotar muitas aplicações, permitindo o compartilhamento lógico e de
informações. Exemplos desse tipo de EAI podem ser aplicados a pacotes de sistemas
de gestão integrada (ERP), como os da SAP, PeopleSoft e Baan. Para integrar os
sistemas corporativos, é necessário o emprego dessas interfaces que permitem
acessar tanto os dados, quanto os processos, extraindo informações, substituindo
dados, colocando no formato adequado para a aplicação destino e transmitindo.
Outras tecnologias, como as de message brokers, também podem fazer isso. O nível
de métodos de EAI refere-se ao compartilhamento de lógica de negócios. O seu
emprego permite, por exemplo, acessar o método de atualização do registro de um
consumidor a partir de um grande número de aplicações, sem haver necessidade de
reescrever um método para cada aplicação. O mecanismo de compartilhamento de
métodos pelas aplicações inclui objetos distribuídos, servidores de aplicação,
monitores de transação ou uma aplicação única que combina a ação de outras duas.
- 62 –
Embora à primeira vista as ferramentas EAI e B2Bi possam parecer idênticas,
existem algumas diferenças fundamentais, entre as quais o nível de segurança
oferecido – as B2Bi respondem às exigências de segurança muito mais severas. O
importante é saber se o foco do cliente está na integração interna ou na externa,
para então avaliar os produtos nesses contextos. O recomendável é que o primeiro
foco seja a integração interna de aplicativos e sistemas, para definir e
institucionalizar os processos comerciais. Após esse problema ser solucionado, pode-
se então partir para a integração com os sistemas externos (de parceiros de
negócios).
Middleware
Por exemplo, para integrar um sistema de contabilidade que roda sob o Windows
2000 com um sistema de patrimônio que roda no mainframe, deve-se selecionar o
produto de middleware de filas de mensagens de forma a permitir aos sistemas
compartilhar informações. Para isso, provavelmente será necessário alterar o
sistema fonte (origem dos dados) e o sistema destino (destino dos dados) para fazer
uso do middleware. Isso precisa ser feito porque a camada de middleware provê
apenas uma interface, uma ligação, e os programas devem ser alterados para
acomodar o middleware, o que implica alto custo e alto risco.
O middleware pode ser classificado como uma das partes mais importantes do
ambiente cliente-servidor. Da menor rede local (LAN) até o maior sistema
distribuído, todos igualmente utilizam alguma solução middleware. Na verdade,
sempre que uma máquina cliente envia uma requisição para o servidor, ou sempre
que algum aplicativo carrega dados de um banco de dados, está presente alguma
forma de middleware, cuja função é a de aplainar incompatibilidades em potencial
entre protocolos de comunicação, linguagens de consulta a banco de dados, lógica de
aplicativos e sistemas operacionais de nível básico.
O middleware pode ser classificado como uma das partes mais importantes do
ambiente cliente-servidor. Da menor rede local (LAN) até o maior sistema
distribuído, todos igualmente utilizam alguma solução middleware.
- 63 –
Na verdade, sempre que uma máquina cliente envia uma requisição para o servidor,
ou sempre que algum aplicativo carrega dados de um banco de dados, está presente
alguma forma de middleware, cuja função é a de aplainar incompatibilidades em
potencial entre protocolos de comunicação, linguagens de consulta a banco de
dados, lógica de aplicativos e sistemas operacionais de nível básico.
A parte do aplicativo cliente/servidor que procura por esses dados precisa acessar
um sistema de middleware que localizará a fonte ou o serviço de dados
independentemente de onde resida, transmitirá a requisição do aplicativo,
reempacotará a resposta e a retransmitirá de volta ao aplicativo. O middleware é
responsável por assegurar que o aplicativo e suas fontes de dados se comuniquem
de forma rápida, eficiente e eficaz, independente de qual sistema operacional,
protocolo de comunicação ou sistema de banco de dados esteja sendo acessado. A
compra de um middleware requer um entendimento fundamental dos problemas e
processos empresariais nos quais deve auxiliar. Também é preciso fazer uma análise
dos diferentes produtos disponíveis no mercado para verificar os benefícios relativos.
Outro elemento foi agregado ao arsenal de tecnologias de integração. Ele é mais fácil
de usar, tem custo menor e não interfere tanto nos sistemas existentes. É o Web
Service. É um conjunto de aplicações Web. Estas são auto-contidas, auto-descritas e
modulares e podem ser publicadas, localizadas e utilizadas pela Web. Os Web
Services podem executar funções simples ou processos complicados de negócio.
Vários são seus componentes. Entre eles se destacam: SOAP, para o transporte das
mensagens, UDDI, o diretório de serviço de Web Services, WSDL, que mostra as
características de um Web Service e o XLANG/XAML, que dá suporte a transações
complexas pela web.
Sua utilização em larga escala levou a uma nova arquitetura de sistemas, o SOA
(Service Oriented Architeture). O SOA é uma arquitetura cujo objetivo é manter
agentes de software interagindo entre si. Um serviço é uma unidade de trabalho feita
por um provedor de serviço para atingir um resultado desejado por um consumidor
de serviço. Ambos, o consumidor e o provedor de serviço são papéis encenados por
agentes de software.
- 64 –
Para não tornar tudo muito abstrato, veja o seguinte exemplo. Um CD e um tocador
de CD. O tocador de CD oferece o serviço de tocar CD, o que é muito bom, pois você
pode trocar o player sempre que desejar e continuar a tocar CDs. Você pode tocar o
CD em um aparelho portátil ou em um aparelho com saídas surround. Ambos tocam,
mas a qualidade do serviço oferecido é diferente.
- 65 –
Módulo 17 – Confiabilidade
Mas essa tarefa, em geral, apresenta um alto grau de dificuldade. No entanto, com a
utilização de ferramentas EAI, sistemas estanques podem ser conectados a um único
servidor de integração, empregando um processo capaz de ser repetido inúmeras
vezes. Nesse sentido, para acrescentar uma nova tecnologia ou software basta
reproduzir o procedimento e conectar tudo ao servidor que controla os processos.
Dessa maneira, todos os aplicativos podem se comunicar entre si e trocar dados
utilizando, para isso, o servidor de integração. Para escolher a solução de EAI mais
adequada, as empresas devem, inicialmente, compreender seus processos de
negócios e seus dados para selecionar o que de fato requer uma integração. Esse
processo de escolha pode ser visto sob quatro dimensões: nível de dados, nível de
interface de aplicações, nível de métodos e nível de interface dos usuários.
Dimensões do EAI
- 66 –
Dessa forma, é possível mover a informação entre diferentes bancos de dados a um
custo relativamente baixo. Os chamados Message Brokers permitem a construção de
scripts contendo regras para extrair, transformar, traduzir, combinar, reformar e
replicar os dados de uma ou mais base, compatibilizando-os e transportando-os para
uma aplicação ou base target, de acordo com o formato exigido por ela.
Outra dimensão do EAI é o nível de interface de aplicação que, como o nome já diz,
permite a utilização de interfaces por meio das quais os desenvolvedores podem
empacotar muitas aplicações, permitindo o compartilhamento lógico e de
informações. Exemplos desse tipo de EAI podem ser aplicados a pacotes de sistemas
de gestão integrada (ERP), como os da SAP, PeopleSoft e Baan. Para integrar os
sistemas corporativos, é necessário o emprego dessas interfaces que permitem
acessar tanto os dados, quanto os processos, extraindo informações, substituindo
dados, colocando no formato adequado para a aplicação destino e transmitindo.
Outras tecnologias, como as de message brokers, também podem fazer isso. O nível
de métodos de EAI refere-se ao compartilhamento de lógica de negócios. O seu
emprego permite, por exemplo, acessar o método de atualização do registro de um
consumidor a partir de um grande número de aplicações, sem haver necessidade de
reescrever um método para cada aplicação. O mecanismo de compartilhamento de
métodos pelas aplicações inclui objetos distribuídos, servidores de aplicação,
monitores de transação ou uma aplicação única que combina a ação de outras duas.
- 67 –
Embora à primeira vista as ferramentas EAI e B2Bi possam parecer idênticas,
existem algumas diferenças fundamentais, entre as quais o nível de segurança
oferecido – as B2Bi respondem às exigências de segurança muito mais severas. O
importante é saber se o foco do cliente está na integração interna ou na externa,
para então avaliar os produtos nesses contextos. O recomendável é que o primeiro
foco seja a integração interna de aplicativos e sistemas, para definir e
institucionalizar os processos comerciais. Após esse problema ser solucionado, pode-
se então partir para a integração com os sistemas externos (de parceiros de
negócios).
Middleware
Por exemplo, para integrar um sistema de contabilidade que roda sob o Windows
2000 com um sistema de patrimônio que roda no mainframe, deve-se selecionar o
produto de middleware de filas de mensagens de forma a permitir aos sistemas
compartilhar informações. Para isso, provavelmente será necessário alterar o
sistema fonte (origem dos dados) e o sistema destino (destino dos dados) para fazer
uso do middleware. Isso precisa ser feito porque a camada de middleware provê
apenas uma interface, uma ligação, e os programas devem ser alterados para
acomodar o middleware, o que implica alto custo e alto risco.
O middleware pode ser classificado como uma das partes mais importantes do
ambiente cliente-servidor. Da menor rede local (LAN) até o maior sistema
distribuído, todos igualmente utilizam alguma solução middleware. Na verdade,
sempre que uma máquina cliente envia uma requisição para o servidor, ou sempre
que algum aplicativo carrega dados de um banco de dados, está presente alguma
forma de middleware, cuja função é a de aplainar incompatibilidades em potencial
entre protocolos de comunicação, linguagens de consulta a banco de dados, lógica de
aplicativos e sistemas operacionais de nível básico.
O middleware pode ser classificado como uma das partes mais importantes do
ambiente cliente-servidor. Da menor rede local (LAN) até o maior sistema
distribuído, todos igualmente utilizam alguma solução middleware.
- 68 –
Na verdade, sempre que uma máquina cliente envia uma requisição para o servidor,
ou sempre que algum aplicativo carrega dados de um banco de dados, está presente
alguma forma de middleware, cuja função é a de aplainar incompatibilidades em
potencial entre protocolos de comunicação, linguagens de consulta a banco de
dados, lógica de aplicativos e sistemas operacionais de nível básico.
A parte do aplicativo cliente/servidor que procura por esses dados precisa acessar
um sistema de middleware que localizará a fonte ou o serviço de dados
independentemente de onde resida, transmitirá a requisição do aplicativo,
reempacotará a resposta e a retransmitirá de volta ao aplicativo. O middleware é
responsável por assegurar que o aplicativo e suas fontes de dados se comuniquem
de forma rápida, eficiente e eficaz, independente de qual sistema operacional,
protocolo de comunicação ou sistema de banco de dados esteja sendo acessado. A
compra de um middleware requer um entendimento fundamental dos problemas e
processos empresariais nos quais deve auxiliar. Também é preciso fazer uma análise
dos diferentes produtos disponíveis no mercado para verificar os benefícios relativos.
Outro elemento foi agregado ao arsenal de tecnologias de integração. Ele é mais fácil
de usar, tem custo menor e não interfere tanto nos sistemas existentes. É o Web
Service. É um conjunto de aplicações Web. Estas são auto-contidas, auto-descritas e
modulares e podem ser publicadas, localizadas e utilizadas pela Web. Os Web
Services podem executar funções simples ou processos complicados de negócio.
Vários são seus componentes. Entre eles se destacam: SOAP, para o transporte das
mensagens, UDDI, o diretório de serviço de Web Services, WSDL, que mostra as
características de um Web Service e o XLANG/XAML, que dá suporte a transações
complexas pela web.
Sua utilização em larga escala levou a uma nova arquitetura de sistemas, o SOA
(Service Oriented Architeture). O SOA é uma arquitetura cujo objetivo é manter
agentes de software interagindo entre si. Um serviço é uma unidade de trabalho feita
por um provedor de serviço para atingir um resultado desejado por um consumidor
de serviço.
- 69 –
Ambos, o consumidor e o provedor de serviço são papéis encenados por agentes de
software. Para não tornar tudo muito abstrato, veja o seguinte exemplo. Um CD e
um tocador de CD. O tocador de CD oferece o serviço de tocar CD, o que é muito
bom, pois você pode trocar o player sempre que desejar e continuar a tocar CDs.
Você pode tocar o CD em um aparelho portátil ou em um aparelho com saídas
surround. Ambos tocam, mas a qualidade do serviço oferecido é diferente.
- 70 –
Módulo 18 – Tendências
Confiabilidade
Empresas de todos os tipos e portes também têm essa preocupação, uma vez que
estão cada vez mais dependentes da tecnologia. Confiabilidade é definida como a
probabilidade de um sistema ou equipamento executar sua função de maneira
satisfatória dentro de um intervalo de tempo e operando conforme certas condições.
O fator de probabilidade está relacionado ao número de vezes que o sistema opera
adequadamente. Por exemplo, uma probabilidade de 95% significa que, na média, o
sistema irá funcionar adequadamente em 95 vezes das 100 vezes que executar
aquela função.
Tecnologia da Informação
- 71 –
Na verdade, três elementos são considerados indispensáveis, principalmente para a
criação de um ambiente de TI de missão crítica: confiabilidade, disponibilidade e
utilidade/ resistência – também conhecidos pela sigla RAS do inglês Reliability,
Availability e Serviceability.
Sistemas distribuídos
- 72 –