Revista do Centro Universitário Planalto do Distrito Federal – UNIPLAN – Volume 3 Nº 3 ISSN 1807-4855

Cesubra Scientia
Volume 3, Nº 3, 2006

ISSN 1807-4855
Sociedade Objetivo de Ensino Superior Presidente Doutor João Carlos Di Gênio Diretor Administrativo Administrador Hildebrando José Rossi Filho Diretor Financeiro Administrador Rudge Allegretti Diretor Pedagógico Professor Jorge Brihy Centro Universitário Planalto do Distrito Federal Reitor Prof. Dr. Yugo Okida Vice-Reitor Prof. MS. Fabio Nogueira Carlucci Pró-Reitor Acadêmico Prof. Dr. Humberto Vendelino Richter Pró-Reitor Administrativo Prof. MS. Robson do Nascimento Coordenadora Geral Prof.(a) Maria Cecília Matos Grisi Secretário Geral Administrador Armindo Corrêa Brito Comissão Editorial Prof. Dr. Angel Rodolfo Baigorri Prof. Dr. Carlos Alberto Fernandes de Oliveira Prof.(a) Dr.(a) Cláudia da Silva Costa Prof. Dr. Demóstenes Moreira Prof. Dr. Eui Jung Chang Prof. Dr. João Estevão Giunti Ribeiro Prof.(a) Dr.(a) Maria Raquel Speri Prof. Dr. Humberto Vendelino Richter Produção Gráfica Agência Práxis - Agência Modelo do Cesubra Editoração Eletrônica Geraldo de Assis Amaral Revisão Professora Claudete Matarazzo Nogueira Carlucci Capa Wilton Oliveira Cardoso
Matérias assinadas são de exclusiva responsabilidade dos autores. Direitos autorais reservados. Citação parcial permitida com referência à fonte.

Cesubra Scientia
Volume 3, Nº 3, 2006 ISSN 1807-4855

SUMÁRIO

BRASÍLIA ESTADO PERFEITO X DESIGUALDADES SOCIAIS TESE E ANTÍTESE Leila Soares Teixeira............................................................................741 DESENVOLVIMENTO HISTÓRICO DA CRIPTOGRAFIA Jorge Loureiro Dias...............................................................................749 ANÁLISE FATORIAL - UMA ANÁLISE DO TESTE NÃO VERBAL DE RACIOCÍNIO PARA CRIANÇAS Adriano Campos Menezes; Fernando Sabbi Melgarejo; Ronaldo Augusto da Silva Fernandes..................................................................763

buscando transformar e utilizar o urbanismo como forma de superação ou diminuição das desigualdades sociais. equilíbrio. Endereço eletrônico: leilain1@hotmail. Palavras-chave: Instrumento. modernismo. Mestre em Arquitetura e Urbanismo. planejamento.Brasília Estado Perfeito X Desigualdades Sociais Tese e Antítese Leila Soares Teixeira1 Resumo: O presente artigo trata da leitura da cidade de Brasília onde esta aparece como um sistema que se comunica objetivamente ao materializar aspectos individuais e sociais. 1 741 . Professora do Centro Universitário Planalto do Distrito Federal – UNIPLAN. Leila Soares Teixeira.com. desigualdade. controle social. particulares e universais.

O país teve neste período de governo a maior aceleração que um processo urbano tenha sofrido em comparação a qualquer outro do mundo. E como afirma Lúcio Costa nasceu pronta. e isto sem mútuo constrangimento porquanto cada quadra teria moradores de determinado padrão. e se teria 2 Vêr Holanda em O Espaço de Exceção. não apenas como urbs. Diluídas assim as diferenças do status econômico ao longo do eixo rodoviário-residencial. é preciso em um primeiro momento resgatar o contexto social. onde poucas cidades ou talvez nenhuma tenha sido concebida de forma tão inteira (Costa. a cidade não ficaria estratificada em áreas rigidamente diferenciadas. aliada a uma determinação governamental. constituída por quatro super quadras a convivência de pessoas de padrões econômicos diferentes.K. Cidade planejada para o trabalho ordenado e eficiente.. A concepção da cidade de Brasília traz em si um modelo racionalista “Ela deve ser concebida não como simples organismo capaz de preencher satisfatoriamente e sem esforço as funções vitais próprias de uma cidade moderna qualquer. Sendo esta basicamente vinculada a Carta de Atenas.1991). Brasília: Editora da Universidade de Brasília 742 ... Brasília nasceu como uma expressão de um projeto geo-político de ocupação territorial. a característica fundamental do plano era permitir em cada área de vizinhança. O modelo era de expansão e “modernização”. mas como civitas. mas ao mesmo tempo cidade viva e aprazível.Introdução Historicamente o urbanismo foi usado algumas vezes como instrumento de controle social. e embora tenha sido um ideal modernista. não se tornou possível gerar mudanças estruturais através deste. possuidora dos atributos inerentes a uma capital. político e cultural da época de sua concepção onde o país vivia um clima de euforia com a idéia desenvolvimentista de J. recebeu também outras influências como a Unidade de Vizinhança de Clarence Perry2 Para analisar e formular qualquer tipo de conceito sobre Brasília.. ..

comentada. p. Os geógrafos se limitavam a descrição e catalogação das mesmas4. sofre com a realidade da dinâmica social do país que apresenta este desequilíbrio. Hoje Brasília é como toda cidade de porte metropolitano cheia de desequilíbrios sociais. iluminada por uma explicação 3 4 Lúcio Costa. se apresenta como bela alcançando através do sujeito uma totalidade. Marco Teórico Planejamento urbano: um breve histórico Até o pós guerra o estudo do espaço e das cidades eram reservados a geógrafos e arquitetos que só trabalhavam a questão interna em sua funcionalidade.” (Costa. 1991).. “Quanto ao projeto é assim que sendo monumental e cômodo. Embora seja uma cidade única.é uma resposta ao atual caos das cidades. O interesse passou a ir além do catalogar. criando-se a necessidade de um estudo agora com um âmbito maior.demonstrado. “a Carta de Atenas abre todas as portas do urbanismo moderno..3” Estas palavras evidenciam a preocupação de Lúcio Costa em transformar e utilizar o urbanismo como forma de superação ou diminuição das desigualdades sociais. Relatório do Plano Piloto de Brasília. o problema social da coexistência urbana de classes. 20 “a geografia nesta época parece Ter sido de se apresentar como o campo de estudo da terra sendo mais uma demonstração da relação homem e natureza”. planejada e idealizada por Lúcio Costa. a questão agora era. no sistema capitalista. Mas por outro. eficiente acolhedor e íntimo. Não se levava em conta os fatores econômicos.1978:44) 743 . políticos ou ideológicos que influenciavam diretamente no processo e na dinâmica do crescimento das cidades. 1991.detalhada. Colocada nas mãos de autoridades . Foi a partir da evolução do sistema capitalista que ocorreu a explosão das cidades e a dinâmica espacial foi então influenciada drasticamente. GDF. ainda assim não responde de acordo com os aspectos práticos as expectativas da população da cidade. na prática. planejar e se necessário intervir.(Gomes. como resolver.

infra estrutura (Habitação. governo. e outros. dá hoje. 1950 Dentro deste contexto o fenômeno urbano metropolitano consolidou-se nacionalmente reforçando a existência de regiões (metropolitanas). Brasília . o planejamento e os diversos atores Como já foi abordado. moradores. operar e governar as cidades . Esta gestão cria uma nova ordem legal urbana que promova proteção legal e segurança jurídica para as pessoas da comunidade onde a política de prevenção sustente uma medida essencial para evitar a continuidade das ocupações de áreas consideradas de preservação e 744 . evidenciando o fato de que não se esgotaram as reflexões nem é ultrapassado discutir e rediscutir o tema.suficiente. fazendo emergir aglomerações urbanas de diferentes portes. É preciso sempre partir deste contexto e os problemas que o envolvem. associação deputados. é o instrumento pelo qual será guiado o destino das cidades” . Diante das constatações e tendências . CIAM. Instrumentos como a ilegalidade institucionalizada e a especulação imobiliária apoiadas na convivência entre o poder público e empreendedores. qualquer que seja a análise feita esta não pode ser desligada do contexto social. produzir. Houve neste processo uma velocidade e uma complexidade na transformação. Espaços assentados sobre diversos territórios pedindo suporte material.Carta de Atenas.Planejamento e Gestão democrática A gestão democrática deve ser entendida como forma de planejar. nova dimensão a cidade. equipamento e outros). é preciso compreender que a organização de um espaço passa por algo maior do que sua reconstrução ou mero arranjo espacial onde as políticas estatais e suas ações têm que ser analisadas como um processo onde deva constar a participação e interação dos diversos atores envolvidos.cidade.(discurso de Gean Giradeaudoux – nº 4. garantir o acesso a informações e participação sobre os processos decisórios do poder local. Brasília .

Onde a não preocupação com infra estruturas como. governo e população.” Esta para ter eficácia pressupõe a ação positiva do estado por meio de execução de políticas públicas. trabalho. Brasília viu-se transformar radicalmente. E além do conjunto de intenções desses atores . passa pela organização de compromissos entre vários atores sociais. circulação. bióticos. “As chaves para o planejamento urbano estão nas quatro funções: moradia. Observando-se que. nos últimos dez5 anos. fisiográficos. janeiro de 2005. J. além do prejuízo financeiro da ilegalidade que é gigantesco já que os impostos não podem ser recolhidos. 1993).Citado em HOLSTOn. aqui e ali surgiram assentamentos . Onde houve uma mudança agregando forças vindas de: mercado imobiliário.1957 . lazer e outros.”(LE CORBUSIER. e antrópicos. A uma nova realidade estampada na cidade. a cidade hoje esta longe de uma proposta racional de planejamento prévio para grande parte de suas “novas cidades”. fazendo com que a cidade padeça em um palco de disputas corporativas a luz da composição de forças onde diversos são os novos atores. hospitais. 5 Correio Brasiliense. O surgimento destas localidades se traduziu em um processo de descrédito. lazer. Estas situações resultam na total e rápida transformação da paisagem do Distrito Federal. não se leva em conta o aspecto do lugar como. Estas dimensões econômicas e territoriais sem o menor planejamento trouxeram em si preocupações que causam a cidade organizada um certo desconforto. sem que as autoridades competentes ousassem barrar. Não há aí o entendimento de que a urbanização e organização de uma cidade. 745 . ou desconfiança na força da ordem constituída e séria desconfiança nas ordens normativas.proteção ambiental. escolas. sem deixar de contemplar o direito a moradia que é reconhecido como um direito humano e está em diversos tratados internacionais dos quais o estado Brasileiro participa.

permite que seja feita. Estes novos espaços redesenham a realidade da cidade e vão de frente com leis ineficientes as respostas destes problemas. 1993) Considerações finais A moradia é um bem ao qual a análise de direito de Propriedade se ajusta com particular adequação. 746 . O Distrito Federal tem em sua lei orgânica a definição de que a política de desenvolvimento urbano objetiva a melhor qualidade de vida de sua população. A posse da habitação pode representar para o indivíduo. Como decorrência da heterogeneidade de sua composição. “a crescente necessidade de enfrentar os problemas psicológicos. acessibilidade. Diante deste contexto Planejar é um sonho? É apenas um quadro desenhado pelo Arquiteto? Platão afirmava que sonhos criam asas e voam. técnicos. que não se relaciona com as condições reais de produção da cidade pelo mercado.” (HARVEY D. aos quais correspondem atitudes e sentimentos organizados. a compra dos serviços que presta (espaço. a ocupação ordenada de seu território. Os assentamentos irregulares estabelecem neste cenário (Brasília Distrito Federal) uma “cidade virtual”. amenidades e outros) aos quais o consumidor associa diferentes níveis de utilidade. antes de mais nada. “A cidade é. E que as metas servem como modelos de movimento e comportamento. desde a satisfação de poder e prestígio social a garantia de privacidade e independência.”(lefebvre). o uso de bens e serviços e a distribuição dos serviços e equipamentos públicos a todos os cidadãos do lugar. organizacionais e políticos da urbanização maciça foi um dos canteiros em que floresceram os movimentos modernistas.fazendo-se necessário a formulação de novas políticas para compensar estas disputas. que transcendem o mero agrupamento de indivíduos e de convivências sociais. variadas combinações e graus. um sistema de costumes e tradições.

. S. UNAM. Brasília-DF. Ed. 1993. Relatório. A produção social do espaço. Nelson Zanata. e de nenhuma outra” (Platão).. Condição pós-moderna: uma pesquisa sobre as origens da mudança cultural. (1995) : O Relatório Técnico sobre a Nova Capital da República. Mark. 1997. el papel del Estado y la relación Estado-Sociedad in: Políticas Urbanas y la urbanización de la política. 1989. México.. Desplazamiento de un organismo como uma medida contínua de la conducta. e contemplado-a. São Paulo: Ed.La política. (tese de mestrado) . GOTTDIENER. Antonio . e aquele que quiser poderá contemplai-la. GOMES. FINEP/projeto.P. COSTA. a utopia encontrará seu lugar no mapa. Relatório do Plano Piloto de Brasília. 1991. Brasília: GDF. S. CODEPLAN. 2001. algum dia haverá tal cidade na terra(.D. EDUSP. ESTATUTO DA CIDADE – Guia para implementação pelos municípios e cidadão_Câmara Legislativa. HARVEY. 747 . Referências bibliográficas AZUELA.vol 2.. “No céu há um modelo de cidade assim.Talvez quando um número suficiente de pessoas ver o quadro e seguir o seu lampejo. Universidad Autônoma Metropolitana. Loyola. L.P. Habitação Popular: inventário da ação do Governo. FINEP. orientar-se segundo o que viu. 1977.México. Mas se realmente existe.) elas irão agir de acordo com as leis da cidade.1985.

Contemporânea. F. Brasília: ideologia e realidade: espaço urbano em questão.HOLANDA.. Anthropos 1981.: Projeto Ed. . HOLSTON. Associados Ltda. SAULE. 1986. A. O retorno da dialética. PAVIANI. N. Paris. S. P.P.. 1995. 1950.P. Das letras. 1999. 1993. Brasília: FAU-UnB. Polis. Tradução por Galfina Galvez de Williams. J. Jr. : Cia. S. Direito a Cidade: Trilhas legais para o direito as cidades sustentáveis. 748 . A Cidade e a Questão da beleza. LEFEBVRE. S. Buenos Aires: Ed. La Producion del l’espaçe. H. A cidade modernista: Uma crítica de Brasília e sua utopia. LA CARTA de Atenas: el Urbanismo de los CIAM. In Anais do 4 SEDUR.

com. também. chave simétrica. ciência rival que busca decifrar os algoritmos e chaves utilizadas para criptografrar uma mensagem. Palavras-chave: cifras. Endereço eletrônico: jloudias@bol. da Idade Antiga aos dias atuais. Também serão apresentadas algumas iniciativas adotadas para inserir o Brasil no cenário mundial da comunicação segura. Confunde-se. O presente artigo procura apresentar os principais fatos que marcaram o desenvolvimento histórico da criptografia e criptoanálise. 1 Jorge Loureiro Dias é Professor do Centro Universitário Planalto do Distrito Federal. informação.Desenvolvimento Histórico da Criptografia Jorge Loureiro Dias1 Resumo: A história da criptografia se confunde com a história da Humanidade devido à inerente necessidade de segurança das comunicações. decriptografia. com a história da criptoanálise.br 749 . segurança. criptografia.

Os hebreus. uma vez descoberta. possibilitando uma comunicação segura. valiam-se das cifras ATBASH. cobertas com cera e . mais recentemente. basicamente. de forma que só os sacerdotes poderiam decifrá-los. encontra-se sua maior rival : a criptoanálise. Caminhando lado a lado com a criptografia. técnica que veio a ser conhecida como esteganografia. ATBAH . O ATBASH foi utilizado para escrever o “Livro do Profeta Jeremias” e correspondia a trocar a primeira letra (Aleph) do alfabeto pela última (Taw) e assim 750 . Criptografia da idade antiga à idade moderna Acredita-se que uma das primeiras utilizações da criptografia foi feita pelo escriba do faraó Khnumhotep II. a esteganografia permite que a mensagem.C. por volta de 600 a 500 a. Embora utilizada até hoje. mensagens eram escondidas dentro de animais. sempre houve a necessidade de evitar que informações confidenciais caíssem nas mãos de inimigos ou se tornassem públicas. onde os “intaglios” (peças de pedra com símbolos de identificação). no antigo Egito. funcionavam como certificados rudimentares. cujo objetivo primordial é transformar a mensagem criptografada em texto claro. que consistiam da substituição simples de uma letra por outra (substituição monoalfabética). tatuadas no couro cabeludo (ocultas depois que o cabelo crescia). por volta de 1900 a.Introdução Na história da humanidade. A criptografia também proliferou na Mesopotâmia.C. ALBAM. As primeiras medidas adotadas para manutenção do sigilo consistiam. Assim. microfilmadas e escondidas em pontos de um texto comum. desvendando o segredo. que resolveu trocar trechos das escritas em argila que indicavam os caminhos para os tesouros guardados nas pirâmides. em esconder a mensagem . seja lida facilmente. Criptografia é a ciência da escrita de mensagens em cifras ou códigos permitindo que só o destinatário a decifre e compreenda.

Figura 1 – Bastão de Licurgo 751 . a palavra cifrada XIRKGLTIZURZ.C. Ao término.sucessivamente. corresponde ao texto CRIPTOGRAFIA. que consistia em escrever a mensagem em uma fita enrolada em um bastão padrão. a correspondência seria: A B C D E Z Y X W V Tabela 1 – Cifra de ATBASH F U G T H S I R J Q K P L O M N Assim. a fita era desenrolada e entregue ao mensageiro que a usava como cinto. utilizado pelo general espartano Panasius. No alfabeto latino. por volta de 475 a. o destinatário simplesmente enrolava a fita no seu bastão e lia o conteúdo. Um exemplo de criptografia de transposição é o bastão de Licurgo. Para decifrar o código.

Outra variação é a utilização de uma palavra-chave . O código de César ainda é utilizado nos dias de hoje. alterando-se o valor do deslocamento. na substituição de uma letra pela que lhe sucedia em três posições. foi o criador da cifra mais famosa da Antiguidade. como a cifra ROT13. basicamente. por volta de 50 a.C.O código de Políbio é um exemplo de cifra de substituição que troca letras pela combinação de dois números referentes a sua posição. o código de César. que consistia. 752 . 1 1 2 3 4 5 A F K/Q P V 2 B G L R W 3 C H M S X 4 D I N T Y 5 E J O U Z Figura 2 – Código de Políbio Assim a palavra CRIPTOGRAFIA seria transmitida como: 134224414435224211212411. A B D E C F D G E H F I G J H K I L J M K N L O M P N Q O R P S Q T R U S V T W U X V Y W Z X A Y B Z C Figura 3 – Código de César A palavra CRIPTOGRAFIA seria transmitida como FULSWRJUDILD. de 1984. Júlio César. como por exemplo TROCADO. que usava deslocamento de 13 letras (A=N).

e substituí-la pelas letras mais costumeiramente usadas . Com a chegada da Renascença. etc. apresenta o método da “palavra provável”. apresenta a cifra de Vigenère. incentivados principalmente pelos Governos. O método consiste em analisar a repetição de uma letra na mensagem. Nos anos 800. como “a”. al-Kindi. Heinrich Cornelius Agrippa apresenta a cifra de Pig Pen (Porco no chiqueiro). a contribuição maior foi dada pelos árabes. Blaise de Vigenère. al-Khalil. para decifrar mensagens. encerrando o período de trevas da Idade Média. um dos marcos da criptografia e que resistiu a todas as técnicas de criptoanálises por três séculos. “o”. 753 . Nos anos 1500. até ser quebrada por Babagge e Kasiski já nos anos 1800. escreve um tratado sobre a utilização da “análise de freqüência”. dificultando sobremaneira a aplicação da análise de freqüência. uma nova técnica que permitia que diferentes símbolos cifrados pudessem representar o mesmo símbolo do texto claro. No final dos anos 1400. Nos anos 700.A T B R C O D C E A F D G B H E I F J G K H L I M J N K O L P M Q N R P S Q T R U S V U W V X W Y X Z Y Figura 4 – Código de César com palavra-chave Na Idade Média. cientes de que informação era poder. Aperfeiçoando as idéias de Alberti. utilizado para decifrar mensagens. apresenta a substituição polialfabética. principalmente pelo temor da Inquisição. conhecido como "O Pai da Criptologia Ocidental". “e”. em 1549. filósofo árabe e autor de mais de 290 livros. que assolava o mundo ocidental. o estudo e aperfeiçoamento da criptografia ganham força. que substitui letras por símbolos. Leon Battista Alberti.

754 .A B C D E F G H I 0 A B C D E F G H I J K L M N O P Q R S T U V W X Y Z J K L M N O P Q R S T U V W X Y Z 1 B C D E F G H I J K L M N O P Q R S T U V W X Y Z A 2 C D E F G H I J K L M N O P Q R S T U V W X Y Z A B 3 D E F G H I J K L M N O P Q R S T U V W X Y Z A B C 4 E F G H I J K L M N O P Q R S T U V W X Y Z A B C D 5 F G H I J K L M N O P Q R S T U V W X Y Z A B C D E 6 G H I J K L M N O P Q R S T U V W X Y Z A B C D E F 7 H I J K L M N O P Q R S T U V W X Y Z A B C D E F G 8 I J K L M N O P Q R S T U V W X Y Z A B C D E F G H 9 J K L M N O P Q R S T U V W X Y Z A B C D E F G H I 10 K L M N O P Q R S T U V W X Y Z A B C D E F G H I J 11 L M N O P Q R S T U V W X Y Z A B C D E F G H I J K 12 M N O P Q R S T U V W X Y Z A B C D E F G H I J K L 13 N O P Q R S T U V W X Y Z A B C D E F G H I J K L M 14 O P Q R S T U V W X Y Z A B C D E F G H I J K L M N 15 P Q R S T U V W X Y Z A B C D E F G H I J K L M N O 16 Q R S T U V W X Y Z A B C D E F G H I J K L M N O P 17 R S T U V W X Y Z A B C D E F G H I J K L M N O P Q 18 S T U V W X Y Z A B C D E F G H I J K L M N O P Q R 19 T U V W X Y Z A B C D E F G H I J K L M N O P Q R S 20 U V W X Y Z A B C D E F G H I J K L M N O P Q R S T 21 V W X Y Z A B C D E F G H I J K L M N O P Q R S T U 22 W X Y Z A B C D E F G H I J K L M N O P Q R S T U V 23 X Y Z A B C D E F G H I J K L M N O P Q R S T U V W 24 Y Z A B C D E F G H I J K L M N O P Q R S T U V W X 25 Z A B C D E F G H I J K L M N O P Q R S T U V W X Y Figura 5 – Carreiras de Vigenère.

cada vez mais sofisticadas devido aos avanços nas áreas da Matemática. novas cifras foram surgindo. segue um exemplo de utilização de cifragem da frase “cifra de Vigenère”. Na Idade Moderna. 755 . apresentou um estudo inovador que lançou nova luz sobre o cálculo diferencial e integral. a máquina de calcular e descreveu minuciosamente o sistema binário. A esteganografia também foi fartamente utilizada nesta época. graças aos incentivos dos governantes. Texto Claro Chave Cifrado C C E I R 17 Z F I 8 N R P G A T T D O R E C 2 G V R 17 M I I 8 Q G P V E T X N O B E C 2 G R R 17 I E I 8 M Deslocamento 2 15 19 14 15 19 14 Figura 6 – Exemplo da cifra de Vigenère. até o final da Idade Média a criptografia era predominantemente manual e pautada na utilização de cifras monoalfabéticas. utilizando a palavra-chave “cripto” e a tabela de Vigenère acima. ao invés de deslocar cada letra um número fixo de posições para obter a letra cifrada. Abaixo. quase sempre. Com o passar dos anos. por governantes e militares.A cifra de Vigenère é polialfabética e pode ser considerado como uma variante do Código de César. Gottfried Wilhelm von Leibniz (1646-1716). A utilização da criptografia era seletiva e utilizada. só que. até o surgimento da Cifra de Vigenère. cifras mais complexas proliferaram. Como se pode notar. os avanços matemáticos e descobrimentos. o deslocamento é variável e determinado por uma frase ou palavra-chave. Os métodos de análise de freqüência e palavra provável provaram ser eficientes técnicas de criptoanálise.

Em 1854. inventada nos EUA . como a máquina SIGABA (M-134-C). Após arrumar os discos para refletir a linha criptografada. Friedman. Charles Barbage quebra a cifra de Vigenère e apresenta suas calculadoras : a máquina das diferenças e a máquina analítica. Basicamente. 756 .por William F. que realiza criptografia polialfabética de forma rápida e eficiente. os nazistas aperfeiçoam e fazem uso intenso da máquina Enigma. composta de teclado com 26 letras. o destinatário procurava a frase em claro em alguma das outras linhas. Em 1795. escrevia-se a mensagem em uma linha e enviava-se uma outra linha qualquer do cilindro para um destinatário que possuísse um cilindro igual. precursoras dos computadores. pelos americanos. Figura 7 – Cilindro de Jefferson. Thomas Jefferson apresenta o “cilindro de Jefferson”. para as transmissões telegráficas. Em 1924 começam a surgir os primeiros protótipos de máquinas de criptografar. No período da Segunda Guerra Mundial. alcunhado o “pai da criptoanálise”.Criptografia contemporânea e atual A Idade Contemporânea foi marcada por grandes avanços tecnológicos e a Revolução Industrial. o código Braille. Surgem. um quadro com 26 lâmpadas. neste período. para os cegos e o código Morse . um dispositivo denominado "scrambler" constituído por três rotores e um quadro com cavilhas denominado "Steckerboard" que aumentava o nível de segurança.

após avaliar o algoritmo com a ajuda da NSA (National Security Agency). Figura 8 – Máquina Enigma. Para complicar ainda mais os submarinos alemães. começa o “boom” dos computadores. • uma troca das duas metades de 32 bits cada uma. de 64 bits em 64 bits. conhecidos como “ U-Boat” . A IBM apresenta a cifra Lúcifer ao NBS (National Bureau of Standards) o qual. Nenhuma letra podia ser cifrada por ela própria. • uma transformação. conhecido hoje como DES (Data Encryption Standard). utilizavam Enigmas de 4 rotores. os rotores moviam-se de forma independente de modo a produzirem uma correspondência entre a letra original e a cifrada. e que preserva a metade direita. Basicamente o DES funciona através dos seguintes passos: • uma substituição fixa. utilizando a máquina The Bombe e o computador Colussus. chamada de permutação inicial.Cada tecla e cada lâmpada eram conectadas por 26 fios. introduz algumas modificações (como as Caixas S e uma chave menor) e adota a cifra como padrão de encriptação de dados para os EUA o FIPS PUB-46. • repetem-se os passos 2 e 3 durante 16 vezes. O indecifrável código da Enigma foi quebrado pela equipe chefiada por Alan Turin. virando a guerra para o lado dos aliados . 757 . que depende de uma chave de 48 bits. Por volta de 1970. e • inversão da permutação inicial.

surge a criptoanálise diferencial. Utilizada para decifrar as mensagens criptografadas pelo DES. surge a Criptografia Quântica. O usuário passou a ter um par de chaves: uma privada. padrão atual. chegando ao 3DES. No mesmo período. ponto frágil dos algoritmos simétricos. de conhecimento e posse apenas do usuário e uma pública. Do início da Idade Contemporânea aos dias atuais. sendo decifrado pela máquina EFF DES Cracker em 56 e depois em 22 horas. Para manter-se. Ainda nos anos 90. o DES evoluiu. programa de computador gratuito que. Em 1990. desde seu nascimento foi considerado passível de quebra por meio do método da força bruta. esta técnica compara pares de textos em claro e pares de textos cifrados. base dos sistemas de chave pública. Além de trabalhar com funções matemáticas complexas. Phil Zimmerman apresentou ao mundo o PGP (Pretty Good Privacy). a explosiva 758 . Ronald L. o DES não resistiu aos progressos na criptoanálise e a capacidade de processamento distribuída. que de forma sumária é executar o DES três vezes. utilizando padrões de criptografia assimétrica e simétrica . garantiu privacidade das comunicações ao usuário comum e tornou-se padrão para cifrar mensagens transmitidas pela Internet. que causaram uma verdadeira revolução no mundo da criptologia. Adi Shamir e Leonard M. Qualquer mensagem criptografada com uma das chaves só pode ser decriptografada com a outra. Em 1977.O DES é um algoritmo simétrico e. Em 2000. realizando operações com números primos extremamente grandes. Rivest. de conhecimento geral. Para substituí-lo o Governo Americano selecionou o algoritmo de Rijndael . que deu origem ao Advanced Encryption Standard (AES). a criptografia de chave pública eliminou o problema de transmissão da chave. na mensagem. depois de quase trinta anos como padrão. buscando padrões que possibilitem traduzir a mensagem. Adleman apresentam o algoritmo assimétrico RSA. desenvolvida por Biham e Shamir. que usa fótons únicos para transmitir um fluxo de bits chave para uma posterior cifragem Vernam da mensagem (ou outros usos).

além de autenticar e validar. Na década de 70. o CEPESC dispõe de vários produtos criptográficos. adotado pelo TSE. a criação e implementação. como a maior parte dos países . tornando o processo de cifragem cada vez mais complexo e pesado. todos com tecnologia totalmente nacional. Outra iniciativa do Governo Federal para desenvolvimento da segurança da informação foi a criação. por determinação da Presidência da República. de agosto de 2001. como telefone seguro com criptografia de voz e dados e o módulo criptográfico portátil externo. Máquinas mecânicas e digitais substituíram a criptografia manual. Atualmente. iniciaram os trabalhos de criação do Centro de Pesquisas e Desenvolvimento para Segurança das Comunicações (CEPESC). vinculado à Agência Brasileira de Inteligência (ABIN). o mais independente possível dos produtos estrangeiros.evolução dos meios de comunicações e o advento da Internet fizeram com que a criptografia passasse a ser uma necessidade de todos os segmentos da sociedade. de módulos criptográficos destinados a proteger o transporte dos resultados eleitorais entre as urnas e os computadores totalizadores do “Sistema de Voto Eletrônico”. sempre foi um consumidor de tecnologias de segurança. o surgimento da criptografia assimétrica. inclusive os algoritmos de criptografia. bem como implementar e executar os protocolos de estabelecimento e gerenciamento de chaves criptográficas. o Brasil. em software básico. códigos e programas executáveis da urna eletrônica. também. digitalmente. sem dúvida. para cifragem de dados de microcomputador. Criptografia no Brasil Tradicionalmente. os arquivos. Coube ao CEPESC. o Ministério das Relações Exteriores (MRE) e o então Serviço Nacional de Informações (SNI). importando os meios criptográficos necessários para salvaguardar suas comunicações. com o objetivo principal de prover uma tecnologia de segurança nacional. através da Medida Provisória 2200. da Infra-Estrutura de Chaves Públicas 759 . O grande marco do período foi.

gerenciada pelo Instituto de Tecnologia da Informação (ITI). que. já implementou a certificação digital na declaração do imposto de renda. comércio eletrônico são exemplos de serviços que não podem sobreviver sem a segurança oferecida pelos sistemas criptográficos. a criptografia passou a ser uma necessidade diária de cada cidadão. surgindo a esteganografia. com a finalidade de prover certificação digital. sítios de bancos. Correio eletrônico. como a criptografia quântica. utilizando criptografia assimétrica. criptografia e. fazendo com que você seja a sua senha. que tenta substituir a Matemática pela Física na elaboração de segredos e a conjunção de técnicas criptográficas e biométricas. a criptoanálise. a ICP-Brasil. 760 . Com o advento de computadores cada vez mais potentes. Conclusão A necessidade de comunicar-se de forma sigilosa remonta ao início da História da Humanidade. Inicialmente restrita aos círculos do poder. da Casa Civil. Com o advento da escrita. como os leitores óticos de retina e outras partes do corpo.Brasileira. a manutenção do segredo é apenas questão de tempo. O grande objetivo atual é manter o tempo de decifração maior que o tempo de vida útil da mensagem. com a massificação dos meios de comunicação. concomitantemente. Utilizando o SERPRO como principal Autoridade Certificadora. tentando decifrar o que foi transmitido. desde 2005. Novas perspectivas surgem a cada dia. aprimoram-se as técnicas de manutenção de segredos. para identificação e autorização de acesso a um recurso. a ICP-Brasil já foi adotada por várias instituições. inclusive Secretaria da Receita Federal.

Enigma Machine.org/morton/enigma. 1997. Disponível em: http://www. Números inteiros e criptografia RSA.Referências bibliográficas A Linha do Tempo da Criptografia medieval. COUTINHO. J. Acesso em 12/05/2006. Disponível em: http://www.C. et al. Rio de Janeiro: IMPA/SBM. Handbook of applied cryptography. MENEZES. 761 . S. SINGH. O livro dos códigos.html. Acesso em 02/07/2006. 2001. A. Boca Raton.html.org/morton/enigma. FL. Record.: CRC Press.swimmer. Simon.swimmer. 1997.

Rotação de Fatores. Endereço Eletrônico – amenezes0@hotmail. 1 Adriano Campos Menezes. por meio de uma representação simplificada (conjunto reduzido de fatores). Nesse sentido. extração e rotação dos fatores.br 763 . utilizando como base de dados o Teste Não Verbal de Raciocínio para crianças (TNVRI). Testes Psicológicos.UNIPLAN. O estudo demonstra a importância e aplicabilidade da análise fatorial como instrumento para predizer os fenômenos empíricos. reduzindo a ordem da matriz de covariância. 2 Fernando Sabbi Melgarejo. Mestre e Doutorando da Universidade Católica de Brasília – UCB em Economia de Empresas. ou seja. Componentes Fatorabilidade. por um número menor de fatores.. desenvolvido por Pasquali (1997). tendo como referência os princípios que orientaram a criação das matrizes progressivas de Raven. Professor do Centro Universitário Planalto do Distrito Federal . os quais são essenciais para construção de um modelo de análise fatorial adequado. Professor da Universidade Católica de Brasília UCB e Analista Sênior do Banco do Brasil. Professor da Universidade Católica de Brasília . Endereço Eletrônico: ronaldofernandes@bol.com. Mestre em Economia de Empresas pela Universidade Católica de Brasília.Análise fatorial. analisam-se aspectos como fatorabilidade.com.br 3 Ronaldo Augusto da Silva Fernandes. Uma Análise do Teste Não Verbal de Raciocínio para Crianças Adriano Campos Menezes 1 Fernando Sabbi Melgarejo 2 Ronaldo Augusto da Silva Fernandes 3 Resumo: O presente artigo mostra um estudo aplicado à análise fatorial. Endereço Eletrônico: fsmelgarejo@hotmail. busca-se explicar a variância comum entre as variáveis de um determinado campo do conhecimento. Mestre em Economia de Empresas pela Universidade Católica de Brasília – UCB.com. Palavras-chave: Análise Fatorial. Principais.UCB e Gerente de Divisão do Banco do Brasil.

1938). a redução da ordem da matriz de covariância. na seção 4. abordaremos o assunto efetuando uma vasta revisão teórica sobre a aplicação estatística da análise fatorial no estudo TNVRI e descrevemos os testes e os critérios adotados. O presente artigo está dividido em quatro partes. as conclusões decorrentes deste estudo aplicado.1927. na última parte. incluindo esta. A importância da utilização estatística da análise fatorial. é descrito o método de extração e rotação dos fatores relevantes para este trabalho. A segunda vertente. demonstra que as relações entre um série de variáveis (as intercorrelações) podiam ser explicadas por um único grande fator. Pondaag (1999). Inicialmente. 764 . Palácios (1999) e Caixeta (1999) são unânimes em afirmar que o trabalho de Raven (1997) origina-se de três vertentes teóricas. 1907. utilizando a análise fatorial para o Teste Não Verbal de Raciocínio para Crianças (TNVRI). objetiva explicar a variância comum entre as variáveis de um determinado campo do conhecimento. A este respeito. por um número menor de fatores. 2. desenvolvido por Pasquali (1997). na seção 2. foram expostos os principais resultados. 1913. portanto. De acordo com Pondaag (1999). ou seja. chamado de fator geral. Quanto ao TNVRI. a teoria de Gestalt. de interesse secundário ou irrelevante”. Por fim.Introdução O propósito deste estudo consiste em examinar a aplicabilidade das técnicas estatísticas. a primeira vertente. Em seguida. Na seção 3. O que este fator não explica das variáveis constitui algo específico de cada variável e. “a teoria dos fatores de Spearman (fator “g”) (1904ab. bem como as análises. Referencial teórico Recentes estudos foram realizados aplicando os princípios da análise fatorial no contexto de testes de raciocínio. baseia-se nos princípios que orientaram a criação das matrizes progressivas de Raven. desenvolvido Pasquali (1997).

os testes utilizaram a teoria dos dois fatores. raciocínio analógico.revela-se na construção dos itens. Destarte. em conseqüência disso. o KMO será igual a 1 e a matriz de 765 . da mesma forma que o Principal Components (PC). pode-se restringir a sua fatorabilidade. fundamentalmente. Metodologia O método aplicado nesta pesquisa visa.30. Em pesquisas feitas sobre as matrizes progressivas de Raven. pelo menos. O tamanho da matriz da correlação – A fatorabilidade da matriz é aceitável se. definido como Direct Oblimin. 50% das correlações estiverem fora do intervalo de 0. consiste em resolver uma equação eigen (equação do valor próprio). quais sejam: I. raciocínio analógico abstrato e dedução reflexiva..segundo Caixeta (1999). Ainda segundo Caixeta (1999). baseado na análise direta das cargas fatoriais dos fatores primários. “.. II. Entretanto. 3. a última corrente. o qual. ou seja. o do raciocínio. Estes fatores são altamente relacionados. Quanto aos critérios para se definir a fatorabilidade da matriz de correlação. fez-se uso dos seguintes métodos estatísticos. Pondaag (1999) salienta que Pasquali (1997) não considera necessário se admitir a teoria dos dois fatores para se poder aproveitar das idéias de Spearman e de Raven. “fala de um desenvolvimento em etapas e numa direção progressiva”. explicar a variância comum das variáveis por meio de um conjunto reduzido de fatores. para extração dos fatores utilizou-se o método do Principal Axis Factoring (PAF). sendo que as estimativas para comunalidades representam o quadrado das correlações múltiplas. o que define que os teste de Raven medem um grande fator. eles foram elaborados de forma que a solução se baseasse na percepção espacial ou lógica de uma gestalt (forma)”. ele verificou que referidos testes são compostos dos seguintes fatores: percepção da gestalt. Teste de adequação da amostra de Kaiser-Meyer-Olkin (KMO) – Se a matriz anti-imagem for 0. Caso contrário. Na rotação dos fatores emprega-se um método de rotação oblíqua proposto por Jennrich e Sampson (1966).30 e –0.

Kaiser (1974) caracteriza os valores do KMO como sendo: 0. 0. 766 . e os valores abaixo de 0. retendo apenas os que se encontram a esquerda deste ponto. 0.80 – meritório. Critério Harman (1967) – neste critério são considerados os fatores que explicam pelo menos 3% da variância total das variáveis. e também da consistência dos fatores. Após avaliados todos os critérios mencionados anteriormente. indicando que a matriz pode ser reduzida. 0. Quanto mais distante de um for esta estatística. por ser o nível mínimo de relevância para um determinado fator. II. Quadrados dos coeficientes de correlações múltiplas (R2) – mede a grandeza de associação linear entre as variáveis. pois indica que as variáveis não têm muita coisa em comum. III. Eigenvalues – de acordo com Kaiser (1974).50 – inaceitáveis. é necessário definir critérios para escolha do número de fatores (extração).70 – mediano. tem por objetivo plotar os eigenvalues e descobrir por inspeção visual onde os pontos que representam os componentes passam de uma inclinação acentuada para uma quase horizontal. pois explica menos que a variância total de uma única variável. IV. 0. Teste scree – para Carttell (1966). haverá problemas de multicolinearidades entre os fatores.correlação é perfeitamente fatorizável.50 – miserável. caso contrário. a decisão de quantos fatores devem ser escolhidos.30. este critério consiste em eliminar os componentes e fatores que apresentem os eigenvalues menores do que um. O determinante da matriz de correlação – o valor do determinante deve ser muito próximo de zero. Tendo em vista que análise fatorial tende a expressar grande número de variáveis por um conjunto reduzido de fatores. III. da suficiência (matriz residual). mais precária se torna a fatorabilidade da matriz de covariância. os quais são relacionados a seguir: I. os quais são definidos a seguir: I. Independência dos fatores – a correlação entre os fatores deve situar-se abaixo de 0.60 – medíocre. ainda depende da análise da independência.90 – maravilhoso.

4. e aceita-se que somente 5% de tais resíduos sejam considerados grandes. III. A construção do Teste Não Verbal de Raciocínio para Crianças (TNVRI) foi baseada nos princípios que orientaram a criação das Matrizes Progressivas de Raven (1902-1907). cuja utilização atualmente é bastante comum. a amostra é composta de um teste com 60 itens aplicados a 600 alunos da escola pública. nível sócio-econômico médio ou baixo. foi aplicado a esta base de dados. rotação Oblíqua (Direct Oblimin). a única regra que todos os teóricos estão de acordo é que ela deve ter mais de 200 casos. “Há duas regras que auxiliam nesta decisão: se o pesquisador sabe mais ou menos o número de fatores que a matriz contém deve usar 100 casos para cada fator. Matriz residual – esta matriz resulta da diferença entre a matriz de correlação das variáveis observadas e a matriz reproduzida a partir da matriz fatorial. Como descrito anteriormente. ou seja.05 são considerados elevados. residentes no estado do Rio Grande do Sul e Distrito Federal. deve usar cerca de 10 casos para cada variável observada”.80.II. O tamanho da amostra mostrou-se suficiente e adequada para análises. os fatores extraídos não são suficientes. as quais serão exploradas a seguir. se o seu coeficiente de fidedignidade apresentar um alfa maior ou igual a 0. Análises e Resultados Neste estudo. exceto no caso em que os fatores sejam poucos e bem fundamentados.1999) 4 767 . por meio do critério de Jenrich e Sampson (1966). A rejeição desta hipótese indica que existe algum outro fator a ser extraído. se o pesquisador não tiver nenhuma idéia sobre o número de fatores contidos na matriz. (Pondaag. a qual considera-se um fator dito consistente. utilizando-se o método de extração Principal Axis Factoring. Consistência do Fator – Baseia-se na análise do alfa de Cronbach. situação em que análise fatorial com até 50 casos pode fazer sentido4. com idades entre 05 e 15 anos. a análise através do método do Principal Axis Factoring resume-se basicamente em quatro etapas. O SPSS (Statistics Package For the Social Sciences). De acordo com Pondaag (1999). quanto à adequação da amostra. Os resíduos acima de 0.

não obstante que poderemos encontrar dificuldades. Finalmente. situação que. Para isto. 5 768 . Para Kaiser (1974) apenas os valores acima de 0. a fatorabilidade da matriz de correlação se apresenta viável. não existirá fatores ou componentes comuns. os quais serão fundamentais para expressar as variáveis observadas em um número reduzido de variáveis hipotéticas. os quadrados dos coeficientes de correlações múltiplas (R2).50 são adequados e ele classifica o resultado aqui obtido como meritório. reduzir a ordem da matriz de correlação para um número de Segundo Pasquali (2000). corroboram com o KMO. 4. que medem a grandeza de associação linear entre as variáveis. Quanto ao tamanho das correlações. reforçando que a matriz pode ser reduzida. pois a maioria dos R2 são superiores a 0. para reforçar ainda mais as estatísticas supra citadas. a princípio. pelo resultado do teste de adequação da amostra de Kaiser-Meyer-Olkin (KMO).2 Número de Fatores ou Componentes Nesta etapa. vis-à-vis o KMO de 0. a fatorabilidade da matriz de correlação será comprovada por meio da realização dos testes estatísticos mencionados na seção 3. a análise fatorial tem dois objetivos principais: o primeiro expressa uma provável função linear entre as variáveis. inviabiliza a análise fatorial.874.1 Fatorabilidade da Matriz de Correlação Após extração da matriz de correlação. verificar se esta pode ser considerada como fatorável5. é necessário.4. e a análise produzirá tantos fatores quantas forem as variáveis.1 anexa. no que pese as distorções advindas do tamanho inadequado das correlações.70. tendo em vista a determinação dos fatores ou componentes principais. caso as variáveis sejam independentes.30 e –0. tabela 1. verificamos que apenas 7% dessas estão fora do intervalo de 0. Para tanto. e segundo. Além disso. tem-se o intuito de determinar as quantidades ótimas de fatores ou componentes principais. Entretanto. o determinante da matriz de correlação é muito próxima de zero.30.

o valor do alfa de Cronbach para o fator 3 é de 0. Os alfas de Cronbach calculados foram de 0. Assim sendo. 19 fatores são escolhidos. 0. ou seja. nesta terceira etapa serão usados os métodos de extração Principal Axis Factoring (PAF) e o de rotação Direct Oblimin.80. 4. consiste em observar as recomendações de Kaiser (1974). Quando se executa a extração com 3 fatores. neste caso 4 fatores obedecem este critério. para os fatores 1 e 2.9137 e 0. sugere utilizar o gráfico para tomar decisão do número de componentes importantes a reter. que considera que um fator só será relevante se explicar mais que 3% da variância total das variáveis. Outro critério é o teste Scree.4263. indicando um bom nível de constância e invariância dos fatores. para a extração de 2 fatores.1. 6 769 . Outro procedimento. é necessário fazermos a rotação dos fatores para os casos já mencionados. o número de fatores comuns a serem utilizados será entre 2 e 4. sendo responsáveis por 29. 7 Os alfas de Cronbach calculados foram de 0.8785.8914. Para definição do número exato. tanto o fator 1 como o fator 2 apresentam coeficientes de fidedignidade (alfa de Cronbach) acima de 0. através da inspeção visual do gráfico 1. entretanto. A partir destes testes. O primeiro critério que foi utilizado para definir o número de fatores comuns entre as variáveis.3 Extração e Rotação dos Fatores Como foi definido anteriormente. 2 e 3. respectivamente. De outra forma.componentes que seja menor que as variáveis observadas (Pasquali. 2000).8802 e 0. tendo como base o princípio da parcimônia. é o defendido por Harmam (1967).24% da variância total. nível considerado baixo. Desta forma. dando indícios que o fator quanto a precisão não é confiável. respectivamente.42. os fatores podem ser confiáveis6. os fatores 1 e 2 continuam apresentando bons níveis de consistência7. Em termos de consistência. para os fatores 1. o número ótimo de fatores estaria entre 2 e 4. que sugere rejeitar os componentes ou fatores que apresentem eigenvalues menores do que um. que de acordo com Cattell (1966).

4 anexas. respectivamente.05. Conclusão A partir dos resultados da análise fatorial.9002. pela utilização dos fatores 1 e 2. Com relação a independência dos fatores. o fatores 1 e 2. Conclui-se. que a consistência de um fator relaciona-se ao tamanho das cargas fatoriais e também ao número de itens que compõe o fator.quanto a extração se dá para 4 fatores.30. para o primeiro (2 fatores).3 e 1. Com relação a este critério.4909 e 0. em todos casos. portanto. portanto. depreende-se da análise da matriz de correlação residual. encontramos 24%. respectivamente. conforme definido na teoria. para os fatores 1. dado que a correlação entre os fatores apresentam valores abaixo de 0. conforme as tabelas 1. quando comparados às demais extrações realizadas. 20% e 17% de resíduos acima de 0. No entanto. a qual resulta da subtração da matriz de correlação original e a matriz de correlação reproduzida. Sendo assim. de duvidosa validade. 0. 3 e 4. 8 770 . parece mais coerente extrair apenas dois fatores. 0.8364. enquanto os fatores 2 e 4 apresentam níveis satisfatórios e confiáveis8. foram considerados inconsistentes e. significa que há em todos os casos boa parte da variância comum que não é explicada pelos fatores extraídos. 2. os fatores 1 e 3 são considerados inconsistentes. Convém ressaltar. Assim sendo. os resíduos grandes (acima de 0.7687. Os critérios analisados afirmam que a explicação por meio destes sugerem um maior nível de consistência e confiabilidade. que os fatores podem ser considerados estatisticamente independentes.2. de acordo com o critério de Cronbach. desprezados para o estudo em questão. Uma outra análise para fundamentar a decisão de quantos fatores utilizar. alguns fatores. como foi analisado na seção anterior. Os alfas de Cronbach calculados foram de 0. segundo (3 fatores) e terceiro (4 fatores) casos. 1. Nos demais casos. sendo estes os melhores representantes fatoriais das variáveis examinadas no presente estudo.05) não podem ser superiores a 5%. os resultados mostram.

CHOI. UNB. Juliana Eugênia. Análise Fatorial do Teste Não Verbal de Raciocínio para Crianças – TNVR. 2000 VARGA. 1998. Gyorgy. 35-45. 1999. Volatility and Openness of Emerging Markets: Some Empirical Evidence. DOUKAS. Emerging Capital Markets: Financial and Investment Issues. UNB. Brasília. Análise Fatorial do TNVRI. 1999. Pp. Jay. Movimentos de Estrutura a Termo da Taxa de Juros Brasileira e Imunização. Marcos. Brasília. 2001. VALLI. Economia Aplicada.Referências Bibliográficas PASQUALI. Miriam Cássia Mendonça. USP – SP. John. Laboratório de Pesquisa em Avaliação e Medida. PALACIOS. Análise Fatorial para Pesquisadores. PONDAAG. Kátia P. Análise Fatorial: TNVRI. Luiz. 1999. CAIXETA. Greenwood Publishers: Westport. 771 .

285 2 -.000 -.209 -.263 3 .2 .176 -.248 2 -.754 1770 .000 -.Factor Correlation Matrix Factor 1 2 3 4 1 1.000 Extraction Method: Principal Axis Factoring. Fonte: SPSS 10.4 . Bartlett's Test of Sphericity Approx. Rotation Method: Oblimin with Kaiser Normalization.193 .263 1.291 1.163 4 -.1 .209 -.000 -.000 Tabela 1.193 1.316 2 -.000 -.Anexos Tabela 1.Factor Correlation Matrix Factor 1 2 1 1.Correlation Matrix Factor 1 2 3 1 1.KMO and Bartlett's Test Kaiser-Meyer-Olkin Measure of Sampling Adequacy.188 . Tabela 1.285 1.0 .188 1. Rotation Method: Oblimin with Kaiser Normalization.000 -.3 .000 -.163 1. Rotation Method: Oblimin with Kaiser Normalization.176 3 .000 Extraction Method: Principal Axis Factoring. Chi-Square df Sig.874 7725. 772 .291 .316 .248 -. Factor 1.000 Extraction Method: Principal Axis Factoring.

Gráfico 1.1 – Scree Plot Scree Plot 12 10 8 6 4 Eigenvalue 2 0 1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 Component Number 773 .

com.FAX: (11) 6096-7062 E-mail: sar-sol@ibest.Editora Sol Soft’s e Livros Ltda Rua Borges de Figueiredo. 932 Mooca. SP .br 774 . São Paulo.CEP: 03110001 FONE: (11) 6292-1377 .

Sign up to vote on this title
UsefulNot useful