You are on page 1of 36

Revista do Centro Universitário Planalto do Distrito Federal – UNIPLAN – Volume 3 Nº 3 ISSN 1807-4855

Cesubra Scientia
Volume 3, Nº 3, 2006

ISSN 1807-4855
Sociedade Objetivo de Ensino Superior Presidente Doutor João Carlos Di Gênio Diretor Administrativo Administrador Hildebrando José Rossi Filho Diretor Financeiro Administrador Rudge Allegretti Diretor Pedagógico Professor Jorge Brihy Centro Universitário Planalto do Distrito Federal Reitor Prof. Dr. Yugo Okida Vice-Reitor Prof. MS. Fabio Nogueira Carlucci Pró-Reitor Acadêmico Prof. Dr. Humberto Vendelino Richter Pró-Reitor Administrativo Prof. MS. Robson do Nascimento Coordenadora Geral Prof.(a) Maria Cecília Matos Grisi Secretário Geral Administrador Armindo Corrêa Brito Comissão Editorial Prof. Dr. Angel Rodolfo Baigorri Prof. Dr. Carlos Alberto Fernandes de Oliveira Prof.(a) Dr.(a) Cláudia da Silva Costa Prof. Dr. Demóstenes Moreira Prof. Dr. Eui Jung Chang Prof. Dr. João Estevão Giunti Ribeiro Prof.(a) Dr.(a) Maria Raquel Speri Prof. Dr. Humberto Vendelino Richter Produção Gráfica Agência Práxis - Agência Modelo do Cesubra Editoração Eletrônica Geraldo de Assis Amaral Revisão Professora Claudete Matarazzo Nogueira Carlucci Capa Wilton Oliveira Cardoso
Matérias assinadas são de exclusiva responsabilidade dos autores. Direitos autorais reservados. Citação parcial permitida com referência à fonte.

Cesubra Scientia
Volume 3, Nº 3, 2006 ISSN 1807-4855

SUMÁRIO

BRASÍLIA ESTADO PERFEITO X DESIGUALDADES SOCIAIS TESE E ANTÍTESE Leila Soares Teixeira............................................................................741 DESENVOLVIMENTO HISTÓRICO DA CRIPTOGRAFIA Jorge Loureiro Dias...............................................................................749 ANÁLISE FATORIAL - UMA ANÁLISE DO TESTE NÃO VERBAL DE RACIOCÍNIO PARA CRIANÇAS Adriano Campos Menezes; Fernando Sabbi Melgarejo; Ronaldo Augusto da Silva Fernandes..................................................................763

Endereço eletrônico: leilain1@hotmail. buscando transformar e utilizar o urbanismo como forma de superação ou diminuição das desigualdades sociais. Professora do Centro Universitário Planalto do Distrito Federal – UNIPLAN. controle social.com. planejamento. desigualdade. Mestre em Arquitetura e Urbanismo. Leila Soares Teixeira. equilíbrio. 1 741 . Palavras-chave: Instrumento.Brasília Estado Perfeito X Desigualdades Sociais Tese e Antítese Leila Soares Teixeira1 Resumo: O presente artigo trata da leitura da cidade de Brasília onde esta aparece como um sistema que se comunica objetivamente ao materializar aspectos individuais e sociais. particulares e universais. modernismo.

O modelo era de expansão e “modernização”. aliada a uma determinação governamental.1991).. recebeu também outras influências como a Unidade de Vizinhança de Clarence Perry2 Para analisar e formular qualquer tipo de conceito sobre Brasília.. Diluídas assim as diferenças do status econômico ao longo do eixo rodoviário-residencial. político e cultural da época de sua concepção onde o país vivia um clima de euforia com a idéia desenvolvimentista de J. não apenas como urbs. e isto sem mútuo constrangimento porquanto cada quadra teria moradores de determinado padrão. não se tornou possível gerar mudanças estruturais através deste. mas como civitas.Introdução Historicamente o urbanismo foi usado algumas vezes como instrumento de controle social. Sendo esta basicamente vinculada a Carta de Atenas. a cidade não ficaria estratificada em áreas rigidamente diferenciadas. é preciso em um primeiro momento resgatar o contexto social. e embora tenha sido um ideal modernista.. onde poucas cidades ou talvez nenhuma tenha sido concebida de forma tão inteira (Costa. constituída por quatro super quadras a convivência de pessoas de padrões econômicos diferentes. a característica fundamental do plano era permitir em cada área de vizinhança. Brasília nasceu como uma expressão de um projeto geo-político de ocupação territorial. e se teria 2 Vêr Holanda em O Espaço de Exceção. O país teve neste período de governo a maior aceleração que um processo urbano tenha sofrido em comparação a qualquer outro do mundo. E como afirma Lúcio Costa nasceu pronta. mas ao mesmo tempo cidade viva e aprazível. Cidade planejada para o trabalho ordenado e eficiente. possuidora dos atributos inerentes a uma capital.K.. A concepção da cidade de Brasília traz em si um modelo racionalista “Ela deve ser concebida não como simples organismo capaz de preencher satisfatoriamente e sem esforço as funções vitais próprias de uma cidade moderna qualquer. .. Brasília: Editora da Universidade de Brasília 742 .

na prática. o problema social da coexistência urbana de classes. se apresenta como bela alcançando através do sujeito uma totalidade. Hoje Brasília é como toda cidade de porte metropolitano cheia de desequilíbrios sociais. O interesse passou a ir além do catalogar.é uma resposta ao atual caos das cidades. Marco Teórico Planejamento urbano: um breve histórico Até o pós guerra o estudo do espaço e das cidades eram reservados a geógrafos e arquitetos que só trabalhavam a questão interna em sua funcionalidade.3” Estas palavras evidenciam a preocupação de Lúcio Costa em transformar e utilizar o urbanismo como forma de superação ou diminuição das desigualdades sociais. Mas por outro. 1991). eficiente acolhedor e íntimo.detalhada. como resolver. ainda assim não responde de acordo com os aspectos práticos as expectativas da população da cidade. 20 “a geografia nesta época parece Ter sido de se apresentar como o campo de estudo da terra sendo mais uma demonstração da relação homem e natureza”. criando-se a necessidade de um estudo agora com um âmbito maior.(Gomes. comentada. a questão agora era. planejar e se necessário intervir... Relatório do Plano Piloto de Brasília. Colocada nas mãos de autoridades . sofre com a realidade da dinâmica social do país que apresenta este desequilíbrio. Embora seja uma cidade única. iluminada por uma explicação 3 4 Lúcio Costa. GDF. no sistema capitalista. “a Carta de Atenas abre todas as portas do urbanismo moderno.demonstrado. “Quanto ao projeto é assim que sendo monumental e cômodo. planejada e idealizada por Lúcio Costa.1978:44) 743 . políticos ou ideológicos que influenciavam diretamente no processo e na dinâmica do crescimento das cidades. Foi a partir da evolução do sistema capitalista que ocorreu a explosão das cidades e a dinâmica espacial foi então influenciada drasticamente. p. 1991.” (Costa. Os geógrafos se limitavam a descrição e catalogação das mesmas4. Não se levava em conta os fatores econômicos.

(discurso de Gean Giradeaudoux – nº 4. nova dimensão a cidade. Brasília . é o instrumento pelo qual será guiado o destino das cidades” . Esta gestão cria uma nova ordem legal urbana que promova proteção legal e segurança jurídica para as pessoas da comunidade onde a política de prevenção sustente uma medida essencial para evitar a continuidade das ocupações de áreas consideradas de preservação e 744 . e outros. operar e governar as cidades . É preciso sempre partir deste contexto e os problemas que o envolvem. fazendo emergir aglomerações urbanas de diferentes portes.Planejamento e Gestão democrática A gestão democrática deve ser entendida como forma de planejar.Carta de Atenas. infra estrutura (Habitação. o planejamento e os diversos atores Como já foi abordado. associação deputados. Brasília . qualquer que seja a análise feita esta não pode ser desligada do contexto social. produzir. Diante das constatações e tendências . evidenciando o fato de que não se esgotaram as reflexões nem é ultrapassado discutir e rediscutir o tema.suficiente.cidade. dá hoje. Houve neste processo uma velocidade e uma complexidade na transformação. 1950 Dentro deste contexto o fenômeno urbano metropolitano consolidou-se nacionalmente reforçando a existência de regiões (metropolitanas). moradores. é preciso compreender que a organização de um espaço passa por algo maior do que sua reconstrução ou mero arranjo espacial onde as políticas estatais e suas ações têm que ser analisadas como um processo onde deva constar a participação e interação dos diversos atores envolvidos. Espaços assentados sobre diversos territórios pedindo suporte material. garantir o acesso a informações e participação sobre os processos decisórios do poder local. CIAM. Instrumentos como a ilegalidade institucionalizada e a especulação imobiliária apoiadas na convivência entre o poder público e empreendedores. governo. equipamento e outros).

”(LE CORBUSIER. ou desconfiança na força da ordem constituída e séria desconfiança nas ordens normativas.1957 . Brasília viu-se transformar radicalmente. “As chaves para o planejamento urbano estão nas quatro funções: moradia. fazendo com que a cidade padeça em um palco de disputas corporativas a luz da composição de forças onde diversos são os novos atores. Observando-se que. governo e população. Onde houve uma mudança agregando forças vindas de: mercado imobiliário. 745 . O surgimento destas localidades se traduziu em um processo de descrédito.Citado em HOLSTOn. circulação. lazer. e antrópicos. fisiográficos. bióticos. hospitais. sem deixar de contemplar o direito a moradia que é reconhecido como um direito humano e está em diversos tratados internacionais dos quais o estado Brasileiro participa. aqui e ali surgiram assentamentos . 5 Correio Brasiliense.proteção ambiental. não se leva em conta o aspecto do lugar como. Estas dimensões econômicas e territoriais sem o menor planejamento trouxeram em si preocupações que causam a cidade organizada um certo desconforto. lazer e outros. janeiro de 2005. além do prejuízo financeiro da ilegalidade que é gigantesco já que os impostos não podem ser recolhidos. J. Não há aí o entendimento de que a urbanização e organização de uma cidade. trabalho. a cidade hoje esta longe de uma proposta racional de planejamento prévio para grande parte de suas “novas cidades”. escolas. E além do conjunto de intenções desses atores . 1993). Onde a não preocupação com infra estruturas como. A uma nova realidade estampada na cidade. passa pela organização de compromissos entre vários atores sociais. nos últimos dez5 anos. sem que as autoridades competentes ousassem barrar.” Esta para ter eficácia pressupõe a ação positiva do estado por meio de execução de políticas públicas. Estas situações resultam na total e rápida transformação da paisagem do Distrito Federal.

antes de mais nada. amenidades e outros) aos quais o consumidor associa diferentes níveis de utilidade. que transcendem o mero agrupamento de indivíduos e de convivências sociais. O Distrito Federal tem em sua lei orgânica a definição de que a política de desenvolvimento urbano objetiva a melhor qualidade de vida de sua população. organizacionais e políticos da urbanização maciça foi um dos canteiros em que floresceram os movimentos modernistas. Os assentamentos irregulares estabelecem neste cenário (Brasília Distrito Federal) uma “cidade virtual”. variadas combinações e graus. a compra dos serviços que presta (espaço. a ocupação ordenada de seu território. técnicos. permite que seja feita. 746 . aos quais correspondem atitudes e sentimentos organizados. E que as metas servem como modelos de movimento e comportamento. Estes novos espaços redesenham a realidade da cidade e vão de frente com leis ineficientes as respostas destes problemas. o uso de bens e serviços e a distribuição dos serviços e equipamentos públicos a todos os cidadãos do lugar. um sistema de costumes e tradições.” (HARVEY D. acessibilidade. desde a satisfação de poder e prestígio social a garantia de privacidade e independência. “a crescente necessidade de enfrentar os problemas psicológicos.fazendo-se necessário a formulação de novas políticas para compensar estas disputas. A posse da habitação pode representar para o indivíduo. 1993) Considerações finais A moradia é um bem ao qual a análise de direito de Propriedade se ajusta com particular adequação. Como decorrência da heterogeneidade de sua composição. que não se relaciona com as condições reais de produção da cidade pelo mercado. “A cidade é. Diante deste contexto Planejar é um sonho? É apenas um quadro desenhado pelo Arquiteto? Platão afirmava que sonhos criam asas e voam.”(lefebvre).

) elas irão agir de acordo com as leis da cidade. Loyola. Ed. CODEPLAN. ESTATUTO DA CIDADE – Guia para implementação pelos municípios e cidadão_Câmara Legislativa.México. Habitação Popular: inventário da ação do Governo. HARVEY. Nelson Zanata. 1997.La política. São Paulo: Ed. Relatório. Brasília: GDF. Referências bibliográficas AZUELA. FINEP. Brasília-DF. (1995) : O Relatório Técnico sobre a Nova Capital da República. EDUSP. GOTTDIENER. e contemplado-a. a utopia encontrará seu lugar no mapa. el papel del Estado y la relación Estado-Sociedad in: Políticas Urbanas y la urbanización de la política. algum dia haverá tal cidade na terra(. e de nenhuma outra” (Platão). Mas se realmente existe. COSTA.vol 2. S. Desplazamiento de un organismo como uma medida contínua de la conducta.P. Mark. 1993. A produção social do espaço.D. Antonio . Condição pós-moderna: uma pesquisa sobre as origens da mudança cultural. 1977. Universidad Autônoma Metropolitana. Relatório do Plano Piloto de Brasília.. 2001.P. 747 . L. orientar-se segundo o que viu. GOMES. e aquele que quiser poderá contemplai-la. UNAM. “No céu há um modelo de cidade assim... FINEP/projeto.Talvez quando um número suficiente de pessoas ver o quadro e seguir o seu lampejo. México. (tese de mestrado) .. S. 1989. 1991.1985.

: Projeto Ed. Anthropos 1981.P. Tradução por Galfina Galvez de Williams. 1995. In Anais do 4 SEDUR. 1999.HOLANDA. SAULE. S.. Buenos Aires: Ed. Brasília: FAU-UnB. Jr. P. Das letras. J. Contemporânea. Paris. N. Direito a Cidade: Trilhas legais para o direito as cidades sustentáveis. S.. A cidade modernista: Uma crítica de Brasília e sua utopia. 1993. A Cidade e a Questão da beleza. Associados Ltda. LA CARTA de Atenas: el Urbanismo de los CIAM. F. A. HOLSTON.P. H. LEFEBVRE. O retorno da dialética. La Producion del l’espaçe. Brasília: ideologia e realidade: espaço urbano em questão. S. 1986. 748 . 1950. Polis. : Cia. PAVIANI. .

Confunde-se. segurança. ciência rival que busca decifrar os algoritmos e chaves utilizadas para criptografrar uma mensagem. chave simétrica. da Idade Antiga aos dias atuais. 1 Jorge Loureiro Dias é Professor do Centro Universitário Planalto do Distrito Federal.br 749 .Desenvolvimento Histórico da Criptografia Jorge Loureiro Dias1 Resumo: A história da criptografia se confunde com a história da Humanidade devido à inerente necessidade de segurança das comunicações. Também serão apresentadas algumas iniciativas adotadas para inserir o Brasil no cenário mundial da comunicação segura. criptografia.com. decriptografia. também. Endereço eletrônico: jloudias@bol. O presente artigo procura apresentar os principais fatos que marcaram o desenvolvimento histórico da criptografia e criptoanálise. informação. com a história da criptoanálise. Palavras-chave: cifras.

desvendando o segredo. que consistiam da substituição simples de uma letra por outra (substituição monoalfabética). ATBAH . Assim. possibilitando uma comunicação segura. A criptografia também proliferou na Mesopotâmia. cobertas com cera e . ALBAM. mais recentemente. Criptografia da idade antiga à idade moderna Acredita-se que uma das primeiras utilizações da criptografia foi feita pelo escriba do faraó Khnumhotep II. funcionavam como certificados rudimentares. microfilmadas e escondidas em pontos de um texto comum.C.C. mensagens eram escondidas dentro de animais. Criptografia é a ciência da escrita de mensagens em cifras ou códigos permitindo que só o destinatário a decifre e compreenda. seja lida facilmente. técnica que veio a ser conhecida como esteganografia. As primeiras medidas adotadas para manutenção do sigilo consistiam. Os hebreus. de forma que só os sacerdotes poderiam decifrá-los. valiam-se das cifras ATBASH. sempre houve a necessidade de evitar que informações confidenciais caíssem nas mãos de inimigos ou se tornassem públicas. a esteganografia permite que a mensagem. encontra-se sua maior rival : a criptoanálise. por volta de 1900 a. uma vez descoberta. no antigo Egito. O ATBASH foi utilizado para escrever o “Livro do Profeta Jeremias” e correspondia a trocar a primeira letra (Aleph) do alfabeto pela última (Taw) e assim 750 .Introdução Na história da humanidade. basicamente. onde os “intaglios” (peças de pedra com símbolos de identificação). que resolveu trocar trechos das escritas em argila que indicavam os caminhos para os tesouros guardados nas pirâmides. tatuadas no couro cabeludo (ocultas depois que o cabelo crescia). em esconder a mensagem . cujo objetivo primordial é transformar a mensagem criptografada em texto claro. por volta de 600 a 500 a. Embora utilizada até hoje. Caminhando lado a lado com a criptografia.

a palavra cifrada XIRKGLTIZURZ. que consistia em escrever a mensagem em uma fita enrolada em um bastão padrão. No alfabeto latino. Ao término. corresponde ao texto CRIPTOGRAFIA. por volta de 475 a. utilizado pelo general espartano Panasius. Um exemplo de criptografia de transposição é o bastão de Licurgo.C. a correspondência seria: A B C D E Z Y X W V Tabela 1 – Cifra de ATBASH F U G T H S I R J Q K P L O M N Assim. o destinatário simplesmente enrolava a fita no seu bastão e lia o conteúdo. Para decifrar o código. a fita era desenrolada e entregue ao mensageiro que a usava como cinto. Figura 1 – Bastão de Licurgo 751 .sucessivamente.

Júlio César. foi o criador da cifra mais famosa da Antiguidade. que consistia. por volta de 50 a. 752 . o código de César. O código de César ainda é utilizado nos dias de hoje.C. como a cifra ROT13. que usava deslocamento de 13 letras (A=N).O código de Políbio é um exemplo de cifra de substituição que troca letras pela combinação de dois números referentes a sua posição. A B D E C F D G E H F I G J H K I L J M K N L O M P N Q O R P S Q T R U S V T W U X V Y W Z X A Y B Z C Figura 3 – Código de César A palavra CRIPTOGRAFIA seria transmitida como FULSWRJUDILD. Outra variação é a utilização de uma palavra-chave . de 1984. na substituição de uma letra pela que lhe sucedia em três posições. 1 1 2 3 4 5 A F K/Q P V 2 B G L R W 3 C H M S X 4 D I N T Y 5 E J O U Z Figura 2 – Código de Políbio Assim a palavra CRIPTOGRAFIA seria transmitida como: 134224414435224211212411. alterando-se o valor do deslocamento. basicamente. como por exemplo TROCADO.

a contribuição maior foi dada pelos árabes. O método consiste em analisar a repetição de uma letra na mensagem. Nos anos 800. al-Kindi. Blaise de Vigenère. Heinrich Cornelius Agrippa apresenta a cifra de Pig Pen (Porco no chiqueiro). escreve um tratado sobre a utilização da “análise de freqüência”. conhecido como "O Pai da Criptologia Ocidental". encerrando o período de trevas da Idade Média. o estudo e aperfeiçoamento da criptografia ganham força. apresenta a substituição polialfabética. como “a”. até ser quebrada por Babagge e Kasiski já nos anos 1800. apresenta a cifra de Vigenère. para decifrar mensagens. “o”. No final dos anos 1400. que assolava o mundo ocidental. que substitui letras por símbolos. al-Khalil.A T B R C O D C E A F D G B H E I F J G K H L I M J N K O L P M Q N R P S Q T R U S V U W V X W Y X Z Y Figura 4 – Código de César com palavra-chave Na Idade Média. Nos anos 700. utilizado para decifrar mensagens. e substituí-la pelas letras mais costumeiramente usadas . Aperfeiçoando as idéias de Alberti. em 1549. incentivados principalmente pelos Governos. um dos marcos da criptografia e que resistiu a todas as técnicas de criptoanálises por três séculos. Com a chegada da Renascença. uma nova técnica que permitia que diferentes símbolos cifrados pudessem representar o mesmo símbolo do texto claro. principalmente pelo temor da Inquisição. Nos anos 1500. filósofo árabe e autor de mais de 290 livros. etc. apresenta o método da “palavra provável”. Leon Battista Alberti. dificultando sobremaneira a aplicação da análise de freqüência. cientes de que informação era poder. 753 . “e”.

A B C D E F G H I 0 A B C D E F G H I J K L M N O P Q R S T U V W X Y Z J K L M N O P Q R S T U V W X Y Z 1 B C D E F G H I J K L M N O P Q R S T U V W X Y Z A 2 C D E F G H I J K L M N O P Q R S T U V W X Y Z A B 3 D E F G H I J K L M N O P Q R S T U V W X Y Z A B C 4 E F G H I J K L M N O P Q R S T U V W X Y Z A B C D 5 F G H I J K L M N O P Q R S T U V W X Y Z A B C D E 6 G H I J K L M N O P Q R S T U V W X Y Z A B C D E F 7 H I J K L M N O P Q R S T U V W X Y Z A B C D E F G 8 I J K L M N O P Q R S T U V W X Y Z A B C D E F G H 9 J K L M N O P Q R S T U V W X Y Z A B C D E F G H I 10 K L M N O P Q R S T U V W X Y Z A B C D E F G H I J 11 L M N O P Q R S T U V W X Y Z A B C D E F G H I J K 12 M N O P Q R S T U V W X Y Z A B C D E F G H I J K L 13 N O P Q R S T U V W X Y Z A B C D E F G H I J K L M 14 O P Q R S T U V W X Y Z A B C D E F G H I J K L M N 15 P Q R S T U V W X Y Z A B C D E F G H I J K L M N O 16 Q R S T U V W X Y Z A B C D E F G H I J K L M N O P 17 R S T U V W X Y Z A B C D E F G H I J K L M N O P Q 18 S T U V W X Y Z A B C D E F G H I J K L M N O P Q R 19 T U V W X Y Z A B C D E F G H I J K L M N O P Q R S 20 U V W X Y Z A B C D E F G H I J K L M N O P Q R S T 21 V W X Y Z A B C D E F G H I J K L M N O P Q R S T U 22 W X Y Z A B C D E F G H I J K L M N O P Q R S T U V 23 X Y Z A B C D E F G H I J K L M N O P Q R S T U V W 24 Y Z A B C D E F G H I J K L M N O P Q R S T U V W X 25 Z A B C D E F G H I J K L M N O P Q R S T U V W X Y Figura 5 – Carreiras de Vigenère. 754 .

Abaixo. Texto Claro Chave Cifrado C C E I R 17 Z F I 8 N R P G A T T D O R E C 2 G V R 17 M I I 8 Q G P V E T X N O B E C 2 G R R 17 I E I 8 M Deslocamento 2 15 19 14 15 19 14 Figura 6 – Exemplo da cifra de Vigenère. cada vez mais sofisticadas devido aos avanços nas áreas da Matemática. os avanços matemáticos e descobrimentos. cifras mais complexas proliferaram. quase sempre. até o surgimento da Cifra de Vigenère. a máquina de calcular e descreveu minuciosamente o sistema binário. novas cifras foram surgindo. só que. o deslocamento é variável e determinado por uma frase ou palavra-chave. Na Idade Moderna. por governantes e militares. A esteganografia também foi fartamente utilizada nesta época. graças aos incentivos dos governantes. 755 . A utilização da criptografia era seletiva e utilizada. Como se pode notar. utilizando a palavra-chave “cripto” e a tabela de Vigenère acima. Os métodos de análise de freqüência e palavra provável provaram ser eficientes técnicas de criptoanálise. Gottfried Wilhelm von Leibniz (1646-1716). ao invés de deslocar cada letra um número fixo de posições para obter a letra cifrada. até o final da Idade Média a criptografia era predominantemente manual e pautada na utilização de cifras monoalfabéticas.A cifra de Vigenère é polialfabética e pode ser considerado como uma variante do Código de César. apresentou um estudo inovador que lançou nova luz sobre o cálculo diferencial e integral. segue um exemplo de utilização de cifragem da frase “cifra de Vigenère”. Com o passar dos anos.

pelos americanos. o código Braille. composta de teclado com 26 letras. precursoras dos computadores. Após arrumar os discos para refletir a linha criptografada. que realiza criptografia polialfabética de forma rápida e eficiente. para as transmissões telegráficas. Figura 7 – Cilindro de Jefferson. Charles Barbage quebra a cifra de Vigenère e apresenta suas calculadoras : a máquina das diferenças e a máquina analítica. Thomas Jefferson apresenta o “cilindro de Jefferson”. Em 1795. No período da Segunda Guerra Mundial. o destinatário procurava a frase em claro em alguma das outras linhas.por William F. Friedman. Em 1854. os nazistas aperfeiçoam e fazem uso intenso da máquina Enigma. Surgem. escrevia-se a mensagem em uma linha e enviava-se uma outra linha qualquer do cilindro para um destinatário que possuísse um cilindro igual. um quadro com 26 lâmpadas. como a máquina SIGABA (M-134-C). um dispositivo denominado "scrambler" constituído por três rotores e um quadro com cavilhas denominado "Steckerboard" que aumentava o nível de segurança. Basicamente.Criptografia contemporânea e atual A Idade Contemporânea foi marcada por grandes avanços tecnológicos e a Revolução Industrial. alcunhado o “pai da criptoanálise”. neste período. 756 . para os cegos e o código Morse . inventada nos EUA . Em 1924 começam a surgir os primeiros protótipos de máquinas de criptografar.

757 . começa o “boom” dos computadores. O indecifrável código da Enigma foi quebrado pela equipe chefiada por Alan Turin. e • inversão da permutação inicial. Para complicar ainda mais os submarinos alemães. chamada de permutação inicial. introduz algumas modificações (como as Caixas S e uma chave menor) e adota a cifra como padrão de encriptação de dados para os EUA o FIPS PUB-46. A IBM apresenta a cifra Lúcifer ao NBS (National Bureau of Standards) o qual. conhecido hoje como DES (Data Encryption Standard).Cada tecla e cada lâmpada eram conectadas por 26 fios. • repetem-se os passos 2 e 3 durante 16 vezes. os rotores moviam-se de forma independente de modo a produzirem uma correspondência entre a letra original e a cifrada. conhecidos como “ U-Boat” . Por volta de 1970. • uma transformação. utilizavam Enigmas de 4 rotores. e que preserva a metade direita. virando a guerra para o lado dos aliados . de 64 bits em 64 bits. Nenhuma letra podia ser cifrada por ela própria. Basicamente o DES funciona através dos seguintes passos: • uma substituição fixa. após avaliar o algoritmo com a ajuda da NSA (National Security Agency). • uma troca das duas metades de 32 bits cada uma. que depende de uma chave de 48 bits. utilizando a máquina The Bombe e o computador Colussus. Figura 8 – Máquina Enigma.

depois de quase trinta anos como padrão. o DES evoluiu. na mensagem. Para manter-se. base dos sistemas de chave pública. realizando operações com números primos extremamente grandes. buscando padrões que possibilitem traduzir a mensagem. o DES não resistiu aos progressos na criptoanálise e a capacidade de processamento distribuída. Para substituí-lo o Governo Americano selecionou o algoritmo de Rijndael . Em 2000. Em 1977.O DES é um algoritmo simétrico e. a explosiva 758 . surge a Criptografia Quântica. Além de trabalhar com funções matemáticas complexas. Phil Zimmerman apresentou ao mundo o PGP (Pretty Good Privacy). Ainda nos anos 90. Adleman apresentam o algoritmo assimétrico RSA. garantiu privacidade das comunicações ao usuário comum e tornou-se padrão para cifrar mensagens transmitidas pela Internet. Qualquer mensagem criptografada com uma das chaves só pode ser decriptografada com a outra. Rivest. que deu origem ao Advanced Encryption Standard (AES). O usuário passou a ter um par de chaves: uma privada. que de forma sumária é executar o DES três vezes. utilizando padrões de criptografia assimétrica e simétrica . que usa fótons únicos para transmitir um fluxo de bits chave para uma posterior cifragem Vernam da mensagem (ou outros usos). Adi Shamir e Leonard M. chegando ao 3DES. programa de computador gratuito que. surge a criptoanálise diferencial. Ronald L. sendo decifrado pela máquina EFF DES Cracker em 56 e depois em 22 horas. de conhecimento e posse apenas do usuário e uma pública. Do início da Idade Contemporânea aos dias atuais. esta técnica compara pares de textos em claro e pares de textos cifrados. No mesmo período. desenvolvida por Biham e Shamir. a criptografia de chave pública eliminou o problema de transmissão da chave. Em 1990. de conhecimento geral. ponto frágil dos algoritmos simétricos. padrão atual. que causaram uma verdadeira revolução no mundo da criptologia. Utilizada para decifrar as mensagens criptografadas pelo DES. desde seu nascimento foi considerado passível de quebra por meio do método da força bruta.

códigos e programas executáveis da urna eletrônica. tornando o processo de cifragem cada vez mais complexo e pesado. o CEPESC dispõe de vários produtos criptográficos. de agosto de 2001. bem como implementar e executar os protocolos de estabelecimento e gerenciamento de chaves criptográficas. todos com tecnologia totalmente nacional. importando os meios criptográficos necessários para salvaguardar suas comunicações. como telefone seguro com criptografia de voz e dados e o módulo criptográfico portátil externo. o surgimento da criptografia assimétrica. adotado pelo TSE. Máquinas mecânicas e digitais substituíram a criptografia manual. digitalmente. para cifragem de dados de microcomputador. como a maior parte dos países . através da Medida Provisória 2200. vinculado à Agência Brasileira de Inteligência (ABIN). o Ministério das Relações Exteriores (MRE) e o então Serviço Nacional de Informações (SNI). inclusive os algoritmos de criptografia. a criação e implementação. sem dúvida. Criptografia no Brasil Tradicionalmente. de módulos criptográficos destinados a proteger o transporte dos resultados eleitorais entre as urnas e os computadores totalizadores do “Sistema de Voto Eletrônico”. Outra iniciativa do Governo Federal para desenvolvimento da segurança da informação foi a criação. sempre foi um consumidor de tecnologias de segurança. além de autenticar e validar. Atualmente. Coube ao CEPESC. Na década de 70. em software básico. iniciaram os trabalhos de criação do Centro de Pesquisas e Desenvolvimento para Segurança das Comunicações (CEPESC).evolução dos meios de comunicações e o advento da Internet fizeram com que a criptografia passasse a ser uma necessidade de todos os segmentos da sociedade. da Infra-Estrutura de Chaves Públicas 759 . O grande marco do período foi. o Brasil. o mais independente possível dos produtos estrangeiros. com o objetivo principal de prover uma tecnologia de segurança nacional. por determinação da Presidência da República. também. os arquivos.

Novas perspectivas surgem a cada dia. desde 2005. a manutenção do segredo é apenas questão de tempo. como os leitores óticos de retina e outras partes do corpo. que tenta substituir a Matemática pela Física na elaboração de segredos e a conjunção de técnicas criptográficas e biométricas. Inicialmente restrita aos círculos do poder. com a massificação dos meios de comunicação. Correio eletrônico. criptografia e.Brasileira. a criptoanálise. a criptografia passou a ser uma necessidade diária de cada cidadão. gerenciada pelo Instituto de Tecnologia da Informação (ITI). para identificação e autorização de acesso a um recurso. utilizando criptografia assimétrica. 760 . Com o advento da escrita. inclusive Secretaria da Receita Federal. tentando decifrar o que foi transmitido. a ICP-Brasil já foi adotada por várias instituições. que. com a finalidade de prover certificação digital. comércio eletrônico são exemplos de serviços que não podem sobreviver sem a segurança oferecida pelos sistemas criptográficos. Conclusão A necessidade de comunicar-se de forma sigilosa remonta ao início da História da Humanidade. aprimoram-se as técnicas de manutenção de segredos. já implementou a certificação digital na declaração do imposto de renda. concomitantemente. da Casa Civil. sítios de bancos. Com o advento de computadores cada vez mais potentes. fazendo com que você seja a sua senha. Utilizando o SERPRO como principal Autoridade Certificadora. O grande objetivo atual é manter o tempo de decifração maior que o tempo de vida útil da mensagem. como a criptografia quântica. a ICP-Brasil. surgindo a esteganografia.

1997.swimmer. S. A. 761 . 2001.swimmer. Simon. Rio de Janeiro: IMPA/SBM.org/morton/enigma. MENEZES. Números inteiros e criptografia RSA.Referências bibliográficas A Linha do Tempo da Criptografia medieval. Boca Raton. O livro dos códigos.org/morton/enigma.html. COUTINHO. SINGH. Record.: CRC Press. Disponível em: http://www. Handbook of applied cryptography. Acesso em 12/05/2006. FL. Acesso em 02/07/2006.html.C. J. Enigma Machine. et al. Disponível em: http://www. 1997.

Mestre e Doutorando da Universidade Católica de Brasília – UCB em Economia de Empresas. Testes Psicológicos. Principais. Uma Análise do Teste Não Verbal de Raciocínio para Crianças Adriano Campos Menezes 1 Fernando Sabbi Melgarejo 2 Ronaldo Augusto da Silva Fernandes 3 Resumo: O presente artigo mostra um estudo aplicado à análise fatorial.com.br 3 Ronaldo Augusto da Silva Fernandes. Professor do Centro Universitário Planalto do Distrito Federal .UNIPLAN. extração e rotação dos fatores. analisam-se aspectos como fatorabilidade.com. Professor da Universidade Católica de Brasília .com.. Rotação de Fatores. 2 Fernando Sabbi Melgarejo. por meio de uma representação simplificada (conjunto reduzido de fatores). busca-se explicar a variância comum entre as variáveis de um determinado campo do conhecimento. Mestre em Economia de Empresas pela Universidade Católica de Brasília – UCB. os quais são essenciais para construção de um modelo de análise fatorial adequado. Endereço Eletrônico – amenezes0@hotmail. reduzindo a ordem da matriz de covariância.Análise fatorial. desenvolvido por Pasquali (1997). utilizando como base de dados o Teste Não Verbal de Raciocínio para crianças (TNVRI). por um número menor de fatores. Endereço Eletrônico: fsmelgarejo@hotmail. ou seja. Palavras-chave: Análise Fatorial. Mestre em Economia de Empresas pela Universidade Católica de Brasília. tendo como referência os princípios que orientaram a criação das matrizes progressivas de Raven. O estudo demonstra a importância e aplicabilidade da análise fatorial como instrumento para predizer os fenômenos empíricos. Endereço Eletrônico: ronaldofernandes@bol.UCB e Gerente de Divisão do Banco do Brasil. Professor da Universidade Católica de Brasília UCB e Analista Sênior do Banco do Brasil. Nesse sentido.br 763 . Componentes Fatorabilidade. 1 Adriano Campos Menezes.

utilizando a análise fatorial para o Teste Não Verbal de Raciocínio para Crianças (TNVRI). 1907. chamado de fator geral. ou seja. O que este fator não explica das variáveis constitui algo específico de cada variável e. a primeira vertente. De acordo com Pondaag (1999). 1913. Na seção 3. 764 . Em seguida. portanto. é descrito o método de extração e rotação dos fatores relevantes para este trabalho. Por fim. na última parte. “a teoria dos fatores de Spearman (fator “g”) (1904ab. desenvolvido Pasquali (1997). Quanto ao TNVRI. A segunda vertente. Pondaag (1999). A este respeito. incluindo esta. abordaremos o assunto efetuando uma vasta revisão teórica sobre a aplicação estatística da análise fatorial no estudo TNVRI e descrevemos os testes e os critérios adotados. demonstra que as relações entre um série de variáveis (as intercorrelações) podiam ser explicadas por um único grande fator. na seção 4. Palácios (1999) e Caixeta (1999) são unânimes em afirmar que o trabalho de Raven (1997) origina-se de três vertentes teóricas. Referencial teórico Recentes estudos foram realizados aplicando os princípios da análise fatorial no contexto de testes de raciocínio. desenvolvido por Pasquali (1997). na seção 2. de interesse secundário ou irrelevante”. as conclusões decorrentes deste estudo aplicado.Introdução O propósito deste estudo consiste em examinar a aplicabilidade das técnicas estatísticas. bem como as análises. foram expostos os principais resultados.1927. a teoria de Gestalt. objetiva explicar a variância comum entre as variáveis de um determinado campo do conhecimento. A importância da utilização estatística da análise fatorial. por um número menor de fatores. 1938). O presente artigo está dividido em quatro partes. a redução da ordem da matriz de covariância. baseia-se nos princípios que orientaram a criação das matrizes progressivas de Raven. 2. Inicialmente.

30.30 e –0. em conseqüência disso. 3. Ainda segundo Caixeta (1999). fundamentalmente. o do raciocínio.. quais sejam: I. Metodologia O método aplicado nesta pesquisa visa. sendo que as estimativas para comunalidades representam o quadrado das correlações múltiplas. consiste em resolver uma equação eigen (equação do valor próprio). II. Em pesquisas feitas sobre as matrizes progressivas de Raven. definido como Direct Oblimin.. Destarte. eles foram elaborados de forma que a solução se baseasse na percepção espacial ou lógica de uma gestalt (forma)”. 50% das correlações estiverem fora do intervalo de 0. baseado na análise direta das cargas fatoriais dos fatores primários. ou seja. ele verificou que referidos testes são compostos dos seguintes fatores: percepção da gestalt.revela-se na construção dos itens. Entretanto. Estes fatores são altamente relacionados. a última corrente. explicar a variância comum das variáveis por meio de um conjunto reduzido de fatores. para extração dos fatores utilizou-se o método do Principal Axis Factoring (PAF). Quanto aos critérios para se definir a fatorabilidade da matriz de correlação. Caso contrário. pelo menos. da mesma forma que o Principal Components (PC). Teste de adequação da amostra de Kaiser-Meyer-Olkin (KMO) – Se a matriz anti-imagem for 0. raciocínio analógico abstrato e dedução reflexiva. o que define que os teste de Raven medem um grande fator. O tamanho da matriz da correlação – A fatorabilidade da matriz é aceitável se. fez-se uso dos seguintes métodos estatísticos. raciocínio analógico. pode-se restringir a sua fatorabilidade. o KMO será igual a 1 e a matriz de 765 . o qual. os testes utilizaram a teoria dos dois fatores. “.segundo Caixeta (1999). Pondaag (1999) salienta que Pasquali (1997) não considera necessário se admitir a teoria dos dois fatores para se poder aproveitar das idéias de Spearman e de Raven. Na rotação dos fatores emprega-se um método de rotação oblíqua proposto por Jennrich e Sampson (1966). “fala de um desenvolvimento em etapas e numa direção progressiva”.

50 – miserável. caso contrário. os quais são relacionados a seguir: I. III.30. Após avaliados todos os critérios mencionados anteriormente. é necessário definir critérios para escolha do número de fatores (extração). tem por objetivo plotar os eigenvalues e descobrir por inspeção visual onde os pontos que representam os componentes passam de uma inclinação acentuada para uma quase horizontal.60 – medíocre. e os valores abaixo de 0. III. Tendo em vista que análise fatorial tende a expressar grande número de variáveis por um conjunto reduzido de fatores.50 – inaceitáveis.70 – mediano. 0. Kaiser (1974) caracteriza os valores do KMO como sendo: 0. mais precária se torna a fatorabilidade da matriz de covariância. este critério consiste em eliminar os componentes e fatores que apresentem os eigenvalues menores do que um.correlação é perfeitamente fatorizável. 0. Quadrados dos coeficientes de correlações múltiplas (R2) – mede a grandeza de associação linear entre as variáveis. por ser o nível mínimo de relevância para um determinado fator. pois indica que as variáveis não têm muita coisa em comum. Quanto mais distante de um for esta estatística. Critério Harman (1967) – neste critério são considerados os fatores que explicam pelo menos 3% da variância total das variáveis. Teste scree – para Carttell (1966). Eigenvalues – de acordo com Kaiser (1974).80 – meritório.90 – maravilhoso. IV. retendo apenas os que se encontram a esquerda deste ponto. 0. pois explica menos que a variância total de uma única variável. indicando que a matriz pode ser reduzida. e também da consistência dos fatores. ainda depende da análise da independência. 766 . os quais são definidos a seguir: I. Independência dos fatores – a correlação entre os fatores deve situar-se abaixo de 0. 0. II. a decisão de quantos fatores devem ser escolhidos. da suficiência (matriz residual). haverá problemas de multicolinearidades entre os fatores. O determinante da matriz de correlação – o valor do determinante deve ser muito próximo de zero.

a única regra que todos os teóricos estão de acordo é que ela deve ter mais de 200 casos.05 são considerados elevados. (Pondaag. deve usar cerca de 10 casos para cada variável observada”. 4. A construção do Teste Não Verbal de Raciocínio para Crianças (TNVRI) foi baseada nos princípios que orientaram a criação das Matrizes Progressivas de Raven (1902-1907). III. ou seja. Consistência do Fator – Baseia-se na análise do alfa de Cronbach. A rejeição desta hipótese indica que existe algum outro fator a ser extraído. exceto no caso em que os fatores sejam poucos e bem fundamentados.II. rotação Oblíqua (Direct Oblimin). cuja utilização atualmente é bastante comum. se o seu coeficiente de fidedignidade apresentar um alfa maior ou igual a 0. as quais serão exploradas a seguir. por meio do critério de Jenrich e Sampson (1966). O tamanho da amostra mostrou-se suficiente e adequada para análises. os fatores extraídos não são suficientes. foi aplicado a esta base de dados. nível sócio-econômico médio ou baixo. e aceita-se que somente 5% de tais resíduos sejam considerados grandes. Como descrito anteriormente. “Há duas regras que auxiliam nesta decisão: se o pesquisador sabe mais ou menos o número de fatores que a matriz contém deve usar 100 casos para cada fator.80.1999) 4 767 . situação em que análise fatorial com até 50 casos pode fazer sentido4. a qual considera-se um fator dito consistente. De acordo com Pondaag (1999). a análise através do método do Principal Axis Factoring resume-se basicamente em quatro etapas. com idades entre 05 e 15 anos. Análises e Resultados Neste estudo. Matriz residual – esta matriz resulta da diferença entre a matriz de correlação das variáveis observadas e a matriz reproduzida a partir da matriz fatorial. a amostra é composta de um teste com 60 itens aplicados a 600 alunos da escola pública. utilizando-se o método de extração Principal Axis Factoring. quanto à adequação da amostra. se o pesquisador não tiver nenhuma idéia sobre o número de fatores contidos na matriz. Os resíduos acima de 0. residentes no estado do Rio Grande do Sul e Distrito Federal. O SPSS (Statistics Package For the Social Sciences).

pois a maioria dos R2 são superiores a 0.4. tem-se o intuito de determinar as quantidades ótimas de fatores ou componentes principais. no que pese as distorções advindas do tamanho inadequado das correlações. que medem a grandeza de associação linear entre as variáveis. os quais serão fundamentais para expressar as variáveis observadas em um número reduzido de variáveis hipotéticas.70.874. a princípio. Finalmente. Para isto. inviabiliza a análise fatorial. Além disso. é necessário.1 Fatorabilidade da Matriz de Correlação Após extração da matriz de correlação. pelo resultado do teste de adequação da amostra de Kaiser-Meyer-Olkin (KMO). Para tanto. tendo em vista a determinação dos fatores ou componentes principais. 4. vis-à-vis o KMO de 0. a fatorabilidade da matriz de correlação será comprovada por meio da realização dos testes estatísticos mencionados na seção 3. tabela 1. não obstante que poderemos encontrar dificuldades. situação que. não existirá fatores ou componentes comuns. reduzir a ordem da matriz de correlação para um número de Segundo Pasquali (2000).1 anexa. caso as variáveis sejam independentes.30.2 Número de Fatores ou Componentes Nesta etapa.50 são adequados e ele classifica o resultado aqui obtido como meritório. corroboram com o KMO. reforçando que a matriz pode ser reduzida. Para Kaiser (1974) apenas os valores acima de 0. verificamos que apenas 7% dessas estão fora do intervalo de 0. verificar se esta pode ser considerada como fatorável5. a análise fatorial tem dois objetivos principais: o primeiro expressa uma provável função linear entre as variáveis. e segundo. o determinante da matriz de correlação é muito próxima de zero. 5 768 . para reforçar ainda mais as estatísticas supra citadas. a fatorabilidade da matriz de correlação se apresenta viável.30 e –0. os quadrados dos coeficientes de correlações múltiplas (R2). Quanto ao tamanho das correlações. Entretanto. e a análise produzirá tantos fatores quantas forem as variáveis.

Os alfas de Cronbach calculados foram de 0. os fatores 1 e 2 continuam apresentando bons níveis de consistência7. sugere utilizar o gráfico para tomar decisão do número de componentes importantes a reter.80. que de acordo com Cattell (1966). através da inspeção visual do gráfico 1.8914. para os fatores 1 e 2. tanto o fator 1 como o fator 2 apresentam coeficientes de fidedignidade (alfa de Cronbach) acima de 0. o número de fatores comuns a serem utilizados será entre 2 e 4. Para definição do número exato. Outro critério é o teste Scree. Quando se executa a extração com 3 fatores. ou seja.3 Extração e Rotação dos Fatores Como foi definido anteriormente. o número ótimo de fatores estaria entre 2 e 4.42. 7 Os alfas de Cronbach calculados foram de 0. respectivamente. O primeiro critério que foi utilizado para definir o número de fatores comuns entre as variáveis. é o defendido por Harmam (1967). Assim sendo. 2 e 3. nesta terceira etapa serão usados os métodos de extração Principal Axis Factoring (PAF) e o de rotação Direct Oblimin. 0. para a extração de 2 fatores. 2000). 4.4263. o valor do alfa de Cronbach para o fator 3 é de 0. A partir destes testes. entretanto. os fatores podem ser confiáveis6.9137 e 0. indicando um bom nível de constância e invariância dos fatores. dando indícios que o fator quanto a precisão não é confiável. 6 769 . 19 fatores são escolhidos.8785. Em termos de consistência.8802 e 0.componentes que seja menor que as variáveis observadas (Pasquali. para os fatores 1. sendo responsáveis por 29. consiste em observar as recomendações de Kaiser (1974). Desta forma. nível considerado baixo. que sugere rejeitar os componentes ou fatores que apresentem eigenvalues menores do que um. De outra forma. que considera que um fator só será relevante se explicar mais que 3% da variância total das variáveis. neste caso 4 fatores obedecem este critério.1.24% da variância total. é necessário fazermos a rotação dos fatores para os casos já mencionados. Outro procedimento. tendo como base o princípio da parcimônia. respectivamente.

3 e 4. desprezados para o estudo em questão. os resultados mostram. em todos casos. Sendo assim. 2. Assim sendo.9002. Nos demais casos. encontramos 24%.quanto a extração se dá para 4 fatores.8364. portanto.3 e 1. o fatores 1 e 2. alguns fatores. Conclui-se. pela utilização dos fatores 1 e 2. segundo (3 fatores) e terceiro (4 fatores) casos. enquanto os fatores 2 e 4 apresentam níveis satisfatórios e confiáveis8. foram considerados inconsistentes e. de acordo com o critério de Cronbach. para os fatores 1. conforme definido na teoria. conforme as tabelas 1. os fatores 1 e 3 são considerados inconsistentes. significa que há em todos os casos boa parte da variância comum que não é explicada pelos fatores extraídos. os resíduos grandes (acima de 0. portanto. Convém ressaltar. de duvidosa validade.4909 e 0. parece mais coerente extrair apenas dois fatores. 8 770 . como foi analisado na seção anterior. a qual resulta da subtração da matriz de correlação original e a matriz de correlação reproduzida. que a consistência de um fator relaciona-se ao tamanho das cargas fatoriais e também ao número de itens que compõe o fator. 0.4 anexas. 0. 1. No entanto. Os critérios analisados afirmam que a explicação por meio destes sugerem um maior nível de consistência e confiabilidade.2. Os alfas de Cronbach calculados foram de 0. que os fatores podem ser considerados estatisticamente independentes. Com relação a independência dos fatores. quando comparados às demais extrações realizadas. respectivamente. respectivamente. sendo estes os melhores representantes fatoriais das variáveis examinadas no presente estudo.05. para o primeiro (2 fatores). Uma outra análise para fundamentar a decisão de quantos fatores utilizar. Com relação a este critério.05) não podem ser superiores a 5%. dado que a correlação entre os fatores apresentam valores abaixo de 0. 20% e 17% de resíduos acima de 0.7687. depreende-se da análise da matriz de correlação residual. Conclusão A partir dos resultados da análise fatorial.30.

1999. Análise Fatorial do TNVRI. CHOI. Emerging Capital Markets: Financial and Investment Issues. Luiz. 1999. USP – SP. UNB. Greenwood Publishers: Westport. Kátia P. 1998. PONDAAG. Volatility and Openness of Emerging Markets: Some Empirical Evidence. Gyorgy. Brasília. Economia Aplicada. DOUKAS. Brasília. CAIXETA. 1999. John. Marcos. Juliana Eugênia. Jay. Movimentos de Estrutura a Termo da Taxa de Juros Brasileira e Imunização. UNB. Pp. 35-45. 2000 VARGA. Laboratório de Pesquisa em Avaliação e Medida. VALLI. PALACIOS. Análise Fatorial do Teste Não Verbal de Raciocínio para Crianças – TNVR. Miriam Cássia Mendonça.Referências Bibliográficas PASQUALI. 2001. 771 . Análise Fatorial para Pesquisadores. Análise Fatorial: TNVRI.

188 .4 .291 1.316 2 -.193 1.291 .000 -.000 -.2 .316 .209 -.754 1770 .163 1.000 -. Rotation Method: Oblimin with Kaiser Normalization.0 .1 .Factor Correlation Matrix Factor 1 2 3 4 1 1.000 -. Rotation Method: Oblimin with Kaiser Normalization.163 4 -. Fonte: SPSS 10.Anexos Tabela 1.285 1.3 .285 2 -. 772 .193 .000 -. Rotation Method: Oblimin with Kaiser Normalization.000 Tabela 1.000 Extraction Method: Principal Axis Factoring.248 -. Bartlett's Test of Sphericity Approx.KMO and Bartlett's Test Kaiser-Meyer-Olkin Measure of Sampling Adequacy.176 3 .263 1. Factor 1.176 -.Correlation Matrix Factor 1 2 3 1 1.Factor Correlation Matrix Factor 1 2 1 1.209 -.263 3 .000 Extraction Method: Principal Axis Factoring.248 2 -.000 Extraction Method: Principal Axis Factoring.874 7725.188 1. Tabela 1. Chi-Square df Sig.000 -.

Gráfico 1.1 – Scree Plot Scree Plot 12 10 8 6 4 Eigenvalue 2 0 1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 52 55 58 Component Number 773 .

FAX: (11) 6096-7062 E-mail: sar-sol@ibest.com.CEP: 03110001 FONE: (11) 6292-1377 . São Paulo.br 774 . SP . 932 Mooca.Editora Sol Soft’s e Livros Ltda Rua Borges de Figueiredo.