O Determinismo na Física

por Thiago Favaretto Tazinafo (junho de 2005)

O determinismo é um conceito que se transforma ao longo da história da física. Da mecânica newtoniana à Objeção EPR, a questão sobre se o universo é ou não um sistema determinístico é tema de debates acirrados, envolvendo grandes físicos e filósofos, e permanece um assunto polêmico e atual. A proposta do presente texto é analisar alguns aspectos da evolução desse conceito ao longo da história da física (para tal, vamos “recrutar”, no decorrer do raciocínio, dois recursos epistemológicos que sejam úteis à proposta inicial do texto: a Navalha de Ockham e o Princípio Antrópico). O determinismo clássico remonta a Descartes, criador da doutrina conhecida como mecanicismo, uma interpretação essencialmente determinística do universo. Segundo o mecanicismo, o universo é comparável a um relógio, de forma que todo o seu funcionamento, mesmo o comportamento das menores partículas, poderia ser descrito fisicamente, desde que houvesse instrumentação e habilidade matemática suficientes para tal. O termo “mecanicismo” deriva da noção de Descartes de que todas as interações na natureza são de origem mecânica, algo que veio a ser refutado por Isaac Newton ao desenvolver a teoria da gravitação, criando a noção de ação à distância. Descartes, entretanto, jamais aceitou o conceito de forças que atuam à distância. De fato, para um racionalista como Descartes, que defendia ser possível desvendar o mundo pelo exercício da lógica, o conceito de ação à distância soa um contra-senso. Entretanto, o bom senso não raro é traído pelas revelações empíricas. Com efeito, não há forças de contato, todas as forças são ações de campo. Aqui, é importante ponderar acerca do equilíbrio entre a razão e a experimentação. A crítica de Hume ao racionalismo cartesiano consiste em afirmar que, mesmo que um experimento seja repetido mil vezes obtendo-se o mesmo resultado, nada garante que o milésimo primeiro resultado seja igual aos demais. Assim, só teríamos certeza de uma teoria numa situação limite, em que o número de experimentos tendesse ao infinito. De acordo com Hume, portanto, a certeza é inalcançável. Por outro lado, algo nos diz que é bem razoável aceitar como certa a previsão desse próximo resultado. Como, então, conciliar nossa intuição e bom senso à prudência de Hume? Consideremos uma hipótese H a ser testada. As medições do experimento de H são realizadas mil vezes, e todos os resultados comprovam H. Mais ainda, suponhamos que H prediga I, e I, por sua vez, prediga a hipótese J, que prediz K e

assim por diante. Dessa forma, resultados favoráveis à hipótese Z são evidências substanciais da validade de H e, assim, a própria evolução da ciência deve servir para aplacar o ceticismo de Hume. Logo, já que não houve um único experimento que confirmasse não-H, não nos resta opção a não ser aceitar H, ainda que temporariamente, pois não há motivo para não fazê-lo. Agora, para o caso de um mesmo fenômeno que possa ser igualmente bem explicado por duas hipóteses distintas, como proceder? Como decidir-se por uma ou outra?.Ora, usando o mesmo raciocínio do fim do parágrafo anterior, opta-se pela mais simples, pela justa razão de não termos motivo nenhum para crer em algo que exceda sua proposta original - explicar o fenômeno competentemente. Esse critério de decisão é conhecido como a Navalha de Ockham e a conclusão do parágrafo anterior é uma extrapolação ou generalização do mesmo conceito. Vamos, agora, procurar nesse tipo de raciocínio um argumento físico. Suponha que você, num ponto A, atira um objeto sólido para frente e para o alto, que perfaz uma determinada trajetória sob influência, digamos, da força gravitacional, durante um intervalo de tempo t, e chega ao ponto B. Essa será uma trajetória parabólica. Imagine agora um outro percurso possível para que esse objeto saia do ponto A e chegue a B, no mesmo intervalo de tempo, nas mesmas condições. Claro que isso não seria possível fisicamente – e veremos o por que – mas uma segunda trajetória pode ser possível matematicamente. Assim, imaginemos uma outra trajetória - cheia de zigue-zagues, por exemplo – que esse mesmo objeto percorre, entre A e B, ao ser atirado por você, sob ação das mesmas forças e durante o mesmo intervalo de tempo. Se você calcular a diferença entre e a energia cinética e a energia potencial em cada instante, e integrá-la no tempo ao longo do caminho, verá que o resultado no segundo caso será maior. Em todo percurso imaginado a diferença entre energia cinética média e energia potencial média será sempre maior que o caso real. Esse resultado, conhecido como Princípio da Menor Ação, nada mais é do que uma forma elegante de enunciar as leis de Newton: o caminho que uma partícula percorre entre dois pontos é tal que a diferença entre sua energia cinética média e sua energia potencial média seja sempre a menor possível1. Ainda, no campo da óptica geométrica, Fermat constatou que o percurso de um feixe de luz entre A e B é tal que a luz sempre chega a B no menor tempo. Ou seja, qualquer outra trajetória imaginada levaria um intervalo de tempo maior para ser percorrido. (A trajetória de menor tempo não é, necessariamente, a menor distância – i.e., uma reta – porque a velocidade da luz é diferente em cada meio.) Essa afirmação recebe o nome de Princípio de Menor Tempo de Fermat, e explica – macroscopicamente – os fenômenos de reflexão e refração da luz. Outro exemplo do comportamento “preguiçoso” da natureza é o de uma função F que satisfaça a equação de Laplace: (δ 2/δ x2, δ 2/δ y2, δ 2/δ z2) F = 0, ou ∇ 2 F = 0,

onde ∇ 2 , um operador de derivadas parciais de segunda ordem, é denominado laplaciano de F. Por exemplo, suponha que você pegue uma caixa de papelão e faça um recorte bem sinuoso ao longo da parte de cima, e retire o topo da caixa recortado. Depois, pegue uma membrana de borracha (como uma bexiga aberta, por exemplo), estique-a e encaixe-a apertadamente sobre o recorte na caixa (o mesmo pode ser feito com uma bolha de sabão). Atribuindo coordenadas x e y no plano do fundo da caixa, e z para a altura, a cada ponto da superfície obtida, podemos dizer que a função z = F(x,y) satisfaz a equação de Laplace. Uma bolinha que seja colocada sobre essa superfície rolará para o chão porque a superfície não apresenta nenhum vale onde a bola pudesse ser depositada2. Assim, as funções que satisfazem à equação de Laplace - as funções harmônicas - não apresentam pontos de máximo ou mínimo a não ser nas bordas. No interior desse contorno, a área é sempre a menor possível, sem picos ou vales, assim como, para o caso unidimensional, a menor distância entre dois pontos é uma reta. No caso da eletrostática, a função potencial elétrico satisfaz a equação de Laplace: ∇2 V = 0 A equação de Laplace também se aplica a fenômenos envolvendo magnetismo, condução de calor, gravitação, e outras aplicações3. Esse comportamento de “minimização” das bandas de borracha, bolhas de sabão e do potencial elétrico está intimamente correlacionado com o Princípio de Fermat e o Princípio da Menor Ação. Todos esses exemplos ilustram a maneira pela qual os processos da natureza ocorrem sempre nos menores níveis de variação de energia possíveis, ao invés de admitir uma pluralidade – ou uma infinidade – de eventos possíveis, e isso certamente evoca o caráter determinístico da natureza, além de oferecer fundamentação física para a Navalha de Ockham. Por esse ponto de vista, a Navalha de Ockham deve ser considerada um poderoso recurso epistemológico nas ciências naturais. Entretanto, essas considerações são válidas no âmbito macroscópico, conquanto numa escala atômica ou inferior os fenômenos quânticos superam as expectativas determinísticas da física clássica. Aqui, o determinismo ganha uma reformulação: os fenômenos quânticos são determinísticos no sentido em que a teoria fornece previsões estocásticas confiáveis, não sendo possível, contudo, otimizar a observação além de um nível mínimo de imprecisão, determinado a partir da constante de Planck (h). Eventualmente, a constante de Planck poderia ser muito maior do que é, fazendo com que a pluralidade de processos quânticos fosse perceptível no âmbito cotidiano, no qual teríamos a sensação de estarmos experienciando um conjunto de universos múltiplos. Por outro lado, h poderia ser bem menor do que é, a ponto de ignorarmos completamente os fenômenos quânticos. Mas será mesmo profícuo

levar em consideração essas possibilidades que não se concretizaram em nossa história do universo? Há, ainda hoje, um longo debate acerca do destino do nosso universo. Por enquanto, as evidências parecem sugerir uma expansão indefinida do universo. Porém, no caso de a matéria escura ser grande o suficiente para reverter esta expansão, o universo irá colapsar num buraco negro. Então, um novo big bang pode dar início a outro universo, num processo cíclico.4 O físico John Wheeler afirmou que, a cada vez que isso ocorre, as constantes adimensionais - como a relação massa do próton/ massa do elétron - podem adquirir novos valores. Valores para as constantes adimensionais que sejam muito diferentes daqueles conhecidos no nosso universo poderiam impedir a ocorrência de vida em outras histórias do universo. Com efeito, supondo que as constantes adimensionais de fato sejam resorteadas a cada novo big bang, então histórias do universo em que sistemas planetários e seres vivos ocorrem seriam raríssimas. A partir dessas considerações, o astrofísico Brandon Carter formulou o Princípio Antrópico, segundo o qual a razão para que as constantes adimensionais tenham os valores que conhecemos é que, se fossem diferentes, nós não estaríamos aqui para sabê-lo. Assim, vemos que é perda de tempo discutir como seria o universo se a constante de Planck (que não é adimensional) tivesse um valor diferente. Extrapolando o contexto astrofísico, o Princípio Antrópico, apesar de freqüentemente negligenciado por muitos físicos, é importante epistemologicamente no sentido de livrar-nos de um raciocínio teleológico ou finalista. O mundo é de tal forma, pois, se fosse diferente, não estaríamos aqui para contemplá-lo. Com efeito, não há sentido algum, em ciências naturais, pensar num propósito, numa finalidade para os processos físicos, químicos e biológicos. Nós não temos olhos para ver, ouvidos para ouvir e mão para pegar, e sim, temos características propícias à sobrevivência da espécie e que foram mantidas por seleção natural. Se não tivéssemos essas características, não existiríamos. Um grande obstáculo ao ensino de biologia hoje, notadamente à teoria da evolução, é o pensamento teleológico popular, que só contribui para fazer crescer a disseminação do criacionismo entre os leigos e, mais recentemente, até mesmo nas instituições de ensino superior. Ironicamente, porém, uma interpretação descuidada do princípio antrópico pode levar justamente a uma conclusão teológica e mesmo teleológica, supondo que ele estabeleça uma “conspiração” de um suposto Criador para que a vida como nós conhecemos exista. Não é disso que se trata. O princípio antrópico se aplica a um universo em que as várias histórias de universo possíveis seguem um encadeamento cíclico, o que dispensa, pela Navalha de Ockham, a necessidade de um Criador na cosmologia da física. Voltaremos a isso mais tarde. Minha intenção, por ora, é apenas concluir a favor da Navalha de Ockham e do Princípio Antrópico como recursos epistemológicos úteis à proposta do autor. Retomando o conceito de determinismo ao longo da história, chegamos agora em Laplace, que nos forneceu uma célebre definição do determinismo clássico5:

“Uma inteligência que, para um instante dado, conhecesse todas as forças de que está animada a natureza, e a situação respectiva dos seres que a compõem, e se além disso essa inteligência fosse ampla o suficiente para submeter esses dados à análise, ela abarcaria na mesma fórmula os movimentos dos maiores corpos do Universo e os do mais leve átomo: nada seria incerto para ela, e tanto o futuro como o passado estariam presentes aos seus olhos. O espírito humano oferece, na perfeição que foi capaz de dar à astronomia, um pequeno esboço dessa inteligência.”

Para Laplace, se em determinado instante essa inteligência – chamada de “demônio de Laplace” – conhecesse os valores de todas as variáveis do universo, então também lhe seria permitido calcular como seria a configuração do universo nos instantes posteriores. Esse tipo de sistema, em que a configuração de seus entes físicos, num instante t, depende da configuração no instante t-dt, é chamado sistema dependente das condições iniciais, ou sistema caótico. Num sistema dependente das condições iniciais, existe um encadeamento de configurações tal que, em se fazendo o intervalo de tempo tender a infinito, todas as configurações possíveis tenderão a ocorrer infinitas vezes, sempre na mesma ordem, num processo cíclico. Uma eventual objeção ao determinismo de Laplace seria com relação a uma suposta negação do conceito de livre-arbítrio, já que ele não admite aleatoriedade. Entretanto, não há incompatibilidade alguma entre aleatoriedade e determinismo, se considerarmos como aleatório um evento sobre o qual dispomos de informação incompleta. Assim, uma jogada de dados, apesar de poder ser determinada previamente pelas leis da mecânica, é considerada aleatória em situações cotidianas, nas quais não estamos realizando medições. Ainda, o conceito de livre-arbítrio permanece intacto no determinismo laplaciano: supondo que o demônio de Laplace queira fazer predições sobre a própria conduta, seus cálculos – por maior que seja essa inteligência – depreenderiam uma certa quantidade de tempo - por mínima que fosse - durante o que seu próprio estado já teria sido alterado, e o demônio poderia no máximo predizer o que já lhe ocorrera, instantes atrás. Se desejasse predizer seu destino num futuro distante, essas alterações que ocorrem durante o cálculo provocariam mudanças enormes na configuração do sistema do qual faz parte, e sua predição fracassaria. Ao longo do século XIX, uma nova descoberta, que veio a ser conhecida como a Segunda Lei da Termodinâmica, ou Lei da Entropia, veio a contestar a teoria mecanicista. A segunda lei, que foi formulada de diversas maneiras por vários cientistas, estabelece que o fluxo de calor de um corpo quente para um frio torna impossível que se obtenha a máxima quantidade de trabalho mecânico a partir de uma dada quantia de calor.6 Isso implica uma assimetria, uma irreversibilidade nos sistemas físicos, haja vista que a lei prevê sempre o aumento da desordem de um sistema enquanto, por outro lado, as leis de Newton admitem plenamente a reversibilidade. Pela segunda lei da termodinâmica, então, o tempo não seria uma

dimensão simétrica, reversível, como as dimensões espaciais; pelo contrário, ele “apontaria” sempre na mesma direção. É o chamado paradoxo da reversibilidade. Coube a Ludwig Boltzmann resolver o paradoxo, mostrando que outra maneira de enunciar a segunda lei é afirmar que, num sistema fechado, a entropia sempre aumenta e, por entropia, entenda-se uma medida do grau de desordem do sistema, dada por: S = k loge (N), onde N é o número de arranjos moleculares possíveis no sistema, e k é a constante de Boltzmann. O que a equação acima nos diz é que a segunda lei da termodinâmica é uma lei estocástica, estando sempre correta, sim, mas num sentido probabilístico. Os processos em que ocorre uma diminuição da entropia acontecem tão raramente que, para fins práticos, podem ser desprezados. Teoricamente, nada impede que as moléculas do café saltem espontaneamente de uma xícara, ou ainda, que dois litros de água morna se dividam em um litro de água quente e outro de água gelada, para depois se misturarem novamente. Entretanto, o período médio com que isso ocorre é tão maior que a idade do universo que essas possibilidades são desprezadas. De qualquer forma, Boltzmann teve o mérito de mostrar como a Lei da Entropia está de acordo com a física newtoniana. Suas predições foram confirmadas por Einstein em seu trabalho sobre o movimento browniano. Henri Poincaré aponta que o universo, sendo um sistema finito e fechado, e após um imenso espaço de tempo em expansão, deve permanecer gelado e remoto por muito tempo, após o que haveria uma etapa de diminuição da entropia de todo o universo, durante a qual ele contrair-se-ia até o colapso num buraco negro, ou Big Crunch. Boltzmann foi além, e afirmou que durante essa etapa de contração, essa diminuição de entropia implica uma inversão de causalidade, de forma que, ao olho de um observador externo, todos os processos que consideramos “naturais” ocorreriam em ordem inversa. Entretanto, como nossa noção de causalidade depende de processos que ocorrem em nosso cérebro, uma inversão de causalidade implicaria também uma inversão de nossa percepção temporal, ou seja, nossa “consciência” também estaria “invertida” e, portanto, não perceberíamos diferença alguma. Partindo desse pressuposto, não existe maneira nenhuma de sabermos se o universo está em expansão e a entropia aumentando, ou se o universo está em contração e a entropia, diminuindo. Considerando que a maior parte de um todo, o maior sistema possível, é necessariamente um sistema fechado – uma vez que não há nada além desse sistema com o que ele possa interagir – e portanto com energia e quantidade de matéria finitas e fixas, então esse sistema – chamemo-lo de Multiverso (para o caso de esse sistema abarcar múltiplos universos) – é caótico, como todo sistema fechado. Ou seja, supondo que o multiverso seja finito, então ele é dependente das condições iniciais. Como, de acordo com a segunda lei da termodinâmica, sistemas fechados dependentes das condições iniciais são necessariamente cíclicos e ainda de acordo com o que foi exposto acerca da lei da entropia - o tempo é

reversível, podendo apontar tanto numa direção quanto noutra, podemos suprimir o conceito de tempo como dimensão real, considerando-o apenas como uma medida de variação espacial, e não mais como uma dimensão com realidade física. Nesse caso, deixa de fazer sentido falar em tempo linear. O tempo, assim, seria cíclico. Eis o que podemos deduzir a partir da primeira e segunda leis da termodinâmica. A partir da generalização da Navalha de Ockham feita no início do texto, chegamos a essa conclusão simplesmente por não termos motivo algum, por ora, para acreditar em algo mais complexo ou substancialmente diferente do que conhecemos da natureza, como um multiverso “infinito”, por exemplo.

Os fundamentos da física foram reformulados mais uma vez no começo do século passado, com a formulação matemática dos quanta por Max Planck. Ele foi muito criticado na época por ter formulado uma teoria que, embora matematicamente correta (o conceito de quanta resolveu o problema da catástrofe do ultra-violeta), não necessariamente correspondia à realidade física. O ceticismo por parte da comunidade científica quanto a isso é compreensível: a história recente ensinava, no caso do éter, quanto tempo pode ser perdido quando se postula a existência de algo que nunca foi observado experimentalmente. A natureza corpuscular da luz foi comprovada pelo efeito fotoelétrico, descoberto por Einstein, e mais tarde pelo efeito Compton. Porém, isso não convenceu os cientistas a abandonarem o tratamento ondulatório de Maxwell ao eletromagnetismo. Mesmo a teoria de Planck da quantização designava a cada partícula uma característica ondulatória, a freqüência ν, de acordo com E = hν. Louis de Broglie, por outro lado, mostrou que, não somente a luz apresenta propriedades ora ondulatórias, ora corpusculares, mas o contrário também acontece: a cada partícula existe também uma função de onda associada. É a dualidade onda-partícula da mecânica quântica. A problemática do determinismo na mecânica quântica fica mais evidente em se considerando a teoria quântica de Heisenberg e sua desigualdade, conhecida como Princípio da Incerteza: ∆x∆p >=h/2 π Na verdade, a denominação “princípio da incerteza” não é a mais adequada. Nela, está implícita a Interpretação de Copenhagen, formulada por Werner Heisenberg sob inspiração do subjetivismo alemão de Kant. Segundo a IC, objeto, instrumento e observador integram uma unidade inseparável na manifestação física de um fenômeno, o que equivale a dizer que, sem observação, nada pode ser afirmado acerca de um objeto. Como essa visão da quântica está longe de ser inconteste, o termo mais adequado seria Desigualdade ou Inequação de Heisenberg. Ela diz que a variância (medida de dispersão) da posição de um elétron (ou qualquer outra partícula quântica) aumenta inversamente à variância do momento linear, e vice-versa. Segundo o físico teórico e epistemólogo Mario Bunge7

– certamente de acordo com o ponto de vista de Einstein e de Broglie, opositores da interpretação de Copenhagen – isso significa apenas que os entes físicos elementares não são pontos materiais, como quer a física clássica. Pelo contrário, a fibra da realidade é composta de partículas dispersas que não podem ser definidas pontualmente no espaço. De acordo com Bunge, a Interpretação de Copenhagen – que ele considera uma “excrescência filosófica” – consiste numa interpretação positivista de conceitos alheios à física clássica. Einstein, embora concordasse que a mecânica quântica seja extremamente bem-sucedida em termos de poder de predição, obstava que a MQ não oferecia uma descrição completa da realidade. “A lua não desaparece quando ninguém a está observando”, chegou a afirmar. Einstein – assim como muitos físicos e filósofos até hoje – sempre acreditou que deveria haver uma realidade independente dos fenômenos subjetivos de quaisquer observadores. Para tal, com a ajuda de Podolsky e Rosen, propôs um experimento imaginário - que ficou conhecido como a Objeção EPR - com o intuito de demonstrar como elementos de realidade podem ser obtidos sem que qualquer observação seja feita. O raciocínio do EPR pode ser ilustrado pelo seguinte exemplo: suponha o caso de uma mulher que esteja grávida de gêmeos univitelinos sem que, no entanto, tenha sido feito qualquer exame para determinar o sexo das crianças. Se, depois do parto, os bebês forem separados, um observador que conheça apenas um dos bebês pode, sem nunca ter visto o outro, determinar seu sexo. Na mesma linha desse raciocínio simples, o trio de cientistas propôs: façamos com que um átomo, inicialmente num estado com momento angular nulo, emita um par de fótons a distâncias opostas. Então, se o spin de um dos fótons for +1/2, então o spin do outro é necessariamente –1/2. Logo, se medirmos o spin de um dos fótons, saberemos imediatamente o valor do outro, e teremos definido então uma quantidade física sem que tenhamos perturbado o outro fóton de maneira alguma. Pois qualquer tipo de perturbação poderia percorrer o espaço entre os fótons com, no máximo (pela teoria da relatividade), a velocidade da luz, mas, já que os fótons viajam em direções opostas, então não há nenhum elemento de perturbação com que a observação de um influencie o outro. O físico americano John Bell elaborou a síntese teórica para se testar experimentalmente o paradoxo EPR. Ele desenvolveu uma fórmula matemática que ficou conhecida como a Desigualdade de Bell, por expressar a diferença entre a teoria quântica e a relativística. A partir da década de 70, o avanço da tecnologia permitiu que fossem reproduzidas versões experimentais da Objeção EPR. Os resultados, entretanto, foram justamente as correlações que a mecânica quântica exigia. De fato, a medição do spin do primeiro fóton afetava, sim, a medida do outro. De acordo com o teorema de Bell8, esses resultados mostram que o universo é não-local: o que ocorre numa dada região do universo afeta todo o restante, instantaneamente, independentemente da distância. Assim, todos os entes físicos do universo estão amarrados como um todo, a existência de cada um determinando e sendo

determinada pelas demais. Segue que, pelo paradoxo EPR, tudo é pré-determinado em nosso universo (sem que isso afete – à moda do determinismo de Laplace – nosso livre arbítrio). Considerando a não-localidade do universo aliada à interpretação quântica da realidade, segundo a qual um observador inteligente interfere na manifestação de um fenômeno, segue a hipótese de que o homem atua ativamente no funcionamento do universo, não só no presente, mas no passado também, já que a velocidade da luz é finita (observar o firmamento é contemplar o passado, como alguém já deve ter dito). Essa idéia – talvez até um pouco esotérica – de que a vida inteligente tem papel atuante na evolução do universo desde os seus primórdios, chamada de Princípio Antrópico Forte (PAF), é tão interessante quanto difícil de ser acreditada, já que não leva muito em conta a Navalha de Ockham. Alguns céticos chamam isso de PARC (Princípio Antrópico Ridículo Completamente). O princípio antrópico carrega essa ambigüidade de ser ora interpretado como um exercício de ceticismo – como na crítica à teleologia – ora como justamente o contrário. Não deixa de despertar certo fascínio , entretanto. Como Holton & Brush fazem questão de frisar, esses temas ainda são muito recentes e quaisquer conclusões são ainda bastante discutíveis, haja vista que os elementos científicos desse debate estão imersos em preferências pessoais e filosóficas. Não há explicação ou interpretação consensual para a teoria quântica ou a não-localidade, embora seja de entendimento geral que esses resultados, de fato, ocorrem.

Referências: 1 - Feynman, Richard. The Feynman Lectures on Physics, vol. II. Addison-Wesley Publishing Company, cap. 19 2 - Griffiths, David. Introduction to Eletrodynamics. Prentice Hall, pág 110 3 – Idem, pág. 109 4 – Holton\Brush. Physics, the Human Adventure. Rutger University Press, 3rd ed., pág. 515 5 – Laplace, P. S. – Essai philosophique sur les probabilités. Paris: Courcier, 1814. extraído de www.dqb.fc.ul.pt/docentes/ ffernandes/Art_Ped/bl93_05.pdf Holton\Brush. Physics, the Human Adventure. Rutger University Press, 3rd ed., pág. 256
6- –

7 – Bunge, Mario. Epistemologia. Edusp 8 – uma explicação detalhada e uma versão simplificada do teorema podem ser vistas em:
www.ncsu.edu/felder-public/kenny/papers/bell.html

Sign up to vote on this title
UsefulNot useful