You are on page 1of 17

NANOELETRÔNICA QUÂNTICA

INTRODUÇÃO

Em meados do século XIX, a Rainha britânica visitou o físico Faraday que acabara
de apresentar suas experiências de eletricidade e magnetismo, e ela lhe perguntou para que
serviam tais estudos. Ele respondeu: “Senhora, para que serve um bebê?” Faraday pensava
que algum dia deveria haver alguma aplicação pratica para a eletricidade e o magnetismo.
Hoje, de fato, não conseguimos imaginar nossas vidas sem as invenções que foram
revolucionadas desde suas descobertas.

Quem sabe a história não esteja se repetindo, quando hoje, físicos de diversas partes
do mundo estão pesquisando novas tecnologias, estas do mundo microscópico, e
provavelmente muitas pessoas se perguntam: Para que serve? E a resposta é: para permitir
que as próximas gerações desfrutem de novas invenções assim como fizemos diante das
pesquisas de Faraday, Maxwell, Einstein, entre outros.

O que pretendemos com a nanoeletronica quântica? Ou exatamente o que vem a ser


a nanoeletronica quântica? Estamos atravessando uma era da tecnologia onde os interesses
políticos e econômicos transformaram radicalmente as pesquisas em nanotecnologia.
Embora esta nomenclatura ainda não esteja oficializada, já está sendo usada no jargão entre
os físicos e eletrônicos. Na verdade, trata-se de eletrônica quântica, mas pelo fato de que a
precisão de fabricação dos circuitos é da ordem do nanômetro, já está sendo chamada de
nanoeletronica quântica.

Se por um lado, os avanços das pesquisas na Física Quântica alavancaram a física


mesoscópica e a nanofísica, possibilitando um melhor entendimento do átomo, por outro
lado a Eletrônica evoluiu na produção de circuitos e chips cada vez mais sofisticados.
Unindo todas as especialidades do conhecimento humano com o propósito de estudar a
matéria em seu nível atômico, nasceu a Nano Ciências.

Foi a partir de 1981, quando a Física Quântica inventou o microscópio de


tunelamento, o qual permite formar a imagem de um único átomo ou de uma única
molécula de cada vez na tela de um computador, que surgiu a idéia da nanoeletronica
quântica. Com esse microscópio como ferramenta, surgiu um novo paradigma da ciência,
que consiste em construir, átomo por átomo um dispositivo eletrônico. Com o microscópio
de tunelamento pode-se construir, átomo por átomo, todas as estruturas moleculares
possíveis e imagináveis. Permite ampliar cerca de 10 bilhões de vezes (enquanto que os
microscópios óticos aumentam apenas duas mil vezes).

Este Áudio livro propõe-se a descrever em linguagem simples o que vem a ser a
nanoeletronica quântica. Enquanto a Física Clássica e a Astrofísica desvendaram os
segredos das estrelas, galáxias e buracos negros, a Física Quântica nos apresenta o
maravilhoso mundo do invisível. Enquanto a física clássica estuda o macro do universo, a
física quântica estuda o micro e seus infinitos.
MICROSCÓPIO DE TUNELAMENTO
Antes de estudar novos conceitos da nanoeletronica, é importante conhecer a
fundamentação do microscópio de tunelamento, pois, conforme já mencionado, sem ele
seria impossível chegar na manipulação do átomo. Este microscópio foi inventado por dois
físicos quânticos europeus Gerd Binning e Heirich Roher e junto com o americano Don
Eigler. Isto aconteceu em 1981.

Para se enxergar uma molécula de água que mede 0,3 nanometro (0,3 milionésimo
de milímetro) precisamos de um microscópio eletrônico, e não os ópticos. O microscópio
ótico funciona baseado no sistema de lentes e espelhos. A luz, oriunda de uma lâmpada, é
captada por um jogo de espelhos e reflete no objeto. Ele então atravessa a lente e fornece
uma imagem ampliada do objeto, que poderá ser visualizado diretamente.

Um microscópio eletrônico é um microscópio de partículas que faz uma varredura


eletrônica (dos elétrons) daquilo que se deseja ampliar. É colocado uma agulha metálica
bem fina numa face que estará em contato com o campo. Se aplicarmos uma tensão elétrica
entre esses dois elementos, a agulha começa a emitir elétrons. Um computador faz a
decodificação reconstruindo a imagem tal qual acontece em um Tubo de Raios Catódicos.
O microscópio eletrônico foi inventado em 1930.

A história começou quando o físico De Broglie sugerira que os elétrons assim como
todas as partículas possuem aspectos ondulatórios. No entanto, ninguém a partir de então,
encontrou realmente uma partícula que se comportasse como uma onda. Mas quando o
físico americano Clinton J. Davisson (1927) estudava o reflexo dos elétrons de um alvo de
níquel metálico, enclausurado em uma câmera de vácuo, a câmera quebrou-se
acidentalmente e o níquel aquecido desenvolveu imediatamente uma película de oxido o
que o tornou inútil como alvo. Para remover a película, Davisson decidiu aquecer o níquel
por um período maior. Quando isso foi alcançado, notou que as propriedades refletoras do
níquel tinham mudado.

Davisson decidiu então preparar um único cristal de níquel para ser usado como
alvo, depois que ele entendeu a importância do aquecimento no processo. Quando isso foi
feito, descobriu que um raio de elétrons não era somente refratado, mas também difratado,
tal qual ocorre com o Raio-X. A difração era uma propriedade característica das ondas, e
portanto, dessa maneira, os aspectos ondulatórios dos elétrons foram descobertos.

Ora, se os elétrons possuem aspectos de ondas, logo podem ser manipulados quase
que da mesma maneira como as ondas luminosas e podiam ser focalizados nos
microscópios. A nitidez com que os pequenos objetos possam ser visto varia inversamente
com o comprimento de ondas do meio com que sejam vistos. Quanto mais curtos os
comprimentos de ondas, menores os objetos que podem ser divididos. Como as ondas
eletrônicas tem um comprimento de onda igual ao dos raios X, um microscópio eletrônico
deveria ser muito mais poderoso do que um microscópio óptico.

As ondas eletrônicas não podem ser focadas por meio de lentes mas podem ser
focalizadas por campos magnéticos apropriados. Com o tempo, os microscópios eletrônicos
foram se aperfeiçoando até atingir os de tunelamento. O feixe de elétrons emitidos pela
agulha contem uma informação sobre a posição dos átomos dessa agulha. Colocando uma
tela fosforescente suficientemente longe, pode-se obter, por projeção, uma ampliação da
organização dos átomos, como por um efeito de silhueta.

No microscópio de tunelamento, a agulha (ponta emissora) fica bem distante da tela


de observação, razão pela qual esses equipamentos são muito grandes. A agulha e a tela
formam um minúsculo capacitor que é possível carregar aplicando-lhe uma tensão. Veja
que interessante: uma tensão de 1 volt permite acumular alguns elétrons nas placas do
capacitor, provocando uma corrente da ordem de 1 nanoampere criando uma pequena
corrente de fuga chamada de corrente túnel.

O microscópio de tunelamento é um microscópio de campo próximo, uma vez que a


ponta da agulha é mantida próxima à superfície. Desde sua descoberta, o microscópio de
tunelamento, permitiu observar um grande numero de superfícies de metais e
semicondutores e permitir um estudo mais aprofundado das estruturas atômicas e
moleculares.

Imagine que todos os avanços neste campo dos microscópios se destinaram a


permitir tocar a molécula com a ponta da agulha, que se torna o prolongamento do dedo do
pesquisador. De fato, a partir do momento que através de um microscópio o cientista pode
tocar na molécula e no átomo, o próximo passo foi a manipulação dos mesmos. Assim
como um engenheiro eletrônico projeta um circuito interligando vários componentes, um
interligado ao outro para formar um equipamento, assim o projetista de nanoeletronica
projeta uma dispositivo manipulando átomo por átomo, montando estruturas cada vez
maiores até se tornar capaz de funcionar como uma grande máquina do tamanho de um
grão de areia.

Um nanômetro é um bilionésimo de metro. Para construir um cubo que seja milhões


de vezes menor que o grão de areia, precisaria agregar 60 átomos um a um. Esta tecnologia
é chamada de nanotecnologia. E se estes átomos forem agregados com a finalidade de
formar um dispositivo eletrônico, a tecnologia é chamada de nanoeletronica. Isto tudo, em
vez de ser feito em uma bancada de laboratório, é feito na plataforma do microscópio de
tunelamento.

A produção, controle e interfaceamento da nanoeletronica são a chamada


Eletrônica Quântica, já que todos os seus embasamentos estão fundamentados na física
quântica. A computação quântica é uma das derivações da eletrônica quântica, mas este
estudo será para outra ocasião.

Muitos dos meus alunos questionam se este estudo não é muito prematuro, pois já se
sabe, a manipulação destes dispositivos só ocorrerão através de microscópios de
tunelamento que custam alguns milhares de dólares. Mas, se por um lado a produção destes
dispositivos nanoscópicos estão restritos a meia dúzia de laboratórios gigantes nos paises de
primeiro mundo, o interfaceamento com equipamentos eletrônicos e de biotecnologia e até
mecânicos (incluindo-se aqui robótica e mecatrônica), deve ser feito pelos profissionais da
eletrônica. Portanto, adquirir conhecimentos em eletrônica quântica é certamente um
preparo para poder interfacear esta tecnologia com as usuais, conforme veremos exemplos
mais adiante.

POR QUE MINIATURIZAR


A miniaturização é indissociável ao progresso cientifico. Mas é certo que as
pesquisas no campo macroscópico sempre foram mais atraentes durante muitos séculos.
Exemplo disso foram as grandes máquinas a partir das descobertas de James Watt. Mas em
1764, um professor de física tentou reproduzir uma das maquinas de James Watt em uma
versão miniatura. E esta não funcionou. Foi o próprio James Watt quem decifrou o
problema: naquela versão miniaturizada, a pressão atmosférica era insuficiente para vencer
o atrito dos pistões. Foi quando Watt inventou o motor a vapor, usando a pressão do vapor
d’água no lugar da pressão atmosférica. Foi ali que inaugurou a termodinâmica. Mas foi
também ali que começaram a estudar as diferenças dos fenômenos no mundo macro e no
mundo microscópico.
Por inúmeras vezes, os pesquisadores estudaram os fenômenos em laboratório, em
sua versão microscópica, para só depois passarem a estudar em versão macroscópica.
Exemplo disso foram às experiências de Benjamin Franklin que estudou os raios
atmosféricos. A lição deixada por ele e outros pesquisadores, é que sempre serão
necessárias as adaptações para fazer funcionar um fenômeno na escala micro. O
entendimento disto requer um pouco de história das descobertas.

A história da eletrônica começou com a separação da eletricidade em 1820. Existem


muitas semelhanças entre a eletricidade e o magnetismo. Ambos possuem opostos (positivo
e negativo na eletricidade, pólo norte e sul no magnetismo). Nos dois casos, os opostos
atraem-se e os semelhantes repelem-se e nos dois casos, a força da atração declina com o
quadrado da distancia. Por causa dessas semelhanças, muitos cientistas julgaram que
poderia haver conexão entre os dois fenômenos. Os resultados de uma experiência foram
publicados pelo físico dinamarquês Hans Christian Orsted em 1820.

Como parte de uma demonstração em sala de aula, aproximou o ponteiro de uma


bússola de um fio por onde passava uma corrente elétrica. O ponteiro mudou de posição,
mas apontou em direção ao ângulo reto em relação a corrente. Orsted reverteu a duração da
corrente, o ponteiro apontou para uma direção oposta, mas mantendo um ângulo reto em
relação ao fluxo da corrente. Um ano depois, o físico francês André Marie Ampére colocou
dois fios paralelos, um dos quais movia-se livremente para frente e para trás. Quando os
dois fios carregavam a corrente na mesma direção, os dois fios atraiam-se claramente. Se4 a
corrente fluísse em direções opostas, eles se repeliam. Se um dos fios ficasse livre para
girar, o fio girava em semicirculo, parando em uma posição que permitisse que a corrente
corresse na mesma direção dos fios.

Estes experimentos levaram o físico Johan Christoph Schweigger a construir o


galvanômetro. Mas a descoberta do eletromagnetismo continuou a provocar uma avalanche
de experiências. Michael Faraday organizou um circuito elétrico que incluía dois fios e dois
magnetos. Em um dos casos, o fio era fixo e o magneto era móvel. Quando a corrente
passava através do fio, o fio movia-se em torno do magneto fixo e o magneto móvel, em
torno do fio fixo. Com isso, Faraday demonstrou que as forças elétricas podiam produzir
movimento.
Essa experiência levou Faraday a considerar o magnetismo como um campo que se
extendia de seu ponto de origem, enfraquecendo com a distancia. Podia-se desenhar linhas
imaginárias no campo, ligando todos os pontos de intensidade magnética igual e chamá-los
de linhas de força. Isto foi realmente importante para a ciência: é a concepção de que o
universo consiste em campos, cujas origens são as partículas.

Mais fantástico ainda é conhecer o fato de que Faraday não tinha conhecimentos
matemáticos, e por isso apenas descreveu pitorescamente o fenômeno das linhas de força.
Foi somente em 1855 que o matemático britânico James Clark Maxwell conseguiu traduzir
o conceito de Faraday para a matemática e demonstrar que sua visão intuitiva sobre o
assunto estava completamente correta. A partir daí, Maxwell começou a desenvolver suas
equações que expressavam todos os fenômenos da eletricidade e do magnetismo e
constatou que a eletricidade e o magnetismo não existiam separadamente, e que cada um
deles era um aspecto inevitável do outro.

Maxwell demonstrou também que a oscilação de uma carga elétrica produzia um


campo eletromagnético que se irradiava de sua fonte em uma velocidade constante –
justamente na velocidade da luz. Portanto, Maxwell afirmou que a luz era uma forma de
radiação eletromagnética e que os comprimentos de onda dessa radiação dependiam da
freqüência da carga. Dessa maneira, foi apresentada a primeira unificação em física, uma
união de um conjunto de relacionamentos matemáticos, com fenômenos aparentemente
dispares como a eletricidade, o magnetismo e a luz. Que o ouvinte esteja bem atento a
todos estes pormenores, pois serão fundamentais para o entendimento dos fenômenos da
miniaturização de circuitos eletrônicos em escala nano.

Uma vez entendido as relações entre eletricidade, magnetismo e luz, as experiências


começaram a ficar mais complexas. Kirchhooff logo descobriu que os materiais que
emitiam determinados comprimentos de onda, quando quentes, absorveriam os mesmos
comprimentos de ondas quando frios. Sugeriu que um corpo que absorvia toda luz e não
refletia nenhuma seria um corpo escuro e emitiria, quando aquecido, todos os
comprimentos de ondas luminosos. Kirchhoff chamara atenção para o fato de que um corpo
negro que absorvesse toda radiação eletromagnética que incidisse sobre ele, irradiaria em
todos os comprimentos de onda se fosse aquecido. Desta forma, um corpo oco que
apresentasse uma pequena abertura, absorveria toda a radiação que penetrasse no orifício,
pois nem um pouco da mesma seria refletido para encontrar o caminho de saída.

Se um desses corpos fosse aquecido, a radiação escaparia do orifício como


conseqüência, em todos os comprimentos de onda. Quanto mais elevada for a temperatura,
mais curto é o comprimento de onda do valor de pico. Então, em 1900, um físico alemão,
Max Karl Planck, produziu uma equação que conseguia matematizar esse fenômeno. Para
deduzir essa equação, teve que partir da premissa de que a energia não seria liberada
continuamente, mas em partes discretas e que o tamanho de cada parte seria inversamente
proporcional ao comprimento de onda.

Planck batizou as porções de energia de quanta (em latim, plural de QUANTUM,


cujo significado é “quanto?”). Desenvolveu o relacionamento entre a energia e o
comprimento de onda (lembrando que a energia ou freqüência é igual a 1 dividido pelo
comprimento de onda), usando para isso um valor muito pequeno chamado de constante de
Planck, que representa a granulosidade da energia.

A teoria do quantum demonstrou ser tão importante, que a partir dela a física se
dividiu em duas: a clássica (antes de 1900) e a quântica (pós 1900). Planck recebeu o
premio Nobel de Física por isso em 1918. Foi tão somente depois destas descobertas que se
abriu um novo leque de opções para a miniaturização de maquinas e dispositivos. O
primeiro deles foi para substituir os relés. Depois veio a idéia de substituir as válvulas
eletrônicas, que além de grandes, eram quebráveis.

Em 1947, engenheiros dos laboratórios da Bell Company. Nos EUA, criaram um


dispositivo que utilizava um pequeno cristal semicondutor denominado transistor. Este viria
substituir tantos as funções de relés quanto das válvulas termiônicas. Os transistores se
tornariam os componentes básicos da eletrônica. Foi quando começou a idéia de reunir
dezenas, centenas de transistores formando um circuito, interconectados uns aos outros. E
porque não reuni-los em um único substrato ou dispositivo? Foi o que se perguntou Jack
Kilby da Texas, e cuja resposta ele mesmo deu com a invenção do primeiro circuito
integrado em 1958. Em uma única plaqueta de silício podia-se construir e interligar dezenas
de transistores e outros componentes.

Se a Segunda Guerra Mundial serviu para impulsionar a industria dos


semicondutores (na época denominada de Solid States), a corrida espacial da NASA serviu
para alavancar a miniaturização desses semicondutores. Nos mísseis e foguetes, peso e
tamanho de espaço são cruciais. E também, já se comprovara o fato de que quanto menores
os circuitos, mais confiáveis, rápidos e eficientes eles se tornam. Assim, desde o programa
Apollo, a densidade dos transistores sobre chips começou a aumentar, praticamente
dobrando a cada ano. Em 1965, um circuito integrado tinha cerca de 30 transistores
incorporados em miniatura. Em 1971 a Intel produziu a façanha de miniaturizar 2.520
transistores em um único chip de microprocessador. Em 2008 este numero passou de 250
milhões.

MENORES E MELHORES

De fato, os circuitos integrados com seus transistores miniaturizados funcionam


melhor do que se estes fossem montados na forma discreta. O real motivo está no fato de
que, quando o tamanho é dividido por dois, a velocidade dobra, já que os elétrons tem
menos distancia a percorrer. O consumo de corrente também diminui – fato já conhecido
por todos nós hoje, que utilizamos os celulares por muitas horas com uma pequena bateria
de 3,6 volts. Os chips utilizados nesses celulares agregam cerca de 150 milhões de
transistores.

Naturalmente que a manipulação destes transistores só pode ser manipulado com


potentes microscópios e usando um processo de fotolitografia (máscara, gravura e ótica).
Este processo baseia-se em fazer passar a luz por uma máscara que sensibiliza uma resina
fotossensível que está depositada em um substrato de silício. O que de fato ocorre, é que a
luz reproduz na resina os desenhos da máscara que representa o desenho do circuito
eletrônico a ser integrado com seus transistores e demais componentes (diodos, resistores e
capacitores). A técnica óptica utiliza-se de lentes que começam no tamanho natural e vão
diminuindo cada vez mais. Essas lentes reduzem o tamanho do desenho projetado.

Só para se ter uma idéia da grandiosidade, essas lentes conseguem focalizar cerca de
250 milhões de transistores desenhados no tamanho de uma unha. Mas, essa tecnologia de
ir aumentando a capacidade de transistores por chip atingiu um limite. Aumentar a
quantidade de transistores num mesmo espaço significa também diminuir o tamanho das
trilhas internas, ou seja, a distancia mínima entre dois pontos identificáveis num circuito.

A partir desta necessidade, os físicos quânticos sugeriram a diminuição do


comprimento de onda de luz utilizada. Até então era usada luz visível que compreende o
espectro de 400 a 800 nanômetros. Outra opção foi o ultravioleta (350 nanômetros) e
depois ultravioleta profundo (193 nanômetros).

Para a próxima etapa de transistores de 45 nanômetros, continuaram usando


ultravioleta profundo mas com uma tática de colocar um liquido incolor acima do silício.
Este liquido age como uma lente, aqui com a utilização inversa, ou seja, a diminuição do
foco.

Para os transistores com 32 nanômetros, uma das técnicas seria a dos feixes de
elétrons utilizando-se dos microscópios de varredura eletrônica. O principio é o mesmo no
caso da litografia ótica, a saber, um polímero exposto a um feixe de elétrons sofrerá uma
transformação química. Essa transformação química cria as dopagens P-N dos
semicondutores.

Inúmeras adaptações tiveram que ser feitas, inclusive a substituição de vários


elementos químicos. Por exemplo, no lugar do oxido de silício, utiliza-se o háfnio, que
consegue ser dez vezes mais intensificado como isolante. O háfnio resolve o problema da
corrente de fuga. Esta corrente de fuga é um fenômeno quântico, devido às propriedades
quânticas dos elétrons. Entretanto, só está presente nos circuitos integrados de 65
nanômetros para baixo.

A TEORIA DAS CORDAS E OS BIOCHIPS


A medida que foram diminuindo cada vez mais de tamanho, a ponto de chegar ao
tamanho de um glóbulo vermelho, começaram a perceber a presença de algumas vibrações.
Mais uma vez, a resposta e solução viriam da física quântica em sua teoria das cordas
(também chamada de teoria das supercordas). No mundo microscópico, ocorre vibrações.
Essas vibrações em freqüências muito elevadas foram utilizadas para sinalizar as
moléculas. Sendo assim, uma molécula pode ser identificada entre um bilhão de outras já
que atribui-se a cada uma determinada freqüência.

Logo, esta tecnologia foi utilizada pelos biofísicos e biólogos na produção de


biochips. Os biochips são chips que contem informações de DNA e já são amplamente
utilizados para detectar seqüências de genoma a fim de rastrear doenças genéticas ou
identificar vírus. Com esta nova visão quântica e embasamento na teoria das cordas
(processo de vibração em altas freqüências) tornou-se possível construir verdadeiros
laboratórios miniaturizados num chip. Pode até parecer coisa de ficção cientifica, mas trata-
se de uma realidade. Estes miniaturizados chips podem, por exemplo, fornecer a
composição detalhada do sangue a partir de uma única gota.

SALTOS QUÂNTICOS
Outro problema que começou a ocorrer na miniaturização dos transistores, foi a
corrente de fuga em 65 nanômetros. A explicação veio da teoria de Max Planck (1900).
No mundo quântico (microscoópico), trocas de energia não são feitas de modo continuo,
como ocorre no mundo macro. As trocas ocorrem em forma de saltos, chamados de quanta.
Foi Albert Einstein que através da teoria do efeito fotoelétrico, combinou a teoria do
quantum, ganhando inclusive o prêmio Nobel por isso em 1921. Demonstrou que a luz era
composta de quanta, com energias proporcionais à freqüência.

Descobriu que os quanta de ondas longa não poderiam suprir energia suficiente para
liberar um elétron do metal, mesmo que a luz fosse muito intensa. Mas enquanto o
comprimento de onda diminuía, os quanta da energia aumentavam, alcançando um ponto
onde a energia seria apenas suficiente para lançar um elétron. Quanto mais curto fosse o
comprimento de onda alem desse ponto, mais enérgico seria o elétron lançado e viajaria
com maior velocidade. Einstein usou a teoria do quantum para explicar um fenômeno que
de outra maneira seria inexplicável. Demonstrou que a luz poderia ser tratada como
partículas em alguns aspectos. Essas partículas são conhecidas como fótons.

Embora o próprio Einstein discordasse de alguns axiomas da Física Quântica, deve-


se atribuir a ele a legitimidade da teoria do quantum, sendo que todo o restante da física
quântica segue essa plataforma.

As fugas dos elétrons, portanto, ocorrem em saltos e como tal, possui uma
freqüência especifica em cada fuga ou em cada reflexão. Alem disso, sabe-se que um
elétron não pode ser localizado com precisão em torno do átomo; apenas se conhece a
probabilidade de sua presença em uma posição do espaço. Mas ora pode estar aqui, ora ali,
sempre em saltos.

A associação de uma onda a uma partícula como um elétron tem grandes


repercussões na fabricação de chips miniaturizados, pois ao diminuir o comprimento, a
altura e a largura, confina-se os elétrons e estes passam a ter um comportamento quântico.
Este comportamento de saltos quânticos produziu dois campos distintos de pesquisas: física
mesoscópica e nanofísica. Entre essas duas correntes, encontram-se os nanotubos de
carbono.

Embora alguns autores generalizaram tudo como sendo nanotecnologia, cada um


deles tem uma propriedade quântica diferente. A física mesoscópica possui uma escala de
miniaturização intermediaria entre o átomo e o macroscópico e tem servido aos propósitos
de integração que vão de 20 a 200 nanometros. Nessa faixa, as vibrações ou os saltos
quânticos não intervem tanto.

Os nanotubos de carbono estão na faixa intermediária entre a física mesoscópica e


a nanofisica. Compreende a faixa de 5 a 30 nanômetros. Os nanotubos podem ser
condutores ou semicondutores, dependendo da dopagem, e são muito sólidos alem de
suportarem uma condutividade térmica elevada. Eles contem muito elétrons e por isso, a
Lei de Ohm pode ser aplicada a eles. Esta é uma das características da Eletrônica Quântica:
aplicar a Lei de Ohm usando o processo das junções PN: a intensidade da corrente é
inversamente proporcional à resistência elétrica do fio. Isto significa que, quanto mais
estreito o fio, mais elevado a resistência.

Mas não podemos esquecer que nem tudo é igual na escala do invisível. Quando o
segmento de um fio metálico atinge um certo valor de nanômetros, ocorre um efeito túnel,
onde a resistência não aumenta mais continuamente, mas aumenta por meio de saltos. São
os saltos quânticos e a única explicação plausível é que se trata de um fenômeno quântico
denominado de Ressonância.

Não podemos esquecer que na eletrônica quântica trabalhamos com base em


campos de energia, que oscilam entre a onda e a partícula. E que estes campos são
impactados pela ressonância. A ressonância ocorre quando um sistema de vibração é
estimulado por uma força externa que combine com sua freqüência natural de vibração.
Quando dois sistemas de energia são ressonantes, a energia é muito amplificada. Existem
muitas maneiras praticas de experimentar a ressonância na nossa vida diária. Por exemplo,
se já empurramos uma criança em um balanço, aprendemos que o maior efeito ocorrerá se
combinarmos nossos esforços com a freqüência natural do balanço. Quando giramos o
botão de nosso radio para uma determinada estação, estamos experimentando os efeitos da
ressonância. Cada circuito elétrico no radio opera em uma freqüência ressonante,
possibilitando ao receptor aceitar uma freqüência particular e rejeitar as demais.

No mesoscópico, estes saltos explicam-se pela ressonância quântica: sempre que o


segmento do fio é igual a um múltiplo de meio comprimento de onda, ocorre ressonância e
libera-se um quantum de energia.

Outro fenômeno que ocorre na escala mesoscópica é o efeito Hall quântico. Você
já deve conhecer o efeito Hall na eletrônica convencional. Mas na quântica, este efeito cria
uma resistência Hall, que é a razão entre a tensão e a intensidade de corrente que aumenta
linearmente com o campo magnético.

AXIOMA DA NANOELETRONICA QUANTICA


Entende-se por axiomas as declarações das leis das ciências físicas. Quando
compreendidos e bem interpretados, permitem o entendimento de inúmeros fenômenos. . A
Física Quântica tem sua apreciação de campos de energia que oscilam entre a onda e a
partícula. Esses campos são impactados pela ressonância. Para a Física Quântica, tanto
ondas como partículas são fundamentais. Uma e outra são modos pelos quais a matéria se
manifesta, e as duas juntas formam a matéria. E ainda que nenhum dos estados seja
completo em si mesmo e ambos sejam necessários para nos dar um quadro completo da
realidade, só podemos focalizar um de cada vez. Esta é a essência do principio da incerteza
de Heisenberg.

Segundo o principio da incerteza as descrições do ser humano como ondas e


partículas se excluem mutuamente. Embora ambas sejam necessárias para a formação
integral do ser, somente uma está disponível num determinado momento do tempo.
Consegue-se medir ou a exata posição do elétron que representa a partícula, ou o seu
“momentum” que é a sua velocidade ou freqüência quando ele se manifesta como onda,
mas nunca se consegue uma medida exata de ambos no mesmo instante.

Pelos axiomas da física quântica, tudo na realidade é uma questão de


probabilidades. Um elétron pode ser uma partícula, pode ser uma onda, pode estar nesta
órbita ou pode estar em outra órbita, de fato, tudo pode acontecer. Sei que está achando
confuso e nublado. Este nublamento essencial é a incerteza à qual se refere o principio da
incerteza da física quântica e ele substitui os axiomas da física clássica de Isaac Newton,
que apregoava que tudo na realidade é fixo, totalmente mensurável e além de nossa
compreensão.
A matéria não é o que a física clássica afirma ser. Os físicos viam a matéria como
fundamental e estática. È fato de que o próprio Einstein tinha suas dúvidas quanto a
mecânica quântica. Mas na época, era apenas possível usar o raciocínio e a matemática. A
física era extremamente teórica. Recentemente, com a construção de aceleradores de
partículas, os físicos passaram a realizar experiências praticas, testando as teorias, entre
elas, as quânticas.

Exemplo disso é o LHC – Large Hadron Collider – construído num túnel de 27


quilometros de extensão que vai da França até a Suíça, com quase treze mil toneladas de
equipamentos de ultima geração. Chama-se Hadron, que é uma palavra grega que significa
grosso, é uma partícula subatômica com próton. Um equipamento que demorou 14 anos
para ser construído e custou mais de 8 bilhões de dólares. Tamanhas proporções se
destinam simplesmente a provar na pratica a teoria da onda-particula, analisando colisões
de partículas que podem ter até um trilionésimo do tamanho de um grão de sal.

Os físicos quânticos acelerarão seus hadrons em sentido opostos dentro de anéis


magnéticos gigantescos, levando-os a praticamente a velocidade da luz. Com a ajuda de
imãs gigantescos e poderosos, obrigarão a essas partículas a mudarem de sentido e
provocarão um choque mecânico. Este choque espatifará os hadrons diante de placas
sensíveis, que vão registrar e analisar o resultado desta trombada de partículas. De todas as
partículas que serão produzidas na colisão, a que mais interessa aos físicos quânticos é
detectar a presença de bósons.

O termo bóson foi batizado em homenagem ao físico indiano Styendra Nath Bose,
morto em 1974, que junto com Einstein elaborou a teoria do quinto estado da matéria,
chamado de estado Einstein-Bose (os outros quatro estados são: sólido, liquido, gasoso e
plasma). Os bósons pode ir desde um fóton de luz. Mas o que quero destacar para o leitor é
a energia que este bóson possui. Depois de completamente acelerado, um único feixe de
prótons, com cerca de 100 bilhões de partículas, terá energia equivalente à de um trem de
400 toneladas viajando a 150 quilômetros por hora. Quando se imagina que cada feixe será
um pouco maior que uma agulha de costura, a concentração de energia é gigantesca.

Segundo a famosa equação de Einstein E=MC² (energia é igual a massa vezes a


velocidade da luz ao quadrado), massa e energia podem ser transformadas uma na outra. Ao
baterem de frente, os prótons terão energia de sobra para criar uma espécie de mini Big
Bang e reproduzir as partículas presentes no instante inicial do surgimento do universo.
A energia das ondas eletromagnéticas depende do comprimento de onda. Mas a
parte mais curiosa foi apresentada pela física quântica, que descobriu que a radiação
eletromagnética age como onda, mas às vezes assemelha-se a uma torrente de partículas.
As partículas de radiação eletromagnética são chamadas de QUANTA – ou fótons se forem
partículas de luz. A radiação mostra comportamento semelhante ao das ondas quando
refletida de certas superfícies. A luz, por exemplo, é refletida de um espelho, ao passo que
as ondas de radio RICOCHETEIAM em um avião e são detectadas em telas de radar.

A radiação demonstra propriedades semelhantes às das partículas, quando reage


com alguma coisa e origina mudança física ou química. Por exemplo, fótons caindo numa
célula solar são transformadas em corrente elétrica. A maneira como as ondas
eletromagnéticas combinam as suas propriedades de onda e partícula é o principio
fundamental da física quântica. Esta descreve como a quantidade de energia de cada
quantum de radiação eletromagnética depende da freqüência da radiação.

SPIN

Na eletrônica quântica, a real importância é dada não a carga do elétron, mas de seu
momento magnético elementar, chamado SPIN. Spin em inglês significa “rodopiar”o que
significa a produção de um campo magnético, orientado para cima ou para baixo segundo o
sentido de rotação do elétron. Num transistor, o spin de cada elétron é orientado
aleatoriamente. Mas se este estiver sob um material magnético, será polarizado e seus spin
respeitarão as leis do magnetismo: pólos diferentes se atraem enquanto que pólos
magnéticos iguais se repelem. Em função disso, os spin dos transistores interagem com o
material magnético do substrato.Surgiu assim o transistor spintronico. É também
chamado de transistor de um elétron e opera utilizando os efeitos quânticos de
tunelamento e spin.

SPIN
Para entendermos plenamente o que é o SPIN, vamos recordar a constituição do
átomo, sobretudo pela visão quântica. O átomo consta essencialmente de uma parte
chamada núcleo, onde está concentrada toda a massa do átomo, e das partículas chamadas
elétrons que giram em torno deste núcleo. Os elétrons são partículas diminutas que
possuem a massa de 9,11 multiplicado por 10 elevado a potencia de 28 gramas e uma carga
elétrica negativa igual a 1,6 multiplicado por 10 elevado a potencia de menos 19 Coulomb e
dão saltos ao redor do núcleo.

Quanto ao núcleo, ele é constituído por prótons com cargas positivas e nêutrons.
Um fato importante é que a quantidade de prótons de um átomo é igual a quantidade de
elétrons circulando em torno do mesmo. O numero dos prótons do átomo constitui o
numero atômico, enquanto que a quantidade de prótons mais a quantidade de nêutrons
determina a massa do átomo.
Por exemplo, o átomo de hidrogênio tem numero atômico igual a 1 pois tem 1
proton. Já o átomo de silício possui 14 protons e, portanto, o numero atômico é 14 e sua
massa é 28 (soma-se 14 protons com 14 neutrons).

Verifica-se no estudo da física quântica que os elétrons são distribuídos em camadas


em torno do núcleo e que estas camadas são caracterizadas por uma grandeza chamada
numero quântico principal. A física quântica prova também que em cada camada há um
numero Maximo permissível de elétrons que não pode ser ultrapassado, conforme esta
tabela que vou ler:
CAMADA K: numero máximo de elétrons igual a 2
Camada L: igual a 8
Camada M: igual a 18
Camada N: igual a 32
Camada O: igual a 50
Camada P: igual a 72
Camada Q: igual a 98
Poderíamos agora fazer uma pergunta: será que todos os elétrons de uma mesma camada
apresentam as mesmas características? A resposta é NÃO. O motivo é que existe um
numero quântico magnético e que se relaciona quando dois elétrons estão próximos um do
outro. Alem disso, existe a rotação do elétron – o spin – que pode ser explicado da mesma
maneira que a rotação da terra tem em relação ao seu eixo de rotação. Devido a esta rotação
do elétron, existe um outro numero atômico que leva em conta este movimento.

Finalmente, consideremos um elétron descrevendo uma órbita elíptica em torno do


núcleo. Um outro numero quântico leva em conta a excentricidade desta órbita, sendo este
numero chamado de numero quântico orbital. Portanto verificamos que na escala
microscoópica, os fenômenos ocorrem de uma maneira mais critica, levando em conta o
numero quântico principal, numero quântico magnético, numero quântico orbital e o spin.

Existe uma lei quântica chamada de principio de exclusão de Pauli, que diz que dois
elétrons de um átomo não podem apresentar igualdade dos seus quatro números quânticos.
Isto significa que tem que ter pelo menos uma diferença, e esta diferença pode ser o spin.

TUNELAMENTO
A perfeita compreensão do tunelamento ou efeito túnel é difícil pois exige-se
cálculos matemáticos muito complexos, fugindo aos propósitos deste curso. Mas a grosso
modo, sabemos que uma junção PN quando está diretamente polarizada, conduz elétrons.
Em contrapartida, estando inversamente polarizado, não conduz elétrons. Mas existe a
possibilidade de um elétron passar através da barreira de potencial, sendo este fenômeno
chamado de efeito túnel.

A medida que a tensão direta vai aumentando, a partir da origem, a corrente vai
aumentando, comportando-se o dispositivo quase como se fosse um resistor de baixo valor
ôhmico. Quando é atingida a tensão de pico, a corrente cai bruscamente, apresentando o
dispositivo uma região de resistência negativa. Esta região, ocorre o contrario, a saber, a
medida que a tensão aumenta a corrente diminui. Desta maneira cria-se um efeito túnel.
No microscópio de tunelamento, apropria-se deste fenômeno para criar um campo.
O microscópio possui uma agulha fina dentro de um vácuo. A ponta da agulha emite
elétrons, que saem em linhas retas divergentes, atingindo uma tela fosforescente. Nessa tela
aparece um quadro amplamente aumentado da ponta da agulha. A agulha fica bem distante
da tela de observação. A agulha e a tela formam um capacitor que armazena os elétrons na
ponta da agulha. Mas não por muito tempo. Logo, começa a ser produzida uma corrente de
fuga – aquela situação descrita anteriormente onde um elétron passa através da barreira de
potencial, sendo este fenômeno chamado de efeito túnel. Este elétron “fujão” irá em direçao
até a tela fosforescente. Só que quando chegar lá, devido a distancia e aos fenômenos do
tunelamento quântico, atingirá uma dimensão que pode variar de 10 elevado a décima
potencia a 10 elevado a décima segunda potencia. Em outras palavras, pode ampliar 1o
bilhões de vezes, atingindo a visibilidade de um elétron que corresponde a 1 nanometro.

Mas para manter a imagem, deve-se manter constante a corrente túnel: a agulha
sobe e desce para ficar variando a polarização e produzir o escape de um elétron pelo túnel
quântico.

NANOELETRONICA E A ESCALA MOLECULAR


Já sabemos que o átomo é a menor partícula de qualquer elemento que pode
participar de uma reação química. Na química, além das subdivisões do atome em prótons,
nêutrons e elétrons, há a contemplação dos ÍONS. O íon de um átomo é quande ele está
eletricamente carregado. Normalmente a carga do átomo é neutra mas durante as reações
químicas os elétrons podem saltar de um átomo para outro, de modo que ganham carga
total podendo ser positiva ou negativa, produzindo desta maneira íons positivos ou
negativos. Os íons de carga positiva são chamados de CATIONS e os de carga negativa são
chamados de ANIONS.

Agora, vamos falar da molécula. Muitas substancias são chamadas de moléculas,


que consistem em 2 ou mais átomos. Os laços que ligam os átomos numa molécula são
formados pela partilha de elétrons. Define-se molécula como sendo a menor parte de
determinada substancia que guarda as características dessa substancia. A molécula da água,
por exemplo, é composta de um átomo de oxigênio e dois de hidrogênio. Caso fosse
dividida nos átomos que a constituem, não teria mais as propriedades do que conhecemos
por água.

A própria palavra hifrogenio, em grego, significa formador de água. Este nome foi
dado por Lavoisier em 1784 quando foi descoberto que se o hidrogênio fosse queimado
dentro de um recipiente, apareceriam gotas de agua nas partes mais frias desse aparelho.
Sua conclusão foi que o hidrogênio combinado com o oxigênio formava a água.

No século dezenove, o inglês John Dalton sustentava que a matéria era formada de
átomos de diferentes massas, combinados em moléculas. Logo depois, o químico italiano
Amedeo Avogrado chamou essas combinação de “moléculas elementares” referindo-se aos
“atomos compostos” de Dalton. Estou querendo dizer que sempre houve muita discussão
entre os químicos e os físicos neste estudo. Mas foi tão somente os físicos quânticos que
conseguiram chegar a um entendimento exato, inclusive atribuindo valores.
Agora, veja quão fascinante é a historia das ciências. Em 1869, depois de ter
entendimento dos elementos atômicos, o químico russo Dmitri Mendeleyev preparou o que
é conhecido hoje como Tabela periódica dos elementos. Cerca de dois anos depois, Charles
Darwin escreveu seu livro sobre a evolução intitulado A Origem do Homem, considerado a
obra cientifica mais notável desde o grande clássico de Isaac Newton. Estes conhecimentos
foram muito importantes para os desdobramentos que viriam.

Em 1871, o físico James Clark Maxwell provocou uma verdadeira revolução


cientifica ao afirmar que as moléculas poderiam ser materializadas e adquirir uma forma.
Veja bem, o estudo das moléculas pertence oficialmente a biologia e a química. O que um
físico teria que se intrometer no assunto? Para se ter idéia da revolução, decidiram chamar
esta teoria de Maxwell de “o demônio de Maxwell”. Durante mais de 100 anos ninguém
tocaria neste assunto. Até que, por volta de 1989 quando já tínhamos os poderosos
microscópios eletrônicos, observou-se um fenômeno nas moléculas que lembrou a teoria do
“demônio de Maxwell”. Esta teoria, embasada nas leis da química já existentes e nas idéias
da evolução de Darwin, fez uma correlação com a termodinamica da física, algo que nunca
havia sido pensado. Maxwell, provavelmente inspirado na Teoria das Espécies de Darwin
de que, com o tempo, algumas espécies se teriam transmutado em outra espécie
relacionada. Mas nem Darwin sabia explicar como isso aconteceria. Já Maxwell fez um
experimento mental com uma molécula indicando que se agrupássemos duas moléculas,
uma maior e uma menor, que em pouco tempo a molécula menor tomaria as mesmas
características da molécula maior, sendo esta menor o tal “demônio de Maxwell”. Se isso
fosse verdade, imaginavam os cientistas, poderíamos manipular a molecula.

O que foi feito após a invenção do microscópio eletrônico, foi tentar criar a
molécula do “demônio de Maxwell”, ou seja, uma molécula de 1,2 nanometro de
comprimento constituída de duas partes diferentes, uma com excesso de elétrons
(totalmente negativa) e outra com falta de elétrons (mais positiva). Conectada a dois
eletrodos, cria-se um retificador molecular, fazendo com que os elétrons do eletrodo não
possam penetrar o lado que tem excesso de elétrons pois serão repelidos, mas entram no
lado que tem falta de elétrons pois serão atraídos. Ou seja, o “demônio de Maxwell” foi
construído> uma molécula especial que quando entra em contato com qualquer outra
molécula, provocará um desencadeamento de elétrons, alterando desta forma as
características das mesmas. Criou-se assim o transistor molecular ou eletrônico
molecular.

Dois elementos são fundamentais para se obter o controle das moléculas: o


eletromagnetismo (que servirá para criar campos já que as moléculas são quânticas, ou seja,
não se pode prever onde o elétron estará em cada momento) e o outro elemento é a
temperatura (é possível seguindo as leis da termodinâmica provocar os deslocamentos dos
elétrons).

NANOELETRONICA
Agora sim chegamos na nanoeletronica, pois esta envolve a produção de
dispositivos do tamanho de uma molécula ou menor que ela. O interesse em utilizar uma
molécula como circuito eletrônico é que esta pode, em contato com outras moléculas,
alterar as configurações químicas e elétricas, de acordo com a vontade do projetista.

Os biofísicos e biotecnólogos, descobriram que uma molécula de proteína pode


mudar de forma graças ao spin do elétron. Veja que incrível: no mundo invisível, uma
molécula pode girar absolutamente sozinha. Era isso que Darwin queria dizer com sua
teoria da evolução pela seleção natural em 1858, mas não sabia como isso era feito.
Algumas moléculas teriam transmutado em uma outra espécie de moléculas, enquanto que
outras tornaram-se extintas. Darwin não conseguia entender qual o mecanismo que teria
impulsionado essa evolução. Mas a física quântica, no seu entendimento molecular e do
spin, pode trazer a luz este entendimento.

Segundo a hipótese quântica, a vida surgiu segundo um roteiro que vai do inerte ao
vivo. As moléculas teriam se tornado cada vez mais complexas e organizadas. O mundo
vivo é regido pelas mesmas regras do mundo inanimado. Por isso que se diz que somos pó
das estrelas, referindo-se a grande explosão do big bang. O biólogo francês François Jacob,
ganhador do premio Nobel em 1965, declarou: “A vida é um produto da organização das
moléculas”. Seguindo os axiomas de Darwin e traduzindo para uma linguagem quântica,
tudo surgiu a partir de uma nanomolécula de uma nanobactéria.

Entretanto, não existe vida sem informação. No mundo molecular, a informação


está contida nas seqüências de moléculas de DNA (acido desoxirribonucléico). Mas
recentemente, os biólogos descobriram que o RNA (acido ribonucléico) também pose servir
de suporte de informação, exatamente como ocorre com os vírus, sendo capaz de acelerar
reações químicas milhões de vezes, como acontece com uma enzima.

Ora, se é possível fazer uma macromolécula para que esta modifique outras
moléculas, porque não fazer uma maquina molecular, composta por milhares de átomos? A
idéia é concentrar em uma única molécula um circuito eletrônico completo. Esses circuitos
eletrônicos são elaborados com alguns tipos de átomos diferentes e dopagens apropriadas
para se conseguir a polarização de cada parte do circuito, fazendo com isso os diversos
componentes. Lógico que esta molécula não seria pequena, razão de ser chamada de
macromolécula.

Iniciou-se a produção de nano dispositivos moleculares fazendo um fio molecular.


Este, em contato com outras moléculas aumentaria a condutância elétrica das mesmas.

Em seguida construíram um amperímetro molecular, um dispositivo capaz de medir


a intensidade de corrente de uma molécula. Isto em biotecnologia é muito útil, pois
sabendo-se a corrente que possui um determinado órgão do corpo, pode-se detectar a saúde
física do individuo. Recentemente, um físico quântico de nome Bruce Tainio construiu uma
maquina chamada BT3 Frequency Monitoring System que usa um amperímetro molecular
que é injetado no paciente. Este cientista explica que todo átomo tem um movimento
vibratório próprio e que cada movimento tem uma determinada freqüência em Hertz. O
amperímetro molecular mede a intensidade da corrente que, a partir de um computador,
poderá calcular a freqüência, o pH e outras grandezas bioelétricas. A macromolécula pode
medir a nanovoltagem da onda tomando por referencial a freqüência predominante da faixa
de megahertz.

Tainio descobriu que uma pessoa com boa saúde vibra na faixa de 62 a 68 MHz. As
células humanas começam a mudar quando sua freqüência cai abaixo de 62 MHz, é quando
as doenças começam a se manifestarem. Por exemplo, uma pessoa com gripe apresenta
vibrações em 58 MHz; uma pessoa com alguma infecção, vibra em 55 MHz; uma pessoa
com câncer vibra em 42 MHz e uma pessoa a beira da morte vibra em 20 MHz.

O que os biotecnólogos esperam conseguir nos próximos anos (ou décadas) é


produzir macromoléculas poderosas de alta freqüência e elevada corrente que possam
entrar em ressonância com as moléculas danificadas ou cancerosas e possam influenciar a
taxa de vibração entre elas. Por exemplo, se uma pessoa está com câncer e vibra a 42 MHz,
a macromolécula poderia ter uma taxa vibratória de 90 MHz, para que obtenha o equilíbrio
de 65 MHz que é a faixa de vibração saudável. Isto seria a cura das doenças. Por hora, é
ainda uma teoria e faz parte das pesquisas da nanotecnologia.

Para entender bem o funcionamento de uma macromolécula, seja ela um fio, um


amperímetro ou qualquer outro dispositivo, deve-se entender que cada átomo possui um
numero atômico e um numero quântico. Quando alteramos o numero quântico devido a
manipulação dos elétrons (ou em quantidade ou pela modificação do spin), alteramos este a
constituição molecular. Mas isto já é conhecido pela química. Pode-se alterando os elétrons
da camada de Valencia alterar o numero quântico. Por exemplo, alterando os elétrons de
Valencia (ultima camada) do cloro e do sódio produzimos o cloreto de sódio.

O elétron isolado da camada de Valencia do sódio está fracamente ligado ao núcleo.


Já a camada de Valencia do cloro pode receber elétrons, pois tem apenas 7 elétrons e o
numero máximo de elétrons permitido para a camada de Valencia é 18. O que se passa,
então, é que o elétron de Valencia do sódio abandona o átomo e é recebido pela camada de
Valencia do cloro. Quando isto se verifica, o átomo de cloro, que era neutro, fica com carga
negativa igual à do elétron que recebeu, enquanto que o átomo de sódio fica com uma carga
elétrica positiva igual à do elétron que perdeu. Dizemos que o átomo de sódio tornou-se um
íon positivo (cátion) e o átomo de cloro tornou-se um íon negativo (ânion). A seguir, estes
dois íons , por possuírem cargas elétricas diferentes, se atraem, formando uma molécula do
cloreto de sódio. Imagine agora tudo isso ocorrendo dentro de uma macromolécula
produzida em um microscópio de tunelamento!

NANOELETRONICA NA PRÁTICA: RFID


São muitos os dispositivos e circuitos de nanoeletronica que já estão fazendo parte
do cotidiano de nossa vida. Um deles é o RFID – Radio Frequency Identification, ou
sistemas de radio identificação. São sistemas compostos de um chip eletrônico com uma
antena de RF, cujas informações do chip podem ser lidas e modificadas a distancia. Os
RFID apresentam-se sob a forma de uma minietiqueta ou uma cápsula. Você passa por um
pedágio sem parar e o sistema identifica e faz a cobrança.

Esta mesma idéia está sendo produzida para controle de mercadorias em


supermercado, que em pouco tempo dispensará os caixas – você pega a mecadoria e coloca
no carrinho de compras e sai do supermercado direto para o porta mola do seu carro. Ao
colocar as mercadorias dentro do carrinho de compras, já será feita a cobrança que deverá
interligar o sistema com sua conta bancaria ou algo semelhante, tudo usando estas nano
etiquetas.

Na Bélgica, estas etiquetas RFID em formato mesoscópico já é implantada em cães


e gatos para identificação. E na França já se utiliza estas etiquetas implantadas em bebês e
crianças para evitar seqüestros. A próxima etapa é produzir RFID em formato nano
aproximando-se do tamanho de uma proteína ou até em RFID molecular.

Um autor americano, Ray Kurzweil chegou a sugerir que um RFID molecular


poderia ser introduzido no cérebro de uma pessoa e servir de escâner dos neurônios,
capazes de registrar os sinais transmitidos pelos neurônios e decifrar os nossos
pensamentos. Pode ainda parecer ficção cientifica, mas teoricamente tem fundamentação.

Não nos esqueçamos que algumas idéias e teorias de 300 anos atrás, como a do
“demônio de Maxwell” acabaram se tornando realidade. Talvez, estas idéias que surgem na
cabeça dos pesquisadores de hoje, possam na próxima década também se tornar realidade.
Tem o agravante de que hoje os avaços tecnológicos não demoram tanto tempo como
acontecia nos dias de Newton, Maxwell, Einstein, e outros.

Por isso quero encerrar este áudio livro citando o cientista francês Eliphas Lévi:
“A ciência sem a fé conduz a dúvida;
A fé sem a ciência conduz à superstição.
As duas reunidas dão a certeza, e para uni-las
Não se deve jamais confundi-las.”

You might also like