Luz para a inteligência, Calor para a vontade

segunda-feira, 4 de abril de 2016

O que é Nanociência? (Peter Schulz)


O que é Nanociência e para que serve a Nanotecnologia?


Peter A. B. Schulz 
- Instituto de Física, UNICAMP - 


A bilionésima parte 

O prefixo nano, seguido de alguma outra palavra, aparece com freqüência cada vez maior no nosso dia-a-dia. Por enquanto essa presença dá-se principalmente através dos meios de comunicação (no instante em que estou revisando esse artigo, em janeiro de 2005, o termo “nanotecnologia” aparece 33.400 vezes no Google, apenas em páginas brasileiras). Muitas das notícias parecem prometer que essa presença será mais efetiva em algum futuro mais ou menos distante, embora aplicações de “nano-isso” ou “nano-aquilo” já estejam disponíveis e melhorando a nossa qualidade de vida. O Ano Internacional da Física em 2005 representa um ótimo pretexto para olhar com bastante atenção para essa verdadeira “nano-mania”. Acho que vale a pena até compará-la a uma também verdadeira “micro-mania”, que existia há exatamente um século, ou seja, por volta do “ano miraculoso” da Física. 

O prefixo nano descreve uma ordem de grandeza, vem do grego e quer dizer essencialmente um bilionésimo de alguma coisa. No caso atual estamos interessados em um bilionésimo de metro, o nanômetro. Nanociência e nanotecnologia são, portanto, ciência e tecnologia que acontecem ou são feitas nessa escala de comprimento, mas de maneira controlável e reprodutível, envolvendo fenômenos que muitas vezes não ocorrem em outras escalas de tamanho. Em outras palavras, não estamos falando simplesmente de miniaturização de algo grande para algo muito pequeno. 

O tema, embora recente, não pode ser esgotado em um espaço tão pequeno (sem trocadilho) como o desse artigo. Na medida do possível, referências a outros artigos impressos e, principalmente, artigos na internet, tentam complementar a história contada aqui [1-2]. 

O relógio como exemplo 

Um exemplo fantástico de miniaturização é dado pelos antigos relógios mecânicos, aqueles que precisavam de corda, lembram-se? Os primeiros relógios com engrenagens e pêndulos ficavam no alto das torres das igrejas medievais e as peças tinham que ser medidas em metros. Alguns séculos se passaram e essas peças foram miniaturizadas e os relógios passaram a ser usados nos pulsos das pessoas e as peças passaram a ter dimensões de milímetros. É uma história fascinante, pois estamos falando de uma diminuição de tamanho de mil vezes! No entanto, o antigo e enorme relógio da torre da igreja é essencialmente o mesmo dispositivo de engrenagens e alavancas do relógio de pulso (à corda, com rubis, etc.). O princípio físico para medir o tempo continuou o mesmo. 

Nos relógios a quartzo temos uma mudança fundamental no princípio para medir o tempo, que leva a um dispositivo muito menor e mais preciso. Estamos falando de um cristal de quartzo de dimensões de milésimos de milímetro de comprimento. Diminuímos o dispositivo novamente em mil vezes, mas o relógio de pulso é para que as pessoas possam ver as horas, portanto um dispositivo tão pequeno tem que ser acoplado a ponteiros e mostradores grandes o suficiente para serem vistos, resultando em algo do mesmo tamanho dos antigos relógios de pulso, que precisavam de corda. Então qual foi a vantagem, além de saber as horas com uma precisão maior do que a necessária? Simplesmente eles são muito mais leves e baratos e o relógio deixou de ser um objeto exclusivo para virar brinde na compra de sandálias. 

Mas isso já é nanociência, ou melhor, nanotecnologia? Ainda não! Temos que pensar em diminuir as dimensões em outras mil vezes, além de outras coisas, mas as potenciais conseqüências sobre a sociedade, envolvendo o controle de novos fenômenos físicos, nessa viagem ao muito pequeno, são bem ilustradas por essa breve e leiga digressão sobre o relógio [3]. Por outro lado, para ser sincero, essa história do relógio atravessou só umas 3 ou 4 ordens de magnitude. O conhecimento humano consegue vislumbrar até 39 ordens de grandeza, como ilustrado no tema “Potências de 10” [4]. 

Sobre a necessidade de novas tecnologias 

O exemplo da sofisticação do relógio é também um motivador para uma pergunta importante: para que novos paradigmas tecnológicos? No caso do relógio, a possibilidade de uma medição precisa do tempo tornou possível a navegação (ao faciitar a medição de longitude) e mais recentemente relógios atômicos são necessários nos satélites de navegação por GPS [5]. 

Vamos pensar em um outro paradigma tecnológico, no caso algo mais próximo ao nosso tema, ou seja, a eletrônica! Como era a nossa vida no início do século XX? Bem, a invenção do diodo de válvula ocorreu em 1904 - por isso 2005 pode ser quase considerado o ano internacional da eletrônica também! No alvorecer do século passado já podíamos ler à noite com iluminação elétrica. Era possível ir ao cinema, telefonar ou ouvir música em casa com a ajuda dos gramofones. A eletrônica certamente aperfeiçoou todos esses aspectos do nosso cotidiano, mas não foi necessária para a criação de todos esses inventos. 

Herbert Kroemer, prêmio Nobel de Física de 2000, pela invenção do laser de semicondutores [6], salientou em recente palestra que uma tecnologia não é criada para simplesmente “fazer melhor o que é feito com as tecnologias já existentes”. E o que as tecnologias anteriores à eletrônica não foram capazes de criar? A resposta é a comunicação sem fio, o rádio. A transmissão e recepção de dados complexos (som e depois imagem) a longas distâncias, e etc.

A origem da nanociência e seu profeta 

Não demorou muito e a eletrônica seguiu o exemplo dos relógios, ou seja, a busca da miniaturização. Dois foram os passos fundamentais para tornar essa miniaturização efetiva: a invenção do transistor em 1947 [7] e a do circuito integrado em 1959. Eram novas tecnologias, baseadas em materiais semicondutores e não mais em bulbos de vidro com filamentos. Com isso foi possível chegar à microeletrônica, também um novo, digamos, paradigma tecnológico, como o foi a eletrônica 50 anos antes. 

Novamente devemos nos lembrar que a microeletrônica não se desenvolveu para fazer melhor o que a “macroeletrônica” já fazia e sim para dar origem a algo novo: o processamento em grande volume e velocidade de dados e a possibilidade de transmiti-los em quantidade e velocidade inimagináveis para os antigos “racks” de válvulas. 

Mas ainda estamos no micrômetro e não no nanômetro e, portanto, vale a pena voltar ao ano de 1959 e falar de uma profética palestra de Richard Feynman: “Está cheio de espaço lá embaixo” (There is plenty of room at the bottom), proferida em um encontro da American Physical Society em 29 de dezembro de 1959 [7]. Nessa palestra ele abordou a miniaturização de registros de memória como letras impressas (mas hoje em dia podemos falar diretamente de bits e suas dimensões). 

Um bit (0 ou 1) é a unidade de informação binária e um caracter do nosso sistema de lingüagem precisa de uns oito bits para ser representado, mas vamos arredondar para dez, pois só falaremos de estimativas. Até o ponto anterior a essa frase, esse texto soma aproximadamente 5.700 caracteres. Quanto espaço pode ocupar essa quantidade de informação? 

A palestra de Feynman pode ser vista como uma “resposta especulativa” a essa pergunta. Hoje em dia um bit gravado em um CD tem uma dimensão típica de 0,5 microm. Portanto os cerca de 6000 caracteres são traduzidos em 60.000 bits que ocupariam uma trilha de 30.000 micra, ou seja, 3 enormes centímetros de comprimento e 0,5 microm de largura, que corresponde a uma área menor que o pingo desse i. 

Parece impressionante, mas ainda pouco ousado para Feynman. Afinal o que representa 0,5 microm? Já sabemos que é a aresta de um “cubo” gravado em um CD que representa um bit. Quantos átomos cabem nesse cubo? São cerca de 10 elevado a 10 (dez bilhões). Supondo porém que só fossem necessários 10 átomos para registrar um bit, o pingo daquele i poderia armazenar 6 x 10 elevado a 12 caracteres, um bilhão de vezes mais do que na estimativa anterior. 

Imagine que até agora esse texto chegou a cerca de 6.500 caracteres: No pingo do i seriamos capazes de guardar a informação contida em um texto 1 bilhão de vezes maior que esse! 

Feynman lançou então esse desafio e previu que no ano 2000 as pessoas se perguntariam porque apenas em 1960 a humanidade começou a pensar nessa possibilidade. Feynman é uma espécie de profeta, pois esse desafio passou a ser levado a sério nos últimos 20 anos e é parte importante do que chamamos de nanociência. 

O porque de que só em 1960 começou-se a pensar em mover-mo-nos nessa direção tem uma resposta razoavelmente simples: foi nessa época que foram inventados os circuitos integrados e dispositivos opto-eletrônicos que permitiram os primeiros passos nesse caminho. 

O caminho de cima para baixo (top-down) 

O problema é como trabalhar nessas dimensões. Uma maneira já tradicional, chamada de abordagem “de cima para baixo” (top-down), consiste em “esculpir” circuitos cada vez menores nos chips de silício, por exemplo. Uma maneira é por ataque químico. Receita simples (os detalhes de protocolo e a “cozinha” são extremamente sofisticados): cubra o tablete wafer de silício com um material foto sensível que se modifica quimicamente quando exposto à luz e cubra esse material com uma máscara com o esquema do microcircuito que deve ser formado no chip. Depois ilumine o conjunto, retire a máscara e “revele” com um ácido (especial), que elimina apenas o material foto sensível não iluminado junto com o material semicondutor embaixo. Pronto: criaram-se canais e ligações no silício, que deverão ser preenchidos com outros materiais. Esse processo é repetido várias vezes e o “bolo” acaba tendo muitas camadas. Uma idéia da complexidade do processo de fabricação de um componente desses é bem descrita por simulações disponíveis livremente na internet [9]. 

Onde está o nano nessa história? Está no tamanho dos detalhes do desenho na máscara. 

Uma maneira é desenhar o circuito em escala gigante em uma tela de 3,5 x 2,5 m. Essa tela é enquadrada por uma máquina fotográfica e fotografada com um filme de alta resolução. O desenho todo é transferido para um fotograma de 35 mm x 25 mm, que será a máscara. Um traço de um milímetro de espessura na tela é diminuído de uma escala de 100 vezes, ou seja, no fotograma ele terá apenas 10 microns. 

Bem, já deu para chegar na microeletrônica, mas ainda não é suficiente. Como fazer desenhos menores? Atualmente são utilizados feixes de elétrons, que podem ser focalizados em pontos de até 0,05 microm. Essa “caneta” pode ser guiada com grande precisão e gravar o circuito diretamente sobre o material foto sensível mencionado acima. 

Agora a dimensão característica de 10 microns foi reduzida 200 vezes e chegamos à escala de 50 nanômetros. Na verdade, hoje em dia é utilizada a chamada tecnologia de 0,07 microm (dimensão característica de detalhes do circuito integrado) na fabricação de microprocessadores. Pode-se dizer que de certa forma a atual eletrônica já está mais para “nano” do que para “micro”. 

Vamos especular sobre um dos desafios dessa nanoeletrônica. O silício para fins eletrônicos tem cerca de 10 elevado a 18 elétrons por centímetro cúbico. Do ponto de vista físico, um bit é uma “caixinha” de silício vazia, representando o 0, ou carregada de elétrons, representando o 1. Uma caixinha de 0,1 microm de aresta seria carregada por 1000 elétrons, para a densidade dada. Se diminuirmos a aresta para 0,01 microm a caixinha seria carregada com um único elétron! Não é possível diminuirmos mais do que isso, e já estamos chegando perto desse limite. Aliás, os “transistores de elétron único” (single electron transistor) já existem como protótipos experimentais e são utilizados como sensores [10]. 

Apesar de tudo isso ser fantástico, devemos ter em mente a profecia de Feynman: quantos átomos de silício existem nesse cubo de 0,01 microm de lado? Cerca de 60.000, e se pudéssemos realizar a profecia (registrar um bit em apenas 10 átomos) ainda poderíamos avançar entre 3 e 4 ordens de grandeza! 

Isso, no entanto, é impossível de cima para baixo. Temos que ir de baixo para cima. 

A vereda de baixo para cima (bottom-up)

Registrar e ler bits em escala de poucos átomos não é possível, como vimos, na eletrônica “tradicional”. Uma nova tecnologia torna-se necessária. Essa tecnologia, chamada de microscopia de sonda por varredura (scanning probe microscopy) passou a ser desenvolvida nos anos 80 do século passado com a invenção do microscópio de tunelamento (prêmio Nobel de 1986) e o posterior desenvolvimento do microscópio de força atômica [11]. 

Uma ponta extremamente fina, constituída de poucos átomos, pode ser aproximada, afastada e varrida ao longo de uma superfície com precisão de até 0,1 Angstron. É uma das maneiras para se “ver” átomos individualmente [12], mas o que nos interessa principalmente é que essa ponta, sob certas tensões elétricas, é capaz de arrancar um único átomo e depois depositá-lo em outro ponto da superfície. É, portanto, uma ferramenta para manipular átomo a átomo, como um pedreiro consegue fazer com tijolos. 

Sabemos há um bom tempo que todas as coisas são feitas de átomos e agora estamos aprendendo a fazer as coisas a partir dos átomos [13]. Esse talvez seja o conceito essencial da nanociência. 

Existem vários protótipos de nano objetos construídos átomo a átomo e podemos formar toda uma galeria de imagens com eles [14]. 

Problemas? Pelo menos um bem grande: um microprocessador “tradicional” tem milhões de componentes, que são construídos simultaneamente. Construir um objeto com essa complexidade, movendo uma peça (no caso um átomo) de cada vez torna o processo extremamente lento. Essa tecnologia parece, por enquanto, limitada a situações nas quais alguns protótipos são necessários, não sendo factível para uma “produção em série”. 

A aposta para uma “produção em série” aparece no conceito de auto-organização

Átomos que se auto-organizam 

Se nos convencemos de que a nanociência teve um profeta, é justo que possamos falar também de um guru da nanotecnologia. Esse papel pode ser atribuído a K. E. Drexler, autor do livro Engenhos da Criação: O advento da Era da Nanotecnologia, de 1990 [15]. A idéia, audaciosa sem dúvida, baseia-se na possibilidade de que os próprios “nano objetos” se organizassem e construíssem os dispositivos para os quais as máquinas exteriores (como os microscópios) tornaram-se incapazes. 

A natureza fornece pelo menos dois exemplos muito úteis: os átomos organizam-se em arranjos periódicos (cristais) quase que por si só, desde que algumas condições sejam satisfeitas (não é necessário enfileirá-los um a um via agente externo), como no caso do átomo de carbono. 

A propósito, duas formas de organização dos átomos de carbono foram descobertas nas últimas décadas: o fulereno e o nanotubo de carbono. São grandes estrelas da nanociência e mereceriam um capítulo à parte. Esse lapso certamente é sanado pelas notas de aula do Prof. Rodrigo Capaz da UFRJ [16]. 

Um outro exemplo de auto-organização e auto-montagem é o DNA, cujas características estão sendo exploradas como opção para uma eletrônica molecular [17] (lembrem-se: uns poucos átomos para representar um bit [18]). 

Uma outra origem: Einstein, os colóides e as nanopartículas 

Partículas suspensas em líqüidos são consideradas coloidais se seu tamanho varia de alguns nanômetros até centenas de microns. O limite inferior aproxima-se de dimensões moleculares. O limite superior indica uma situação na qual as forças externas (como a atração gravitacional) passam a determinar a dinâmica no lugar do movimento Browniano, descrito por Einstein em um dos artigos do ano miraculoso [19]. 

Essa história é fasci- nante e constitui um dos marcos históricos da nanociência. Uma questão fundamental no início do século XX era a determinação da carga do elétron, bem como a determinação precisa do número de Avogadro. Os dois problemas eram correlacionados: tanto a matéria quanto a carga elétrica têm unidades fundamentais, átomos e elétrons, respectivamente. Esse aspecto não-contínuo da natureza ainda sofria forte oposição de cientistas importantes da época: “fazer dos átomos objeto de pesquisa, fosse na Física ou na Química, era considerado pelos adeptos de Ernst Mach (1838-1916) como uma hipótese metafísica falsa e até mesmo perigosa” [19]. 

Essa corrente de uma física fenomenológica praticamente caiu por terra com a determinação da carga do elétron por Millikan (1868-1953) [19] e a medida do número de Avogadro por J. Perrin (1870-1942) [20], sem falar na descrição do movimento Browniano por Einstein. Estamos falando, portanto, de duas experiências fundamentais e que tinham em comum a necessidade de partículas muito pequenas e homogêneas. 

Vale lembrar que as gotículas de óleo na experiência de Millikan tinham um raio médio de 2,8 micra (2800 nm), enquanto as pequenas esferas da experiência de Perrin, apenas 0,2 microm (200 nm!). 

Esses estudos fundamentais tornavam mais acessível o mundo dos colóides, que tinha também um guru, o químico Wolfgang Ostwald (1883-1943), que escreveu um livro chamado O Mundo das Dimensões Esquecidas (1914, mas publicado apenas depois da 1ª Guerra Mundial). Acreditava-se que a ciência dos colóides teria grandes aplicações com promessas para a indústria e para a Medicina. 

É interessante nesse Ano Internacional da Física comparar a ciência dos colóides com a nanociência, que ganharam destaques nos extremos opostos do século XX. Vale lembrar uma vez mais que partículas coloidais são nanopartículas, cujo negócio é estimado em mais de US$ 40 bilhões anuais. E as promessas de aplicações em Medicina estão se realizando com a utilização de nanopartículas magnéticas no diagnóstico e tratamento do câncer [22], entrega inteligente de remédios no interior do corpo humano [23] e até mesmo cremes contra rugas [24]. 

Algumas aplicações são mais antigas ainda 

Em certo sentido, pode-se dizer que o produto mais antigo da nanotecnologia conhecido é o cálice de Lycurgus, que remonta ao século IV D.C. e se encontra no museu britânico. Esse cálice romano é feito de um vidro que parece verde sob luz refletida, mas é vermelho translúcido sob luz transmitida através dele. Esse efeito óptico é causado por nanopartículas compostas de ouro e prata de apenas 70 nm de diâmetro [25]!  Isso foi provavel- mente obtido por acidente, de modo que é um exemplo de “nano artesanato” e não de tecnologia, a qual se baseia em protocolos que podem ser reproduzidos. 

Nada impede inclusive que o leitor se aventure um pouco com a nanociência usando poucos recursos [26], ou mesmo muito poucos recursos: basta um lápis e uma folha de papel. Você sabe a espessura de um traço de lápis sobre o papel? Uma estimativa [27] por medida de resistência elétrica leva ao incrível valor de... 17 nm (!)

Referências e Notas 

[1] http://www.thenanotechnologygroup. org/id46.htm. 
[2] http://www.comciencia.br/reportagens/ framereport.htm. 
[3] http://www.numaboa.com.br/relogios/ timeline.php. 
[4] http://micro.magnet.fsu.edu/primer/ java/scienceopticsu/powersof10/ index.html. 
[5] http://gps.ciagri.usp.br/. 
[6] http://www.sobiografias.hpg.ig.com.br/ HerbKroe.html. 
[7] Adenilson J. Chiquito e Francesco Lanciotti Jr., O transistor, 50 anos.  RBEF 20, 309 (1998). 
[8] http://www.its.caltech.edu/~feynman/ plenty.html. 
[9] <http://micro.magnet.fsu.edu/electro mag/java/transistor/index.html>. 
[10] http://www.inovacaotecnologica.com. br/noticias/noticia.php?artigo= 010110030603.
[11] http://www.scielo.br/scielo.php? pid=S0366-69131998000600002 &script=sci_arttext. 
[12] Caio Mário Castro de Castilho, Quando e como o Homem começou a “ver” os áto- mos! RBEF 25, 364 (2003). 
[13] Essa frase eu ouvi do Prof. Cylon Gonçalves da Silva, professor emérito do Instituto de Física da UNICAMP. 
[14] http://www.almaden.ibm.com/vis/stm/ stm.html 
[15] http://www.foresight.org/FI/Drexler. html. 
[16] http://omnis.if.ufrj.br/~capaz/ffnc/ notas.html. 
[17] N.C. Seeman, Nanotecnologia e a dupla hélice. Scientific American Brasil 26, 27 (2004). 
[18] http://seemanlab4.chem.nyu.edu/ homepage.html. 
[19] A. Einstein, Über die von der molekular- kinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen. Ann. Phys. 17, 549 (1905).
[20] G. Holton, in Subelétrons, Pressupostos e a Polêmica Millikan-Ehrenhaft, editado por Zahar editores A Imaginação Científica. 
[21] A. Bebeachibuli, L.H. Libardi e V.S. Bagnato, Determinando o número de Avogrado pelo método de J. Perrin. RBEF 21, 447 (1999). 
[22] M. Knobel e G.F. Goya, Ferramentas magnéticas na escala do átomo. Scientific American Brasil, 31, 58 (2004). 
[23] U. Capozzoli, O Brasil na era da nanotecnologia. Scientific American Brasil 1, 38 (2002). [24] Revista Veja, p. 72, edição 1889, 26/01/ 2005. 
[25] (http://www.begbroke.ox.ac.uk/nano/ accessWeb/history.html. 
[26] V. Rodrigues e D.M. Ugarte, Quantização da condutância: Um experimento simples para o ensino de Física. RBEF 2211 2211 21, 264 (1999). 
[27] http://www.pencilpages.com/articles/ (veja o Alice Newcomber’s physics project).

Nenhum comentário: