Ano Internacional da Física: Uma Longa Caminhada

Prof. Leonardo Fonseca (30 de março de 2005)

2005 ano internacional da fisica com uma imagem do einstein ao fundo

No Ano Internacional da Física, em que se comemora o centésimo aniversário do “annus mirabilis” de Einstein, cabe chamar a atenção para as linhas gerais da evolução do conhecimento acumulado pelo ser humano sobre a natureza, na área que denominamos convencionalmente de Física.
A necessidade de adquirir esse conhecimento esteve ligada inicialmente às exigências mais básicas de nossa sobrevivência em um ambiente muitas vezes hostil. As primeiras tentativas do ser humano de controlar e intervir no meio ambiente constituíram-se de rituais de magia, cujo princípio lógico é a idéia de que causas semelhantes têm efeitos semelhantes: se determinados animais têm quaisquer comportamentos característicos, por exemplo, antes do início de um período de chuvas, ou outro evento desejável, um feiticeiro, durante uma seca, imitava tais comportamentos, pulando como os sapos ou uivando como os lobos, com o objetivo de chamar as chuvas. Em seguida, em vista do poder de certos elementos e fenômenos naturais, como o Sol, os raios, os trovões, as águas, etc., a eles foram associados deuses e criados ritos religiosos que garantissem que os desígnios divinos fossem benfazejos. Com uma observação mais sistemática notou-se a existência de muitas regularidades e algumas irregularidades nos movimentos dos vários corpos celestes que foram considerados como deuses, cada um com poderes e qualidades peculiares e, a partir da observação de seus movimentos, passou-se a crer que se podiam prever os destinos. Na Babilônia a Astrologia chegou a ser a rainha das “ciências”.
A magia, a religião e a astrologia podem ser consideradas como três precursores da ciência.
Os babilônicos criaram sistemas de unidades: Unidades de tempo, como o dia dividido em horas, minutos e segundos, o mês, ligado ao ciclo lunar e o ano de trezentos e sessenta dias agrupados em doze meses (de tempos em tempos adicionavam-se meses suplementares para correções). Desenvolveram o relógio de Sol com uma haste vertical denominada gnomon. Dividiu-se o percurso solar em doze faixas, o zodíaco, dando nomes de animais às constelações em cada faixa. Unidades de comprimento, em que temos o dedo equivalente a 1,65 cm, o pé de 20 dedos, o cúbito de 30 dedos, a vara de 12 cúbitos, a corda de agrimensor de 120 cúbitos e a légua de 180 cordas (10.692 m). E unidades de massa, com o grão de 46 miligramas, o ciclo de 8,416 gramas e o talento de 30,5 quilogramas.
Enquanto na Babilônia, com uma natureza inóspita e pouco previsível, os deuses eram irascíveis e precisavam ser controlados, no Egito com as cheias e vazantes regulares do Nilo os deuses eram potências benfazejas que velavam pelo homem, prontas a guiarem-no na vida na morte e no além. Os egípcios desenvolveram bastante o calendário anual e a agrimensura. Introduziram o sistema decimal e tinham um conhecimento de aritmética ao nível da dos caldeus, conheciam as frações, mas multiplicavam por soma de parcelas. Desenvolveram muito a medicina e a arte de preparar drogas e essências.
Da Índia nos vêm o sistema de numeração conhecido como arábico, pois foi introduzido na Europa pelos árabes, que substituiu o dos algarismos romanos, com a inclusão do zero, ausente no sistema latino. Tinham uma teoria atômica da matéria e um conceito de tempo descontínuo, com uma teoria que parece ter sido estabelecida para explicar uma suposta mudança perpétua das coisas, num processo de criação contínuo: “Tudo existe apenas por um momento e é no momento seguinte recriado como um fac-símile de si próprio. Qualquer fenômeno é uma sucessão dessas existências momentâneas”.
O século VI a.C. é muito importante. Na Índia surge Sidarta Gautama, o Buda, que afirma que o motivo do sofrimento do ser humano é ter um ego que se julga separado do resto do universo. O universo, como um todo é o deus Brahman, que se manifesta de diversas formas, mas o objetivo final de todo ser é se religar ao Todo. O pensamento, na Índia, tende a procurar a síntese de todas as coisas e a ser predominantemente indutivo.
Na China, no sexto século, surgem Confúcio e Lao Tsé, este último, fundador da mais importante linha filosófica chinesa, o Taoísmo. O Tao é “O Caminho”, a ordem natural. O universo é visto como um organismo vivo onde o homem, os animais e todas as coisas, e também os deuses, não são separados hierarquicamente. Não há um deus criador e ordenador, apenas uma ordem que deve ser seguida. Para a filosofia chinesa há uma energia, ou força vital, chamada Khi, que se manifesta nas formas de um princípio masculino, ativo, o Yang e um princípio feminino, passivo, receptivo, o Yin. Os pares ordenados Yin-Yin, Yin-Yang, Yang-Yin e Yang-Yang constituem os quatro elementos, água, madeira, metal e fogo, de quê seriam feitas todas as coisas. Uma contribuição muito importante para a Física é a idéia do movimento ondulatório em que o crescimento e a diminuição alternada dos princípios Yin e Yang seriam os responsáveis pelos movimentos e transformações da matéria. Em um modelo cosmológico interessante, do primeiro século d.C., o universo é infinito e vazio, com corpos celestes movidos pela ação de ventos. Também na China, como na Índia, o pensamento busca a síntese, a unidade do todo e, talvez por isto, não se chegou a elaborar qualquer teoria atomista.
Ainda no sexto século VI a.C., encontraremos na Grécia dois dos pilares do pensamento analítico dedutivo ocidental, que são Thales, de Mileto, e Pitágoras, de Samos. A escola de Mileto, racionalista, é a primeira a afirmar que a razão humana pode compreender a natureza. Defende a idéia de “arché”, uma “argila” fundamental constituinte de todas as coisas. Para Thales essa “argila” seria a água, para Anaxímanes o ar e para Anaximandro um elemento mais abstrato, o apeyron que significa indefinido, ilimitado, e que preencheria todo o universo. Pitágoras se ocupou da Matemática, da Astronomia e da Filosofia, foi um líder religioso e em sua escola cultuava-se o saber e o ascetismo. Descobriram, os pitagóricos, haver uma relação matemática entre as notas das escalas musicais e os comprimentos das cordas vibrantes ou colunas de ar que as produziam, perceberam que sons consoantes, ou seja, agradáveis para os ouvidos, eram produzidos por cordas cuja razão entre seus comprimentos podiam ser escritas como frações de pequenos números naturais como dois terços, três quartos, etc. Descobriram que os períodos dos movimentos de alguns planetas também estavam relacionados por frações simples. Consideraram então os números naturais como as entidades básicas, mais simples e imutáveis, da natureza, que seria regida por uma harmonia de números, sons e corpos celestes. Trata-se do impulso inicial que iria transformar a matemática na linguagem preferencial da física.
Os gregos, tendo descoberto o poder do pensamento analítico, questionaram a natureza de várias formas bem como a validade e qualidade do conhecimento obtido. Em várias áreas, como a Filosofia, a Matemática, a Oratória, a Política a Arquitetura, a Escultura, o Teatro, a Medicina, enfim, pode-se dizer, em todas as áreas do conhecimento os gregos nos deram contribuições imensas. No século V a.C. Euclides escreve Os Elementos que é um tratado de geometria que forneceu o exemplo do rigor matemático que será utilizado pela ciência moderna. Por uma série de motivos, sob a influência do pensamento pitagórico e platônico, desenvolve-se na Grécia uma preferência pelo que é perfeito e imutável: Se para os jônios, durante a expansão do poder grego, a Terra flutuava livremente no espaço, para os pitagóricos já se move em torno a um fogo central, que, para Aristarco, é o Sol, com Hiparco, no século II a.C., estará estática no centro do universo. Nessa época estará desenvolvida a teoria dos cinco elementos, terra, água, ar e fogo, os quatro constituintes da matéria na terra e no espaço sublunar, e a quinta essência constituinte de todos os corpos celestes. Na decadência do império grego a Terra era o lugar mais baixo, o lugar da degradação e da morte e os corpos celestes, de outra natureza, eram perfeitos, eternos e imutáveis. De acordo com a mecânica de Aristóteles os corpos celestes moviam-se uniformemente em círculos, a forma considerada perfeita. Para os corpos sublunares havia dois tipos possíveis de movimento, os violentos, causados por ações externas e os naturais, que ocorriam, verticalmente, quando os corpos buscavam atingir seu lugar natural. O lugar natural do elemento terra é abaixo da água, a do ar acima da água e a do fogo acima do ar. Assim se aquecemos, com fogo um balão este tende a subir até encontrar seu novo lugar, uma pedra tende a afundar na água até o fundo, onde encontrará a terra que é de sua natureza, um corpo sólido mais pesado deve cair mais rápido que um mais leve, igualmente sólido, pois tem “mais urgência” de encontrar seu lugar natural.
Para os gregos existiam algumas premissas que deviam ser seguidas, as chamadas razões apriorísticas. Se aparentemente algo não parecesse seguir tais razões era necessário salvar as aparências: observando-se os planetas vemos movimentos que, diferentemente dos das estrelas fixas, não se parecem em nada com movimentos circulares uniformes. Para se salvar as aparências montou-se um sistema de ciclos e epiciclos em que um objeto gira em um circulo cujo centro gira em um outro círculo, e assim sucessivamente até que se possam conformar as observações com a premissa inicial dos movimentos circulares. O sistema nos foi transmitido por Ptolomeu em seu tratado He Magiste Sintaxis, conhecido como Almagesto, cuja validade só seria contestada com o trabalho de Copérnico treze séculos depois.
Para alguns filósofos gregos o movimento é uma ilusão e o que realmente tem realidade é um universo estático e perfeito; para outros, apenas o movimento e as transformações têm uma realidade tangível, além disso, a maioria desses filósofos concebia a matéria como algo contínuo que ocupava todo o espaço. Uma solução de compromisso entre essas duas visões é o atomismo que supõe um espaço vazio ocupado por objetos compostos de pequenas partículas imutáveis e indivisíveis, os átomos. Dessa forma temos um universo em constante movimento e transformação, através de diferentes associações e dissociações entre os átomos, estes sim eternos e, portanto, perfeitos. Os atomistas tinham um pensamento bastante avançado, procuravam se livrar dos mitos, pois tudo deve se dar de forma natural e não sobrenatural, criam em um universo infinito, sem qualquer centro privilegiado, onde tudo são átomos e o vácuo, já que num espaço pleno a matéria não poderia se mover. A discussão entre a matéria quantizada, ou constituída de átomos, e a matéria contínua perdurou por vinte séculos. Apenas com os sucessos da teoria cinética dos gases a visão atomista passou a ter uma aceitação generalizada.
Com os romanos, bons construtores de estradas, pontes e aquedutos, muito voltados para o militarismo e para o rigor legal, mas pouco criativos em filosofia e artes, e com as invasões bárbaras a Europa perdeu, quase que por completo, o conhecimento acumulado pelos gregos. Foram os árabes, que do sétimo ao décimo quarto século, detiveram esse conhecimento e o acresceram, especialmente nas áreas da matemática e astronomia e o reintroduziram na Europa. A igreja católica, principalmente com São Tomás de Aquino, no século XIII d.C., acolheu as obras de Aristóteles e Ptolomeu e as erigiu em dogmas.
Somente em meados do século XVI o trabalho de Nicolau Copérnico irá questionar o sistema ptolomaico, colocando o Sol no centro do universo. Isto automaticamente implica em questionar toda a mecânica aristotélica, entretanto Copérnico demonstra que, colocando-se o Sol no centro, os cálculos dos movimentos planetários tornam-se muito mais simples, conservando-se, no entanto os epiciclos e as preconcebidas órbitas circulares dos gregos.
Kepler, no começo do século XVII, poderá ser considerado um divisor de águas: Por um lado tenta conciliar as idéias de Copérnico, de um sistema heliocêntrico, com os ideais pitagóricos e platônicos, de uma harmonia matemática e celestial, com a teologia da trindade cristã, em uma estranha teoria em que o Sol seria a luz do Senhor, a orbe das estrelas fixas representaria o Filho e o poder que emana do Sol, que moveria os planetas, o Espírito Santo. Os planetas girariam em órbitas circulares localizadas em esferas circunscritas e inscritas pelos cinco sólidos regulares, sendo que os mais próximos do Sol, sentindo com maior intensidade o Espírito Santo, teriam maior velocidade que os mais longínquos. Por outro lado afirma que se as teorias não estiverem de acordo com as observações há que se rever as teorias. A primeira atitude é a das razões apriorísticas dos gregos, a segunda, a que vai caracterizar a ciência moderna, a da primazia da observação e da experimentação sobre as idéias preconcebidas.
Descobriu, depois de oito anos estudando a órbita de Marte, sua primeira lei que afirma serem as órbitas dos planetas elípticas, com o Sol em um dos focos da elipse. Guiado por seu modelo místico, convencido de que o poder do Espírito Santo deveria diminuir com a distância a sua fonte e analisando os dados observacionais de Tycho Brahe obteve suas duas outras leis, a que afirma que a linha que vai do Sol a um planeta varre áreas iguais em tempos iguais e a que diz que o quadrado do período das órbitas dos planetas é proporcional ao cubo de suas distâncias médias ao Sol.
Galileu Galilei (1564-1642) e René Descartes (1596-1650) podem ser considerados os criadores, conscientes, da nova forma de se fazer ciência. Ambos reconhecem a supremacia dos resultados experimentais e do uso da razão munida apenas de evidências irrefutáveis e não de idéias preconcebidas e vêem a Matemática como a linguagem da natureza. Galileu obteve o princípio da inércia e mostrou que corpos de diferentes massas caem ao mesmo tempo, próximo à superfície da Terra. Em 1666, devido a uma peste que obrigou ao fechamento do Trinity College, Newton (1642-1727) refugiou-se em sua propriedade em Woolsthorpe, onde deduziu o teorema do binômio, que leva seu nome, o cálculo das fluxões, denominado atualmente como cálculo integral e diferencial e teve a intuição de que o mesmo que faz uma maçã cair é o que faz a Lua girar em torno da terra, o que daria origem a sua lei da gravitação. Esse ano, devido à importância das idéias que começava a elaborar e que seriam os germes de suas várias obras posteriores ficou conhecido como annus mirabilis de Newton.
A mecânica de Newton sepultaria definitivamente a mecânica aristotélica. A força gravitacional proposta por Newton não foi aceita inicialmente, pois se tratava de uma ação à distância, inaceitável para muitos, especialmente os cientistas franceses. Entretanto, o sucesso dessa nova mecânica em explicar o funcionamento das máquinas simples, das marés nos oceanos da Terra e os movimentos dos corpos celestes acabou por fazê-la aceita em geral. Na Inglaterra Newton foi considerado o novo Moisés, a quem Deus revelou as leis do universo. Passou-se a crer que tudo poderia ser resolvido pela mecânica de Newton. Para Laplace, uma inteligência, poderosa o suficiente para saber as condições iniciais do universo, o demônio de Laplace, poderia saber todo seu futuro e seu passado. As leis de Newton são determinísticas e são invariantes quanto à inversão do tempo. Trocar o parâmetro tempo pelo seu negativo implica apenas em fazer o tempo correr ao contrário. Se mostrarmos um filme de um pêndulo, ou de uma bola que sobe para e desce um plano inclinado, de trás para frente, ninguém notará qualquer coisa estranha, mas se passarmos ao contrário um filme de um vaso que cai ao chão se rompendo em vários pedaços, todas as pessoas notarão que o sentido do filme está errado. A mecânica newtoniana apesar de seu poder de resolver uma infinidade de problemas não consegue enfrentar problemas muito complexos, especialmente aqueles em que, claramente, não se pode inverter o tempo. Quando temos um conjunto de muitas partículas o problema toma a forma de um sistema de equações acopladas que se torna impossível de resolver.
Com a revolução industrial tornou-se necessário produzir trabalho em grande quantidade e elegeu-se a energia térmica como sua fonte. Desenvolveram-se máquinas térmicas e uma teoria que facilitasse a compreensão dos princípios de seu funcionamento e que possibilitasse seu aperfeiçoamento. A Termodinâmica, baseada em experimentos em que se podiam medir parâmetros macroscópicos de sistemas de muitas partículas, como seu volume, pressão ou temperatura, tornou-se um ramo independente dentro da Física. Em 1822 Fourier enunciou a lei de transmissão de calor, a primeira lei física obtida sem fazer menção a qualquer grandeza mecânica. Foram definidas as grandezas termodinâmicas e encontradas várias relações matemáticas entre elas. A experiência do equivalente mecânico do calor de Joule e a primeira lei da Termodinâmica tiveram uma importância filosófica muito grande, pois apresentam o universo como um organismo vivo em que a energia é conservada, embora possa assumir várias formas e se transferir de uma parte a outra desse universo. O calor passou a ser visto como uma energia que é transferida de um corpo a outro devido à diferença de temperatura entre eles e não como um fluido, contido em maior quantidade nos corpos mais quentes, como supunha a teoria do calórico. A segunda lei da Termodinâmica expressa o fato do tempo não poder em geral ser revertido, ou seja, ela aponta o sentido correto do filme: um copo quebrado em vários pedaços não pode voltar atrás e se remontar, tornando-se novamente um copo inteiro.
Como conseqüência natural do desenvolvimento da Mecânica e da Termodinâmica surgiram a Teoria Cinética dos Gases e a Mecânica Estatística que tratam de fazer, com sucesso, a ligação entre as grandezas termodinâmicas dos sistemas macroscópicos e as quantidades microscópicas, como número, momentum, energia, etc., de suas partículas. A Teoria Cinética dos Gases teve o mérito de retomar o conceito de átomo e seus resultados foram fundamentais para a aceitação da teoria atômica da matéria. Diferentemente da mecânica newtoniana, determinística, temos agora uma mecânica que trata coleções de muitas partículas de forma estatística. Isto evita que se tenha que resolver um número infindável de equações e mostra que, apesar de não sabermos com detalhes a história de cada partícula dos sistemas estes evoluem em certas direções porque tendem para as situações de maior probabilidade. Seus resultados não proíbem, por exemplo, que um gás espontaneamente se comprima no fundo de uma caixa, mas mostram que a probabilidade de que isto ocorra é ínfima. O mesmo acontece com a probabilidade de um punhado de cacos de vidro saltarem para cima de uma mesa formando um copo perfeito.
Sabe-se que os gregos tinham conhecimento da existência de efeitos elétricos e magnéticos. Esses efeitos, claramente distintos da atração gravitacional, ora foram considerados como sendo um único fenômeno ora como sendo fenômenos totalmente distintos e sem qualquer correlação. Uma distinção clara entre fenômenos elétricos e fenômenos magnéticos só veio a ser feita por G. Cardano em 1550 e em 1600 por W. Gilbert que denominou de elétricos os corpos que se comportavam como o âmbar (elektron) o qual quando atritado com uma pele torna-se eletrizado. Acreditava que esses corpos quando atritados emitiam um effluvium material que, expandindo-se, exerciam um efeito atrativo nos corpos adjacentes. Esta idéia pode ser considerada uma precursora da idéia de campo introduzido no início do século XIX. Em 1646 T. Brawne descreve a repulsão elétrica. A partir de 1729, com a descoberta da condução e da indução elétricas e dos condutores e isolantes, conceitos introduzidos na Física por Stephen Gray, a área da eletricidade passa a se desenvolver rapidamente. Em 1734 Charles Dufay descobre a existência de dois tipos de eletricidade, a vítrea e a resinosa, que mais tarde seriam denominadas positiva e negativa por Benjamin Franklin. Este imagina que a eletricidade se deve a um fluido único composto de partículas sutis que poderia estar em falta ou em excesso em um corpo tornando-o negativo ou positivo. Em contraposição surgiu a teoria dos dois fluidos, herdada de Dufay, segundo a qual um corpo é normalmente neutro por ter quantidades iguais dos fluidos positivo e negativo e positivo ou negativo conforme tivesse em excesso um desses fluidos. Com a descoberta do elétron (medida da razão carga/massa em 1897) fica claro que em geral um corpo fica eletrizado positiva ou negativamente conforme ele perca ou ganhe elétrons. Por volta de 1770 fica estabelecida que a força elétrica diminui com o quadrado da distância.
Até o século XVIII pouco era o conhecimento sobre o magnetismo. No ocidente as primeiras referências sobre o uso da bússola ocorrem por volta de 1180. Em 1269 Pierre de Maricourt compilou o que se sabia sobre os ímãs naturais, criando a denominação de pólos dados aos pontos de encontro das linhas do campo magnético em torno dos mesmos. Chamou a atenção para o fato de não ser possível isolar um dos pólos, de forma a obter monopolos magnéticos. Em 1600 Gilbert mostra que o efeito de atração elétrica pode ser barrado, por exemplo, pela água enquanto a atração entre o ferro e um ímã não o é. Imaginou que o ímã gera uma esfera de influência não material que desperta uma propriedade latente no ferro que é atraído. Tal influência não é barrada pela água por ser imaterial enquanto o eflúvio elétrico não pode atravessar essa barreira. Sua maior contribuição foi perceber que a terra se comporta como uma grande esfera magnética.
A invenção, dada a conhecer em 1800, da pilha eletroquímica, de Volta, capaz de gerar corrente elétrica contínua e a descoberta da relação entre eletricidade e magnetismo, descoberta por Hans C. Oersted, em 1820, deram impulso ao estudo tanto da eletricidade quanto do magnetismo. É importante salientar que esse estudo se deu, em grande parte, nas universidades européias que por essa época se organizaram como institutos de pesquisa onde se podiam construir laboratórios e principalmente construir e desenvolver aparelhos de medida. Os desenvolvimentos subseqüentes, com colaborações de vários pesquisadores, dentre eles Faraday, o primeiro a ser contratado como pesquisador, e não professor, em uma universidade, vão culminar com as chamadas Equações de Maxwell, que resumem, de forma extremamente elegante, quase todo o conhecimento sobre eletricidade e magnetismo.
A luz e a visão, por sua importância como meio de comunicação do ser humano com seu meio ambiente foram, sempre, objeto de estudo, compreendendo a área da Óptica. Uma das primeiras teorias, entre os gregos, considerava que os olhos emitiriam alguma espécie de tentáculos que tateariam os objetos, produzindo a sensação de visão. O argumento de que se assim fosse poderíamos ver os objetos no escuro deu lugar à teoria de que são os corpos que emitem “alguma coisa” que ao atingir os olhos nos dá a sensação da visão. Estabeleceu-se uma longa discussão sobre a natureza dessa “coisa”. Newton, que acreditava em um mundo de partículas interagindo através de forças gravitacionais, era partidário da teoria corpuscular da luz. Huygens, por sua vez, por analogia com as ondas sonoras, era partidário da teoria ondulatória. Essa discussão perdurou até que em 1801 Thomas Young, em um experimento de interferência, demonstrou que a luz tinha comportamento ondulatório. Com as equações de Maxwell demonstrou-se que a luz é uma onda eletromagnética, ou seja, uma combinação de campos elétricos e magnéticos variáveis que se propagam com uma velocidade que pode ser calculada a partir de medidas elétricas e magnéticas. Mas como todas as ondas até então conhecidas se propagavam em um meio elástico os físicos se sentiram premidos a postular a existência de um “éter” que permearia todo o espaço, um meio sutil e imperceptível, através do qual a luz podia se propagar.
A sensação, entre os físicos, com o desenvolvimento formal que tivera a mecânica newtoniana, com o sucesso da termodinâmica e os primeiros avanços nas teorias cinéticas, que prometiam fazer a ligação entre as duas áreas e com o coroamento pelas equações de Maxwell que uniam, sob o nome de Eletromagnetismo, a Eletricidade, o Magnetismo e a Óptica, era de que já se haviam obtido todas as equações fundamentais para a explicação de qualquer fenômeno físico.
A experiência de Michelson e Morley, em 1881, no intuito de medir a velocidade da Terra através do éter produziu resultados negativos, ou seja, quando vista de um ponto da trajetória da Terra quando nos afastamos de uma estrela e seis meses mais tarde, quando nos aproximamos da estrela, medimos a mesma velocidade da luz vinda da estrela, como se estivéssemos parados em relação a ela. Além dessa experiência, as tentativas de explicar o espectro de emissão de um corpo negro e os diversos aspectos do efeito fotoelétrico forneciam soluções incompatíveis com os dados experimentais.
Em 1900, considerando os átomos das paredes de uma cavidade como sendo osciladores em equilíbrio com a radiação nela contida, Max Planck mostrou que o espectro da radiação dessa cavidade pode ser reproduzido supondo que as energias desses osciladores é quantizada, ou seja, que existe uma quantidade mínima de energia, um quantum, dada pela freqüência do oscilador multiplicada por uma constante, a constante de Planck, de forma que suas energias seriam sempre equivalentes à de um número inteiro de quanta.
Em 1905, aos 26 anos de idade, Albert Einstein publicou três trabalhos fundamentais. Em um deles estabelece a teoria para o movimento browniano, interpretado como sendo devido aos choques irregulares das moléculas do meio sobre as partículas em suspensão.
O segundo trabalho trata da Teoria da relatividade Especial. A partir dos trabalhos de Poincaré e Lorentz, sobre as transformações que deixavam invariantes as equações de Maxwell, Einstein pôs-se a pensar como seria um pulso de luz para uma pessoa que se movesse junto com esse pulso. Fazendo uma analogia com uma onda em uma corda, de acordo com a relatividade clássica de Galileu, o observador deveria perceber um campo eletromagnético estático com uma certa intensidade em frente ao observador. Esta configuração de campos elétricos e magnéticos estáticos, no entanto, não é permitida pelas equações de Maxwell. Einstein se viu obrigado a abandonar uma das teorias, a de Maxwell ou a de Galileu e optou por abandonar essa última e acreditar na teoria de Maxwell que prevê que a velocidade da luz é uma constante, independente do referencial do observador. Ou seja, a velocidade da luz é a mesma para todos os observadores, independentemente de suas velocidades relativas. Nesta nova teoria a velocidade da luz é uma constante universal e resolve o problema da experiência de Michelson e Morley além de sugerir que a luz se propaga no vácuo, sendo totalmente dispensável o conceito de éter. Uma conseqüência é que se um observador mede uma distância de um metro, percorrida por uma bolinha em cima de uma mesa que está parada em relação ao observador e para ele a bolinha leva um segundo para percorrer essa distância, então para um segundo observador que passe em alta velocidade pela mesa medirá uma distância menor e um intervalo de tempo maior para o mesmo evento. A esses fenômenos damos o nome de contração do espaço e dilatação do tempo. Vários conceitos novos que surgem dessa teoria não têm explicação na Mecânica Clássica. Nos perguntamos então, já que até hoje ninguém conseguiu derrubar a teoria de Einstein, se a Mecânica Clássica está totalmente equivocada. A resposta é não. Simplesmente, para velocidades baixas, comparadas à velocidade da luz, os resultados clássicos estão corretos. Todos os resultados clássicos aparecem na teoria de Einstein quando em suas expressões matemáticas tomamos o limite de baixas velocidades. Ou seja, onde a mecânica clássica nos dá bons resultados a mecânica relativística nos dá os mesmos resultados.
Do ponto de vista filosófico esta teoria é importante, pois os conceitos de espaço e tempo deixam de ser absolutos e passam a depender das condições de observação dos fenômenos.
No terceiro trabalho, tendo conhecimento da hipótese de quantização de Panck, Einstein deu uma explicação para o efeito fotoelétrico que não podia ser explicado pela teoria ondulatória da luz. Quando fazemos incidir luz sobre um metal, conseguimos sob determinadas condições, arrancar elétrons da superfície metálica. Entretanto, utilizando luz com freqüência abaixo de um certo valor, não é possível arrancar elétrons do material, mesmo que a luz seja muito intensa. Por outro lado, acima dessa freqüência mínima, mesmo quando aumentamos bastante a intensidade da luz, a energia máxima com que os elétrons saem da superfície não muda, mudando apenas o número de elétrons que são arrancados por segundo. Para explicar este fenômeno Einstein supôs que apesar de a luz se comportar como uma onda ela deveria ser composta de pacotinhos de energia, a que ele deu o nome de fótons. A energia de cada pacote é proporcional a freqüência da onda e dada pela expressão E = hf, onde f é a freqüência da onda e h a constante Planck. De acordo com esse modelo, quando a luz que incide sobre um anteparo é muito intensa, temos uma taxa grande de fótons incidindo sobre ele, mas não um aumento da energia de cada fóton.
Devido a importância desses três trabalhos e por comparação com Newton o ano de 1905 ficou conhecido como o “annus mirabilis” de Einstein, que viria a ganhar o prêmio Nobel pelo trabalho sobre o efeito fotoelétrico. Não foi concedido a ele o prêmio pela teoria da relatividade sob a alegação de que não havia comprovação experimental de seus resultados. De fato, se compararmos as diversas teorias que foram desenvolvidas até então com a teoria de Einstein veremos que todas as demais estão amparadas por uma grande quantidade de evidências experimentais ou mesmo foram construídas tendo por base os dados experimentais, à medida que foram sendo obtidos. A teoria de Einstein, por seu lado, pode ser considerada um triunfo da razão, do raciocínio lógico, do pensamento analítico dedutivo desenvolvido pelos gregos da antiguidade e, em grande parte, legado à moderna civilização ocidental pelos árabes.
Enquanto Newton sustentava que a luz era composta de um feixe de partículas, Huygens acreditava tratar-se de um fenômeno ondulatório. Thomas Young ofereceu uma demonstração experimental de que a luz tem comportamento ondulatório. Maxwell demonstrou que essa onda não era uma onda mecânica e sim uma onda eletromagnética, em que os campos elétrico e magnético oscilantes se propagam conjuntamente. Agora, com a nova teoria de Einstein, vemos que para explicar o comportamento da luz necessitamos dos dois conceitos ao mesmo tempo: uma onda com uma certa frequência e partículas de energia (fótons). A isto damos o nome de dualidade onda-partícula da luz.
Da mesma forma que a luz tem esse comportamento dual observou-se que elétrons e prótons, ao passar por uma fenda dupla apresentam interferência e difração, características dos movimentos ondulatórios, que as partículas clássicas não têm. Em 1924 Louis Victor de Broglie sugeriu que devemos associar a essas partículas ondas cujos comprimentos de onda são inversamente proporcionais a seus momentos lineares.
É o começo da Mecânica Quântica, onde entidades conhecidas como partículas tem um comportamento ondulatório e fenômenos tidos como ondulatórios apresentam um caráter corpuscular. Nessa teoria, a onda associada à partícula vai nos fornecer a probabilidade de encontrarmos a partícula em cada ponto do espaço. A descrição é inteiramente probabilística, o observador tem um papel fundamental, pois, sendo essas partículas muito sutis, qualquer interação com elas as perturbam de uma forma quase incontrolável. Para vermos uma bolinha de gude temos que jogar luz nela. Essa luz, refletida pela bolinha chega até nosso olho e assim sabemos onde ela está e para onde está indo. A energia necessária, na forma de luz, para se fazer essa observação é muitas e muitas vezes inferior à energia da bolinha. Já com um elétron, que, devido à sua pequena massa, tem uma energia muito pequena, a energia de um fóton é muito grande. A observação do elétron é equivalente a darmos um bom chute na bolinha de gude. Essa perturbação causada em qualquer medida que se faça com partículas muito pequenas vai causar uma incerteza na posição e na velocidade da partícula que não temos como evitar. Se tentarmos saber com muita precisão a posição de um elétron, perderemos informação sobre sua velocidade. Se quisermos saber muito bem a velocidade, perderemos informação sobre sua posição. Isto é conhecido como Princípio de Incerteza de Heizemberg.
Na Mecânica Quântica, como ocorre na Mecânica Relativística, temos o chamado Princípio da Correspondência que diz que, nas situações em que a Mecânica Clássica fornece resultados corretos, a nova mecânica nos fornece os mesmos resultados.
A onda associada a uma partícula nos dá todas as informações que podemos obter sobre ela. Não nos dá sua posição ou velocidades exatas, ou seja, sua trajetória exata, mas nos fornece a probabilidade com que cada trajetória pode ocorrer. Enquanto um elétron pode ter uma probabilidade mais ou menos difusa, dependendo da situação específica, um objeto clássico, como nossa bolinha de gude, que percorre uma trajetória clássica, se fizermos um cálculo quântico, apresenta uma probabilidade imensa de ser encontrada nessa trajetória e uma probabilidade virtualmente, mas não absolutamente, nula de ser encontrada em outra trajetória. Dessa forma as duas mecânicas se ligam e mesmo na quântica, vários conceitos clássicos servem de guia para a aplicação da teoria nova.
Os conceitos de níveis de energia, orbitais eletrônicos, spin, enfim, os átomos moderno, a que estamos já tão acostumados, bem diferentes e muito mais complexos que o átomo grego, são todos conceitos da Mecânica Quântica. A interação da radiação eletromagnética com a matéria só pode ser compreendida em termos quânticos e é o objeto de estudo da Eletrodinâmica Quântica. O laser, que é uma fonte de luz moderna, cuja possibilidade de construção fora prevista no início dos anos 50, teve o primeiro exemplar construído em 1960, e hoje se apresenta nos mais variados modelos e para as mais variadas aplicações, é um sistema eminentemente quântico que, em nenhuma hipótese, poderia ter sido imaginado por qualquer cientista antes do aparecimento da Mecânica Quântica.
As novas idéias que surgiram com Física Moderna, que é essa física que vem para solucionar os problemas do fim do século XIX que a Física Clássica não conseguia resolver, são bastante estranhas para nós. Em nosso dia-a-dia, a maioria dos objetos são muito grandes, contêm muita energia, e, em geral, somente quando lidamos com processos que envolvem partículas de massas muito reduzidas, muito menores que a de um grão de poeira, é que os efeitos quânticos se revelam. No caso de um laser, temos muitos átomos que se comportam quanticamente e que agem coletivamente, gerando um efeito macroscópico, mas as bolinhas de gude ou os grãos de poeira agem classicamente.
Por isso nossas mentes são clássicas e precisamos fazer um esforço de abstração e de imaginação para compreendermos um pouco sobre essas pequenas partículas do mundo molecular, atômico e subatômico. Da mesma forma quando vamos para as altas velocidades encontramos problema semelhante. Toda a mecânica clássica foi desenvolvida para os corpos com os quais lidamos corriqueiramente, todos eles movendo-se a baixas velocidades. Por isso temos a impressão de que tempo e espaço são conceitos absolutos e idênticos para todos os observadores. Talvez por isso, ambas as teorias foram muito questionadas e postas à prova exaustivamente e até hoje têm, cada vez mais, sido confirmada sua validade.
A Física Moderna veio resolver vários problemas que surgiram no final do século dezenove. Apesar de seu sucesso na explicação de fenômenos que a Física clássica não podia explicar, as novas teorias da relatividade e quântica não foram imediatamente aceitas. Mesmo Einstein, um dos pais da Mecânica Quântica, não aceitou jamais a interpretação probabilística dessa nova teoria e entrou em um forte debate com Niels Bohr, o mais proeminente físico da escola de Kopenhagen, um dos centros onde a teoria foi mais desenvolvida. Segundo a visão dessa escola, o caráter probabilístico da teoria é uma propriedade intrínseca da matéria. Einstein defendia a idéia de que só eram necessárias a estatística e a probabilidade para explicar o comportamento de partículas devido à nossa falta de informação sobre elas e que deveriam haver variáveis ocultas que se conhecidas eliminariam toda e qualquer probabilidade, tornando assim determinística, a descrição das partículas.
São muitas as aplicações onde a Física Moderna tem um papel preponderante. Basicamente tudo o que se refere explicitamente a átomos, à emissão e absorção de radiação envolve a descrição quântica e se altas velocidades estiverem envolvidas, também a relativística. Como exemplos de artefatos que não seriam concebíveis sem as teorias ditas modernas estão as bombas atômica, de hidrogênio e de nêutrons, as usinas nucleares, a radioterapia nos casos de câncer, o laser e suas milhares de aplicações na industria, na medicina, no entretenimento, em comunicação, na agrimensura, etc., os exames de ressonância nuclear magnética, os transistores, diodos e os chips eletrônicos, os supercondutores e muitos outros. Uma área de extrema utilidade é a área de materiais que busca compreender e produzir materiais com diversas propriedades físicas, ligas metálicas, materiais ópticos, isolantes e condutores térmicos e elétricos, materiais magnéticos, fotoelétricos, piezoelétricos, etc.
Mesmo com o advento da chamada Física Moderna ainda há muitas coisas por serem feitas. A Mecânica Quântica ainda não está totalmente pronta e existem ainda controvérsias quanto a seus fundamentos, além de teorias alternativas. A área de cosmologia também está cheia de controvérsias sobre a origem, sobre o estágio atual e sobre o futuro do universo.
Uma questão que ficou como um fato inquietador foi a questão da “morte térmica do Universo”. De acordo com a segunda lei da Termodinâmica, em um sistema isolado (sem trocas com suas vizinhanças), a entropia, que de nos dá informação sobre a ordem ou a desordem do sistema considerado, ou aumenta, ou permanece constante. Um sistema muito ordenado é um sistema de baixa entropia e a tendência para o equilíbrio é uma tendência a diminuir qualquer ordenamento no sistema.
Se em um sistema de partículas isolado, um tijolo dentro de uma caixa de isopor, por exemplo, temos um ordenamento tal que uma metade do tijolo está inicialmente a uma temperatura mais alta que a outra metade, a tendência é ir-se reduzindo, irreversivelmente, a diferença de temperaturas, até ser atingido o equilíbrio, que é o estado de maior entropia, em que todos os pontos têm a mesma temperatura e perdeu-se a ordem original.
Mas, se o equilíbrio é o fim das diferenças, diferenças de pressão, de temperatura, de densidade, de magnetização, em um sistema magnético, o que a Termodinâmica clássica prevê é o que se chama de “morte térmica do Universo”: onde não há diferenças, não há possibilidade de se gerar formas úteis de energia. É a diferença de temperatura entre dois reservatórios que faz possível construirmos uma máquina térmica, são diferenças de pressão e temperatura que forçam o ar a passar por uma turbina que move um avião.
Por volta de 1960, um meteorologista de nome Lorenz, tentando compreender uma imprevisibilidade que parece ser intrínseca a nossa atmosfera descobriu que as soluções de equações muito simples, mas não lineares, apresentam um comportamento a que ficou conhecido com o nome de efeito asa de borboleta.
Os sistemas estudados pela termodinâmica clássica são todos sistemas próximos ao equilíbrio. Suas tendências a voltar para o equilíbrio podem ser explicadas em termos de potenciais termodinâmicos que são proporcionais às diferenças que os causam, ou seja, nesses sistemas, se uma causa gera um efeito, uma causa ligeiramente maior causa um efeito proporcionalmente maior. Tentando ser mais explícito, quando os efeitos são proporcionais às causas as equações que descrevem os fenômenos são lineares e assim se comportam os sistemas próximos do equilíbrio. Quando nos afastamos muito do equilíbrio os potenciais termodinâmicos passam a ter termos não lineares e as coisas se modificam.
As equações não lineares, analisadas por Lorenz, apresentam uma característica muito importante: Quando colocamos uma condição inicial e observamos a evolução do sistema por algum tempo encontramos uma situação final determinada. Se modificarmos muito pouco a condição inicial e novamente observarmos a evolução do sistema, pelo mesmo intervalo tempo, encontraremos uma situação final bastante diferente. Se usarmos, agora, uma condição inicial intermediária entre as duas situações anteriores, encontraremos um resultado que, surpreendentemente, não tem qualquer relação com os resultados anteriores. Pequenas modificações nas condições iniciais fornecem resultados totalmente imprevisíveis, então, se a atmosfera fosse descrita por equações desse tipo, ao se colocar as condições iniciais, se o meteorologista, aqui no Brasil, se esquecesse de levar em conta o bater das asas de uma borboleta, lá no Japão, seus resultados seriam completamente diferentes do real. Isto é o que chamamos de sensibilidade quanto às condições iniciais e estão sempre presentes em sistemas onde há o caos determinístico. Antes desse trabalho acreditava-se que sistemas os sistemas caóticos não poderiam ser representados por meio de equações que não fossem probabilísticas.
Um exemplo simples do que ocorre na natureza é o caso de uma certa quantidade de água colocada entre duas chapas metálicas mantidas a diferentes temperaturas. Quando a diferença de temperatura é pequena a média do vetor velocidade das moléculas de água em cada ponto do líquido é nula. Já a energia cinética média das moléculas é proporcional à temperatura absoluta do líquido em cada ponto e varia linearmente desde um valor mínimo, próximo à chapa fria até um valor máximo, próximo à chapa quente. Se aumentamos a diferença de temperatura, à partir de um certo valor, aparecem correntes de convecção e algumas porções do líquido começam a girar no sentido anti-horário, alternadas com outras que giram no sentido horário. Essas partes que giram, alternadamente para um lado ou outro, podem ter de alguns milímetros a alguns centímetros de largura.
Vemos que, apesar de as forças entre as moléculas serem de curto alcance, da ordem do tamanho das moléculas, aparece uma ordem de longo alcance que faz com que determinadas moléculas se movam em conjunto numa certa direção e outras no sentido oposto.
Se continuamos a aumentar a diferença de temperatura entre as placas o sistema passa de repente a um comportamento totalmente caótico em que as velocidades em cada ponto são totalmente imprevisíveis e variáveis. Se voltamos a diminuir a temperatura vemos que o sistema volta a adquirir aquela ordem mas não com a mesma diferença de temperatura na qual ele se tornou caótico, é necessário abaixar mais a diferença de temperatura para que ele volte a ser ordenado, o mesmo ocorre na transição entre este estado ordenado e o estado inicial com velocidades médias nulas.
Este é um bom exemplo de sistema não linear que apresenta um comportamento complexo e vamos mostrar suas principais características: Apresenta transições de fase, isto é, quando a diferença de temperatura passa de um certo valor o estado em que o sistema se encontra deixa de ser estável e ele vai para uma nova situação de estabilidade. Apresenta bifurcação, ou seja, quando a diferença de temperatura chega ao valor em que se formam as correntes de convecção, não há nada que diga para que lado uma porção do líquido deve girar. O que é obrigatório é que as porções adjacentes girem em sentidos contrários, mas em que sentido elas vão girar não é previsível; é alguma flutuação no vetor velocidade média em algum ponto, presente no momento em que é atingida a diferença de temperatura crítica, que faz com que o sistema opte por um sentido ou por outro de rotação em cada célula. Apresenta bi-estabilidades, pois para mesma diferença de temperatura o sistema pode ter um comportamento ou outro o que vai depender de como o sistema veio evoluindo, se da situação de mais baixa ou mais alta diferença de temperatura. Além disso, o sistema apresenta estabilidade fora do equilíbrio.
Os sistemas biológicos e em geral sistemas complexos dissipativos, ou seja, não isolados, apresentam esses tipos de comportamento. O fato do sistema não ser isolado permite que a entropia do sistema não seja obrigada a crescer sempre como previsto pela segunda lei da Termodinâmica, que se aplica apenas aos sistemas isolados. Isto significa que é possível manter um sistema ordenado fora do equilíbrio sem que ele tenha a tendência à maior desordem possível. Esses sistemas apresentam faixas de estabilidade. Dentro de certo limites, nós seres humanos e todos os animais homeotérmicos podemos manter uma temperatura corporal fixa, independentemente da temperatura externa, com todos os nossos órgãos em perfeita ordem funcional. Entretanto se a temperatura externa cair muito nossa temperatura começará a cair um pouquinho até que esse estado ordenado deixa de ser estável e a pessoa vem a falecer, indo seu corpo rapidamente para a temperatura ambiente, aquela ordem anterior não é mais possível e há uma tendência à dissolução, ou a um aumento da entropia.
Temos então a partir de 1960, com as descobertas de Lorenz, uma nova ferramenta para enfrentar problemas que nem a Mecânica nem a Termodinâmica clássicas podem enfrentar. As bifurcações vão fazer com que dada uma situação atual não possamos saber com precisão nem o futuro nem o passado do sistema, teremos de contar sua história, que tem, no passado, decisões tomadas em cada bifurcação encontrada, e no futuro decisões por tomar, dando espaço para o livre-arbítrio, tão estranho ao mundo newtoniano.
Acredito que a área da ciência que terá o maior desenvolvimento, no próximo século, será a biológica, incluindo aí a medicina. Pela primeira vez os físicos poderão, em colaboração com médicos e biólogos, dar alguma contribuição para a compreensão de diversos sistemas biológicos que, por sua complexidade, eram considerados, até há pouco tempo, como fora do leque de coisas que a Física poderia se aventurar a estudar. Temos um novo e vasto campo onde nos aventurarmos.
Mais recentemente com a manipulação de porções de matéria cada vez menores tem surgido o que se convencionou chamar de nanotecnologia que promete produzir matérias com propriedades quânticas bastante interessantes, que podem ter aplicações em diversos setores, como na informática e na medicina, para citar apenas duas áreas das mais importantes.
Em todo trabalho temos que optar pela generalidade ou pela especialização. Optei aqui pela generalidade e isto fez com que esta exposição deixasse de abordar uma série de detalhes do desenvolvimento da Física ou mesmo de fornecer outros enfoques para as questões abordadas. Especialmente o desenvolvimento das idéias físicas não se deu de forma linear, muito menos sem muita discussão e o leitor deverá procurar leitura mais especializada em História da Ciência se desejar ter uma visão mais pormenorizada.

BIBLIOGRAFIA

  1. Koestler, Arthur; Os Sonâmbulos - História das Concepções do Homem Sobre o Universo, ed. Ibrasa, São Paulo, 1961.
  2. Prigogine, Ilya; A Nova Aliança, ed. Universidade de Brasília (coleção Pensamento Científico, 20).
  3. Dampler, William C.; História da Ciência, 1945.
  4. Rocha, J. F.; org., Origens e Evolução das Idéias da Física, EDUFBA, Salvador, 2002.