Física 1
Click here to load reader
-
Upload
faustonefi -
Category
Documents
-
view
198 -
download
86
Transcript of Física 1
Wolfgang PauliOrigem: Wikipédia, a enciclopédia livre.
Wolfgang Pauli
Física
Nacionalidade Austríaco
Nascimento 25 de Abril de 1900
Local Viena
Falecimento 15 de Dezembro de 1958 (58 anos)
Local Zurique
Actividade
Campo(s) Física
Instituições Universidade de Göttingen,Universidade de
Copenhague,Universidade de
Hamburgo,Instituto Federal de Tecnologia de
Zurique,Instituto de Estudos Avançados de
Princeton
Alma mater Universidade de Munique
Tese 1921: Über das Modell des Wasserstoff-
Molekülions
Orientador(es) Arnold Sommerfeld
Orientado(s) Nicholas Kemmer, Felix Villars
Conhecido(a) por Princípio de exclusão de Pauli,regularização
de Pauli–Villars,matrizes de Pauli, equação
de Pauli
Prêmio(s) Medalha Lorentz (1931), Nobel de Física
(1945),Medalha Franklin (1952),Medalha
Matteucci (1956),Medalha Max Planck (1958)
ver
Wolfgang Ernst Pauli (Viena, 25 de Abril de 1900 — Zurique, 15 de Dezembro de 1958) foi um físico austríaco conhecido por seu trabalho na teoria do spin do elétron.
Índice
[esconder]
1 Biografia
2 Carreira científica
3 Personalidade e Reputação
4 Ver também
5 Ligações externas
[editar]Biografia
Pauli nasceu em Viena filho de Wolfgang Joseph Pauli e Berta Camilla Schütz. Seu nome do
meio é uma homenagem ao seu padrinho, o físicoErnst Mach.
Pauli estudou no Döblinger Gymnasium em Viena, graduando-se com honra em 1918. Apenas
dois meses após a graduação, ele publicou seu primeiro ensaio científico, sobre a Teoria da
Relatividade Geral de Albert Einstein. Freqüentou então a Universidade Ludwig-Maximilian de
Munich, trabalhando com Arnold Sommerfeld, onde recebeu seu doutorado em julho de 1921
por sua tese sobre a teoria quântica da molécula de hidrogênio ionizada.
Sommerfeld propôs a Pauli a revisão da parte de relatividade numa enciclopédia alemã,
a Encyklopaedie der mathematischen Wissenschaften. Dois meses depois de receber seu
doutorado, Pauli completou o artigo, apresentado com 237 páginas. Ele foi elogiado
por Einstein, publicado como monografia, e continua até hoje uma referência sobre o tema.
Esteve um ano na Universidade de Göttingen como assistente de Max Born, e no ano seguinte
em que esta se tornou o Instituto Niels Bohr de Física Teórica em Copenhague. Ficou
entre 1923 e 1928 como conferencista na Universidade de Hamburgo. Durante este período,
teve à disposição material para o desenvolvimento da mecânica quântica moderna. A
formulação doprincípio de exclusão e a teoria do spin não relativístico são desta época. (veja
adiante uma lista de suas contribuições à ciência).
Em maio de 1929, Pauli deixou de ser católico; em dezembro, deste ano, casou-se com Käthe
Margarethe Deppner. O casamento não deu certo e eles se divorciaram em 1930, menos de
um ano depois.
No começo de 1931, logo após seu divórcio e a proposição do neutrino, Pauli teve um grave
colapso. Ele consultou o psiquiatra e psicoterapeuta Carl Jung, que vivia, como ele, próximo
de Zurique. Pauli começou logo a interpretar seus sonhos e tornou-se um dos melhores
estudantes de psiquiatria. Cedo, ele começa a criticar cientificamente a epistemologia da teoria
de Jung e contribuir com seu desenvolvimento, especialmente no conceito de sincronicidade.
Grande parte destas discussões estão nas cartas que eles trocavam, publicadas atualmente
como "Atom and Archetype".
Em 1928, foi indicado Professor de física teórica no Instituto de Tecnologia de Zurique, Suíça.
Ele manteve contato com o corpo docente da Universidade de Michigan em 1931 e com o
Instituto de Estudos avançados em Princeton em 1935.
Em 1934, casou com Franciska Bertram. Este casamento durou até o fim de sua vida, e não
tiveram filhos.
A ocupação nazista da Áustria em 1938 tornou-o cidadão alemão, o que se tornou uma
dificuldade com a eclosão da Segunda Guerra Mundial em 1939. Pauli migrou para os Estados
Unidos em 1940, onde se tornou professor de física teórica em Princeton. Após o término da
guerra em 1945, retornou para Zurique, onde permaneceu a maior parte do tempo até sua
morte.
Também em 1945, ele recebeu o Nobel de Física por sua "contribuição decisiva na descoberta
em 1925 de uma nova lei da natureza, o Princípio de exclusão de Pauli". Ele foi nomeado para
o prêmio por Einstein.
Em 1958, Pauli foi condecorado com a medalha Max Planck. No mesmo ano, foi acometido
de câncer no pâncreas. Quando seu último assistente, Charles Enz, foi visitá-lo no
hospital Rotkreuz, em Zurique, Pauli perguntou: "viu o número do meu quarto?". Era 137. Pela
sua vida, Pauli mostrou preocupação do por que a constante da estrutura fina, uma constante
adimensional, com valor próximo a 1/137. Pauli morreu naquele quarto em 15 de dezembro de
1958.
[editar]Carreira científica
Wolfgang Pauli
Pauli fez muitas contribuições importantes em sua carreira como Físico, principalmente
namecânica quântica. Ele publicou artigos, mas preferia longas cartas a seus colegas,
comoNiels Bohr e Heisenberg, com quem mantinha grande amizade. Muitas de suas idéias e
resultados nunca foram publicas, e aparecem apenas nestas cartas, que são copiadas e
distribuídas por quem as possui. Pauli não parecia preocupado que muito de seu trabalho,
assim, fosse desacreditado. O que descreve-se agora são os mais importantes resultados
pelos quais ele foi creditado:
Em 1924, Pauli propôs um novo grau de liberdade quântico, para explicar inconsistências entre
o espectro molecular observado e o desenvolvimento da mecânica quântica. Ele formulou
o Princípio de exclusão, talvez seu mais importante trabalho, que estabelece que nenhuma
partícula (por exemplo elétrons) pode existir no mesmo estado
quântico.Uhlenbeck e Goudsmit posteriormente identificaram este grau de liberdade como
o spin.
Em 1926, logo depois que Werner Heisenberg publicou a teoria matricial da modernamecânica
quântica, Pauli a usou para derivar o espetro do átomo de hidrogênio. Este resultado foi
importante para credibilizar a teoria de Heisenberg.
Em 1927, ele apresentou as , como base dos operadores de spin. Seu trabalho
influenciouDirac na descoberta da equação de Dirac para o eletron relativístico
Em 1931, ele propôs a existência de uma partícula neutra, não-observada e sem massa, para
explicar o espectro contínuo nodecaimento beta. Em 1934, Fermi introduziu a partícula em sua
teoria de decaimento radioativo, chamando-a neutrino. O neutrino foi observado directamente
em 1959.
Em 1940, ele provou o teorema estatístico de spin, um resultado crítico da mecânica
quântica que estabelece quais estados partículas com spin 1/2 são férmions, e partículas
com spin 1 são bósons.
Participou da 5ª, 6ª 7ª, 8ª, 10ª e 11ª Conferência de Solvay.
[editar]Personalidade e Reputação
O "efeito Pauli" era conhecido comicamente como a suposta capacidade bizarra de quebrar
equipamentos científicos apenas com sua presença. O próprio Pauli reconhecia esta
reputação, gostando, onde quer que o "efeito Pauli" se manifestasse.
Além da Física, Pauli era um reconhecido perfeccionista. E isto não se limitava ao seu trabalho,
mas ao trabalho de seus colegas. Como resultado, tornou-se conhecido como "a consciência
da Física", dadas as críticas aos seus colegas. Era "cruel" se encontrasse qualquer falha nas
outras teorias, chamando-as ganz falsch (algo como "completamente errado"). Famosíssima foi
uma de suas declarações: "Não apenas não está certo, como nem ao menos está errado!" -
querendo dizer que uma certa ideia estava tão mal formulada que nem havia elementos
suficientes nela para prová-la como errada.
De acordo com uma anedota bem conhecida na comunidade física, após sua morte, em 1958,
Pauli teve um encontro com Deus. Pauli perguntou por que a constante da estrutura fina tem o
valor de 1/137,036.... Deus então foi para o quadro negro, onde começou a descrever
equações num ritmo alucinante. Pauli observava-o com um grande sorriso, mas logo começou
a balançar a cabeça negativamente para um lado e para o outro quase freneticamente...
[editar]Ver também
Princípio de exclusão de Pauli
[editar]Ligações externas
Biografia em MacTutor (em inglês)
Wolfgang Pauli em Mathematics Genealogy Project
Perfil no sítio oficial do Nobel de Física 1945 (em inglês)
Biografia (em inglês)
Precedido por
Max Planck
Medalha Lorentz
1931
Sucedido por
Peter Debye
Precedido por
Isidor Isaac Rabi
Nobel de Física
1945
Sucedido por
Percy Williams Bridgman
Precedido por
James Chadwick
Medalha Franklin
1952
Sucedido por
William Francis Gibbs
Precedido por
Frédéric Joliot-Curie e Irène
Joliot-Curie
Medalha Matteucci
1956
Sucedido por
Bruno Touschek
Precedido por
Carl Friedrich von Weizsäcker
Medalha Max Planck
1958
Sucedido por
Oskar Klein
Princípio de exclusão de PauliOrigem: Wikipédia, a enciclopédia livre.
Mecânica quântica
Princípio da Incerteza
Introducão a...
Formulação matemática
[Expandir]Introdução[Esconder]Conceitos fundamentais
Estado quântico · Função de onda
Superposição · Emaranhamento
Medição · Incerteza
Exclusão · Dualidade
Decoerência · Teorema de
Ehrenfest ·Tunelamento
[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Expandir]Interpretações[Expandir]Tópicos avançados[Expandir]Cientistas
ver • editar
A Wikipédia possui o portal:Portal de Física
O princípio de exclusão de Pauli é um princípio da mecânica quântica formulado porWolfgang
Pauli em 1925. Ele afirma que dois férmions idênticos não podem ocupar o mesmoestado
quântico simultaneamente. Uma forma mais rigorosa de enunciar este princípio é dizer que a função
de onda total de um sistema composto por dois fermions idênticos deve serantissimétrica, com
respeito ao cambiamento de duas partículas. Para eletrons de um mesmo átomo, ele implica que
dois elétrons não podem ter os mesmos quatro números quânticos. Por exemplo, se os números
quânticos n, l, e ml são iguais nos dois elétrons, estes deverão necessariamente ter os
números ms diferentes, e portanto os dois elétrons têm spins opostos.
O princípio de exclusão de Pauli é uma consequência matemática das restrições impostas por
razões de simetria ao resultado da aplicação do operador de rotação a duas partículas idênticas
de spin semi-inteiro.
Índice
[esconder]
1 Sumário
2 História
3 Conexão com a simetria do estado quântico
4 Consequências
5 Ver também
6 Referências
7 Ligações externas
Sumário [editar]
O princípio de exclusão de Pauli é um dos mais importantes princípios da física, basicamente
porque os três tipos de partículas que formam a matéria ordinária - eletrons, protons e neutrons- têm
que satisfazê-lo. O princípio de exclusão de Pauli é a razão fundamental para muitas das
propriedades características da matéria, desde sua estabilidade até a existência das regularidades
expressas pela tabela periódica dos elementos.
O princípio de exclusão de Pauli é uma consequência matemática das propriedades dooperador
momento angular, que é o gerador das operações de rotação, em mecânica quântica. A permutação
de partículas num sistema de duas partículas idênticas (que é matematicamente equivalente à
rotação de cada partícula de um ângulo de 180 graus) deve resultar em uma configuração descrita
pela mesma função de onda da configuração original (quando as partículas têm spin inteiro) ou
numa mudança de sinal desta função de onda (para partículas de spin semi-inteiro). Por isso, duas
partículas de spin semi-inteiro não podem estar em um mesmo estado quântico, já que a função de
onda do sistema composto pelas duas teria que ser igual a sua simétrica, e a única função que
atende a esta condição é a função identicamente nula.
Partículas com função de onda anti-simétrica são chamadas férmions, e obedecem ao princípio de
exclusão de Pauli. Além das mais familiares já citadas - elétron, próton e nêutron - são também
fermions o neutrino e o quark (que são os constituintes elementares dos prótons e nêutrons), além
de alguns átomos, como o hélio-3. Todos os férmions possuem spin "semi-inteiro", o que quer dizer
que seumomento angular intrínseco tem valor (a constante de Planck dividida por 2π)
multiplicada por um semi-inteiro (1/2, 3/2, 5/2, etc.). Na teoria da mecânica quântica, fermions são
descritos por "estados anti-simétricos", que são explicados em mais detalhes no artigo
sobre partículas idênticas.
Um sistema formado por partículas idênticas com spin inteiro é descrito por uma função de onda
simétrica; estas partículas são chamadas bósons. Ao contrário dos fermions, elas podem partilhar
um mesmo estado quântico. São exemplos de bósons o fóton e osbósons W e Z.
História [editar]
No início do século XX tornou-se evidente que átomos e moléculas com elétrons emparelhados ou
um número par de eletrons são mais estáveis que aqueles com um número ímpar de eletrons. Num
artigo famoso The Atom and the Molecule publicado em 1916 por Gilbert N. Lewis, por exemplo, a
regra três dos seis postulados propostos pelo autor para explicar o comportamento químico das
substâncias estabelece que um átomo tende a ter um número par de elétrons em sua camada de
valência, sendo esse número, de preferência oito, que estão normalmente dispostos simetricamente
nos oito vértices de um cubo (ver: átomo cúbico). Em 1922 Niels Bohr mostrou que a tabela
periódica pode ser explicada pela hipótese de que certos números de elétrons (por exemplo, 2, 8 e
18) correspondem a "camadas fechadas" estáveis.
Pauli procurou uma explicação para estes números, que eram a esta altura apenas empíricos. Ao
mesmo tempo, ele estava tentando explicar certos resultados experimentais envolvendo o Efeito
Zeeman em espectroscopia atômica e no ferromagnetismo. Ele encontrou uma pista essencial em
um artigo de 1924 escrito por E.C.Stoner, que estabelecia que, para um dado valor do número
quântico principal (n), o número de níveis de energia de um eletron no espectro de um átomo
de metal alcalino posto sob a ação de um campo magnético externo, situação na qual todos
os níveis de energia degenerados são separados, é igual ao número de elétrons na camada
fechada de um gás nobre correspondente ao mesmo valor de n. Este fato levou Pauli a perceber
que os números aparentemente complicados de elétrons em camadas fechadas podem ser
reduzidos a uma regra muito simples, a de que só pode haver um elétron em cada estado atômico,
definido por um conjunto de quatro números quânticos. Para esta finalidade ele introduziu um novo
número quântico com apenas dois valores possíveis, identificado por Samuel Goudsmit e George
Uhlenbeck como o spin do eletron.
Conexão com a simetria do estado quântico [editar]
O princípio de exclusão de Pauli pode ser deduzido a partir da hipótese de que um sistema de
partículas só pode ocupar estados quânticos anti-simétricos. De acordo com o teorema spin-
estatística, sistemas de partículas idênticas de spin inteiro ocupam estados simétricos, enquanto
sistemas de partículas de spin semi-inteiro ocupam estados anti-simétricos; além disso, apenas
valores de spin inteiros ou semi-inteiros são permitidos pelos princípio da mecânica quântica.
Como discutido no artigo sobre partículas idênticas, um estado anti-simétrico no qual uma das
partículas está no estado (nota) enquanto a outra está no estado é
No entanto, se e são exatamente o mesmo estado, a expressão acima é
identicamente nula:
Isto não representa um estado quântico válido, porque vetores de estado que representem
estados quânticos têm obrigatoriamente que ser normalizáveis, isto é devem ter norma
finita. Em outras palavras, nunca poderemos encontrar as partículas que formam o sistema
ocupando um mesmo estado quântico.
Consequências [editar]
O princípio de exclusão de Pauli ajuda a explicar uma grande variedade de fenômenos
físicos. Um destes fenômenos é a "rigidez" ou "resiliência" da matéria ordinária (fermions):
o princípio proíbe que fermions idênticos sejam espremidos uns contra os outros (cf.módulo
de Young e módulo de rigidez de sólidos), e por isso nossas observações quotidianas do
mundo macroscópico mostram que objetos materiais colidem, ao invés de atravessar uns
aos outros, e de que somos capazes de nos apoiar de pé sobre o solo sem nele afundar.
Outra consequência deste princípio é a elaborada estrutura das camadas
eletrônicas dos átomos e a maneira como átomos partilham eletrons na formação da
variedade de moléculas ou substância químicas e a gama de suas combinações (química).
Um átomo eletricamente neutro contém eletrons ligados em número igual ao de protons de
seu núcleo. Como os eletrons são fermions, o princípio de exclusão de Pauli os proíbe de
ocupar o mesmo estado quântico, e por isso os eletrons tem que se "empilhar" em estados
quânticos diversos no interior de um átomo.
Considere, por exemplo, um átomo de hélio neutro, que tem dois eletrons ligados. Ambos
podem ocupar o estado de mais baixa energia (1s) mas para isso têm que ter spins
opostos. Isto não viola o princípio de Pauli porque o spin é parte da caracterização do
estado quântico do eletron, e por isso os dois eletrons ocupam estados quânticos
diferentes. No entanto, o spin só pode ter dois valores diferentes (ou autovalores). Num
átomo de lítio, que contém três eletrons ligados, o terceiro eletron não pode ocupar um
estado1s, já que resultaria com o spin, e portanto o estado quântico, igual a algum dos dois
primeiros, e tem que ocupar um dos estados 2sde energia mais alta. De forma análoga, os
elementos sucessivos vão requerer que os eletrons adicionais vão ocupando estados de
energia cada vez mais alta, a cada vez que um número par de eletrons esgota os estados
disponíveis no estado anterior. As propriedades químicas de uma substância depende
fortemente do número de eletrons em sua camada mais externa, o que dá origem à tabela
periódica dos elementos.
Em condutores e semi-condutores, elétrons livres têm que partilhar o espaço total
disponível no interior do material - e por isso seus níveis de energia se empilham criando
uma estrutura de bandas a partir de cada nível de energia atômico. Em bons condutores
(metais) os eletrons estão tão fortemente degenerados que eles acabam por não contribuir
de forma significativa para a capacidade térmica do metal. Muitas propriedades mecânicas,
elétricas, magnéticas, ópticas e químicas dos sólidos são consequências diretas da
repulsão de Pauli entre eletrons livres ou semi-livres.
A Astronomia mostra outra demonstração espetacular deste efeito, na forma de estrelas
anãs brancas e estrelas de nêutron. Em ambos os tipos de objetos, a estrutura atômica
usual da matéria ordinária é quebrada por forças gravitacionais enormes, fazendo com que
a estabilidade seja suportada apenas pela "pressão de degenerescência". Esta forma
exótica de matéria é chamada de matéria degenerada. Nas anãs brancas, os átomos são
impedidos de colapsar uns sobre os outros pela pressão de degenerescência de seus
eletrons. Nas estrelas de neutrons, que exibem forças gravitacionais ainda mais intensas,
os eletrons e os protons colapsam formando neutrons, que são capazes de produzir
pressões de degenerescência maiores. Os neutrons são os objetos mais "rígidos"
conhecidos - seu módulo de Young, ou mais apropriadamente módulo de rigidez é 20
ordens de grandeza maior que o do diamente.
De acordo com a relatividade geral, as forças gravitacionais no centro de um buraco
negro se tornam tão intensas que toda a matéria se quebra em seus constituintes
fundamentais, que são supostamente puntiformes e sem estrutura interna. Todas estas
partículas poderiam se empilhar em um ponto zero dimensional porque as forças
gravitacionais seriam maiores que a pressão de degenerescência. Isto parece violar o
princípio de exclusão de Pauli, mas já que o interior de um buraco negro está além
do horizonte de eventos, ele é inacessível a verificação experimental e esta hipótese
permanece sem comprovação possível.
Ver também [editar]
Forças de troca
Interação de troca
Simetria de troca
Regra de Hund
Referências
Dill, Dan. Notes on General Chemistry. 2ª ed. [S.l.]: W. H. Freeman, 2006. Capítulo:
3.5, Many-electron atoms: Fermi holes and Fermi heaps, ISBN 1-4292-0068-5
Griffiths, David J.. Introduction to Quantum Mechanics. 2ª ed. [S.l.]: Prentice Hall,
2004. ISBN 0-13-805326-X
Liboff, Richard L.. Introductory Quantum Mechanics. [S.l.]: Addison-Wesley, 2002. ISBN
0-8053-8714-5
Massimi, Michela. Pauli's Exclusion Principle (em inglês). [S.l.]: Cambridge University
Press, 2005. ISBN 0-521-83911-4
Tipler, Paul; Llewellyn, Ralph. Modern Physics. 4ª ed. [S.l.]: W. H. Freeman, 2002. ISBN
0-7167-4345-0
As formulações matemáticas da mecânica quântica são os formalismos matemáticos que
permitam uma descrição rigorosa da mecânica quântica. Estas, por sua vez, se distinguem do
formalismo matemático da mecânica clássica, (antes do início de 1900) pelo uso de estruturas
matemáticas abstratas, tais como espaços de Hilbert de dimensão infinita e operadores sobre
estes espaços. Muitas destas estruturas são retiradas da análise funcional, uma área de
pesquisa dentro matemática que foi influenciada, em parte, pelas necessidades da mecânica
quântica. Em resumo, os valores de observáveis físicos, tais como energia e momento já não
eram considerados como valores de funções em espaço de fase, mas como autovalores, mais
precisamente: como valores espectrais deoperadores lineares no espaço de Hilbert.[1]
Estas formulações da mecânica quântica, continuem a ser utilizados hoje. No coração da
descrição são as idéias de estado quântico e quantum observáveis que são radicalmente
diferentes daqueles usados em anos anteriores modelos da realidade física. Enquanto a
matemática permite o cálculo das quantidades de muitos que podem ser medidos
experimentalmente, há um limite teórico definido para valores que podem ser medidos em
simultâneo. Essa limitação foi elucidada por Heisenberg através de um experimento mental, E
é representado matematicamente no formalismo de novo pelo comutatividade não dos
observáveis quânticos.
Antes do surgimento da mecânica quântica como unidade teoria, a matemática utilizada na
física consistiu principalmente em geometria diferencial e equações diferenciais parciais; teoria
das probabilidades foi utilizado em mecânica estatística. intuição geométrica claramente
desempenhou um papel importante nos dois primeiros e, consequentemente, teorias da
relatividade foram formuladas inteiramente em termos de conceitos geométricos. A
fenomenologia da física quântica surgiu aproximadamente entre 1895 e 1915, e de 10 a 15
anos antes do surgimento da teoria quântica (cerca de 1925) os físicos continuam a pensar da
teoria quântica dentro dos limites do que é agora chamado física clássicaE, em particular
dentro das mesmas estruturas matemáticas. O exemplo mais sofisticado deste é o quantização
de Sommerfeld-Wilson-Ishiwara regra, que foi formulada inteiramente no espaço de fase
clássico.
[editar]Postulados da mecânica quântica
Na Mecânica Clássica a descrição de um sistema físico é resumida da seguinte forma:
O estado físico do sistema em um dado tempo t0 é descrito por especificando-se as
coordenadas generalizadas e seus momentos conjugados
O valor dessas grandezas físicas em um dado tempo é completamente determinado se
o estado desse sistema neste tempo é conhecido. Ou seja, se o estado do sistema é
conhecido podemos determinar com exatidão o estado posterior do sistema após a medida
feita em
A evolução no estado do sistema é dado pelas leis de Newton ou por formulações
equivalentes (mecânica lagrangiana ou hamiltoniana). O estado do sistema fica
completamente determinado se conhecemos suas condições iniciais
A mecânica quântica pode ser formulada a partir de diversos conjuntos de postulados e de
diversos formalismos matemáticos. Seguem os postulados que fazem uso da análise
funcional e que são adotados por considerável parte de textos básicos de mecânica quântica[2].
Todo sistema físico está associado a um espaço de Hilbert H complexo e separável,
sendo o produto interno de H definido por . A todo estado físico associa-se um
conjunto de vetores unitários de H que diferem apenas por uma fase complexa.
Toda grandeza física, também chamada de observável, está associada a um operador
auto-adjunto densamente definido em H.
Os resultados possíveis em uma medida de um observável correspondem
ao espectro do observável correspondente.
Seja A um observável físico com espectro discreto . Quando é
realizada uma medida em A, a probabilidade de encontrar o autovalor é dada
por
,
onde é o grau de degenerescência de e correspondem aos autovetores de A
com autovalor .
Se em uma medida de uma grandeza física no estado encontramos um
autovalor de , imediatamente após a medida o estado do sistema será a
projeção normalizada de no auto-espaço associado a . Dessa forma, toda
medida imediatamente após a primeira medida terá o mesmo resultado.
A evolução no tempo do vetor de estado de um sistema físico é governada
pela Equação de Schrödinger, desde que o sistema físico mantenha coêrencia
onde H é o Hamiltoniano do sistema e é a constante reduzida de Planck.
O Postulado da simetrização nos diz que quando um sistema possui várias
partículas idênticas somente alguns kets do espaço dos estados podem descrever
um sistema físico. Estes kets são, dependendo da natureza das partículas,
completamente simétricos ou completamente assimétricos com respeito à
permutação das partículas. Particulas que possuem vetores de estado simétricos
são chamadas de bósons enquanto que as que possuem vetores de estado
assimétrico são chamadas de férmions.
Referências
1. ↑ Frederick W. Byron, Robert W. Fuller; Mathematics of classical and quantum physics;
Courier Dover Publications, 1992.
2. ↑ Cohen-Tannoudji, C.; Diu, B.; Laloë, F. Quantum Mechanics. Quantum Mechanics.
[S.l.]: Wiley, 1997. vol. 1.
[editar]Bibliografia
Mathematical formulations , "Mathematical Formulations of Quantum
Mechanics",http://www.iue.tuwien.ac.at/phd/kosik/node67.html
T.S. Kuhn , Black-Body Theory and the Quantum Discontinuity, 1894–1912,
Clarendon Press, Oxford and Oxford University Press, New York, 1978.
S. Auyang, How is Quantum Field Theory Possible?, Oxford University Press,
1995.
D. Edwards, The Mathematical Foundations of Quantum Mechanics, Synthese, 42
(1979),pp. 1–70.
G. Emch, Algebraic Methods in Statistical Mechanics and Quantum Field Theory,
Wiley-Interscience, 1972.
J.M. Jauch, Foundations of quantum mechanics, Addison-Wesley Publ. Cy.,
Reading, Mass., 1968.
R. Jost, The General Theory of Quantized Fields, American Mathematical Society,
1965.
A. Gleason , Measures on the Closed Subspaces of a Hilbert Space, Journal of
Mathematics and Mechanics, 1957.
G. Mackey , Mathematical Foundations of Quantum Mechanics, W. A. Benjamin,
1963 (paperback reprint by Dover 2004).
J. von Neumann , Mathematical Foundations of Quantum Mechanics, Princeton
University Press, 1955. Reprinted in paperback form.
R. F. Streater and A. S. Wightman, PCT, Spin and Statistics and All That,
Benjamin 1964 (Reprinted by Princeton University Press)
M. Reed and B. Simon, Methods of Mathematical Physics, vols I–IV, Academic
Press 1972.
G. Teschl , Mathematical Methods in Quantum Mechanics with Applications to
Schrödinger Operators,http://www.mat.univie.ac.at/~gerald/ftp/book-schroe/,
American Mathematical Society, 2009.
N. Weaver, "Mathematical Quantization", Chapman & Hall/CRC 2001.
H. Weyl , The Theory of Groups and Quantum Mechanics, Dover Publications,
1950.
Princípio da incerteza de HeisenbergOrigem: Wikipédia, a enciclopédia livre.
Este artigo ou se(c)ção cita fontes fiáveis e independentes, mas elas não cobrem todo o texto (desde Maio de 2011).Por favor, melhore este artigo providenciando mais fontes fiáveis e independentes, inserindo-as em notas de rodapé ou no corpo do texto, nos locais indicados.Encontre fontes: Google — notícias, livros, acadêmico — Scirus — Bing. Veja como referenciar e citar as fontes.
Werner Heisenberg
Mecânica quântica
Princípio da Incerteza
Introducão a...
Formulação matemática
[Expandir]Introdução[Esconder]Conceitos fundamentais
Estado quântico · Função de onda
Superposição · Emaranhamento
Medição · Incerteza
Exclusão · Dualidade
Decoerência · Teorema de
Ehrenfest ·Tunelamento
[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Expandir]Interpretações[Expandir]Tópicos avançados[Expandir]Cientistas
ver • editar
A Wikipédia possui o portal:Portal de Física
O princípio da incerteza de Heisenberg consiste num enunciado da mecânica quântica, formulado
inicialmente em 1927 por Werner Heisenberg, impondo restrições à precisão com que se podem
efetuar medidas simultâneas de uma classe de pares de observáveis em nível subatômico.
Índice
[esconder]
1 Expressão
2 Natureza da medida em mecânica quântica
3 Observáveis e operadores
4 O papel do princípio da incerteza nas formulações modernas da mecânica quântica
5 Referências
6 Bibliografia
Expressão [editar]
Pode-se exprimir o princípio da incerteza nos seguintes termos:
O produto da incerteza associada ao valor de uma coordenada xi e a incerteza associada ao seu
correspondente momento linear pi não pode ser inferior, em grandeza, à constante de Planck
normalizada.1 Em termos matemáticos, exprime-se assim:
onde é a Constante de Planck (h) dividida por 2π.
A explicação disso é fácil de se entender, e fala mesmo em favor da intuição, embora o raciocínio
clássico e os aspectos formais da análise matemática tenham levado os cientistas a pensarem
diferentemente por muito tempo. Quando se quer encontrar a posição de um elétron, por exemplo, é
necessário fazê-lo interagir com algum instrumento de medida, direta ou indiretamente. Por
exemplo, faz-se incidir sobre ele algum tipo de radiação. Tanto faz aqui que se considere a radiação
do modo clássico - constituída por ondas eletromagnéticas - ou do modo quântico - constituída
por fótons. Se se quer determinar a posição do elétron, é necessário que a radiação tenha
comprimento de onda da ordem da incerteza com que se quer determinar a posição.
Neste caso, quanto menor for o comprimento de onda (maior freqüência) maior é a precisão.
Contudo, maior será a energia cedida pela radiação (onda ou fóton) em virtude da relação
dePlanck entre energia e freqüência da radiação
e o elétron sofrerá um recuo tanto maior quanto maior for essa energia, em virtude do efeito
Compton. Como conseqüência, a velocidade sofrerá uma alteração não de todo previsível, ao
contrário do que afirmaria a mecânica clássica.
Argumentos análogos poderiam ser usados para se demonstrar que ao se medir a velocidade com
precisão, alterar-se-ia a posição de modo não totalmente previsível.
Resumidamente, pode-se dizer que tudo se passa de forma que quanto mais precisamente se medir
uma grandeza, forçosamente mais será imprecisa a medida da grandeza correspondente, chamada
de canonicamente conjugada
Algumas pessoas consideram mais fácil o entendimento através da analogia. Para se descobrir a
posição de uma bola de plástico dentro de um quarto escuro, podemos emitir algum tipo de radiação
e deduzir a posição da bola através das ondas que "batem" na bola e voltam. Se quisermos calcular
a velocidade de um automóvel, podemos fazer com que ele atravesse doisfeixes de luz, e calcular o
tempo que ele levou entre um feixe e outro. Nem radiação nem a luz conseguem interferir de modo
significativo na posição da bola, nem alterar a velocidade do automóvel. Mas podem interferir muito
tanto na posição quanto na velocidade de um elétron, pois aí a diferença de tamanho entre o fóton
de luz e o elétron é pequena. Seria, mais ou menos, como fazer o automóvel ter de atravessar dois
troncos de árvores (o que certamente alteraria sua velocidade), ou jogar água dentro do quarto
escuro, para deduzir a localização da bola através das pequenas ondas que baterão no objeto e
voltarão; mas a água pode empurrar a bola mais para a frente, alterando sua posição. Desta forma
torna-se impossivel determinar a localização real desta bola pois a própria determinação mudará a
sua posição. Apesar disto, a sua nova posição pode ser ainda deduzida, calculando o quanto a bola
seria empurrada sabendo a força das ondas obtendo-se uma posição provável da bola e sendo
provável que a bola esteja localizada dentro daquela área.
Natureza da medida em mecânica quântica [editar]
Como se pode depreender da argumentação acima exposta, a natureza de uma medida sofre sérias
reformulações no contexto da mecânica quântica. De fato, na mecânica quântica uma propriedade
leva o nome de observável, pois não existem propriedades inobserváveis nesse contexto. Para a
determinação de um observável, é necessário que se tenha uma preparação conveniente do
aparato de medida, a fim de que se possa obter uma coleção de valores do ensemble de entes do
sistema. Se não puder montar, ao menos teoricamente (em um Gedankenexperiment) uma
preparação que possa medir tal grandeza (observável), então é impossível determiná-la naquelas
condições do experimento.
Uma comparação tornará mais clara essa noção. No experimento de difração da dupla fenda, um
feixe de elétrons atravessando uma fenda colimadora atinge mais adiante duas outras fendas
paralelas traçadas numa parede opaca.
Do lado oposto da parede opaca, a luz, atravessando as fendas simultaneamente, atinge um
anteparo. Se se puser sobre este um filme fotográfico, obtém-se pela revelação do filme um padrão
de interferência de zonas claras e escuras. Esse resultado indica umanatureza
ondulatória dos elétrons, resultado esse que motivou o desenvolvimento da mecânica quântica.
Entretanto, pode-se objetar e afirmar-se que a natureza dos elétrons seja corpuscular, ou seja,
composta de fótons. Pode-se então perguntar por qual fenda o elétron atravessou para alcançar o
anteparo. Para determinar isso, pode-se pôr, junto de cada fenda, uma pequena fonte luminosa que,
ao menos em princípio, pode indicar a passagem dos elétrons por tal ou qual fenda. Entretanto, ao
fazê-lo, o resultado do experimento é radicalmente mudado. A figura de interferência, antes
presente, agora dá lugar a uma distribuição gaussiana bimodal de somente duas zonas claras em
meio a uma zona escura, e cujos máximos se situam em frente às fendas.
Isso acontece porque as naturezas ondulatória e corpuscular do elétron não podem
ser simultaneamente determinadas. A tentativa de determinar uma inviabiliza a determinação da
outra. Essa constatação da dupla natureza da matéria (e da luz) leva o nome de princípio da
complementaridade.
Essa analogia serve para mostrar como o mundo microfísico tem aspectos que diferem
significativamente do que indica o senso comum.
Para se entender perfeitamente o alcance e o real significado do princípio da incerteza, é necessário
que se distingam três tipos reconhecidos de propriedades dinâmicas em mecânica quântica:
1. Propriedades compatíveis: são aquelas para as quais a
medida simultânea e arbitrariamente precisa de seus valores não sofre nenhum tipo de
restrição básica. Exemplo: a medição simultânea das coordenadas x, y e z de uma
partícula. A medição simultânea dos momentos px,py e pz de uma partícula.
2. Propriedades mutuamente excludentes: são aquelas para as quais a medida simultânea é
simplesmente impossível. Exemplo: se um elétron está numa posição xi, não pode estar
simultaneamente na posição diferente xj.
3. Propriedades incompatíveis: são aquelas correspondentes a grandezas canonicamente
conjugadas, ou seja, aquelas cujas medidas não podem ser simultaneamente medidas
com precisão arbitrária. Em outras palavras, são grandezas cujas medidas simultâneas não
podem ser levadas a cabo em um conjunto de subsistemas identicamente preparados
(ensemble) para este fim, porque tal preparo não pode ser realizado. Exemplos: as
coordenadas x,y e z e seus correspondentes momentos px,py e pz, respectivamente. As
coordenadas angulares θi e os correspondentes momentos angulares Ji.
Observáveis e operadores [editar]
No formalismo matemático da mecânica quântica, os observáveis são representados por operadores
matemáticos sobre um espaço de Hilbert.
Esses operadores podem ser construídos a partir de seus equivalentes clássicos.
Na formulação de Heisenberg, as relações da incerteza podem ser dados na forma de um
operador comutador, que opera sobre dois outros operadores quaisquer:
onde A e B são operadores quaisquer.
No caso das relações de incerteza:
Dirac notou a semelhança formal entre o comutador e os parênteses de Poisson. Sabedor da
equivalência usada por Schrödingerquando este postulou a forma da equação de onda, Dirac
postulou as seguintes equivalências, que valem como receita para se acharem os operadores
quânticos correspondentes a grandezas clássicas:
A descrição ondulatória dos objetos microscópicos tem consequências teóricas importantes, como o
principio da incerteza de Heisenberg. O fato de os objetos microscópicos, em muitas situações,
terem uma localização no espaço mesmo que aproximada, implica que não podem ser descritos por
uma onda com um só comprimento de onda (onda plana), pois esta ocuparia todo o espaço. É
necessária uma superposição de comprimentos de ondas diferentes para se obter um "pacote" de
ondas mais bem localizado e que represente o objeto microscópico.
O papel do princípio da incerteza nas formulações modernas da mecânica quântica [editar]
Hoje em dia, o princípio da incerteza é importante principalmente por dois motivos: um histórico e
outro didático. Ambos são análogos: o princípio da incerteza mostra de maneira clara que
concepções clássicas a respeito da medida devem ser abandonadas.
No entanto, o princípio da incerteza *não* é um bom princípio (ou postulado) da mecânica quântica,
já que é inexato e pouco geral. A mecânica quântica não-relativística é totalmente descrita com
alguns postulados, dos quais as relações de incerteza de Heisenberg surgem de forma pouco
natural. Mas o espírito do princípio da incerteza é mantido: não se pode ter um sistema que, ao ser
medido, tenha a probabilidade 1 de se encontrar tanto uma ou outra grandeza, se essas grandezas
corresponderem a operadores que não comutam. Iremos explicar isto melhor adiante:
Todas as grandezas que podem ser medidas correspondem aos chamados "autovalores" de certos
objetos matemáticos chamados de operadores (na verdade, a natureza requer que esses
operadores sejam de uma classe especial, a dos "observáveis"). Chamemos um operador qualquer
de A, e chamemos seus autovalores de a_n (a_1 é um autovalor, a_2 é outro e assim por diante).
Existem estados quânticos, chamados "autoestados" (que representaremos por ) do
operador A, nos quais uma medida tem 100% de chance de encontrar o valor a_n. Esses
autoestados e esses autovalores são definidos pela seguinte equação:
Um operador é dito um observável se esses autoestados formarem uma "base". Diz-se que
um grupo qualquer de estados quânticos formam uma base se qualquer outro estado quântico puder
ser escrito como uma superposição deles. Ou seja, para qualquer estado quântico ,
Onde os coeficientes , em geral complexos, indicam o quanto os autoestados
correspondentes influenciam no estado resultante, . Um dos postulados da mecânica
quântica diz que a probabilidade de uma medida da grandeza A revelar o valor a_n é:
Quando o sistema está no autoestado , o postulado acima mostra que a probabilidade de se
encontrar o valor a_n correspondente é 100%. Assim, pode-se dizer que o sistema *possui a
grandeza A bem definida*.
Agora consideremos dois operadores A e B, como o operador da posição e o operador do momento.
Em geral, os autoestados de um operador não são os mesmos autoestados do outro operador.
Consequentemente, se o sistema está em um estado quântico onde a grandeza A é bem definida, a
grandeza B não será bem definida. Ou seja, haverá uma "incerteza" na grandeza B.
Mas, e se o sistema estiver num estado onde a grandeza A é bem definida, e efetuarmos uma
medida na grandeza B? Pode-se pensar que, então, saberemos exatamente o valor de ambas as
grandezas. Mas isso está errado, devido a outro dos postulados da mecânica quântica: se uma
medida de uma grandeza qualquer B revela o valor b_n, então o sistema *é perturbado pela
medida*, e passa para o autoestado correspondente à grandeza B_n.
Então, suponha que dois operadores A e B não possuem os mesmos autoestados. Se efetuarmos
em um sistema qualquer a medida da grandeza A, e encontrarmos um certo valor, o sistema se
torna um autoestado de A, com um valor bem definido de A e uma incerteza no valor de B. Se, após
isso, efetuarmos uma medida no valor de B, então lançamos o sistema num autoestado de B, com
um valor bem definido de B e uma incerteza no valor de A. Com isso, dizemos que é impossível
saber simultaneamente o valor da grandeza A e da grandeza B.
A incerteza entre a posição e o momento proposta por Heisenberg é, então, uma consequência dos
postulados da mecânica quântica, e não um postulado por si só.
Referências
1. ↑ Georgia State University, Department of Physics and Astronomy, Hyperphysics, The
Uncertainty Principle [em linha]
Bibliografia [editar]
A estrutura quântica da matéria - do átomo pré-socrático às partículas elementares.José
Leite Lopes - UFRJ Editora/Academia Brasileira de Ciências/ERCA-Editora e Gráfica limitada -
Rio de Janeiro
Química Quântica - Fundamentos e Métodos. José J.C.Teixeira Dias- Fundação Calouste
Gulbenkian – Lisboa
Werner HeisenbergOrigem: Wikipédia, a enciclopédia livre.
Werner Heisenberg
Física
Heisenberg em 1933
Dados gerais
Nome de nascimento Werner Karl Heisenberg
Nacionalidade Alemão
Nascimento 5 de Dezembro de 1901
Local Würzburg
Império Alemão
Falecimento 1 de Fevereiro de 1976 (74 anos)
Local Munique
Alemanha Ocidental
Cônjuge Elisabeth Shumacher 1
Tiveram sete filhos.
Actividade
Campo(s) Física
Instituições Universidade de Göttingen,Universidade de
Copenhague,Universidade de
Leipzig,Universidade Humboldt de
Berlim,Universidade de Munique
Alma mater Universidade de Munique
Orientador(es) Arnold Sommerfeld
Orientado(s) Erich Bagge, Felix Bloch,Hans Heinrich
Euler,Hermann Arthur Jahn,Rudolf
Peierls, Reinhard Oehme,Raziuddin Siddiqui, Ivan
Supek,Edward Teller, Șerban Țițeica,Friedwardt
Winterberg
Prêmio(s) Medalha Matteucci (1929), Nobel de Física
(1932),Medalha Max Planck (1933)
ver
Werner Karl Heisenberg (Würzburg, 5 de Dezembro de 1901 — Munique, 1 de Fevereiro de 1976)
foi um físico teórico alemão que recebeu o Prêmio Nobel de Físicaem 1932 "pela criação
da mecânica quântica, cujas aplicações levaram à descoberta, entre outras, das
formas alotrópicas do hidrogênio".
Juntamente com Max Born e Pascual Jordan, Heisenberg estabeleceu as bases daformulação
matricial da mecânica quântica em 1925. Em 1927, publicou o artigo Über den anschaulichen Inhalt
der quantentheoretischen Kinematik und Mechanik, em que apresenta o Princípio da incerteza.
Também fez importantes contribuições teóricas nos campos da hidrodinâmica de escoamentos
turbulentos, no estudo do núcleo atômico, do ferromagnetismo, dos raios cósmicos e das partículas
subatômicas. Teve ainda uma contribuição fundamental no planejamento do primeiro reator
nuclearalemão em Karlsruhe e de um reator de pesquisa em Munique, em 1957. Muitas
controvérsias envolvem o seu trabalho na pesquisa nuclear durante a Segunda Guerra Mundial.
Após a guerra, foi nomeado diretor do Instituto Kaiser Wilhelm de Física, que mais tarde passou a
ser denominado Instituto Max Planck de Física. Ele dirigiu o instituto até sua transferência para
Munique em 1958, quando foi ampliado e renomeadoInstituto Max Planck de Física e Astrofísica.
Heisenberg foi ainda presidente doConselho de Pesquisa Alemão, presidente da Comissão de
Física Atômica, presidente do Grupo de Física Nuclear de Trabalho, e presidente da Fundação
Alexander von Humboldt.
Índice
[esconder]
1 Carreira científica
2 A polêmica
3 Publicações
4 Referências
5 Ver também
6 Bibliografia
7 Ligações externas
Carreira científica [editar]
Em 1924 Heisenberg tornou-se assistente de Max Born no centro universitário deGöttingen,
transferiu-se para Copenhague, onde trabalhou com Niels Bohr.
Em 1925 desenvolveu a Mecânica matricial, o que constituiu o primeiro desenvolvimento
da Mecânica Quântica.
Conferência de Solvay de 1927. Na fila superior, Heisenberg é o terceiro a partir da direita.
Em 1927 passou a ensinar física na Universidade de Leipzig, onde enunciou o Princípio da
Incerteza ou Princípio de Heisenberg, segundo o qual é impossível medir simultaneamente e
com precisão absoluta a posição e avelocidade de uma partícula, isto é, a determinação
conjunta do momento e posição de uma partícula, necessariamente, contém erros não menores
que a constante de Planck. Esses erros são desprezíveis em âmbito macroscópico, porém se
tornam importantes para o estudo de partículas atômicas; as duas grandezas podem ser
determinadas exatamente de forma separada, quanto mais exata for uma delas, mais incerta se
torna a outra.
Em 1932, Heisenberg recebeu o Nobel de Física pela "criação da mecânica quântica, cuja
aplicação possibilitou, entre outras, a descoberta das formas alotrópicas do hidrogênio".
De 1942 a 1945, dirigiu o Instituto Max Planck, Berlim. Durante a Segunda Guerra
Mundial trabalhou com Otto Hahn, um dos descobridores da fissão nuclear, no projeto de
um reator nuclear. Sendo o lider do programa de construção de bomba atômica dos alemães, o
que motivou inclusive Niels Bohr a pôr fim na amizade entre eles.
Heisenberg organizou e dirigiu o Instituto de Física e Astrofísica de Göttingen.
Em 1958, o Instituto de Física e Astrofísica foi mudado para Munique, onde o cientista se
concentrou na pesquisa sobre a teoria das partículas elementares, fez descobertas sobre a
estrutura do núcleo atômico, da hidrodinâmica das turbulências, dos raios cósmicos e
do ferromagnetismo.
Participou da 5ª, 6ª e 7ª Conferência de Solvay.
A polêmica [editar]
Albert Einstein e outros cientistas rejeitaram as idéias do físico, pois estas romperam em grande
parte os princípios imóveis da física newtoniana. O "Princípio da incerteza de Heisenberg", utilizando
fartamente o cálculo estatístico, além de mecanismos desenvolvidos para a comprovação de suas
teorias, abriu um novo campo não só para a Física, mas para a teoria do conhecimento.
Publicações [editar]
Werner Heisenberg em 1927, na conferência de Solvay.
Publicou vários ensaios e livros, destacando-se:
Die physikalischen Prinzipien der Quantentheorie, 1930 (Os princípios físicos da teoria
dosquanta)
Die Physik der Atomkerne, 1943 (A física dos núcleos atômicos)
Physik und Philosophie, 1959 (Física e filosofia).
Der Ganz und das Teil, 1971 (A parte e o todo)
O filme Copenhagen 2 de 2002 com Daniel Craig, Stephen Rea e Francesca Annis (de O
Libertino(2004) e Duna (1985) narra a vida de Werner Karl Heisenberg.
Referências
1. ↑ (em português) Pucrs
2. ↑ (em inglês) PBS
Ver também [editar]
O Commons possui multimídias sobre Werner Heisenberg
Mecânica Quântica
Princípio de Heisenberg
Microcosmo
Vídeo - Tudo Sobre Incerteza - Mecânica Quântica
Primeira Parte no Google
Segunda Parte no Google
Terceira Parte no Google
Quarta Parte no Google
Quinta Parte no Google
Sexta Parte no Google
Bibliografia [editar]
(em alemão) David C. Cassidy: Werner Heisenberg. Leben und Werk. Spektrum
Akademischer Verlag, Heidelberg 1995, ISBN 3-86025-315-8
(em alemão) Ernst Peter Fischer: Werner Heisenberg : das selbstvergessene Genie : mit
einem Nachtrag zur Taschenbuchausgabe - Ungekürzte Taschenbuchausg. - Munique : Piper,
2002. ISBN 3-492-23701-0
(em alemão) Michael Schaaf: Heisenberg, Hitler und die Bombe. Gespräche mit Zeitzeugen.
GNT-Verlag, Berlim 2001, ISBN 3-928186-60-4
(em alemão) Gregor Schiemann: Werner Heisenberg (Beck'sche Reihe Denker). München:
C.H. Beck, 2008. ISBN 978-3-406-56840-4
(em inglês) Paul Lawrence Rose: Heisenberg and the Nazi Atomic Bomb Project, 1939–
1945: A Study in German Culture University of California Press, 1998, ISBN 0-520-21077-8
Ligações externas [editar]
Werner Heisenberg em Mathematics Genealogy Project
Perfil no sítio oficial do Nobel de Física 1932 (em inglês)
Precedido porChandrasekhara Venkata Raman
Medalha Matteucci1929
Sucedido porArthur Holly Compton
Precedido porChandrasekhara Venkata Raman
Nobel de Física1932
Sucedido porErwin Schrödinger e Paul Dirac
Precedido porMax von Laue
Medalha Max Planck1933
Sucedido porErwin Schrödinger
Mecânica quânticaOrigem: Wikipédia, a enciclopédia livre.
(Redirecionado de Mecânica Quântica)
Este artigo ou se(c)ção cita fontes fiáveis e independentes, mas elas não cobrem todo o texto (desde fevereiro de 2010).Por favor, melhore este artigo providenciando mais fontes fiáveis e independentes, inserindo-as em notas de rodapé ou no corpo do texto, nos locais indicados.Encontre fontes: Google — notícias, livros, acadêmico — Scirus — Bing. Veja como referenciar e citar as fontes.
Mecânica quântica
Princípio da Incerteza
Introducão a...
Formulação matemática
[Expandir]Introdução[Expandir]Conceitos fundamentais[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Expandir]Interpretações[Expandir]Tópicos avançados[Expandir]Cientistas
ver • editar
A Wikipédia possui o portal:Portal de Física
A mecânica quântica é a teoria física que obtém sucesso no estudo dos sistemas físicos cujas
dimensões são próximas ou abaixo da escala atômica, tais
como moléculas, átomos,elétrons, prótons e de outras partículas subatômicas, muito embora
também possa descrever fenômenos macroscópicos em diversos casos. A Mecânica Quântica é um
ramo fundamental da física com vasta aplicação. A teoria quântica fornece descrições precisas para
muitos fenômenos previamente inexplicados tais como a radiação de corpo negro e as órbitas
estáveis do elétron. Apesar de na maioria dos casos a Mecânica Quântica ser relevante para
descrever sistemas microscópicos, os seus efeitos específicos não são somente perceptíveis em tal
escala. Por exemplo, a explicação de fenômenos macroscópicos como a super fluidez e
asupercondutividade só é possível se considerarmos que o comportamento microscópico da matéria
é quântico. A quantidade característica da teoria, que determina quando ela é necessária para a
descrição de um fenômeno, é a chamada constante de Planck, que tem dimensão de momento
angular ou, equivalentemente, de ação.
A mecânica quântica recebe esse nome por prever um fenômeno bastante conhecido dos físicos:
a quantização. No caso dos estados ligados (por exemplo, um elétron orbitando em torno de um
núcleo positivo) a Mecânica Quântica prevê que a energia (do elétron) deve ser quantizada. Este
fenômeno é completamente alheio ao que prevê a teoria clássica.
Índice
[esconder]
1 Um panorama
2 O conceito de estado na mecânica quântica
o 2.1 A representação do estado
3 Formulação matemática
o 3.1 Vetores e espaços vetoriais
o 3.2 Os operadores na mecânica quântica
o 3.3 O problema de autovalor e autovetor
o 3.4 O significado físico dos operadores, seus autovetores e autovalores
4 Aspectos históricos
5 Princípios
6 Conclusões
7 Formalismos
8 Referências
9 Bibliografia
10 Ver também
[editar]Um panorama
A palavra “quântica” (do Latim, quantum) quer dizer quantidade. Na mecânica quântica, esta palavra
refere-se a uma unidade discreta que a teoria quântica atribui a certas quantidades físicas, como
a energia de um elétron contido num átomo em repouso. A descoberta de que as ondas
eletromagnéticas podem ser explicadas como uma emissão de pacotes de energia (chamados
quanta) conduziu ao ramo da ciência que lida com sistemas moleculares,atômicos e subatômicos.
Este ramo da ciência é atualmente conhecido como mecânica quântica.
A mecânica quântica é a base teórica e experimental de vários campos da Física e da Química,
incluindo a física da matéria condensada, física do estado sólido, física atômica, física
molecular, química computacional, química quântica, física de partículas, efísica nuclear. Os
alicerces da mecânica quântica foram estabelecidos durante a primeira metade do século XX
por Albert Einstein,Werner Heisenberg, Max Planck, Louis de Broglie, Niels Bohr, Erwin
Schrödinger, Max Born, John von Neumann, Paul Dirac,Wolfgang Pauli, Richard Feynman e outros.
Alguns aspectos fundamentais da contribuição desses autores ainda são alvo de investigação.
Normalmente é necessário utilizar a mecânica quântica para compreender o comportamento de
sistemas em escala atômica ou molecular. Por exemplo, se a mecânica clássica governasse o
funcionamento de um átomo, o modelo planetário do átomo – proposto pela primeira vez
por Rutherford – seria um modelo completamente instável. Segundo a teoria eletromagnética
clássica, toda a carga elétrica acelerada emite radiação. Por outro lado, o processo de emissão de
radiação consome a energia da partícula. Dessa forma, o elétron, enquanto caminha na sua órbita,
perderia energia continuamente até colapsar contra o núcleo positivo!
[editar]O conceito de estado na mecânica quântica
Em física, chama-se "sistema" um fragmento concreto da realidade que foi separado para estudo.
Dependendo do caso, a palavra sistema refere-se a um elétron ou um próton, um pequeno átomo
de hidrogênio ou um grande átomo de urânio, uma molécula isolada ou um conjunto de moléculas
interagentes formando um sólido ou um vapor. Em todos os casos, sistema é um fragmento da
realidade concreta para o qual deseja-se chamar atenção.
Dependendo da partícula pode-se inverter polarizações subsequentes de aspecto neutro.
A especificação de um sistema físico não determina unicamente os valores que experimentos
fornecem para as suas propriedades (ou as probabilidades de se medirem tais valores, em se
tratando de teorias probabilísticas). Além disso, os sistemas físicos não são estáticos,
eles evoluem com o tempo, de modo que o mesmo sistema, preparado da mesma forma, pode dar
origem a resultados experimentais diferentes dependendo do tempo em que se realiza a medida (ou
a histogramas diferentes, no caso de teorias probabilísticas). Essa ideia conduz a outro conceito-
chave: o conceito de "estado". Um estado é uma quantidade matemática (que varia de acordo com a
teoria) que determina completamente os valores das propriedades físicas do sistema associadas a
ele num dado instante de tempo (ou as probabilidades de cada um de seus valores possíveis serem
medidos, quando se trata de uma teoria probabilística). Em outras palavras, todas as informações
possíveis de se conhecer em um dado sistema constituem seu estado
Cada sistema ocupa um estado num instante no tempo e as leis da física devem ser capazes de
descrever como um dado sistema parte de um estado e chega a outro. Em outras palavras, as leis
da física devem dizer como o sistema evolui (de estado em estado).
Muitas variáveis que ficam bem determinadas na mecânica clássica são substituídas por
distribuições de probabilidades na mecânica quântica, que é uma teoria intrinsicamente
probabilística (isto é, dispõe-se apenas de probabilidades não por uma simplificação ou ignorância,
mas porque isso é tudo que a teoria é capaz de fornecer).
[editar]A representação do estado
No formalismo da mecânica quântica, o estado de um sistema num dado instante de tempo pode
ser representado de duas formas principais:
1. O estado é representado por uma função complexa das posições ou dos momenta de cada
partícula que compõe o sistema. Essa representação é chamada função de onda.
2. Também é possível representar o estado por um vetor num espaço vetorial complexo.1 Esta
representação do estado quântico é chamada vetor de estado. Devido à notação
introduzida por Paul Dirac, tais vetores são usualmente chamados kets (sing.: ket).
Em suma, tanto as "funções de onda" quanto os "vetores de estado" (ou kets) representam os
estados de um dado sistema físico de forma completa e equivalente e as leis da mecânica quântica
descrevem como vetores de estado e funções de onda evoluem no tempo.
Estes objetos matemáticos abstratos (kets e funções de onda) permitem o cálculo
da probabilidade de se obter resultados específicos em um experimento concreto. Por exemplo, o
formalismo da mecânica quântica permite que se calcule a probabilidade de encontrar um elétron
em uma região particular em torno do núcleo.
Para compreender seriamente o cálculo das probabilidades a partir da informação representada nos
vetores de estado e funções de onda é preciso dominar alguns fundamentos de álgebra linear.
[editar]Formulação matemática
Ver artigo principal: Formulação matemática da mecânica quântica
Muitos fenômenos quânticos difíceis de se imaginar concretamente podem compreendidos com um
pouco de abstração matemática. Há três conceitos fundamentais da matemática - mais
especificamente da álgebra linear - que são empregados constantemente pela mecânica quântica.
São estes: (1) o conceito de operador; (2) de autovetor; e (3) de autovalor.
[editar]Vetores e espaços vetoriais
Ver artigo principal: Espaço vetorial
Na álgebra linear, um espaço vetorial (ou o espaço linear) é uma coleção dos objetos abstratos
(chamados vetores) que possuem algumas propriedades que não serão completamente detalhadas
aqui.
Por agora, importa saber que tais objetos (vetores) podem ser adicionados uns aos outros e
multiplicados por um número escalar. O resultado dessas operações é sempre um vetor pertencente
ao mesmo espaço. Os espaços vetoriais são os objetos básicos do estudo na álgebra linear, e têm
várias aplicações na matemática, na ciência, e na engenharia.
O espaço vetorial mais simples e familiar é o espaço Euclidiano bidimensinal. Os vetores neste
espaço são pares ordenados e são representados graficamente como "setas" dotadas de módulo,
direção e sentido. No caso do espaço euclidiano bidimensional, a soma de dois vetores quaisquer
pode ser realizada utilizando a regra do paralelogramo.
Todos os vetores também podem ser multiplicados por um escalar - que no espaço Euclidiano é
sempre um número real. Esta multiplicação por escalar poderá alterar o módulo do vetor e seu
sentido, mas preservará sua direção. O comportamento de vetores geométricos sob estas
operações fornece um bom modelo intuitivo para o comportamento dos vetores em espaços mais
abstratos, que não precisam de ter a mesma interpretação geométrica. Como exemplo, é possível
citar o espaço de Hilbert (onde "habitam" os vetores da mecânica quântica). Sendo ele também um
espaço vetorial, é certo que possui propriedades análogas àquelas do espaço Euclidiano.
[editar]Os operadores na mecânica quântica
Ver artigo principal: Transformação linear
Um operador é um ente matemático que estabelece uma relação funcional entre dois espaços
vetoriais. A relação funcional que um operador estabelece pode ser chamada transformação
linear. Os detalhes mais formais não serão apontados aqui. Interessa, por enquanto, desenvolver
uma ideia mais intuitiva do que são esses operadores.
Por exemplo, considere o Espaço Euclidiano. Para cada vetor nesse espaço é possível executar
uma rotação (de um certo ângulo) e encontrar outro vetor no mesmo espaço. Como essa rotação é
uma relação funcional entre os vetores de um espaço, podemos definir um operador que realize
essa transformação. Assim, dois exemplos bastante concretos de operadores são os de rotação e
translação.
Do ponto de vista teórico, a semente da ruptura entre as física quântica e clássica está no emprego
dos operadores. Na mecânica clássica, é usual descrever o movimento de uma partícula com uma
função escalar do tempo. Por exemplo, imagine que vemos um vaso de flor caindo de uma janela.
Em cada instante de tempo podemos calcular a que altura se encontra o vaso. Em outras palavras,
descrevemos a grandeza posição com um número (escalar) que varia em função do tempo.
Uma característica distintiva na mecânica quântica é o uso de operadores para representar
grandezas físicas. Ou seja, não são somente as rotações e translações que podem ser
representadas por operadores. Na mecânica quântica grandezas como posição, momento linear,
momento angular e energia também são representados por operadores.
Até este ponto já é possível perceber que a mecânica quântica descreve a natureza de forma
bastante abstrata. Em suma, os estados que um sistema físico pode ocupar são representados por
vetores de estado (kets) ou funções de onda (que também são vetores, só que no espaço das
funções). As grandezas físicas não são representadas diretamente por escalares (como 10 m, por
exemplo), mas por operadores.
Para compreender como essa forma abstrata de representar a natureza fornece informações sobre
experimentos reais é preciso discutir um último tópico da álgebra linear: o problema de autovalor e
autovetor.
O problema de autovalor e autovetor
O problema de autovalor e autovetor é um problema matemático abstrato sem o qual não é
possível compreender seriamente o significado da mecânica quântica.
Em primeiro lugar, considere o operador  de uma transformação linear arbitrária que relacione
vetores de um espaço E com vetores do mesmo espaço E. Neste caso, escreve-se [eq.01]:
Observe que qualquer matriz quadrada satisfaz a condição imposta acima desde que os
vetores no espaço E possam ser representados como matrizes-coluna e que a atuação
de  sobre os vetores de E ocorra conforme o produto de matrizes a seguir:
Como foi dito, a equação acima ilustra muito bem a atuação de um operador do tipo
definido em [eq.01]. Porém, é possível representar a mesma ideia de forma mais
compacta e geral sem fazer referência à representação matricial dos operadores
lineares [eq.02]:
Para cada operador  existe um conjunto tal que cada vetor
do conjunto satisfaz [eq.03]:
A equação acima é chamada equação de autovalor e autovetor. Os
vetores do conjunto são
chamadosautovetores. Os escalares do
conjunto são chamados autovalores. O
conjunto dos autovalores também é chamado espectro do
operador Â.
Para cada autovalor corresponde um autovetor e o número de pares
autovalor-autovetor é igual à dimensão do espaço E onde o
operador  está definido. Em geral, o espectro de um
operador  qualquer não é contínuo, mas discreto. Encontrar os
autovetores e autovalores para um dado operador  é o
chamado problema de autovalor e autovetor.
De antemão o problema de autovalor e autovetor possui duas
características:
(1) satisfaz o problema para qualquer operador Â. Por isso,
o vetor nulo não é considerado uma resposta do problema.
(2) Se satisfaz a equação de autovalor e autovetor, então seu
múltiplo também é uma resposta ao problema para
qualquer
Enfim, a solução geral do problema de autovalor e autovetor é
bastante simples. A saber:
Onde:
Como não pode ser considerado uma
solução do problema, é necessário que:
A equação acima é um polinômio de grau n.
Portanto, para qualquer
operador há n quantidades
escalares distintas ou não tais que a
equação de autovetor e autovalor é satisfeita.
Os autovetores correspondentes aos
autovalores de um
operador  podem ser obtidos facilmente
substituindo os autovalores um a um na [eq.03].
[editar]O significado físico dos operadores, seus autovetores e autovalores
Para compreender o significado físico de toda
essa representação matemática abstrata,
considere o exemplo do operador de Spin na
direção z:
Na mecânica quântica, cada partícula tem
associada a si uma quantidade sem análogo
clássico chamada spin ou momento
angularintrínseco. O spin de uma partícula é
representado como um vetor com projeções
nos eixos x, y e z. A cada projeção do vetor
spin : corresponde um operador:
O operador é geralmente representado da
seguinte forma:
É possível resolver o problema de autovetor e
autovalor para o operador Nesse caso
obtém-se:
ou seja
Portanto, os autovalores são e
[editar]Aspectos históricos
Ver artigo principal: História da mecânica
quântica
A história da mecânica quântica começou
essencialmente em 1838 com a descoberta
dos raios catódicos por Michael Faraday, a
enunciação em 1859 do problema da radiação
de corpo negro por Gustavo Kirchhoff, a
sugestão 1877 por Ludwig Boltzmann que os
estados de energia de um sistema físico
poderiam ser discretos, e a hipótese por Planck
em 1900 de que toda a energia é irradiada e
absorvida na forma de elementos discretos
chamados quanta. Segundo Planck, cada um
desses quanta tem energia proporcional à
frequência ν da radiação eletromagnética
emitida ou absorvida.
Planck insistiu que este foi apenas um aspecto
dos processos de absorção e emissão de
radiação e não tinha nada a ver com a
realidade física da radiação em si.2 No entanto,
naquele tempo isso parecia não explicar
o efeito fotoelétrico (1839), ou seja, que a luz
brilhante em certos materiais pode ejetar
elétrons do material. Em 1905, baseando seu
trabalho na hipótese quântica de Planck,Albert
Einstein postulou que a própria luz é formada
por quanta individuais.3
Em meados da década de 1920, a evolução da
mecânica quântica rapidamente fez com que
ela se tornasse a formulação padrão para a
física atômica. No verão de 1925, Bohr e
Heisenberg publicaram resultados que
fechavam a "Antiga teoria quântica". Quanta de
luz vieram a ser chamados fótons (1926). Da
simples postulação de Einstein nasceu uma
enxurrada de debates, teorias e testes e, então,
todo o campo da física quântica, levando à sua
maior aceitação na quinta Conferência de
Solvay em 1927.
[editar]Princípios
Primeiro princípio: Princípio da
superposição
Na mecânica quântica, o estado de um
sistema físico é definido pelo conjunto de
todas as informações que podem ser extraídas
desse sistema ao se efetuar alguma medida.
Na mecânica quântica, todos os estados são
representados por vetores em um espaço
vetorial complexo: o Espaço de Hilbert H.
Assim, cada vetor no espaço H representa um
estado que poderia ser ocupado pelo sistema.
Portanto, dados dois estados quaisquer, a
soma algébrica (superposição) deles também é
um estado.
Como a norma dos vetores de estado não
possui significado físico, todos os vetores de
estado são preferencialmente normalizados. Na
notação de Dirac, os vetores de estado são
chamados "Kets" e são representados como
aparece a seguir:
Usualmente, na matemática, são
chamados funcionais todas as funções
lineares que associam vetores de um
espaço vetorial qualquer a um escalar. É
sabido que os funcionais dos vetores de
um espaço também formam um espaço,
que é chamado espaço dual. Na notação
de Dirac, os funcionais - elementos do
Espaço Dual - são chamados "Bras" e são
representados como aparece a seguir:
Segundo princípio: Medida de
grandezas físicas
a) Para toda grandeza física A é associado um operador linear auto-
adjunto  pertencente a A:  é o observável (autovalor do operador) representando a
grandeza A.
b) Seja o estado no qual o sistema se encontra no momento onde efetuamos a
medida de A. Qualquer que seja os únicos resultados possíveis são os
autovalores de do observável Â.
c) Sendo o projetor sobre o subespaço associado ao valor próprio a
probablidade de encontrar o valor em uma medida de A é:
onde
d) Imediatamente após uma medida de A, que resultou no valor o novo
estado do sistema é
Terceiro princípio: Evolução
do sistema
Seja o estado de um
sistema ao instante t. Se o sistema
não é submetido a nenhuma
observação, sua evolução, ao
longo do tempo, é regida pela
equação de Schrödinger:
onde é o hamiltoniano do
sistema.
[editar]Conclusões
As conclusões mais
importantes são:
Em estados ligados, como
o elétron girando ao redor
do núcleo de um átomo,
a energia não se troca de
modo contínuo, mas sim
de modo discreto
(descontínuo), em
transições cujas energias
podem ou não ser iguais
umas às outras. A ideia
de que estados ligados
têm níveis de energias
discretas é devida a Max
Planck.
O fato de ser impossível
atribuir ao mesmo
tempo uma posição e um
momento exatas a uma
partícula, renunciando-se
assim ao conceito
de trajetória, vital
em Mecânica Clássica.
Em vez de trajetória, o
movimento de partículas
em Mecânica Quântica é
descrito por meio de
uma função de onda, que
é uma função da posição
da partícula e do tempo. A
função de onda é
interpretada por Max
Born como uma medida
da probabilidade de se
encontrar a partícula em
determinada posição e em
determinado tempo. Esta
interpretação é a mais
aceita pelos físicos hoje,
no conjunto de atribuições
da Mecânica Quântica
regulamentados pela
Escola de Copenhagen.
Para descrever a
dinâmica de um sistema
quântico deve-se,
portanto, achar sua
função de onda, e para
este efeito usam-se as
equações de movimento,
propostas por Werner
Heisenberg e Erwin
Schrödinger independente
mente.
Apesar de ter sua estrutura
formal basicamente pronta
desde a década de 1930, a
interpretação da Mecânica
Quântica foi objeto de estudos
por várias décadas. O
principal é o problema da
medição em Mecânica
Quântica e sua relação com
a não-localidade
ecausalidade. Já
em 1935, Einstein, Podolski e
Rosen publicaram
seu Gedankenexperiment,
mostrando uma aparente
contradição entre localidade e
o processo de Medida em
Mecânica Quântica. Nos anos
60 J. S. Bell publicou uma
série de relações que seriam
respeitadas caso a localidade
— ou pelo menos como a
entendemos classicamente —
ainda persistisse em sistemas
quânticos. Tais condições são
chamadas desigualdades de
Bell e foram testadas
experimentalmente por Alain
Aspect, P. Grangier, Jean
Dalibard em favor da
Mecânica Quântica. Como
seria de se esperar, tal
interpretação ainda causa
desconforto entre vários
físicos, mas a grande parte da
comunidade aceita que
estados correlacionados
podem violar causalidade
desta forma.
Tal revisão radical do nosso
conceito de realidade foi
fundamentada em explicações
teóricas brilhantes para
resultados experimentais que
não podiam ser descritos pela
teoria clássica, e que incluem:
Espectro de Radiação
do Corpo negro, resolvido
por Max Planck com a
proposição da
quantização da energia.
Explicação
do experimento da dupla
fenda, no qual eléctrons
produzem um padrão
de interferência condizent
e com o comportamento
ondular.
Explicação por Albert
Einstein do efeito
fotoelétrico descoberto
por Heinrich Hertz, onde
propõe que a luz também
se propaga
emquanta (pacotes de
energia definida), os
chamados fótons.
O Efeito Compton, no qual
se propõe que os fótons
podem se comportar
como partículas, quando
sua energia for grande o
bastante.
A questão do calor
específico de sólidos sob
baixas temperaturas, cuja
discrepância foi explicada
pelas teorias de Einstein e
deDebye, baseadas
na equipartição de
energia segundo a
interpretação quantizada
de Planck.
A absorção ressonante e
discreta de energia por
gases, provada
no experimento de
Franck-Hertz quando
submetidos a certos
valores de diferença de
potencial elétrico.
A explicação da
estabilidade atômica e da
natureza discreta
das raias espectrais,
graças ao modelo
do átomo de Bohr, que
postulava a quantização
dos níveis de energia do
átomo.
O desenvolvimento formal da
teoria foi obra de esforços
conjuntos de muitos físicos e
matemáticos da época
como Erwin
Schrödinger,Werner
Heisenberg, Einstein, P.A.M.
Dirac, Niels Bohr e John von
Neumann, entre outros (de
uma longa lista).
[editar]Formalismos
Mais tarde, foi introduzido o
formalismo hamiltoniano,
baseado matematicamente no
uso do lagrangiano, mas cuja
elaboração matemática é
muitas vezes mais fácil.
Referências
↑ Greiner, Walter;
Müller, Berndt
(1994), Quantum
Mechanics Symmetries,
Second Edition, cap. 2,,
Springer-Verlag,
p. 52, ISBN 3-540-
58080-8
↑ T.S. Kuhn, Black-body
theory and the quantum
discontinuity 1894-1912,
Clarendon Press,
Oxford, 1978.
↑ A. Einstein, Über
einen die Erzeugung
und Verwandlung des
Lichtes betreffenden
heuristischen
Gesichtspunkt (Um
ponto de vista heurístico
a respeito da produção
e transformação da
luz), Annalen der
Physik 17 (1905) 132-
148 (reimpresso em The
collected papers of
Albert Einstein, John
Stachel, editor,
Princeton University
Press, 1989, Vol. 2, pp.
149-166, em alemão;
ver também Einstein's
early work on the
quantum
hypothesis, ibid. pp.
134-148).
[editar]Bibliografia
Mehra, J.; Rechenberg,
H.. The historical
development of quantum
theory (em inglês).
[S.l.]: Springer-Verlag,
1982.
Kuhn, T.S.. Black-body
theory and the quantum
discontinuity 1894-
1912 (em inglês). Oxford:
Clarendon Press,
1978. Nota: O "Princípio
da Incerteza" de
Heisenberg é parte central
dessa teoria e daí nasceu
a famosa equação de
densidade de probalidade
de Schrödinger.
Introdução à mecânica quânticaOrigem: Wikipédia, a enciclopédia livre.
Este artigo pretende ser uma introdução geral e acessível ao conceito, para mais informações veja o artigo Mecânica quântica.
Mecânica quântica
Princípio da Incerteza
Introducão a...
Formulação matemática
[Expandir]Introdução[Expandir]Conceitos fundamentais[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Expandir]Interpretações[Expandir]Tópicos avançados[Expandir]Cientistas
ver • editar
A Wikipédia possui o portal:
Portal de Física
Werner Heisenberg e Erwin Schrödinger, criadores da mecânica quântica.
Mecânica quântica (ou teoria quântica) é um ramo da física que lida com o comportamento
damatéria e da energia na escala de átomos e partículas subatômicas. A mecânica quântica é
fundamental ao nosso entendimento de todas as forças fundamentais da natureza, exceto
agravidade.
A mecânica quântica é a base de diversos ramos da física, incluindo eletromagnetismo, física
de partículas, física da matéria condensada, e até mesmo partes da cosmologia. A mecânica
quântica também é essencial para a teoria das ligações químicas (e portanto de
toda química),biologia estrutural, e tecnologias como a eletrônica, tecnologia da informação,
e nanotecnologia. Um século de experimentos e trabalho na física aplicada provou que a
mecânica quântica está correta e tem utilidades práticas.
A mecânica quântica começou no início do século 20, com o trabalho pioneiro de Max
Planck eNiels Bohr. Max Born criou o termo "mecânica quântica" em 1924. A comunidade de
física logo aceitou a mecânica quântica devido a sua grande precisão nas previsões empíricas,
especialmente em sistemas onde a mecânica clássica falha. Um grande sucesso da mecânica
quântica em seu princípio foi a explicação da dualidade onda-partícula, ou seja, como em
níveis subatômicos o que os humanos vieram a chamar de partículas subatômicas têm
propriedades de ondas e o que era considerado onda tem propriedade corpuscular. A
mecânica quântica também pode ser aplicada a uma gama muito maior de situações do que
a relatividade geral, como por exemplo sistemas nos quais a escala é atômica ou menor, e
aqueles que têm energias muito baixas ou muito altas ou sujeitos às menores temperaturas.
Índice
[esconder]
1 Um exemplo elegante
2 Visão geral
2.1 O inesperado
2.2 Como o inesperado veio à luz
2.3 Espectroscopia e além
3 Ver também
Um exemplo elegante [editar]
A luz não segue uma trajetória retlínea entre a fonte e a tela de detecção.
(Perceba as três franjas à direita.)
O personagem mais elegante do palco quântico é o experimento da dupla fenda. Ele
demonstra a dualidade onda-partícula, e ressalta diversas características da mecânica
quântica. Fótons emitidos de alguma fonte como um laser se comportarão diferentemente
dependendo da quantidade de fendas que estão em seu caminho. Quando apenas uma fenda
está presente, a luz observada na tela aparecerá como um padrão de difração estreito.
Entretanto, as coisas começam a ficar estranhas se duas fendas forem introduzidas no
experimento. Com duas fendas presentes, o que chegará em uma tela de detecção remota
será uma superposição quântica de duas ondas. Como a ilustração mostra, uma onda da fenda
do topo e outra da de baixo terão sobreposição na tela de detecção, e então elas são
superpostas. O mesmo experimento básico pode ser feito atirando um elétron em uma fenda
dupla. A natureza ondulatória da luz faz com que as ondas luminosas passando por ambas
fendas se interfiram, criando um padrão de interferência de faixas claras e escuras na tela.
Porém, na tela, a luz é sempre absorvida em partículas discretas, chamadas fótons.
O que é ainda mais estranho é o que ocorre quando a fonte de luz é reduzida ao ponto de
somente um fóton ser emitido por vez. A intuição normal diz que o fóton ira atravessar ou uma
ou outra fenda como uma partícula, e atingir a tela como partícula. Entretanto, qualquer fóton
solitário atravessa ambas fendas como onda, e cria um padrão de onda que interfere consigo
mesmo. E ainda mais um nível de estranheza - o fóton é então detectado como partícula na
tela.
Onde um fóton ou elétron aparecerá na tela de detecção dependerá das probabilidades
calculadas ao se adicionar as amplitudes das duas ondas em cada ponto, e elevando essa
soma ao quadrado. Conquanto, a localização de onde um fóton, ou um elétron, irá atingir a tela,
dependerá de um processo completamente aleatório. O resultado final estará de acordo com as
probabilidades que podem ser calculadas. Como a natureza consegue realizar essa proeza é
um mistério.
Os fótons funcionam como se fossem ondas enquanto eles atravessam as fendas. Quando
duas fendas estão presentes, a "função de onda" pertencente a cada fóton atravessa cada
fenda. As funções de onda são superpostas ao longo de toda tela de detecção, ainda assim na
tela, apenas uma partícula, um fóton, aparece e sua posição está de acordo com regras de
probabilidade estritas. Então o que os homens interpretam como natureza ondulatória dos
fótons e como natureza corpuscular dos fótons deve aparecer nos resultados finais.
Visão geral [editar]
O inesperado [editar]
No final do século 19, a física clássica parecia quase completa para alguns, mas essa
percepção foi desafiada por achados experimentais que tal física não era capaz de explicar.
Teorias físicas que funcionavam bem para situações na escala humana de espaço e tempo
falhavam para explicar situações que eram muito pequenas, muito massivas, ou que se
moviam a velocidades muito elevadas. Uma visão do universo que havia sido imposta por
observações comuns estava sendo desafiada por observações e teorias que previam
corretamente onde a mecânica clássica havia dado resultados impossíveis. Mas a figura que
emergia era a de um universo que se recusava a comportar-se de acordo com o senso comum
humano.
Nas grandes escalas a teoria da relatividade dizia que o tempo não passa à mesma proporção
para todos observadores, que a matéria poderia se converter em energia e vice-versa, que dois
objetos, se movendo a velocidades maiores que a metade da velocidade da luz, não poderiam
se aproximar a uma velocidade que excedesse aquela da luz, que o tempo progride a taxas
menores próximo a corpos massivos, etc. As coisas não funcionavam da maneira que as
experiências com réguas e relógios aqui na terra haviam levado os humanos a esperar.
Nas pequenas, as maravilhas eram ainda mais abundantes. Um fóton ou elétron não têm nem
uma posição nem uma trajetória entre os pontos onde são emitidos e onde são detectados. Os
pontos onde tais partículas podem ser detectadas não são onde alguém esperaria que fosse
baseado nas experiências cotidianas. Com uma pequena probabilidade, o ponto de detecção
pode até mesmo ser do outro lado de uma barreira sólida. A probabilidade é um fator saliente
nas interações nessa escala. A trajetória de qualquer objeto de escala atômica é imprecisa no
sentido de que qualquer medida que faça a posição de um objeto tornar-se mais precisa reduz
a precisão com a qual nós podemos observar sua velocidade e vice-versa.
Na era da física clássica, Isaac Newton e seus seguidores acreditavam que a luz era
constituída por um feixe de partículas, e outros acreditavam que a luz consistia de ondas se
propagando em algum meio. Ao invés de encontrar um experimento que provasse que um dos
lados estava certo, os físicos descobriram que um experimento designado a mostrar a
frequência da luz ou outras "características de ondas" demonstrarará a natureza ondulatória da
luz, enquanto que um experimento designado a mostrar seu momentum linear ou outra
"característica corpuscular" revelará a natureza corpuscular da luz. Ainda mais, objetos do
tamanho de átomos, e até mesmo algumas moléculas, revelaram sua natureza ondulatória
quando observados de maneira apropriada.
Os mais eminentes físicos avisaram que se uma explicação sobre a física quântica faz sentido
no senso comum, então ela muito provavelmente tem falhas. Em 1927 Niels Bohr escreveu:
"Qualquer um que não se chocar com a teoria quântica não a compreende."
Como o inesperado veio à luz [editar]
10 físicos que fizeram diferença para a teoria quântica.
As fundações da mecânica quântica tiveram seu início com os primeiros trabalhos sobre as
propriedades da luz, no século 17, e a descoberta das propriedades da eletricidade e
do magnetismo, no início do século 19. Em 1690,Christiaan Huygens empregou a teoria
ondulatória para explicar a reflexão e a refração da luz. Isaac Newtonacreditava que a luz
consistia de partículas infinitesimalmente pequenas que ele chamou de "corpúsculos". Em
1827, Thomas Young e Augustin Fresnel conduziram experimentos sobre a interferência da luz
que encontrou resultados que eram inconsistentes com a teoria corpuscular da luz. Todos
resultados teóricos e empíricos ao longo do século 19 pareciam inconsistentes com a teoria
corpuscular da luz de Newton.
Experimentos posteriores identificaram fenômenos, como o efeito fotoelétrico, que eram
consistentes apenas com um modelo de pacotes, ou quântico, da luz. Quando a luz incide
sobre um condutor elétrico, elétrons parecem se mover para longe de suas posições originais.
Em um material fotoelétrico, como o medidor de luz em uma câmera, a luz incidindo sobre o
detector metálico faz com que os elétrons se movam. Aumentar a intensidade de uma luz que
tenha apenas uma frequência fará com que mais elétrons se movam. Mas fazer com que os
elétrons se movam mais rápido requer um aumento da frequência da luz. Portanto, a
intensidade da luz controla a corrente elétrica através do circuito, enquanto que sua frequência
controla sua voltagem. Essas observações contrariaram a teoria ondulatória da luz derivada do
estudo das ondas sonoras e ondas do mar, onde a intensidade do impulso inicial era o
suficiente para prever a energia da onda resultante. No caso da luz, a energia era função
somente da frequência, um fato que precisava de uma explicação. Era também necessário
reconciliar experimentos que mostravam a natureza corpuscular da luz com outros
experimentos que revelavam sua natureza ondulatória.
Em 1874, George Johnstone Stoney foi o primeiro a propor que uma quantidade física, a carga
elétrica, não poderia variar menos que um valor irredutível. Portanto a carga elétrica foi a
primeira quantidade física a ser quantizada teoricamente. Em 1873, James Clerk
Maxwell demonstrou teoricamente que um circuito elétrico oscilando deveria produzir ondas
eletromagnéticas. Devido às equações de Maxwell foi possível calcular a velocidade da
radiação eletromagnética puramente através de medidas elétricas e magnéticas, e o valor
calculado correspondia muito proximamente à velocidade da luz medida. Em 1888, Heinrich
Hertz fez um aparelho elétrico que produzia radiação cuja frequência era mais baixa do que a
da luz visível, radiação que nós atualmente chamamos microondas. Pesquisadores iniciais
diferiam na maneira de explicar a natureza fundamental do que é chamado de radiação
eletromagnética, alguns afirmando que ela era composta por partículas, enquanto outros diziam
que era um fenômeno ondulatório. Na física clássica essas ideias são mutualmente exclusivas.
A mecância quântica teve início com o artigo pioneiro de Max Planck em 1900 sobre a radiação
de corpo negro, marcando a primeira aparição da hipótese quântica. O trabalho de Planck
deixou claro que nem o modelo ondulatório nem o corpuscular conseguem explicar a radiação
eletromagnética. Em 1905, Albert Einstein estendeu a teoria de Planck para o efeito
fotoelétrico. Em 1913, Niels Bohr lançou seu modelo atômico, incorporando a teoria quântica
de Planck de uma maneira essencial. Esses e outros tabalhos do início do século 20 formam
a antiga teoria quântica.
Em 1924, Louis de Broglie criou a hipótese da dualidade onda-corpúsculo. Essa hipótese
provou ser um ponto de virada, e rapidamente levou a uma variante mais sofisticada e
completa da mecânica quântica. Contribuidores importantes em meados dos anos 20 para o
que veio a ser chamado de "nova mecânica quântica" ou "nova física" foram Max Born, Paul
Dirac, Werner Heisenberg,Wolfgang Pauli e Erwin Schrödinger. No final da década de 1940 e
começo da de 1950, Julian Schwinger, Sin-Itiro Tomonaga, Richard Feynman e Freeman
Dyson descobriram a eletrodinâmica quântica, que avançou significativamente nossa
compreensão da teoria quântica do eletromagnetismo e do elétron. Mais tarde, Murray Gell-
Mann desenvolveu uma teoria relacionada da força nuclear forte, chamada de cromodinâmica
quântica.
Espectroscopia e além [editar]
Foto da NASA da faixas brilhantes do espectro do hidrogênio
Foto da faixas brilhantes do nitrogênio
Quando a luz branca atravessa um prisma, ou a borda de um espelho ou um pedaço de vidro,
ou então as gotas da chuva para formar um arco-íris, a luz branca é decomposta em
um espectro. Esse espectro revela que a luz branca é composta de luz de todas as cores e
portanto de todas as frequências.
Quando uma amostra composta de um elemento químico puro emite luz por aquecimento ou
outros agentes, o espectro da luz emitida, chamado de espectro de emissão, é característico
àquele elemento e à temperatura a que ela é aquecida. Diferentemente do espectro da luz
branca, um espectro de emissão não é uma faixa larga composta de todas as cores do
vermelho ao violeta, mas consiste de faixas estreitas, de uma cor cada e separadas das outras
por faixas de escuridão. Tal figura é chamada de espectro de linha. Um espectro de emissão
também pode conter linhas fora do intervalo da luz visível, detectáveis apenas por filmes
fotográficos especiais ou equipamentos eletrônicos.
Foi sugerida a hipótese de que um átomo emite radiação eletromagnética da mesma forma que
a corda de um violino "irradia" som - não apenas com frequência fundamental, mas também
com harmônicos maiores. Uma descrição matemática do espectro de linha só foi criada em
1885, quando Johann Jakob Balmer propôs a seguinte fórmula para descrever o espectro de
linha do hidrogênio atômico:
onde é o comprimento de onda, R é a constante de Rydberg, e n é um inteiro > 2. Essa
fórmula pode ser generalizada para servir a átomos que não o hidrogênio, um fato que não
nos deterá, exceto a percepção de que essa é a razão pela qual o denominador na
primeira fração é expresso como um quadrado.
O próximo desenvolvimento foi a descoberta por Pieter Zeeman do efeito Zeeman, que
teve a explicação física foi trabalhada porHendrik Antoon Lorentz. Lorentz hipotetizou que
o espectro de linha do hidrogênio resultava de elétrons vibrando. É possível obter
informações a respeito do que ocorre dentro do átomo porque os elétrons em movimento
geram um campo magnético. Por isso um elétron pode ser influenciado por um campo
magnético externo, similar à maneira que um imã metálico irá atrair ou repelir outro.
O efeito Zeeman poderia ser interpretado para significar que o espectro de linha resulta de
elétrons vibrando em suas órbitas, mas afísica clássica não conseguia explicar por que um
elétron não cai em espiral no núcleo, nem por que as órbitas dos elétrons têm as
propriedades requeridas para produzir o espectro de linha observado, descritível pela
fórmula de Balmer. Mais precisamente, por qual razão os elétrons se comportam de tal
maneira que o espectro de emissão não é contínuo, mas em linhas?
Efeito túnel, em mecânica quântica, consiste no evento de uma partícula atravessar uma
região em que a energia potencial é maior do que a sua energia total - esta barreira é
intransponível na mecânica clássica, pois a energia cinética da partícula seria negativa na
região1 2
Índice
[esconder]
1 Efeito túnel, tunelamento ou penetração de barreira
2 História
3 Ver também
4 Referências
Efeito túnel, tunelamento ou penetração de barreira [editar]
O tunelamento quântico ou efeito túnel ocorre quando uma onda encontra no seu percurso
um obstáculo, a intensidade ou amplitude desta não termina imediatamente no obstáculo, mas
decresce exponencialmente após o contato.
De acordo com a mecânica clássica, quando um elétron com uma certa energia E incide sobre
uma barreira de potencial com energia P (sendo P>E), ele é totalmente refletido. A mesma
situação, agora abordada pela mecânica quântica, mostra que há uma probabilidade de que
oElétron "atravesse" barreira, aparecendo do outro lado. Este efeito pode ser observado
experimentalmente e é o princípio de técnologias tais como os diodos túnel, os transístores de
efeito de campo e os microscópios de varredura por sonda, onde os elétrons "tunelam" da
superfície até a ponta microscópica do equipamento, sem que estas se toquem. A razão para
que este efeito ocorra é que o Elétron, do ponto de vista quântico, pode manifestar o
comportamento tanto de partícula como de onda. Nesta abordagem o elétron é descrito como
uma onda de matéria. Comportando-se como uma onda, podemos atribuir ao elétron uma
probabilidade de reflexão e uma probabilidade de transmissão: que o elétron seja refletido ou
transmitido pela barreira de potencial. A probabilidade de transmissão é extremamente sensível
à amplitude do potencial e à largura da barreira. Assim, mesmo sem conter energia suficiente
para atravessar a barreira, o elétron a atravessa por "tunelamento", comportando-se como
onda.
Uma experiência simples deste princípio envolve um LASER e dois prismas de vidro. Este
prisma pode ser usado como refletor no ar ou no vácuo, já que o ângulo de reflexão total
(ângulo mínimo em relação a normal onde a luz é completamente refletida) é menor que 45
graus. Assim, quando a luz incide por uma das faces perpendiculares do prisma, esta é
completamente refletida e sai pela outra face.
Quando utilizamos o LASER, e um pouco de fumaça numa sala escura, é fácil verificar isso,
assim como o fato de nenhuma luz escapar pela face inclinada do prisma. No entanto,
aproximando-se a face inclinada de outro prisma, nota-se que, bem próximo, antes de se
tocarem, uma parte do LASER emerge do outro prisma, comprovando o efeito túnel.
História [editar]
O físico japonês Leo Esaki descobriu o tunelamento de elétrons, o que lhe rendeu o Premio
Nobel de Física do ano de 1973.
Filosofia da físicaOrigem: Wikipédia, a enciclopédia livre.
Física
As Equações de Maxwell
Física
História da Física
Filosofia da Física
[Expandir]Divisões elementares[Expandir]Grandezas Físicas[Expandir]Campos de pesquisa[Expandir]Cientistas[Expandir]Experimentos[Expandir]Experimentos atuais
ver • editar
Considerando-se que a Física sempre esteve associada à Filosofia Natural desde a antiguidadeaté
tempos mais recentes, pode-se considerar que a filosofia da Física seja a mais antiga
disciplina filosófica da história.1 A reflexão humana sobre o mundo físico precedeu historicamente a
reflexão sobre a natureza de nossos próprios pensamentos e de nossas interações sociais com
outros seres humanos.2 No entanto, Filosofia da Física, como disciplina, surge durante
o Renascimento e começa a ser aprofundada durante o Iluminismo, tendo um caráter
mais epistemológico com o avançar dos séculos.3
À parte o fato de, na visão de vários cientistas atuais, as considerações filosóficas sobre a ciência e
a física não impliquem influências diretas em suas atividades ou métodos de trabalho
como cientistas no dia-a-dia, a Filosofia da Física envolve uma combinação de
assuntosconceituais, metodológicos, epistemológicos e até mesmo metafísicos.2 4 Um dos primeiros
estudos da Filosofia da Física foi refletir que a Física lida com os componentes mais fundamentais
do Universo.1 Surge daí um pensamento onde possivelmente tudo deva ser reduzido a isso; surge
então o determinismo científico, onde tudo que existe não passa de simples partículas e que os
movimentos destas são para sempre determinados quando se mensuram as posições e as
velocidades de todas as partículas no momento atual. Em outras palavras, conhecendo-se as
posições de todas as partículas do Universo e as suas respectivas velocidades em um dado
instante, poder-se-ia conhecer com exatidão todo o passado e o futuro, fosse qual fosse o instante
desejado.5 Esta forma de pensar liga-se diretamente aoreducionismo. Segundo essa linha de
pensamento, é possível estabelecer leis básicas que descrevam completamente o comportamento
do Universo. Nestes termos, todo o conhecimento pode ser reduzido a estas leis básicas. Por
exemplo, todos os fenômenos químicos podem ser deduzidos da Mecânica Quântica se o número
de cálculos envolvidos for viável.
O principal objetivo da Física seria então encontrar estas leis básicas que regem o Universo. O
reducionismo coloca a Física na posição de ciência a mais básica de todas - pois, a partir dela, seria
possível, em princípio, chegar-se ao mesmo conhecimento produzido em todas as outras - embora
não implique no descarte das demais, pois essas tratariam com as suas próprias metodologias os
fenômenos naturais mais complexos, consolidando-se em áreas que, por questões práticas,
estariam fora do alcance da Física.6
Índice
[esconder]
1 Noções
2 Método científico e Epistemologia
3 Física estatística
4 Tempo e espaço
o 4.1 Absolutismo e Relacionalismo
o 4.2 Princípio de Mach
o 4.3 Convencionalismo
o 4.4 Invariância e covariância
o 4.5 Relatividade
o 4.6 Direção do tempo
o 4.7 Termodinâmica
5 Mecânica Quântica
o 5.1 Determinismo e indeterminismo
5.1.1 Probabilidade
5.1.2 Incompletude e variáveis ocultas
5.1.3 Paradoxo Einstein-Podolsky-Rosen (EPR)
5.1.4 Desigualdades de Bell
o 5.2 Incerteza e complementaridade
5.2.1 Relações de incerteza de Heisenberg
5.2.2 Dualidade onda-partícula
5.2.3 Principio da complementaridade de Bohr
o 5.3 O problema da medida
5.3.1 Gato de Schrödinger
5.3.2 Postulado de projeção
5.3.3 Amigo de Wigner
5.3.4 Colapso instantâneo
5.3.5 Muitos mundos
6 Física experimental
7 Ver também
8 Referências
[editar]Noções
Com a Física em posição de ciência mais fundamental, segundo o determinismo e o reducionismo,
certas questões metafísicas, como especulações sobre o tempo, a existência e as origens do
Universo, e outras, deveriam ser enviadas à Física para obterem-se respostas segundo seus
moldes. Nestes termos, seja qual for a resposta que a Física apresente para conceitos como
tempo, causa eação, ou mesmo identidade, estas deveriam ser consideradas em princípio
corretas.7 Entretanto, se as noções tradicionais metafísicas entrarem em confronto com uma Física
bem enraizada, então essas noções metafísicas deixariam de ter significado ou dever-se-ia
questionar a validade dos conhecimentos sobre o mundo físico providos pela Física. Como ponto
relevante, filósofos da Física têm se esforçado para investigar qualquer confronto possível entre a
Metafísica e a Física.2
A Física tem sido considerada historicamente o modelo de ciência para todas as outras
ciências, naturais ou humanas, tanto por filósofos quanto por cientistas.8 A Sociologia, ainda nos
seus primórdios com Auguste Comte, na primeira metade do século XIX, era chamada de "Física
Social".9 10 Além do mais, dentro da construção do senso comum, a Física detém os melhores
métodos que a ciência pode conceber.2 Mas também é argumentável que a Física tem os seus
próprios métodos, diferentes daqueles de outras ciências, e particularmente aplicáveis à própria
disciplina e incomensuráveis a outras. Mesmo dentro da Física, os métodos podem variar e serem
incomensuráveis.11
Os filósofos da Física colaboram juntamente com os físicos para entender os conceitos que eles
empregam em suas pesquisas.12 A Física ocupa uma posição privilegiada dentre as ciências, já que
lida com os mais arraigados conceitos cotidianos. O próprio conceito de cotidiano já foi várias vezes
abalado com as mudanças de pontos de vista da Física. Por exemplo, a revolução copernicana,
trazendo o heliocentrismo ao primeiro plano, quebrando o paradigma geocentrista defendido
pela Igreja Católica na Idade Média; a unificação da Física dos Céus e da Terra com a gravitação
universal de Newton; a unificação dos conhecimentos de eletricidade emagnetismo por Maxwell.
As viagens no tempo e os buracos negros começaram a ganhar espaço dentro do imaginário
popular a partir da Relatividade Geral de Albert Einstein.2 13 O advento da Mecânica Quântica trouxe
um baque às ontologias reducionistas edeterministas ligadas à mecânica newtoniana, sendo que a
própria Física indiretamente os criara.14
[editar]Método científico e Epistemologia
Os cientistas em Física usam o método científico para validar uma teoria, usando uma aproximação
metodológica para comparar as implicações da teoria com as conclusões obtidas
de experimentos e observações especialmente conduzidos para testar a teoria. Os experimentos e
observações são feitos com propósito pré-definido, para se coletar e comparar os dados obtidos por
estes com asprevisões e teses feitas por um físico teórico, assim ajudando na validade ou não de
uma teoria 15 .
As hipóteses integrantes de uma teoria que são suportadas por dados confiáveis geralmente de
natureza abrangente e que nunca falharam frente a qualquer tentativa de "falsificação", nas palavras
de Karl Popper,16 são chamadas de leis científicas ou leis naturais. Naturalmente, todas as teorias,
inclusive aquelas integradas por leis naturais, bem como estas mesmas, podem ser modificadas ou
substituídas por outras mais precisas, quando uma anomalia que "falsifica" a teoria for
encontrada.17 Entretanto, isto não é linear. Uma teoria ou um conjunto de teorias podem ser
mantidos mesmo que haja anomalias que os invalidem.
Segundo Imre Lakatos, um conjunto de teorias, que é chamado por ele de "programas de pesquisa",
é mantido mesmo com várias anomalias.18 Para que o "programa de pesquisa" se mantenha, tais
anomalias são "encaixadas" em um "cinturão protetor" de hipóteses e teses, que podem ser
modificados conforme o advento das anomalias encontradas pela Física Experimental, embora o
"núcleo central", ou seja, a tese básica do programa de pesquisa, deve ser mantida
integralmente.18 Um "programa de pesquisa" é superado apenas quando o "cinturão protetor" já não
é capaz de suportar novas anomalias. Para Lakatos, a substituição de programas de pesquisa
coincide com revoluções na história da ciência. Os "programas de pesquisa" vencedores podem
englobar ou não programas de pesquisa superados.18 A evolução dos "programas de pesquisa" de
Lakatos é semelhante à tese de mudanças deparadigma defendida por Thomas Kuhn como base do
desenvolvimento da Ciência.19 As Leis de Newton, por exemplo, estão embebidas dentro
da Relatividade, assim como toda a Mecânica Newtoniana,20 e, mesmo que suas aplicabilidades não
sejam mais universais, os três princípios de Newton ainda são chamados de "leis" e a mecânica
newtoniana ainda é ensinada nas escolas de ensino médio de todo o mundo.21
Embora para um cientista moderno o método de trabalho que emprega geralmente apresente-se, ao
menos para ele, bem definido e claro, a natureza do método científico também é motivo para vários
debates filosóficos. Vários filósofos apoiam a ideia da inexistência de um único método científico
"inscrito em pedra",22 e até mesmo a sua inexistência.23 Entretanto, se opõem a qualquer tentativa
de estruturação do método científico, que inclui a enumeração dos passos, visto frequentemente na
educação de ciências.24 Alguns filósofos, como Karl Popper, negam a existência do método
científico; embora incluso no método científico segundo seus defensores, para Popper existe apenas
um método universal, a tentativa e erro.23
[editar]Física estatística
Gráfico representando o movimento browniano em três dimensões
A física estatística tem por objetivo de estudo os sistemas constituídos por "incontáveis" partículas,
tantas que se torna impraticável a sua descrição através da descrição de cada uma das suas
partículas. Tais sistemas não são raros, e uma simples amostra de gás confinado em uma garrafa
seria um exemplo. A ferramentas para solução da questão residem nos conceitos de probabilidade e
de estatística.
Surge de forma inerente um problema filosófico em relação ao questionamento sobre a exata
definição de probabilidade. Alguns filósofos sugerem que a probabilidade seja a medida da
"ignorância" sobre um número real.25 Entretanto, esta definição é bastante subjetiva e não explica o
sentido de probabilidade usada pela Física Estatística ou pelaMecânica Quântica. Em termos
físicos, a probabilidade ganha um sentido mais concreto. A probabilidade é uma propriedade
intrínseca a alguns processos físicos e não depende do "nível de conhecimento" do físico
experimental. Um átomo pode decair radioativamente sob certa probabilidade entre 0 e 1 e isso não
depende da quantidade de "ignorância" do observador. Isso é fundamental para a própria existência
da Física Estatística, que é a teoria dos processos físicos probabilísticos.26
Dentro dos processos probabilísticos está arraigada a noção de entropia, conceito fundamental
também em termodinâmica. Ludwig Boltzmann propôs que a "direção" do tempo é determinada pela
entropia.27 Desde então, os filósofos debatem contra e a favor da tese de Boltzmann. Para alguns, a
entropia, em termodinâmica, não pode ser generalizada para eventos universais.28 É necessário que
haja determinismo estrito e pontual, inconcebível dentro da Mecânica Quântica; a direção do tempo
determinado pela entropia não passaria de um ponto de vista metafísico.29 Entretanto, outros
afirmam que é absolutamente possível conciliar as duas teorias e que a direção do tempo é
realmente determinada pela entropia.29 A segunda corrente de ideias está grandemente relacionada
ao relacionalismo de Leibniz, onde o tempo existiria apenas se existissem objetos e eventos em
constante complexidade, que pode ser traduzida como a própria entropia.2
[editar]Tempo e espaço
Veja: Filosofia do tempo
[editar]Absolutismo e Relacionalismo
Veja: Experiência do balde de Newton
Dois líquidos imiscíveis em rotação em relação a um eixo vertical, como proposto naexperiência do balde de
Newton: nota-se a concavidade (paraboloide) do líquido superior
O debate que discute a natureza do tempo e espaço, que podem ser vistos como objetos reais,
absolutos, ou simplesmente ordenações relacionais de objetos reais, começou com um debate
entre Isaac Newton, por meio de seu porta-voz Samuel Clarke, e o alemãoGottfried
Leibniz.30 Argumentando contra a posição absolutista, Leibniz mostra váriosexperimentos
mentais para comprovar que, assumindo a existência de fatos como local evelocidade absolutos,
isso levará a uma contradição.30 Estes argumentos se baseiam em dois princípios centrais de
Leibniz, o princípio da razão suficiente e a identidade dos indiscerníveis.30 31 Segundo o princípio da
razão suficiente de Leibniz, nada será sem que haja uma razão para sua existência ou sem que haja
uma explicação para sua existência.32 Segundo o princípio da identidade dos indiscerníveis, dois
objetos são iguais, indiscerníveis, se compartilham das mesmas propriedades.33
Por exemplo, em um de seus experimentos mentais, Leibniz imaginou dois universos situados em
um espaço absoluto.34 A única diferença entre eles é que o segundo universo está situado a cinco
metros a esquerda do primeiro, uma possibilidade realista se o espaço absoluto existir.34 Entretanto,
tal situação não existe porque, se o universo foi posicionado em um espaço absoluto, estaria em
qualquer local do espaço. Não foi dado anteriormente nenhuma coordenada de posição para o
segundo universo dentro do primeiro, e este segundo universo estaria a cinco metros a esquerda
de qualquer posição do primeiro universo. Em outras palavras, o segundo universo poderia estar
em qualquer lugar dentro do primeiro e, portanto, não haveria razão da existência de dois universos
simultâneos, assim ferindo o princípio da razão suficiente. Além disso, admitindo a existência de
dois universos simultâneos, não poderiam ser identificados separadamente, pois exibem as mesmas
propriedades, considerando-se o princípio da identidade dos indiscerníveis.31
Respondendo a Leibniz, Newton, por meio de Clarke, mostrou o experimento mental do balde com
água.35 Se um balde com água estiver pendurado por uma corda, sem movimentos, suas superfície
será plana. Entretanto, se o balde for posto para girar, a superfície da água será côncava
(paraboloide) e permanecerá côncava se o balde parar de girar até a própria água parar de girar em
seu interior.35 Clarke e Newton defendem a necessidade da existência do espaço absoluto para
explicar fenômenos como a rotação e aaceleração que não podem ser contabilizados em um
pensamento relacionalista puro. Clarke afirma que se a concavidade da superfície da água ocorre
no balde giratório assim como em um balde parado contendo água em rotação, então isso só pode
ser explicado afirmando que a água está girando em relação a uma terceira coisa, chamada de
espaço absoluto.35
Leibniz descreve um espaço que existe somente como a relação entre objetos e que, portanto, não
tem existência a parte da existência dos objetos; o movimento existe apenas como uma relação
entre objetos.31 O espaço newtoniano, o absolutismo, provê umreferencial absoluto, onde os objetos
podem ser mover.36 No sistema de Newton, o referencial existe independente dos objetos que estão
contidos neste. Objetos podem ser descritos em um referencial absoluto tendo como pano de fundo
o próprio espaço. Por dois séculos, a evidência empírica da superfície da água côncava ficou em
voga. Entretanto, a Relatividade Geral de Albert Einstein trouxe novo fôlego ao Relacionalismo.36
[editar]Princípio de Mach
Ernst Mach proveu uma diferente resposta ao experimento mental de Clarke e Newton e defendeu o
Relacionalismo de Leibniz. Sua resposta à concavidade da superfície da água estava baseada
nas estrelas fixas.37 Mach sugeriu que experimentos mentais como o balde giratório são
problemáticos por mérito próprio. Se o balde estiver girando em relação a um espaço absoluto,
observa-se a concavidade da superfície da água. Entretanto, se o universo for o balde giratório; o
balde estaria girando em relação a quê? É igualmente possível, nestas condições, que a superfície
da água mantenha-se plana.37
Mach argumentou que a água em um balde em um universo vazio poderia manter sua superfície
plana.38 Entretanto, introduzindo outros objetos ao universo, como estrelas fixas, a rotação do balde
seria observada em relação a outros objetos, e a superfície da água se tornaria
côncava.37 Aumentando-se o número de objetos a este universo, a superfície da água cada vez se
tornaria mais côncava, até em um ponto que se tornaria semelhante ao nosso universo.37 Em
resumo, Mach argumentou que o momento (linear ouangular) de um objeto existe como o resultado
da soma de efeitos de outros objetos do Universo. Isto ficou conhecido como o princípio de Mach.38
[editar]Convencionalismo
Henri Poincaré reagindo negativamente à geometria não-euclidiana proposta por Einstein em
sua Relatividade, propôs que não existe relação entre a matéria e a geometria
do espaçotempo.39 Poincaré foi além, argumentou que a geometria aplicada a um espaço era
decidida por convenção, pois diferentes geometrias poderão descrever um sistema de objetos
igualmente bem.40 Este ponto de vista foi desenvolvido e atualizado por Hans Reichenbach para
incluir considerações sobre Relatividade Geral.41 O convencionalismo de Reichenbach foca em torno
da definição de coordenada, que tem duas grandes características. A primeira está relacionada com
ocomprimento. Isto é motivado pelo fato de que nunca podemos realizar uma medição literalmente
direta do comprimento, necessitamos de um objeto físico, um padrão, para realizá-lo. A segunda
está relacionada com a separação de objetos. Embora consigamos, presumivelmente, constatar o
comprimento de duas barras quanto estão próximas uma da outra, não podemos realizar o mesmo
experimento quando estão distantes.42 Mesmo supondo que as duas barras, mesmo que trazidas
perto uma das outra, parecem ter comprimentos iguais, não podemos nos justificar ao dizer que são
exatamente iguais em comprimento. Esta impossibilidade limita nossa habilidade de decidir a
igualdade de comprimento de dois objetos distantes. Em resumo, a igualdade de comprimento, ou o
próprio comprimento, deve ser definido por convenção.41
Dentro da Relatividade Geral, a convenção está situada no fato de que a luz percorre sempre
percorre uma distância igual para intervalos de tempo iguais. Estruturado nisso está construído a
noção de espaçotempo.43 Assim como o debate entre o relacionalismo e o absolutismo continua, o
debate sobre o convencionalismo ainda ocorre na filosofia moderna. O convencionalismo ainda tem
vários filósofos como defensores, mas as criticas sobre a coerência dos princípios de Reichenbach
sobre a definição de coordenadas levou muitos a verem o convencionalismo de forma negativa.30 44
[editar]Invariância e covariância
Com base nos resultados obtidos a partir da discussão entre absolutismo e relacionalismo,
juntamente com as ferramentas matemáticas desenvolvidas nos séculos XIX e XX, Michael
Friedman apresenta uma distinção entre a invariância com base nas transformações matemáticas e
a covariância por meio de transformações.45
A invariância, ou simetria, aplica-se a objetos e a eventos. Dentro do espaçotempo, ou de qualquer
outra geometria, euclidiana ou não, a invariância aplica-se a características de objetos ou eventos
que não mudam sob qualquer transformação, como a velocidade da luz nas transformações de
Lorentz e o tempo nas transformações de Galileu.46 A covariância refere-se a um conjunto de
características intrínsecas ao objeto ou ao evento que variam mutuamente segundo qualquer
transformação.47 A invariância dentro do espaçotempo determina quais dos objetos ou eventos são
invariantes, ou absolutas, e quais são dinâmicas, ou variáveis.45
A covariância aplica-se às formulações da teoria. O grupo de características covariantes designa em
qual sistema de coordenadas as leis da Física estão aplicadas.47 A distinção pode ser ilustrada
através do experimento mental de Leibniz, no qual o universo está deslocado cinco metros. Neste
exemplo, a posição de um objeto não é exatamente uma característica própria, ou seja, sua
localização não é invariante. De modo semelhante, o grupo de características covariante dentro
da Mecânica Clássica será qualquer sistema de coordenadas que são obtidas de outro sistema
através de mudanças de posição assim como outras translações permitidas pela transformação de
Galileu.48
No caso clássico, o grupo de características invariantes ou simétricas e o grupo de características
covariante coincidem, mas tomam caminhos diferentes dentro da Relatividade. O grupo de
características invariantes da Relatividade Geral inclui todas as transformações
diferenciáveis.45 Todas as propriedades de um objeto são dinâmicas, não há objetos absolutos. As
formulações da Teoria da Relatividade Geral, diferentemente da Mecânica Clássica, não
compartilham um padrão, não há uma única formulação que esteja ligada com as
transformações.45 Por outro lado, o grupo de características covariantes da Relatividade Geral é
como qualquer outro grupo covariante de outra teoria física qualquer.47
[editar]Relatividade
Ver artigo principal: Teoria da relatividade
Representação da Terra deformando o espaçotempo em seu torno. As linhas representam geodésicas
A Teoria da Relatividade de Einstein está baseada no princípio da relatividade, que afirma que
as leis da Física devem ser as mesmas para todos os observadores, não importando
o referencial que usem.49 A maior dificuldade para esta ideia foi as equações de Maxwell, que
incluíam a velocidade da luzno vácuo, juntamente com a ideia de éter luminífero que ainda se tinha
na segunda metade do século XIX; a velocidade da luz seria constante apenas tomando como
referencial o éter luminífero, em outras palavras, utilizando-se de um espaço absoluto.50 Entretanto,
todas as tentativas de se obter qualquer outro valor para a velocidade da luz conforme as supostas
mudanças de velocidade do éter luminífero, como a Experiência de Michelson-Morley,
fracassaram.50 Einstein mostrou como as transformações de Lorentz podem ser derivadas do
princípio da relatividade e da invariância da velocidade da luz.45 A relatividade restrita é uma
formalização do principio da relatividade que não contém um referencial absoluto, que Einstein
afirmou não existir.51 Esta conclusão filosófica tornou-se popular entre os físicos, e as novas formas
de visão do espaço e tempo influenciaram matemáticos, como Hermann Minkowski. Segundo
Minkowski, a realidade permanecerá independente apenas se houver alguma maneira de unir
espaço e tempo.52
Einstein foi além; generalizou a relatividade para referenciais não-inerciais, utilizando-se do princípio
da equivalência, onde a forçasentida por um observador em um campo gravitacional e a força
(virtual) sentida por um observador em um referencial em aceleração são indistinguíveis.46 Isto levou
à conclusão que a massa de um objeto deforma a geometria do espaço de seu entorno, como
descrito pelas equações de campo de Einstein.53 Um referencial inercial está ligada a
uma geodésica do espaçotempo.53 Um objeto necessita de força para sair de uma geodésica. Um
balde de água em rotação irá experimentar uma força não porque está em movimento em relação às
estrelas distantes, mas em respeito à geodésica. Einstein vindica parcialmente o principio de Mach,
a superfície da água contida em um balde em rotação será côncava, pois está girando em relação
às geodésicas. Entretanto, as geodésicas existem mesmo se não houver objetos massivos,
relembrando a ideia da independência do espaço e do tempo proposta por Newton.38
[editar]Direção do tempo
O problema da direção do tempo surge diretamente de dois fatos contraditórios. Primeiramente, as
leis da Natureza, a física fundamental, não se alteram se a direção do tempo for retrógrada. Ou seja,
se fosse possível assistir um fenômeno físico com duração de , como se assistisse um filme ao
contrário, as leis da física continuariam as mesmas.54 Porém, dentro de nossas mentes, não há a
possibilidade da reversão do tempo. Um copo quebrado simplesmente não se recomporá e subirá
sobre a mesa. Temos memórias do passado e nenhuma do futuro. Não podemos alterar o passado,
mas podemos alterar o futuro.55
Em uma solução, dentro da metafísica, causa e ação são assimétricas. Sabemos mais sobre o
passado porque os elementos do passado são causas para o efeito que é a nossa percepção.
Sentimos que não podemos afetar o passado e podemos afetar o futuro porque não podemos afetar
o passado e podemos afetar o futuro, nada mais.56 Entretanto, existem dois grandes problemas a
este ponto de vista. Um deles é a dificuldade de se definir causa e ação, levando em consideração
que a prioridade temporal da causa sobre o efeito não é meramente uma estipulação.57 Neste caso,
se a definição de causa e efeito estiver sido construída em torno disto, a direção do tempo será
circular.58 O segundo problema refere-se ao poder explanador deste ponto de vista. Este pode até
explicar os fenômenos que estimulam a nossa percepção de ação, mas não explica todos os
fenômenos temporalmente assimétricos.59
[editar]Termodinâmica
Outra solução para este problema encontra-se na termodinâmica, onde a natureza da direção do
tempo está relacionada à natureza da própria termodinâmica. A resposta da termodinâmica clássica
afirma que nossas teorias físicas básicas é, de fato, reversamente possíveis, a termodinâmica não
é.60 Em particular, a segunda lei da termodinâmica afirma que a rede de entropia de um sistema
fechado nunca diminui e isso explica o porquê sempre vemos o vidro quebrar e nunca se recompor;
a "complexidade", que pode ser traduzida em "bagunça microscópica", nos fenômenos físicos
sempre será a maior.55
Apesar de ser uma resposta satisfatória, não significa que esta seja a resposta final. Com o
desenvolvimento da mecânica estatística, tornou-se mais complicado se obter tal resposta. Por um
lado, a mecânica estatística é bem superior à termodinâmica clássica, no qual pode ser mostrado
que o comportamento termodinâmico, como a quebra de um copo, pode ser explicado através das
leis fundamentais da Física juntamente com um postulado estatístico.61 Por outro lado, entretanto, a
mecânica estatística, diferentemente da termodinâmica clássica, tem simetria temporal.62 A segunda
lei da termodinâmica, sob o ponto de vista da mecânica estatística, meramente afirma que é
provável que a rede de entropia vá aumentar, mas isso não é uma lei absoluta.63
[editar]Mecânica Quântica
[editar]Determinismo e indeterminismo
A Mecânica Quântica é uma das teorias cientificas mais bem sucedidas. Suas previsões foram
confirmadas por experimentos após experimentos e não há cientistas sérios que duvidem de sua
validade. Apresenta uma descrição aceitável sobre o comportamento do mundo microscópico
de átomos e partículas elementares. Entretanto, ao se estudar mais profundamente o significado
desta teoria, percebe-se que diferentes pessoas têm ideias diferentes. Alguns dizem que a
Mecânica Quântica prova que o mundo éindeterminístico, enquanto que outros defendem
o determinismo.64
[editar]Probabilidade
Em todo sistema físico, certas propriedades, ou grandezas físicas, estão associadas,
como posição, distância, massa, velocidade outemperatura. Em uma teoria física clássica, isto é,
que não tenha a interferência da Mecânica Quântica, um sistema é totalmente descrito apenas com
todas as grandezas físicas associadas descritas.65
Entretanto, a descrição de grandezas físicas na Mecânica Quântica torna-se complicado.66 Um
sistema já não é mais descrito apenas descrevendo todas as grandezas físicas associadas, mas
como sendo um vetor no espaço de Hilbert.67 Este é um conceitomatemático bastante abstrato, que
está relacionado às grandezas físicas por meio das regras da teoria. Em geral, não podemos
precisar com absoluta segurança uma grandeza física dentro da Mecânica Quântica, mas apenas
especificar certa "probabilidade" de se encontrar tal valor quando se realiza uma medida.68
[editar]Incompletude e variáveis ocultas
Ver artigo principal: Teoria das variáveis ocultas
Surgem então debates sobre a completude da teoria. A Mecânica Quântica informa-nos sobre todos
os eventos esperados ou representa apenas uma fração da realidade?69 Dois elétrons com as
mesmas descrições quânticas podem ter comportamentos diferentes. Isto leva muitos a afirmarem
que o mundo não é comandado pelo determinismo, os fenômenos dependem da "chance". Segundo
eles, torna-se impossível realizar previsões com certeza e isto prova que o mundo é
indeterminístico.64
Entretanto, outros argumentam que os comportamentos diferentes dos elétrons devem-se a estados
inicialmente diferentes dos elétrons, que a Mecânica Quântica não é capaz de descrevê-los,
simplesmente porque a Mecânica Quântica é incompleta.70 Abaixo dos fenômenos quânticos deve
haver "variáveis ocultas", que são diferentes para fenômenos que tem a mesma descrição
quântica.71Assim, a tese das "variáveis ocultas" defende uma realidade determinística; os
fenômenos acontecem sob leis da Física estritas, onde não há lugar para chances.71 Em
1952, David Bohm publicou dois artigos que afirmam exatamente este ponto de vista. Seus
resultados concordam com a Mecânica Quântica "ortodoxa"; toda partícula tem comportamento que
é explicado segundo a mecânica determinística, mas "potenciais quânticos" inferem os fenômenos
não explicados pela Física Clássica.72
[editar]Paradoxo Einstein-Podolsky-Rosen (EPR)
Ver artigo principal: Paradoxo EPR
Em 1935, Albert Einstein, Boris Podolsky e Nathan Rosen publicaram um artigo afirmando que a
teoria quântica era incompleta, e que havia a necessidade de novas variáveis. No artigo, havia duas
assunções fundamentais:73
1. Se em um sistema que não for perturbado possamos prever com precisão o valor de uma
grandeza física, então existe um elemento da realidade física correspondente a esta grandeza
física.73
2. Dois sistemas não podem influenciar mutuamente quando estão grandemente distanciados,
todas as interações são "locais".73
Ambas as assunções são razoáveis. Parece extremamente insensato descartar o requerimento da
localidade, o que se pode fazer aqui na terra não parece estar influenciando outro fenômeno em
qualquer outro planeta distante. Einstein, Podolsky e Rosen argumentavam que a teoria quântica
era incompleta. Deve haver uma teoria mais completa que explique mais profundamente, dentro de
um ponto determinístico, todos os eventos que em que a Mecânica Quântica difere da Mecânica
Clássica.74
[editar]Desigualdades de Bell
Ver artigo principal: Teorema de Bell
Em um artigo publicado em 1964, John Bell afirmou que as possíveis "variáveis ocultas" de Einstein,
Podolsky e Rosen não são compatíveis empiricamente com a Mecânica Quântica. Se as possíveis
variáveis ocultas fossem verdadeiras, existiria uma série de desigualdades, conhecidas como
as desigualdades de Bell. Se a Mecânica Quântica ortodoxa for verdadeira, tais desigualdades não
ocorrem.75 A discussão sobre a existência de variáveis ocultas determinísticas e locais saiu do
campo filosófico e foi comprovado experimentalmente a sua não existência.75
Um dos postulados do paradoxo EPR devia ser abandonado: a localidade ou os elementos de uma
realidade física. Os físicos fizeram a escolha de se abandonar a localidade, mas seguiram com ideia
das variáveis ocultas não-locais.76 A teoria de Bohm, que se utilizava da noção de variáveis ocultas,
é uma teoria não-local. O potencial quântico de Bohm permite a perturbação de um sistema em
outro sistema a grandes distâncias. Além disso, tais variáveis ocultas devem ser também
contextuais, ou seja, os resultados as medições podem depender de qual tipo de medidas que foram
feitas em outros sistemas. Entretanto, muitos argumentam que a teoria de Bohm deixa de ser
determinística ao impor a não-localidade e a contextualização de medidas.72
[editar]Incerteza e complementaridade
[editar]Relações de incerteza de Heisenberg
Ver artigo principal: Princípio da incerteza
Entre os mais famosos resultados da Mecânica Quântica são as relações de incerteza de
Heisenberg. Entretanto, sua interpretação ainda não obteve consenso. Há duas séries distintas da
interpretação das desigualdades que são conhecidas como as relações de incerteza de
Heisenberg.77
Segundo o próprio Werner Heisenberg em 1925, a incerteza da posição de uma partícula
subatômica multiplicada pela incerteza de seu momento nunca será menor do que certa constante
numérica. Não se pode, por exemplo, medir a posição e o momento de umelétron ao mesmo tempo;
ao se medir a sua posição, comprometemos seu momento, e vice-versa. As relações de incerteza, à
primeira vista, parecem derivar da impossibilidade de nosso conhecimento em obter tais grandezas
físicas. Entretanto, Heisenberg afirmou que a incerteza é uma propriedade intrínseca à partícula, se
não há meios de se definir com precisão uma grandeza física, então tal grandeza não está
precisamente definida por natureza.78
Heisenberg vai além. Segundo ele, a posição ou o momento de um elétron apenas são definidos
porque houve uma medição. Sem a medição, tal elétron não tem posição ou momento
definidos.78 Dois anos mais tarde, E. Kennard provou um teorema que afirma que não se pode ter
certeza absoluta de duas variáveis que não comutam. Embora seja o formalismo matemático para o
principio de Heisenberg, o teorema provado por Kennard e o principio da incerteza de Heisenberg
são objetos diferentes.79
[editar]Dualidade onda-partícula
Ver artigo principal: Dualidade onda-partícula
Experiência da dupla fenda realizada com elétrons individuais. No anteparo observa-se um padrão
de interferência e ao mesmo tempo pontos brancos que evidenciam o contato local do elétron com o anteparo,
evidenciando a dualidade onda-partícula
No século XVII, houve grandes debates sobre a natureza da luz. Alguns físicos, como Isaac Newton,
defendiam que a luz era constituída de partículas devido ao seu comportamento particular em
algumas circunstâncias (óptica geométrica).80 Entretanto, a experiência da dupla fenda de James
Young mostrou o caráter ondulatório da luz ao se observar ainterferência em um anteparo.81 A teoria
eletromagnética de James Clerk Maxwellpraticamente consagrou a luz com um caráter
ondulatório.80 Entretanto, a descoberta doefeito fotoelétrico retomou a ideia da natureza corpuscular
da luz: a remoção de elétrons de uma chapa metálica pela luz parece depender apenas de
sua freqüência, não de suaenergia.82 Outras experiências mostravam também o caráter corpuscular
da luz, como o surgimento de partículas em chapas fotográficas expostas a fraquíssima luz: se a luz
fosse onda, a chapa fotográfica seria gravada de modo uniforme e não com o aparecimento de
pequenos pontos.83
Louis de Broglie sugeriu em 1924 que o elétron também tem esta propriedade,84 confirmada
experimentalmente através da difração de elétrons em cristais: um padrão de interferência foi
observado no anteparo.85 Tais experiências comprovaram a dualidade onda-partícula das partículas
subatômicas.84 A discussão sobre a verdadeira natureza de tais partículas levou ao surgimento
do princípio da complementaridade.86
[editar]Principio da complementaridade de Bohr
Ver artigo principal: Princípio da complementaridade
A junção da noção de dualidade onda-partícula e o principio da incerteza de Heisenberg levou o
dinamarquês Niels Bohr, um dos fundadores da Mecânica Quântica, a postular o que é conhecido
como o seu "principio da complementaridade". Segundo Bohr, não se pode dar uma descrição sobre
o mundo quântico. Os únicos conceitos que podemos usar são aqueles que descrevem o mundo
macroscópico.87
Entretanto, podemos usar os conceitos clássicos para descrever fenômenos. Um fenômeno é o
resultado de uma medida, alguma coisa que se pode conferir em laboratório e é sempre bem-
definido. Os conceitos que podemos usar em uma situação dependem do contexto experimental;
podemos apenas usar um conceito se o experimento medir a grandeza física correspondente.70 Já
que grandezas físicas diferentes não podem ser medidas ao mesmo tempo, tais grandezas são
complementárias. Grandezas físicas complementárias não podem ser medidas no mesmo
experimento, embora ainda se precise de tais informações para dar uma descrição completa do
fenômeno.70
Dentro do conceito de dualidade onda-partícula, isso significa que precisamos tanto da natureza
ondular quanto da natureza corpuscular de um objeto quântico para poder descrevê-lo nos
experimentos, mas tais condições não podem ser empregadas ao mesmo tempo.68 A solução de
Bohr nega a possibilidade de se montar um pano de fundo completo para o mundo quântico. Muitos
filósofos e físicos não aceitam, e atualmente tentam encontrar modos de poder ver o mundo
quântico segundo as acepções que a mente humana está acostumada.88
[editar]O problema da medida
Ver artigo principal: Problema da medição
Talvez o maior problema dentro da Mecânica Quântica seja o "problema da medida". Um elétron
pode ter chances de 50% de ter spin1/2 ou 50% de ter spin -1/2. Matematicamente, podemos
descrever tal estado como uma superposição, ou seja, existe a possibilidade de tal partícula ter spin
1/2 e spin -1/2 ao mesmo tempo, com chances de 50% para ambos. Entretanto, ao se realizar a
medida, podemos encontrar ou spin 1/2 ou spin -1/2; o aparelho medidor não vai apontar que a
partícula está em ambos os estados ao mesmo tempo.89
[editar]Gato de Schrödinger
Ver artigo principal: Gato de Schrödinger
Diagrama do experimento mental do gato de Schrödinger
Dentro desse contexto, Erwin Schrödinger elaborou um experimento mental envolvendo um gato.
Suponha-se que um gato esteja em uma caixa selada hermeticamente. A caixa também contém um
aparelho "diabólico", constituindo-se de um átomo radioativo, um aparelho de medida, um martelo e
um frasco de gás venenoso. Quando o átomo radioativo decai, o aparelho de medida percebe o
fenômeno, e o martelo quebra o frasco de gás venenoso, que pode ser suficiente para causar a
morte do gato.90
O decaimento do átomo radioativo é um processo quântico, onde o átomo é uma superposição de
"ainda não decaído" e "já decaído"; a chance para "já decaído" aumenta com o passar do tempo. Se
o átomo radioativo está em superposição, também podemos dizer que o gato também está em
superposição: "gato vivo" e "gato morto" ao mesmo tempo.90
Existem duas tentativas de resposta para este problema. Uma das soluções prevê o uso das
variáveis ocultas; seria possível averiguar com certeza o momento exato do decaimento do átomo
radioativo e, portanto, é possível afirmar se o gato está vivo ou morto em um determinado
instante.90 A segunda tenta resolver o problema da medida por vários outros métodos.
[editar]Postulado de projeção
A tentativa mais antiga, e a mais seguida, de se resolver o problema da medição, foi elaborada
por John Von Neumann. Em 1932, Von Neumann publicou cinco postulados, onde baseia
matematicamente a Mecânica Quântica.91 Em seu quinto postulado, Von Neumann apresenta a sua
solução para o problema da medida, conhecida como o "postulado de projeção".91 O postulado
afirma que quando um experimento é realizado em um sistema, tal sistema deixa de estar em
superposição e passa para um novo estado onde a grandeza física buscada tem um valor
determinado. Segundo Von Neumann, há dois tipos de evolução de sistemas quânticos, o estado
normal, quando o sistema segue as leis quânticas, e o estado quando se realiza a medida, quando
ocorre uma mudança brusca de evolução e o sistema quântico deixa de seguir as leis quânticas.91
Entretanto, o postulado de projeção tem dois grandes problemas: primeiramente, existem realmente
dois tipos de evolução temporal? O ato de medida é realmente algo especial dentro da Mecânica
Quântica, para que a evolução de um sistema quântico mude bruscamente?92 Segundamente, o que
é realmente uma medida? O que faz de uma medida ser realmente uma medida?93
[editar]Amigo de Wigner
Ver artigo principal: Amigo de Wigner
Eugene Wigner também elaborou um experimento mental em uma tentativa radical de se definir o
que é medida. Segundo Wigner,94
"Estou certo de que minha mente nunca está em superposição. Se eu realizar um
experimento direto, estarei certo de encontrar uma e apenas uma medida definida. Não é
impossível assumir que uma partícula quântica esteja em superposição, e isto se aplica ao
aparelho de medida, mas a minha mente nunca estará em superposição. Se eu observar
diretamente uma partícula quântica, uma medida se realizará e isso será descrito segundo
o postulado de projeção.
Assumindo que eu tenha um amigo que realizou um experimento quântico, ao perguntar
para ele o que ele observou, eu faço uma medida e supostamente reduzo-o da
superposição para um estado onde certamente o resultado será claro e não-ambíguo. Mas
é plausível afirmar que meu amigo, outro ser consciente, estava em superposição até eu
realizar minha medida? Claro que não."94
Segundo Wigner, todas as consciências são capazes de realizar medidas, já que a
consciência é a única coisa do Universo capaz de medir ela própria. Wigner deseja dar à
consciência um papel central dentro da teoria quântica para resolver o problema da
medida.94Entretanto, muitos acreditam que a ideia de Wigner está deslocada da ciência e
afirmam até mesmo que seja risível. Porem, o fato da grande repercussão do experimento
mental de Wigner, até mesmo entre os físicos, mostra a seriedade do problema da
medida.94
[editar]Colapso instantâneo
Em uma tentativa de resolver o problema da medida sem ter que recorrer a duas evoluções
temporais distintas, Ghirardi, Rimini e Weber desenvolveram as teorias de colapso. Nestas
propostas, há apenas um tipo de evolução temporal de um sistema quântico, mas que é
ligeiramente diferente da prevista pela Mecânica Quântica normal.95
As partículas quânticas têm uma pequeníssima chance de sair da superposição para um
estado onde a sua posição é definida. Tal chance é realmente pequena, ocorre
infitesimalmente uma vez a cada 1010 anos. Entretanto, quando a partícula adentra para o
estado de posição definida, todo o sistema quântico onde tal partícula está contida também
tem posição definida. Como um sistema macroscópico é constituído de intermináveis
partículas quânticas, todo o sistema está em estado de posição definida muitas vezes por
segundo. Como o aparelho de medida é macroscópico, o aparelho também sairá do estado
de superposição para o estado de posição definida muitas vezes por segundo. Ao se
realizar uma medida a nível quântico, em algum momento o aparelho de medida sairá do
estado de superposição para o estado de posição definida, e os resultados que são
colhidos sempre serão com posição definida.96
Isto resolve o problema da superposição, mas traz um elemento não-intuitivo para a
evolução temporal de um sistema quântico. Embora seja possível realizar experimentos
sobre a existência da possibilidade de uma partícula quântica sair do estado de
superposição, tal experimento ainda não é viável.92
[editar]Muitos mundos
Ver artigo principal: Interpretação de muitos mundos
Diagrama do gato de Schrödinger, segundo ainterpretação de muitos mundos
Hugh Everett III, Bryce DeWitt e John Archibald Wheeler rejeitaram o postulado de
projeção e afirmam que a evolução temporal prevista pela Mecânica Quântica é
perfeitamente aceitável. Quando uma medida é realizada em uma partícula em
superposição, o aparelho que executará a medida também estará em superposição.
Entretanto, as diferentes partes da superposição correspondem a diferentes mundos
alternativos. Se, por exemplo, medir o spin de uma partícula, o universo divide-se em dois:
em um mundo encontraremos spin 1/2 e em outro encontraremos spin -1/2.97 98
Para assegurar que as predições realizadas pela Mecânica Quântica sejam plausíveis
dentro deste ponto de pista, devemos postular que o universo divide-se em infinitos outros
universos, sendo que a probabilidade de encontrar um dos estados de posição definidos
para uma partícula quântica é exatamente a percentagem de mundos onde podemos
encontrar tal posição definida.99 Entretanto, o ceticismo é grande: muitos físicos afirmam
que a afirmação mão é coerente e foge dos "padrões de normalidade". Além disso, essa
proposta de se resolver o problema da medida apenas dispensa a necessidade de duas
evoluções temporais para partículas quânticas, mas deixa intacta a necessidade de se
estabelecer uma real definição do que seja uma medida.99
[editar]Física experimental
Diagrama de um interferômetro como usado na Experiência de Michelson-Morley
Os filósofos da Física tradicionalmente se preocupam com a natureza das teorias
científicas, isto devido em grande parte ao papel central que a epistemologia teve na
filosofia, principalmente após o início do século XX.100 Em vista do advento das teorias
modernas na Física, foi a partir desta data que filósofos e historiadores de Física
começaram a ficar mais atentos à Física Experimental, e têm argumentado que
oexperimento tem seus próprios métodos e práticas, que podem se diferenciar e serem
incomensuráveis dentro da diversidade da Física Experimental.101
Segundo Thomas Kuhn, os paradigmas científicos, que englobam toda uma linha de
teorias científicas, métodos e valores, contém convicções científicas que não podem ser
explicadas segundo as teorias existentes sobre racionalidade.102 Para Kuhn, a ciência
"normal" é realizada dentro de um determinado paradigma científico praticamente estável,
mesmo com a presença de anomalias que contrariam tal paradigma.19 Analisando-se as
revoluções científicas, Kuhn percebe que estas estão associadas a mudanças de
paradigma.19 Um paradigma não é banido quando a Física Experimental encontra uma
anomalia, mas apenas quanto o próprio paradigma já não mais suporta a quantidade de
anomalias.19 Segundo Imre Lakatos, que batiza paradigma como "programa de
pesquisa",18 tais mudanças não ocorrem abruptamente. Consequentemente, não existem
experimentos cruciais na História da Física.18 A concepção de Éter, para Lakatos, não foi
abandonada abruptamente com a Experiência de Michelson-Morley, mas sim abandonada
historicamente.18
Neste contexto, a morte da geração antiga de cientistas e a formação da geração seguinte
sob influência do novo paradigma que tenta se estabelecer desempenharia papel
importante à evolução das teorias científicas.
Função de ondaOrigem: Wikipédia, a enciclopédia livre.
Este artigo ou secção contém uma lista de fontes ou uma única fonte no fim do texto, mas esta(s) não são citadas no corpo do artigo, o que compromete a confiabilidade das informações. (desde junho de 2011)Por favor, melhore este artigo introduzindo notas de rodapé citando as fontes, inserindo-as no corpo do texto quando necessário.
Mecânica quântica
Princípio da Incerteza
Introducão a...
Formulação matemática
[Expandir]Introdução[Esconder]Conceitos fundamentais
Estado quântico · Função de onda
Superposição · Emaranhamento
Medição · Incerteza
Exclusão · Dualidade
Decoerência · Teorema de
Ehrenfest ·Tunelamento
[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Expandir]Interpretações[Expandir]Tópicos avançados[Expandir]Cientistas
ver • editar
A Wikipédia possui o portal:Portal de Física
Função de onda é uma ferramenta matemática que a física quântica usa para descrever um
sistema físico qualquer.
A densidade de probabilidade do elétron para o átomo de hidrogênio, mostrada como seções transversais.
Essas orbitais formam uma base ortonormal para a função de onda do elétron. Diferentes orbitais são retratadas
com escalas diferentes.
É uma função matemática tipicamente de espaço, momento ou spin e possivelmente de tempo que
retorna a amplitude de probabilidade de uma posição ou momento de uma partícula subatômica.
Matematicamente, é uma função do espaço, que mapeia os possíveis estados do sistema dentro
dos números complexos. As leis da mecânica (equações de Schrödinger) quântica descrevem
como a função de onda evolui com o tempo
Índice
[esconder]
1 Problemas de nomenclatura
2 Definição
3 Interpretação
4 Significado filosófico da função de onda
5 Veja também
6 Referências
Problemas de nomenclatura [editar]
O termo função de onda segundo a mecânica quântica tem um significado bastante diferente
dependendo do contexto, seja na física clássica, seja no eletromagnetismo clássico.
Por causa da relação concreta entre função de onda e localização de uma partícula num espaço de
posições, muitos textos sobre mecânica quântica têm um enfoque "ondulatório". Assim, embora o
termo "função de onda" seja usado como sinônimo "coloquial" para vetor de estado, não é
recomendável, já que não só existem sistemas que não podem ser representados por funções de
onda, mas também que o termo função de onda leva a imaginar erroneamente que há algum meio
que ondula no sentido mecânico.
Na química, especialmente, um dos objetivos da função de onda de elétrons é descrever os
chamados orbitais eletrônicos; com isso, aumenta ainda mais a confusão de termos que se referem
a um mesmo conceito.
Definição [editar]
O uso moderno do termo função de onda é para qualquer vetor ou funçãoque descreva o estado
de um sistema físico pela expansão em termos de outros estados do mesmo sistema. Normalmente,
uma função de onda é:
um vetor complexo com finitos componentes:
,
um vetor complexo com infinitos componentes:
,
ou uma função complexa de uma ou mais variáveis,
.
Em todos os casos, a função de onda provê uma descrição completa do sistema físico
ao qual está associado. Porém, deve-se frisar que uma função de onda não é
unicamente determinada pelo sistema ao qual está associada, já que muitas funções
de onda diferentes podem descrever o mesmo cenário físico.
Interpretação [editar]
A interpretação física da função de onda depende do contexto. Veja alguns exemplos
a seguir:
Uma partícula em uma dimensão espacial
A função de onda espacial associada a uma partícula em uma dimensão é uma função
complexa definida no conjunto dos números reais. O quadrado complexo da
função de onda, , é interpretado como a densidade de probabilidade associada à
posição da partícula e, por isso, a probabilidade de a medição da posição da partícula
dar um valor no intervalo é
.
Isto leva à condição de normalização
.
já que a medição da posição de uma partícula deve resultar em um número
real.
Significado filosófico da função de onda [editar]
A função de onda é a descrição mais completa possível de um sistema regido
pela mecânica quântica. Se na mecânica clássica a descrição completa de
um sistema consistia na tarefa de encontrar a posição e a velocidade de
todas as partículas e, com esta descrição, ser possível prever todos os
movimentos futuros e passados do sistema, na mecânica quântica não se
pode descrever todos as grandezas desejadas com a mesma certeza
(ver Princípio da incerteza de Heisenberg). De acordo com a mecânica
quântica, a descrição do sistema termina ao nível da função de onda, com
suas probabilidades de posição.
Por isso, depois do nascimento da mecânica quântica, a ciência alcançou um
patamar que encerra o contraste entre o determinismo e o indeterminismo e,
sob os auspícios da ciência contemporânea, temos a função de onda, que
está na fronteira entre odeterminismo e o indeterminismo.
Em certas interpretações da mecânica quântica, o colapso da onda é um dos dois processos
pelos quais um sistema quânticoaparentemente evolui de acordo com as leis da mecânica
quântica. Isto é também conhecido como colapso do vetor de estado. A existência do colapso
da função de onda é necessária:
na versão da interpretação de Copenhague onde a função de onda é real;
na denominada interpretação transacional;
na "interpretação espiritual" na qual a consciência causa o colapso.
Por outro lado, o colapso não ocorre:
na versão da interpretação de Copenhague onde a função de onda não é real;
na interpretação baseada em histórias consistentes;
na interpretação de muitos mundos;
na interpretação de Bohm.
No geral, sistemas quânticos existem como a superposição de estados fundamentais, e
evoluem no tempo segundo a equação de Schrödinger, que é um dos dois processos
mencionados no começo deste artigo – um processo incluído em todas as interpretações. A
contribuição de cada estado fundamental para toda função de onda é chamada de amplitude.
Contudo, quando a função de onda colapsa, da perspectiva de um observador o estado parece
"pular" para um dos estados fundamentais e unicamente adquirir o valor das propriedades
medidas que são associadas com aquele estado fundamental em particular.
Tendo realizado a medição de um sistema observável A, a probabilidade de colapsar para um
estado particular de A é diretamente proporcional à raiz quadrada do módulo da amplitude
(geralmente complexa) associada a ele. Por consequência, em experimentos tais como dupla
fenda, cada foton individual chega a um ponto discreto da tela, mas como mais e mais fótons
são acumulados, eles formam um padrão de interferência geral. Após o colapso, o sistema
evoluirá de acordo com a equação de Schrödinger.
O grupo de fenômenos descritos pela expressão colapso da função de onda é um problema
fundamental na interpretação da mecânica quântica como problema da medição. O problema
não foi realmente confrontado pela interpretação de Copenhague que simplesmente postula
que esta é uma característica especial do processo de "medição". A interpretação de muitos
mundos de Everett contornou o problema descartando o processo de colapso, pela
reformulação da relação entre o aparato de medição e o sistema de tal forma que uma linha
das leis da mecânica quântica seja universal, isto é, o único processo de acordo com o qual os
sistemas quânticos evoluem é governado pela equação de Schrödinger. Freqüentemente preso
como a interpretação de muitos mundos mas não limitado a este processo físico
de entrelaçamento, o qual causa um colapso aparente, o entrelaçamento é também importante
para interpretação baseada nas Histórias consistentes.
Note que uma descrição geral da evolução dos sistemas de mecânica quântica é possível pela
utilização de operadores de densidadee operadores quânticos. Neste formalismo (o qual é
muito próximo do formalismo da álgebra C*) o colapso da função de onda corresponde ao
operador quântico não unitário.
Interpretações da mecânica quânticaOrigem: Wikipédia, a enciclopédia livre.
Mecânica quântica
Princípio da Incerteza
Introducão a...
Formulação matemática
[Expandir]Introdução[Expandir]Conceitos fundamentais[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Expandir]Interpretações[Expandir]Tópicos avançados[Expandir]Cientistas
ver • editar
A Wikipédia possui o portal:Portal de Física
Uma interpretação da mecânica quântica é uma tentativa de responder a questão: Sobre o que
trata exatamente a mecânica quântica? A questão têm as suas raízes históricas na natureza mesma
da mecânica quântica, que desde um princípio foi considerada como uma teoria radicalmente
diferente das teorias físicas precedentes. Porém, a mecânica quântica têm sido descrita como a
teoria "mais comprovada e de maior sucesso na história da ciência" (vide Jackiw and Kleppner,
2000.)
Mecânica quântica, como uma teoria científica, tem sido muito bem sucedida em prever resultados
experimentais. Isto significa, primeiro, que há uma correspondência bem definida entre os elementos
do formalismo (matemático, abstrato) e os procedimentos experimentais e, em segundo lugar, que
os resultado obtidos neste experimentos estão extremamente de acordo com o formalismo. Além
disso, que as questões básicas de que o que significa a mecânica quântica são ainda uma proposta
em si mesmas e requerem algumas explicações.
O entendimento da estrutura matemática da teoria trilhou vários estágios preliminares de
desenvolvimento. Por exemplo, Schrödinger de início não entendeu a natureza probabilística da
função de onda associada ao elétron; Foi Max Born que propôs uma interpretação de uma
distribuição de probabilidade no espaço para a posição do elétron. Outros cientistas de destaque,
tais como Albert Einstein, tiveram grande dificuldade em concordar com a teoria. Mesmo se estes
pontos forem tratados como problemas menores, eles têm grande importância para atividades de
interpretação.
Disto não se deve, porém, presumir que a maioria dos físicos considere que a mecânica
quântica necessite de uma interpretação, além das mínimas fornecidas pela interpretação
instrumentalista, as quais serão discutidas abaixo. A interpretação de Copenhague, no ano de2005,
ainda parecia ser a mais popular entre os cientistas (seguida pelas histórias
consistentese interpretação de muitos mundos). Mas também é verdade que a maioria
dos fisicos considera que questões não instrumentais (em particular questões ontológicas) sejam
irrelevantes para a física. Eles remetem ao ponto de vista de Paul Dirac, depois expresso em um
famoso ditado: "Cale-se e calcule" freqüentemente (talvez erroneamente) atribuído a Richard
Feynman (veja [1]).
Índice
[esconder]
1 Dificuldades de uma interpretação direta
2 Estado problemático das visões e interpretações
3 Interpretação instrumental
4 Propriedades das interpretações
5 Comparação
6 Ver também
7 Referências
8 Ligações externas
Dificuldades de uma interpretação direta [editar]
As dificuldades observadas na interpretação refletem vários pontos a respeito da descrição ortodoxa
da mecânica quântica. Neste artigo são destacados 4 destes pontos:
1. A natureza abstrata, matemática, da descrição da mecânica quântica.
2. A existência de processos não deterministicos e irreversíveis na mecânica quântica.
3. O fenômeno do entrelaçamento, e particularmente, a alta correlação entre eventos que se
esperariam remotos na física clássica.
4. A complementaridade de possíveis descrições da realidade.
Inicialmente, a aceita estrutura matemática da mecânica quântica era baseada profundamente em
abstrações matemáticas, tais comoespaço de Hilbert e operadores no espaço de Hilbert.
Em mecânica clássica e eletromagnetismo, por outro lado, as propriedades de um ponto material ou
as de um campo são descritas por números reais ou funções definidas em duas ou três dimensões.
Claramente, localmente falando, para estas teorias parece ser menos necessário prover uma
interpretação especial para estes números e funções.
Alem disto, os processos de medição apresentam um papel aparentemente essencial nesta teoria.
Eles se relacionam a elementos abstratos da teoria, tais como a função de onda, para
valores definidos operacionalmente, tais como probabilidades. Medições interagem com o estado do
sistema, de algumas maneiras peculiares, como ilustrado no experimento de dupla fenda.
O formalismo matemático usado para descrever a evolução temporal de um sistema não relativístico
propõe de certa forma dois tipos de transformações:
Transformações reversíveis descritas pelo operador unitário no estado espacial. Estas
transformações podem ser determinadas pela solução da equação de Schrödinger.
Transformações não reversíveis e não deterministicas descritas matematicamente por
transformações mais complicadas (vejaoperadores quânticos). Exemplos destas
transformações são aquelas experimentadas pelo sistema como resultado da medição.
Uma versão restrita do problema de interpretação da mecânica quântica consiste em prover algum
tipo de imagem plausível, justamente para este segundo tipo de transformação. Este problema deve
ser dirigido puramente por reduções matemáticas, por exemplo pela interpretação como na
de muitos mundos ou histórias consistentes .
Alem das características não deterministicas e irreversíveis do processo de medição, há outros
elementos da física quântica que a distinguem profundamente da física clássica e que não podem
ser representados por qualquer figura clássica. Um destes é o fenômeno do entrelaçamento,
ilustrado pelo paradoxo EPR, o qual parece violar o principio da casualidade local.
Outra obstrução para a interpretação direta é o fenômeno da complementaridade, o qual parece
violar os princípios básicos do lógica proposicional. A complementaridade diz não haver nenhuma
figura lógica (obedecendo a lógica proposicional clássica) que pode descrever simultaneamente e
ser usado para justificar todas as propriedades de um sistema quântico S. Isto pode ser
frequentemente formulado dizendo-se que há um conjunto de proposições
"complementares" A e B que pode descrever S, mas não ao mesmo tempo. Exemplos de A e B são
proposições envolvendo a descrição de S na forma de onda e corpuscular. O enunciado anterior é
uma parte de formulação original de Niels Bohr, a qual é frequentemente equaciona o principio da
complementaridade em si.
A completariedade não é tida usualmente como um prova da falha da lógica clássica, embora Hilary
Putnam tenha levantado este ponto de vista em seu trabalho Is logic empirical?. Ao contrário disto, a
complementariedade significa que a composição de propriedades físicas de S (tais como posição e
momento variando em uma certa faixa) possuem uma conectividade proposicional que não
obedecem as leis da lógica proposicional clássica. Como é agora bem demonstrado (Omnès, 1999)
"a origem da complementariedade encontra-se na não commutatividade dos operadores
descrevendo observáveis na mecânica quântica."
Estado problemático das visões e interpretações [editar]
O preciso estado ontológico, de cada uma das visões interpretativas, permanece um tema da
argumentação filosófica.
Em outras palavras, se nos interpretamos uma estrutura formal X da mecânica quântica por meio da
estrutura Y (via uma equivalência matemática das suas estruturas), qual é o estado de Y? Esta é
uma velha questão do formalismo científico, vista de um novo ângulo.
Alguns físicos, por exemplo Asher Peres e Chris Fuchs, apresentam a argumentação que uma
interpretação não é nada mais do que uma equivalência forma entre um conjuntos de leis para
operar dados experimentais. Isto deve sugerir que todo exercício de interpretação é desnecessário.
Interpretação instrumental [editar]
Qualquer teoria cientifica moderna requer pelo menos uma descrição instrumental a qual possa
relacionar o formalismo matemático a experimento prático. No caso da mecânica quântica, a
descrição instrumental mais comum é uma afirmação da regularidade estatística entre processo
preparação e o processo de medição. A esta geralmente é acrescentado a afirmação da
regularidade estatística de um processo de medição realizado em um sistema em um dado estado
φ.
Considere por exemplo a medição M de uma propriedade física observável com duas possíveis
saídas "para cima" ou "para baixo" que podem ser realizadas em um sistema S com espaço de
Hilbert H. Se a medição é realizada fora de um sistema do qual o estado quântico seja conhecido φ
∈ H, então, de acordo com as leis da mecânica quântica, a medição irá levar à mudança do estado
do sistema da seguinte forma: imediatamente após a medição o sistema se transformará em um dos
dois estados φpara baixo se a saída for "para baixo" ou φpara cima ser a saída for "para cima". A teoria
matemática fornece as seguintes expressões para este estado:
onde E para baixo and Epara cima são projeções ortogonais em dentro do espaço dos autovetores
do observado. Os números
têm uma descrição instrumental precisa em termo de freqüências relativas. Isto
significa que, em um ciclo infinito de experimentos de medições idênticos (no qual
todos os sistemas estão preparados no estado φ), a proporção de valores com
saída "para baixo" é Ppara paixo e a proporção de valores com a saída "para cima" é
Ppara cima. Note que Ppara cima, Ppara baixo são ambos números não negativos e:
tal que Ppara cima, Ppara baixo podem ser consideras realmente como probabilidades.
Por um abuso de linguagem, a simples descrição instrumental pode ser dita como
sendo uma interpretação, embora este uso seja de algum modo enganador já que
o instrumentalismo explicitamente evita qualquer regra explanatória; isto é, ele
não tenta responder à questão a qual mecanismo quântico estamos referindo.
Propriedades das interpretações [editar]
Uma interpretação pode ser caracterizada pelo fato de satisfazer certas
propriedades, tais como:
Realismo
Completude
Realidade local
Determinismo
Para exemplificar estas propriedades, nos devemos ser mais explícitos a cerca do
tipo de visão que a interpretação proporciona. Para finalmente considerar uma
interpretação como uma correspondência entre elementos do formalismo
matemático M e os elementos de uma estrutura interpretativa I, onde:
O formalismo matemático consiste do mecanismo do espaço Hilbertiano
de vetores-ket, operadores auto-adjunto atuando no espaço de vetores-ket,
com dependência temporal unitária dos vetores-ket e operações medição.
Neste contexto uma operação de medição pode ser considerada como uma
transformação a qual leva um vetor-ket em uma distribuição de probabilidade
de vetores-ket. Veja também operadores quânticos para uma formalização
deste conceito.
A estrutura de interpretação incluem estados, transições entre estados,
operações de medição e possíveis informações a respeito da extensão
espacial destes elementos. Como uma operação de medição a qual retorna
um valor e resulta em uma possível mudança de estado no sistema.
Informações espaciais, por exemplo, podem ser exibidas por estados
representados como funções na configuração espacial. A transição deve ser
não-deterministica ou probabilística ou ter infinitos estados. De qualquer
forma, a concepção critica de uma interpretação é que os elementos de I são
tratados como realidade física.
Neste sentido, uma interpretação pode ser interpretada como uma semântica para
o formalismo matemático.
Particularmente, a limitada visão instrumentalista da mecânica quântica delineada
na seção anterior não é uma interpretação completa desde que ela não faz
referência a respeito da realidade física.
O uso atual na física de "inteireza" e "realismo" é freqüentemente considerado
tendo sido usada originalmente no trabalho (Einstein, 1935) que propôs
o paradoxo EPR. Neste trabalho os autores propõem o conceito de "elemento da
realidade" e "inteireza" de uma teoria física. Embora eles não tenham definido
"elemento da realidade", eles propõem uma boa caracterização para ele,
denominado-o como uma quantidade para qual um valor pode ser predito antes
que amedição em si a perturbe de alguma forma. O EPR define uma "teoria física
completa" como uma na qual cada elemento da realidade física é considerado
pela teoria. Do ponto de vista semântico da interpretação, uma teoria da
interpretação é completa se cada elemento da estrutura da interpretação é
considerado pelo formalismo matemático. Realismo é uma propriedade de cada
um dos elementos matemáticos do formalismo; qualquer elemento é real se
corresponde a alguma coisa na estrutura de interpretação. Por exemplo, em
algumas interpretações da mecânica quântica (tais como a interpretação de
muitos mundos) o vetor ket associado ao sistema é tido como correspondendo a
um elemento da realidade física, enquanto em outras isto não acontece.
Determinismo é uma propriedade caracterizada pela mudança de estado devido a
passagem do tempo, em outras palavras é que o estado a um dado instante do
tempo no futuro e uma função do estado presente (veja evolução). Isto deve nos
permitir esclarecer se uma estrutura interpretativa particular é ou não
deterministica, precisamente porque ela ter ou não uma clara escolha por um
paramento de tempo. Alem disto, uma dada teoria poderia ter duas interpretações,
uma das quais é deterministica, e outra não.
A realidade local tem duas partes:
O valor retornado pela medição corresponde ao valor de alguma função no
espaço de estado. Dizendo de uma outra forma, este valor é um elemento da
realidade;
Os efeitos da medição devem ter uma velocidade de propagação que não
excede alguma barreira universal (isto é, a velocidade da luz). De forma a
fazer sentido, operações de medição devem ser espacialmente localizada
numa estrutura de interpretação.
Uma formulação precisa do realismo local em termos de uma teoria de variáveis
local ocultas foi proposta por John Bell.
O Teorema de Bell e sua verificação experimental que restringe os tipos de
propriedade da que uma teoria quântica pode ter. Por exemplo, o teorema de Bell
implica que mecânica quântica não pode satisfazer o realismo local.
Comparação [editar]
Até este momento, não há evidência experimental que nos permita distinguir entre
as várias interpretações listadas abaixo. Para que possa evoluir, a teoria física
deve ser sustentável e consistente com ela mesmo e com a realidade; problemas
surgem somente quando tentamos "interpretá-la". Entretanto, existem atividades
de pesquisa sendo feita no sentido de realizar testes experimentais que poderiam
diferenciar entre a várias interpretações.
Algumas das interpretações mais importantes foram sumarizadas aqui:
Interpretação Deterministica?Função de onda real?
Um universo?
evitavariáveis ocultas?
evitacolapso da função de
onda?
Histórias consistentes(Copenhague "corrigida")
Não Não Sim Sim Sim
Interpretação copenhague
(Forma da Onda não é real)
Não Não Sim Sim Sim
Interpretação copenhague
( Forma da Onda é real)
Não Sim Sim Sim Não
Interpretação Transacional
Sim Sim Sim Sim Não
Consciência causa colapso
Não Sim Sim Sim Não
Interpretação de muitos mundos
Sim Sim Não Sim 1 Sim
Interpretação de Bohm
Sim Sim ² Sim Não Sim
1A interpretação de muitos mundos não tem variáveis ocultas, exceto se
consideramos entre os mundos em si.
²Bohm/de Broglie consideram que ambos partícula e função de onda ("onda guia
") são reais.
Cada interpretação tem muitas variações. É difícil obter uma definição precisa da
Interpretação de Copenhague; na tabela acima, duas variantes clássicas e uma
nova versão da interpretação de Copenhague são mostradas; uma que utiliza a
função de onda unicamente como uma ferramenta para calculo, e outra que utiliza
a função de onda como um "elemento da realidade ".
Ver também [editar]
Lista de tópicos da física
Histórias consistentes
Mecânica Quântica
Indeterminancia Quântica
Teorema de Bell
Interpretação de Bohm
Interpretação de Copenhague da mecânica quântica
Interpretação de muitos mundos
Interpretação transacional
Colapso da função de onda
Problema da medição
Computador quântico
Problemas insolúveis da Física
Filosofia da física
Histórias consistentesOrigem: Wikipédia, a enciclopédia livre.
Mecânica quântica
Princípio da Incerteza
Introducão a...
Formulação matemática
[Expandir]Introdução[Expandir]Conceitos fundamentais[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Esconder]Interpretações
Copenhague · Conjunta
Teoria das variáveis ocultas ·Transacional
Muitos mundos · Histórias consistentes
Lógica quântica · Interpretação de Bohm
[Expandir]Tópicos avançados[Expandir]Cientistas
ver • editar
A Wikipédia possui o portal:Portal de Física
Na mecânica quântica, a abordagem histórias consistentes pretende ser uma
modernainterpretação da mecânica quântica, geralmente a interpretação de Copenhague tida como
a mais convencional, provendo uma interpretação natural da cosmologia quântica. Alguns acreditam
que esta interpretação deriva do trabalho apresentado por Hugh Everett sendo uma versão moderna
da interpretação de muitos mundos. Outros discordam profundamente disto. A teoria se baseia no
critério de consistência que então permitiria a história de um sistema possa ser descrito pelas
probabilidades de cada história, que obedecem as leis da probabilidade clássica, enquanto preserva
a consistência com a equação de Schrödinger.
De acordo com esta a interpretação da mecânica quântica, o propósito da teoria da mecânica
quântica é predizer a probabilidade de várias histórias alternativas. Uma história é definida como
uma seqüência (produto) dos operadores de projeção em diferentes instantes no tempo:
O símbolo indica que os fatores no produto são ordenados cronologicamente de acordo
como os valores de : os operadores "passados" com menores valores de aparecem no
lado direito, e os do operadores "futuros" com os maiores valores de aparecem do lado
esquerdo.
Estas projeções de operadores podem corresponder a qual conjunto de problemas que incluam
todas que tratem de todas as possibilidades. Exemplificando, este poderiam ser o significado de
3 projeções: "o elétron atravessou a fenda da esquerda ", "o elétron atravessou a fenda da
direita" e "o elétron não passou por nenhuma das fendas". Um dos objetivos desta teoria é
mostrar que questões clássicas tais como “onde está meu carro” são consistentes. Nestes
casos deve-se usar um grande número de conjuntos de projeções, cada uma especificando a
localização do carro em alguma pequena região do espaço.
Uma história é uma seqüência destas questões, ou matematicamente o produto do
correspondente operador de projeção. As leis da mecânica quântica são para predizer as
probabilidades das histórias individuais, dadas condições iniciais conhecidas.
Finalmente, das histórias são requeiridas sua consistência, isto é:
para diferentes. Onde representa a matriz de densidade inicial, e o operador foi
expresso na figura Heisenberg. A necessidade de consistência permite postular que a
probabilidade da história é simplesmente
a qual garante que a probabilidade do "A ou B" é igual à probabilidade de "A" mais a
probabilidade de "B" menos a probabilidade de "A e B", e assim por diante. A
interpretação baseada em histórias consistentes é usada em combinação com a visão
do entrelaçamento quântico. O entrelaçamento quântico implica que somente
determinadas escolhas das histórias são coerentes, e permitem um cálculo
quantitativo da fronteira entre o domínio clássico e o quântico.
Em algumas interpretações baseadas em histórias consistentes não muda em nada
em relação ao paradigma da interpretação de Copenhague que somente as
probabilidades calculadas da mecânica quântica e a função onda têm um significado
físico. De forma a obter uma teoria completa, as regras formais acima devem ser
suplementadas com um espaço Hilbertiano particular e leis que governem a dinâmica
do sistema, pro exemplo um Hamiltoniana.
Na opinião de outros, ainda não foi feita uma teoria completa, portanto nenhuma
previsão é possível a respeito de qual conjunto de histórias consistentes irá sempre
ocorrer. Estas regras das histórias consistentes, o espaço Hilbertiano e o Hamiltoniano
devem ser suplementados por um conjunto selecionado de leis.
Os propositores desta moderna interpretação, tais como Murray Gell-Mann, James
Hartle, Roland Omnes, Robert B. Griffiths, eWojciech Zurek argumentam que esta
interpretação esclarece as desvantagens fundamentais da velha interpretação de
Copenhague, e pode ser usado como um modelo interpretacional para a mecânica
quântica.
Princípio da incerteza de HeisenbergOrigem: Wikipédia, a enciclopédia livre.
(Redirecionado de Indeterminancia Quântica)
Este artigo ou se(c)ção cita fontes fiáveis e independentes, mas elas não cobrem todo o texto (desde Maio de 2011).Por favor, melhore este artigo providenciando mais fontes fiáveis e independentes, inserindo-as em notas de rodapé ou no corpo do texto, nos locais indicados.Encontre fontes: Google — notícias, livros, acadêmico — Scirus — Bing. Veja como referenciar e citar as fontes.
Werner Heisenberg
Mecânica quântica
Princípio da Incerteza
Introducão a...
Formulação matemática
[Expandir]Introdução[Esconder]Conceitos fundamentais
Estado quântico · Função de onda
Superposição · Emaranhamento
Medição · Incerteza
Exclusão · Dualidade
Incoerência · Teorema de
Ehrenfest ·Tunelamento
[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Expandir]Interpretações[Expandir]Tópicos avançados[Expandir]Cientistas
ver • editar
A Wikipédia possui o portal:Portal de Física
O princípio da incerteza de Heisenberg consiste num enunciado da mecânica quântica, formulado
inicialmente em 1927 por Werner Heisenberg, impondo restrições à precisão com que se podem
efetuar medidas simultâneas de uma classe de pares de observáveis em nível subatômico.
Índice
[esconder]
1 Expressão
2 Natureza da medida em mecânica quântica
3 Observáveis e operadores
4 O papel do princípio da incerteza nas formulações modernas da mecânica quântica
5 Referências
6 Bibliografia
Expressão [editar]
Pode-se exprimir o princípio da incerteza nos seguintes termos:
O produto da incerteza associada ao valor de uma coordenada xi e a incerteza associada ao seu
correspondente momento linear pi não pode ser inferior, em grandeza, à constante de Planck
normalizada.[1] Em termos matemáticos, exprime-se assim:
onde é a Constante de Planck (h) dividida por 2π.
A explicação disso é fácil de se entender, e fala mesmo em favor da intuição, embora o raciocínio
clássico e os aspectos formais da análise matemática tenham levado os cientistas a pensarem
diferentemente por muito tempo. Quando se quer encontrar a posição de um elétron, por exemplo, é
necessário fazê-lo interagir com algum instrumento de medida, direta ou indiretamente. Por
exemplo, faz-se incidir sobre ele algum tipo de radiação. Tanto faz aqui que se considere a radiação
do modo clássico - constituída por ondas eletromagnéticas - ou do modo quântico - constituída
por fótons. Se se quer determinar a posição do elétron, é necessário que a radiação tenha
comprimento de onda da ordem da incerteza com que se quer determinar a posição.
Neste caso, quanto menor for o comprimento de onda (maior freqüência) maior é a precisão.
Contudo, maior será a energia cedida pela radiação (onda ou fóton) em virtude da relação
dePlanck entre energia e freqüência da radiação
e o elétron sofrerá um recuo tanto maior quanto maior for essa energia, em virtude do efeito
Compton. Como conseqüência, a velocidade sofrerá uma alteração não de todo previsível, ao
contrário do que afirmaria a mecânica clássica.
Argumentos análogos poderiam ser usados para se demonstrar que ao se medir a velocidade com
precisão, alterar-se-ia a posição de modo não totalmente previsível.
Resumidamente, pode-se dizer que tudo se passa de forma que quanto mais precisamente se medir
uma grandeza, forçosamente mais será imprecisa a medida da grandeza correspondente, chamada
de canonicamente conjugada
Algumas pessoas consideram mais fácil o entendimento através da analogia. Para se descobrir a
posição de uma bola de plástico dentro de um quarto escuro, podemos emitir algum tipo de radiação
e deduzir a posição da bola através das ondas que "batem" na bola e voltam. Se quisermos calcular
a velocidade de um automóvel, podemos fazer com que ele atravesse doisfeixes de luz, e calcular o
tempo que ele levou entre um feixe e outro. Nem radiação nem a luz conseguem interferir de modo
significativo na posição da bola, nem alterar a velocidade do automóvel. Mas podem interferir muito
tanto na posição quanto na velocidade de um elétron, pois aí a diferença de tamanho entre o fóton
de luz e o elétron é pequena. Seria, mais ou menos, como fazer o automóvel ter de atravessar dois
troncos de árvores (o que certamente alteraria sua velocidade), ou jogar água dentro do quarto
escuro, para deduzir a localização da bola através das pequenas ondas que baterão no objeto e
voltarão; mas a água pode empurrar a bola mais para a frente, alterando sua posição. Desta forma
torna-se impossivel determinar a localização real desta bola pois a própria determinação mudará a
sua posição. Apesar disto, a sua nova posição pode ser ainda deduzida, calculando o quanto a bola
seria empurrada sabendo a força das ondas obtendo-se uma posição provável da bola e sendo
provável que a bola esteja localizada dentro daquela área.
Natureza da medida em mecânica quântica [editar]
Como se pode depreender da argumentação acima exposta, a natureza de uma medida sofre sérias
reformulações no contexto da mecânica quântica. De fato, na mecânica quântica uma propriedade
leva o nome de observável, pois não existem propriedades inobserváveis nesse contexto. Para a
determinação de um observável, é necessário que se tenha uma preparação conveniente do
aparato de medida, a fim de que se possa obter uma coleção de valores do ensemble de entes do
sistema. Se não puder montar, ao menos teoricamente (em um Gedankenexperiment) uma
preparação que possa medir tal grandeza (observável), então é impossível determiná-la naquelas
condições do experimento.
Uma comparação tornará mais clara essa noção. No experimento de difração da dupla fenda, um
feixe de elétrons atravessando uma fenda colimadora atinge mais adiante duas outras fendas
paralelas traçadas numa parede opaca.
Do lado oposto da parede opaca, a luz, atravessando as fendas simultaneamente, atinge um
anteparo. Se se puser sobre este um filme fotográfico, obtém-se pela revelação do filme um padrão
de interferência de zonas claras e escuras. Esse resultado indica umanatureza
ondulatória dos elétrons, resultado esse que motivou o desenvolvimento da mecânica quântica.
Entretanto, pode-se objetar e afirmar-se que a natureza dos elétrons seja corpuscular, ou seja,
composta de fótons. Pode-se então perguntar por qual fenda o elétron atravessou para alcançar o
anteparo. Para determinar isso, pode-se pôr, junto de cada fenda, uma pequena fonte luminosa que,
ao menos em princípio, pode indicar a passagem dos elétrons por tal ou qual fenda. Entretanto, ao
fazê-lo, o resultado do experimento é radicalmente mudado. A figura de interferência, antes
presente, agora dá lugar a uma distribuição gaussiana bimodal de somente duas zonas claras em
meio a uma zona escura, e cujos máximos se situam em frente às fendas.
Isso acontece porque as naturezas ondulatória e corpuscular do elétron não podem
ser simultaneamente determinadas. A tentativa de determinar uma inviabiliza a determinação da
outra. Essa constatação da dupla natureza da matéria (e da luz) leva o nome de princípio da
complementaridade.
Essa analogia serve para mostrar como o mundo microfísico tem aspectos que diferem
significativamente do que indica o senso comum.
Para se entender perfeitamente o alcance e o real significado do princípio da incerteza, é necessário
que se distingam três tipos reconhecidos de propriedades dinâmicas em mecânica quântica:
Propriedades compatíveis: são aquelas para as quais a
medida simultânea e arbitrariamente precisa de seus valores não sofre nenhum tipo de
restrição básica. Exemplo: a medição simultânea das coordenadas x, y e z de uma
partícula. A medição simultânea dos momentos px,py e pz de uma partícula.
Propriedades mutuamente excludentes: são aquelas para as quais a medida simultânea é
simplesmente impossível. Exemplo: se um elétron está numa posição xi, não pode estar
simultaneamente na posição diferente xj.
Propriedades incompatíveis: são aquelas correspondentes a grandezas canonicamente
conjugadas, ou seja, aquelas cujas medidas não podem ser simultaneamente medidas
com precisão arbitrária. Em outras palavras, são grandezas cujas medidas simultâneas não
podem ser levadas a cabo em um conjunto de subsistemas identicamente preparados
(ensemble) para este fim, porque tal preparo não pode ser realizado. Exemplos: as
coordenadas x,y e z e seus correspondentes momentos px,py e pz, respectivamente. As
coordenadas angulares θi e os correspondentes momentos angulares Ji.
Observáveis e operadores [editar]
No formalismo matemático da mecânica quântica, os observáveis são representados por operadores
matemáticos sobre um espaço de Hilbert.
Esses operadores podem ser construídos a partir de seus equivalentes clássicos.
Na formulação de Heisenberg, as relações da incerteza podem ser dados na forma de um
operador comutador, que opera sobre dois outros operadores quaisquer:
onde A e B são operadores quaisquer.
No caso das relações de incerteza:
Dirac notou a semelhança formal entre o comutador e os parênteses de Poisson. Sabedor da
equivalência usada por Schrödingerquando este postulou a forma da equação de onda, Dirac
postulou as seguintes equivalências, que valem como receita para se acharem os operadores
quânticos correspondentes a grandezas clássicas:
A descrição ondulatória dos objetos microscópicos tem consequências teóricas importantes, como o
principio da incerteza de Heisenberg. O fato de os objetos microscópicos, em muitas situações,
terem uma localização no espaço mesmo que aproximada, implica que não podem ser descritos por
uma onda com um só comprimento de onda (onda plana), pois esta ocuparia todo o espaço. É
necessária uma superposição de comprimentos de ondas diferentes para se obter um "pacote" de
ondas mais bem localizado e que represente o objeto microscópico.
O papel do princípio da incerteza nas formulações modernas da mecânica quântica [editar]
Hoje em dia, o princípio da incerteza é importante principalmente por dois motivos: um histórico e
outro didático. Ambos são análogos: o princípio da incerteza mostra de maneira clara que
concepções clássicas a respeito da medida devem ser abandonadas.
No entanto, o princípio da incerteza *não* é um bom princípio (ou postulado) da mecânica quântica,
já que é inexato e pouco geral. A mecânica quântica não-relativística é totalmente descrita com
alguns postulados, dos quais as relações de incerteza de Heisenberg surgem de forma pouco
natural. Mas o espírito do princípio da incerteza é mantido: não se pode ter um sistema que, ao ser
medido, tenha a probabilidade 1 de se encontrar tanto uma ou outra grandeza, se essas grandezas
corresponderem a operadores que não comutam. Iremos explicar isto melhor adiante:
Todas as grandezas que podem ser medidas correspondem aos chamados "autovalores" de certos
objetos matemáticos chamados de operadores (na verdade, a natureza requer que esses
operadores sejam de uma classe especial, a dos "observáveis"). Chamemos um operador qualquer
de A, e chamemos seus autovalores de a_n (a_1 é um autovalor, a_2 é outro e assim por diante).
Existem estados quânticos, chamados "autoestados" (que representaremos por ) do
operador A, nos quais uma medida tem 100% de chance de encontrar o valor a_n. Esses
autoestados e esses autovalores são definidos pela seguinte equação:
Um operador é dito um observável se esses autoestados formarem uma "base". Diz-se que
um grupo qualquer de estados quânticos formam uma base se qualquer outro estado quântico puder
ser escrito como uma superposição deles. Ou seja, para qualquer estado quântico ,
Onde os coeficientes , em geral complexos, indicam o quanto os autoestados
correspondentes influenciam no estado resultante, . Um dos postulados da mecânica
quântica diz que a probabilidade de uma medida da grandeza A revelar o valor a_n é:
Quando o sistema está no autoestado , o postulado acima mostra que a probabilidade de se
encontrar o valor a_n correspondente é 100%. Assim, pode-se dizer que o sistema *possui a
grandeza A bem definida*.
Agora consideremos dois operadores A e B, como o operador da posição e o operador do momento.
Em geral, os autoestados de um operador não são os mesmos autoestados do outro operador.
Consequentemente, se o sistema está em um estado quântico onde a grandeza A é bem definida, a
grandeza B não será bem definida. Ou seja, haverá uma "incerteza" na grandeza B.
Mas, e se o sistema estiver num estado onde a grandeza A é bem definida, e efetuarmos uma
medida na grandeza B? Pode-se pensar que, então, saberemos exatamente o valor de ambas as
grandezas. Mas isso está errado, devido a outro dos postulados da mecânica quântica: se uma
medida de uma grandeza qualquer B revela o valor b_n, então o sistema *é perturbado pela
medida*, e passa para o autoestado correspondente à grandeza B_n.
Então, suponha que dois operadores A e B não possuem os mesmos autoestados. Se efetuarmos
em um sistema qualquer a medida da grandeza A, e encontrarmos um certo valor, o sistema se
torna um autoestado de A, com um valor bem definido de A e uma incerteza no valor de B. Se, após
isso, efetuarmos uma medida no valor de B, então lançamos o sistema num autoestado de B, com
um valor bem definido de B e uma incerteza no valor de A. Com isso, dizemos que é impossível
saber simultaneamente o valor da grandeza A e da grandeza B.
A incerteza entre a posição e o momento proposta por Heisenberg é, então, uma consequência dos
postulados da mecânica quântica, e não um postulado por si só.
Teorema de BellOrigem: Wikipédia, a enciclopédia livre.
Esta página ou secção foi marcada para revisão, devido a inconsistências e/ou dados de confiabilidade duvidosa. Se tem algum conhecimento sobre o tema, por favor verifique emelhore a consistência e o rigor deste artigo. Pode encontrar ajuda no WikiProjeto Física.
Se existir um WikiProjeto mais adequado, por favor corrija esta predefinição. Este artigo está para revisão desdemarço de 2011.
O teorema de Bell é o legado mais importante do físico teórico John Bell. Estabelece uma distinção
absoluta entre a mecânica quântica e a mecânica clássica, ou seja, não existe regime de variáveis
ocultas locais que possam reproduzir todos os resultados da mecânica quântica.
Na realidade, o teorema de Bell consiste em uma classe de desigualidades, uma das quais foi
demonstrada por John Bell, que no meado dos anos 60 examinou criticamente a proposta
apresentada por von Neumann da não-existência de variáveis ocultas.
Bell mostrou que a hipótese do realismo local, ou seja,
que uma partícula possui valores definitivos que não dependem do processo de observação
e
que a velocidade de propagação dos efeitos físicos é finita
não é compatível com a mecânica quântica.
O teorema de Bell ofereceu uma forma de quantificar alguns conceitos associados com o paradoxo
EPR e permitiu por fim os testes experimentais de rede quântica versus realismo local.
Foi comprovado pela primeira vez em 1972 por John Clauser, de Berkeley.
[editar]Implicações da violação da desigualdade de Bell
O fenômeno do entrelaçamento quântico que está por trás da violação da desigualdade de Bell é um
dos elementos da física quânticaque não pode ser representado em qualquer outra visão clássica da
física; outros elementos não clássicos são a complementaridade e o colapso da função de onda. O
problema da interpretação da mecânica quântica busca prover uma visão satisfatória deste
elementos.
Teorema de Bell, portanto, aplica-se apenas com os resultados estatísticos de muitas provações do
experimento. Simbolicamente, a correlação entre os resultados de um único par pode ser
representada como "+1" para uma correspondência, ou "-1" para uma não-correspondência.
Ao medir o "spin" dessas partículas entrelaçadas ao longo de eixos paralelos sempre
resultará em idênticos (ie, perfeitamente correlacionados) resultados, medição em
direções perpendiculares terá apenas uma chance de 50% de correspondência (ou seja,
terá uma probabilidade de 50% de um resultado não-correlacionado).
Tabela de casos básicosMesmo eixo Par 1 Par 2 Par 3 Par 4 … Par n
Alice, 0° + − − + … +Bob, 0° + − − + … +Correspondência:( +1 +1 +1 +1 … +1 ) / n = +1
(100% idêntico)
Eixos ortogonais Par 1 Par 2 Par 3 Par 4 … Par nAlice, 0° + − + − … −Bob, 90° − − + + … −Correspondência( −1 +1 +1 −1 … −1 ) / n = 0
(50% idêntico)
Alguns defensores da idéia das variáveis ocultas preferem aceitar a opinião de que estes
experimentos são controlados de fora por variáveis ocultas locais. Eles estão prontos para abrir mão
da localidade, explicando a violação da desigualdades de Bell por meio de uma teoria de variáveis
ocultas não locais, na qual a partículas trocam informação a respeito de seus estados. Esta é a base
dointerpretação de Bohm da mecânica quântica. Isto entretanto, requereria que por exemplo, que
todas as partículas do universo fossem capazes de instantaneamente trocar informações com todas
as outras.
Finalmente, um sub-produto das conseqüências das desigualdades de Bell é a asserção contra-
factual. Esta derivação refere-se a várias propriedade objetivas que não podem ser todas medidas
para qualquer partícula dada, desde que a ação de realizar a medição muda o seu estado. Em
relação ao realismo local esta dificuldade é prontamente transposta, tão logo se assuma que a fonte
é estável, produzindo a mesma distribuição estatística de todos os estados para todos sub-
experimentos. Se esta suposição é tida como injustificável, por conseqüência, podemos argüir que a
desigualdade de Bell é não comprovada. Na interpretação de muitos-mundos de Everett, a
suposição da asserção contra-factual é abandonada, esta interpretação assume que o universo se
divide para muitos observadores diferentes, cada um dos quais realiza uma medição para uma
observação diferente. Portanto a interpretação de muitos mundos pode ser aderente as
propriedades do realismo filosófico e ao principio da localidade e não viola as condições de Bell.
Interpretação de BohmOrigem: Wikipédia, a enciclopédia livre.
Mecânica quântica
Princípio da Incerteza
Introducão a...
Formulação matemática
[Expandir]Introdução[Expandir]Conceitos fundamentais[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Esconder]Interpretações
Copenhague · Conjunta
Teoria das variáveis ocultas ·Transacional
Muitos mundos · Histórias consistentes
Lógica quântica · Interpretação de Bohm[Expandir]Tópicos avançados[Expandir]Cientistas
ver • editar
A Wikipédia possui o portal:Portal de Física
David Bohm, aluno de Robert Oppenheimer e contemporâneo de Albert Einstein em Princeton, após
publicar seu Teoria Quântica, elogiado por Einstein como a mais clara explicação que lera sobre o
tema, reinterpretou a física quântica de forma divergente da Interpretação de Copenhagen.
A interpretação de Bohm generaliza a teoria da onda piloto de Louis de Broglie de 1927, a qual
apresenta que ambos: onda e partícula são reais. A função de onda evolui de acordo com aequação
de Schrödinger e de algum modo 'guia' a partícula. Isto assumindo um simples, e não dividido
universo (diferente da interpretação de muitos mundos) e é deterministica (diferente dainterpretação
de Copenhague). Isto quer dizer que o estado do universo evolui suavemente através do tempo,
sem o colapso da função de onda quando a medição ocorre, como nainterpretação de Copenhague.
Contudo, deve-se assumir a existência de um grande número devariáveis ocultas, as quais nunca
podem ser diretamente mensuradas.
Índice
[esconder]
1 Equação de Schroedinger
2 Fundamentação Matemática
3 Comentários
4 Criticas
5 Veja também
6 Ligações externas
7 Referências
Equação de Schroedinger [editar]
Inicialmente, Bohm dividiu a equação de Schroedinger em duas partes. A primeira era uma
recapitulação da física newtoniana clássica, e a segunda um campo informativo semelhante aondas.
A equação de Schroedinger define o movimento do elétron, e indica respostas para questões
sobre o comportamento e a natureza do elétron.
Contrariamente a Niels Bohr (complementaridade onda-partícula) e à escola de Copenhagen, Bohm
postulou que o elétron se comporta como uma partícula clássica comum, mas tendo acesso à
informação sobre o resto do universo. Bohm denominou o segundo termo de potencial quântico, um
campo informativo funcional que fornece ao elétron informações sobre o resto do universo físico.
Demonstrou que a influência desse potencial quântico dependia apenas da forma, e não da
magnitude desse tipo de função de onda, sendo portanto, independente da separação no espaço:
todo ponto no espaço contribui com informação para o elétron.
Esta explicação para o comportamento do elétron tem relação com o conceito de holomovimento e
com as ordens implícita e explícita que o compõem.
Fundamentação Matemática [editar]
Na equação de Schrödinger
,
onde a função de onda ψ(r,t) é uma função complexa da posição r e tempo t, a densidade
probabilidade ρ(r,t) é uma função real definida por
.
Sem perda de generalidade, nos podemos expressar a função de onda ψ em termos da
dendisdade de probabilidade real ρ = |ψ|2 e uma função de fase da variável real S que são
ambas também funções de posição e tempo
.
Quando fazemos isto, a equação de Schrödinger separa-se em duas equações,
com
.
Se identificarmos o momento como e a energia
como , então (1) é simplesmente a equação de
continuidade tendo a probabilidade de
,
e (2) estabelece que energia total é a soma da energia potencial,
energia cinética, e um termo adicional Q, que pode ser chamado
depotencial quântico. Não é por acaso que S possua a unidade e
típico nome variável de ação.
A partícula é vista como tendo uma posição definida, com uma
distribuição de probabilidade ρ que pode ser calculada da função de
onda ψ. A função de onda "guia" a partícula por meio do potencial
quântico Q. Muito deste formalismo foi desenvolvido por Louis de
Broglie, Bohm estendeu o caso de uma simples partícula para a o
de várias partículas e reinterpretou as equações. Elas também
foram estendias para incluir o spin, embora a extensão para
condições relativísticas não tenha sido bem sucedida.
Comentários [editar]
A interpretação de Bohm não é muito popular entre os físicos por
inúmeras razões cientificas e sociológicas que poderiam fazer parte
de um fascinante porem longo estudo, mas podemos ao menos
dizer onde é considerada menos elegante por alguns (ela foi
considerada como "superestrutura desnecessária" mesmo
por Einstein que sonhava com um substituto deterministico para
ainterpretação de Copenhague).
Presumivelmente a Einstein, e outros, não agradavam a não
localidade da maioria das interpretações da mecânica quântica,
como ele tentou mostrar sua incompletude no Paradoxo EPR. A
teoria de Bohm é de forma inevitável não local, o que conta como
um golpe contra ela; mas isto é menos importante agora, pois nos
últimos tempos a não localidade vem se tornando mais convincente
devido a verificação experimental da Desigualdade de Bell. Porém, a
teoria vem sendo usado por outros como base de inumeros livros
tais como Dancing Wu-li Masters, o qual tem por objetivo ligar a
física moderna a religiões orientais. Isto, como também os vários
amigos filosóficos padrões de Bohm como J. Krishnamurti, devem
ter levado alguns mais a desconsiderá-la.
A interpretação de Bohm versus Copenhague (ou quase
Copenhague como definida por Von Neumann e Dirac) são
diferentes em pontos cruciais: ontologia versus epistemologia;
potencial quântico ou informação ativa versus usual partícula-onda e
ondas de probabilidades; não localidade vs. localidade (deve-se
notar que a mecânica quântica padrão é também não local, veja
o paradoxo EPR); completude versus abordagem segmentária
normal.
Em seu livro póstumo "O universo não dividido", Bohm tinha (com
Hiley, e, certamente, em inúmeros outros papers) apresentou um
elegante e completa descrição do mundo físico. Esta descrição é em
muitos aspectos mais satisfatória antecessora, ao menos para Bohm
e Hiley. De acordo com a interpretação de Copenhague, há uma
esfera de realidade clássica, para objetos grandes e grandes
números quânticos, e uma esfera quântica separada. Não há um
único fragmento da teoria quântica na descrição do "mundo
clássico" – diferentemente da situação encontrada na versão da
mecânica quântica de Bohm. Estas diferenças afetam tão pouco nos
resultados dos testes experimentais que não existes consenso se a
interpretação de Copenhague, ou outra, poderá ser provada como
inadequada; ou os resultados são tão vagos para serem
interpretados de forma não ambígua. Os papers em questão são
listados no final desta pagina, cujo o principal assunto são os efeitos
quânticos, como predito por Bohm, são observados no mundo
clássico – algumas vezes de forma impensável na versão dominante
da interpretação de Copenhague.
A interpretação Bohmiana da Mecânica Quântica é caracterizada
pela seguintes aspectos:
É baseada nos conceitos da não localidade potencial quântico e
informação ativa. Por um lado deve-se mencionar que a
abordagem Bohmiana não é nova em relação a seu formalismo
matemático, mas uma reinterpretarão da abordagem
usual equação de Schrödinger (a qual sob certas aproximações
é a mesma clássica equação Hamilton-Jacobi), a qual
simplesmente, no processo de cálculo, adicionou-se um termo
que foi interpretado por Bohm como um potencial quântico e
desenvolvido como uma nova visão da mecânica quântica.
Então, Na interpretação de Bohm não é (como poderia sugerir o
livro The Undivided Universe) a originalidade do formalismo
matemático (que é a função de em uma forma central, e a
equação de Schrodinger aplicada a ela) – mas uma
interpretação que nega a características centrais da mecânica
quântica: não existência do dualismo partícula onda (o elétron é
uma partícula real guiada guiada por um campo potencial
quântico real); nenhuma abordagem epistemológica (isto é,
realidade quântica e ontologia).
1. talvez o mais a parte mais interessante a respeito da
abordagem de Bohm é o formalismo: ela dá uma nova versão
para o micro mundo, não somente uma nova (apesar de radical)
interpretação. Esta descreve um mundo onde conceitos como a
causalidade, posição e trajetória têm um significado físico
concreto. Colocando de lado as possíveis objeções com
respeito a não localidade, o possível triunfo da visão de Bohm
(por exemplo, não necessitar de nada parecido com Princípio
da complementaridade) - deixa-nos com uma impressão de que
Bohm talvez ofereça seja um novo paradigma e uma
absolutamente arrojada versão reformulada da uma antiga e
estabelecida mecânica quântica.
Bohm enfatizou que experimento e experiência englobam um
todo indivisível. Não há separação deste todo indivisível. O
potencial quântico Q não assume o valor zero no infinito.
Criticas [editar]
Os principais pontos de criticas, juntamente com as respostas dos
que advogam a interpretação de Bohm, foram sumarizadas nos
pontos que se seguem:
1. a função de onda deve " desaparecer" depois do processo de
medição, e este processo parece profundamente artificial no
modelo de Bohm.
Resposta: A teoria de von Neumann da medição
quântica combinada com a interpretação de Bohm explica físicos
comportam-se como se a função de onda "desaparecesse", a
despeito do fato que não há um "desaparecimento" verdadeiro.
o artificialismo teórico escolhe variáveis privilegiadas: enquanto
a mecânica quântica ortodoxa admite todas as variáveis
do espaço de Hilbert que são tratados sempre de forma
equivalente (muito parecido com as bases compostas de seus
autovetores), A interpretação de Bohm requer algumas
variáveis tenha um conjunto de "privilégios" que são tratados
classicamente – principalmente a posição. Não existe razão
experimental para pensar que algumas variáveis são
fundamentalmente diferentes de outras.
Reposta: Na física clássica, a posição é mais fundamental que
outras variáveis. Portanto, não devia ser estranho que isto pudesse
também ser verdadeiro na mecânica quântica.
O modelo Bohmiano é verdadeiramente não local: esta não
localidade passível de violar a invariância de Lorent;
contradições comrelatividade especial já eram esperadas; Estes
fatos criam uma tarefa profundamente não trivial: reconciliar os
atuais modelos dafísica de partículas, tais como teoria quântica
de campo ou teoria das cordas, com alguns testes
experimentais muito acurados da relatividade especial, sem
algumas explicações adicionais. Por outro lado, outras
interpretações da mecânica quântica – tais comoHistórias
consistentes ou interpretação de muitos mundos permite-nos
explicar o teste experimental do entrelaçamento quânticosem
qualquer utilização de não localidade.
Resposta: A teoria das cordas sugere uma teoria de campo quântico
não comunicante, a qual também introduz não-localidades e
violação da invariância de Lorentz. Portanto, na física moderna, não
localidade e violação da invariância de Lorentz não são tratados
como patologias, mas, ao invés disto, possibilidades interessantes.
Além disto, em algumas versões da interpretação de Bohm, a não-
localidade do potencial quântico é relativisticamente invariante na
mesma medida que a função de onda é relativisticamente invariante,
o que conduz a versões da interpretação de Bohm que respeitem
a covariância de Lorentz.
A interpretação Bohmiana tem problemas sutis para incorporar
o spin e outros conceitos da física quântica: os eigenvalores do
spin são discretos, e alem disto contradiz a invariância
rotacional ao menos que uma interpretação probabilística seja
aceita
Resposta: Há variantes da interpretação de Bohm na qual este
problema não aparece.
A interpretação Bohmiana também parece incompatível com as
modernas visões a respeito entrelaçamento que permite-nos
calcular a "barreira" entre o "micro-mundo quântico" e o "macro-
mundo clássico"; de acordo com o entrelaçamento, as variáveis
que exibem comportamento clássico são determinadas
dinamicamente, não por uma suposição.
Resposta: Quando a interpretação de Bohm e tratada juntamente
com a teoria de von Neumann da medição quântica, nenhuma
incompatibilidade com as visões a respeito
do entrelaçamento permanecem. Pelo contrario, a interpretação de
Bohm deve ser vista como uma complemento da teoria do
entrelaçamento, porque ela prove respostas para questões que o
entrelaçamento por si só não pode responder: Qual o motivo que
leva o sistema a ser conduzido a um simples e definido valor da
variável observada?
a interpretação de Bohm não leva a novas predições
mesuráveis, então isto não e realmente uma teoria cientifica.
Resposta: No domínio nos quais a interpretação convencional
da mecânica quântica não são ambíguos, as predições da
interpretação de Bohm são idênticos a aqueles da interpretação
convencional. Porem, no domínio no qual a interpretação
convencional é ambígua, tais como a questão do tempo observador
e posição-observador em mecânica quântica relativística, a
interpretação de Bohm conduz a predições mensuráveis novas e
não ambíguas.
Interpretação de CopenhagaOrigem: Wikipédia, a enciclopédia livre.
(Redirecionado de Interpretação de Copenhague)
Mecânica quântica
Princípio da Incerteza
Introducão a...
Formulação matemática
[Expandir]Introdução[Expandir]Conceitos fundamentais[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Esconder]Interpretações
Copenhague · Conjunta
Teoria das variáveis ocultas ·Transacional
Muitos mundos · Histórias consistentes
Lógica quântica · Interpretação de Bohm[Expandir]Tópicos avançados[Expandir]Cientistas
ver • editar
A Wikipédia possui o portal:Portal de Física
A Interpretação de Copenhague (português brasileiro) ou Interpretação de Copenhagen(português europeu) é a
interpretação mais comum da Mecânica Quântica e foi desenvolvida porNiels Bohr e Werner
Heisenberg que trabalhavam juntos em Copenhague em 1927. Pode ser condensada em três teses:
As previsões probabilísticas feitas pela mecânica quântica são irredutíveis no sentido em
que não são um mero reflexo da falta de conhecimento de hipotéticas variáveis
escondidas. No lançamento de dados, usamos probabilidades para prever o resultado
porque não possuímos informação suficiente apesar de acreditarmos que o processo é
determinístico. As probabilidades são utilizadas para completar o nosso conhecimento. A
interpretação de Copenhague defende que em Mecânica Quântica, os resultados são
indeterminísticos.
A Física é a ciência dos resultados de processos de medida. Não faz sentido especular
para além daquilo que pode ser medido. A interpretação de Copenhague considera sem
sentido perguntas como "onde estava a partícula antes de a sua posição ter sido medida?".
O ato de observar provoca o "colapso da função de onda", o que significa que, embora
antes da medição o estado do sistema permitisse muitas possibilidades, apenas uma delas
foi escolhida aleatoriamente pelo processo de medição, e a função de onda modifica-se
instantaneamente para refletir essa escolha.
A complexidade da mecânica quântica (tese 1) foi atacada pela experiência (imaginária) deEinstein-
Podolsky-Rosen, que pretendia mostrar que têm que existir variáveis escondidas para evitar "efeitos
não locais e instantâneos à distância". A desigualdade de Bell sobre os resultados de uma tal
experiência foi derivada do pressuposto de que existem variáveis escondidas e não existem "efeitos
não-locais". Em 1982, Aspect levou a cabo a experiência e descobriu que a desigualdade de Bell
era violada, rejeitando interpretações que postulavam variáveis escondidas e efeitos locais. Esta
experiência foi alvo de várias críticas e novas experiências realizadas por Weihs e Rowe
confirmaram os resultados de Aspect.
Muitos físicos e filósofos notáveis têm criticado a Interpretação de Copenhague, com base quer no
fato de não ser determinista quer no fato de propor que a realidade é criada por um processo de
observação não físico. As frases de Einstein "Deus não joga aos dados" e "Pensas mesmo que
a Lua não está lá quando não estás a olhar para ela?" ilustram a posição dos críticos. A experiência
do Gato de Schroedinger foi proposta para mostrar que a Interpretação de Copenhague é absurda.
A alternativa principal à Interpretação de Copenhague é a Interpretação de Everett dos mundos
paralelos.
Interpretação de muitos mundosOrigem: Wikipédia, a enciclopédia livre.
Este artigo ou se(c)ção cita fontes fiáveis e independentes, mas elas não cobrem todo o texto (desde Dezembro de 2011).Por favor, melhore este artigo providenciando mais fontes fiáveis e independentes, inserindo-as em notas de rodapé ou no corpo do texto, nos locais indicados.Encontre fontes: Google — notícias, livros, acadêmico — Scirus — Bing. Veja como referenciar e citar as fontes.
Mecânica quântica
Princípio da Incerteza
Introducão a...
Formulação matemática
[Expandir]Introdução[Expandir]Conceitos fundamentais[Expandir]Experiências[Expandir]Representações[Expandir]Equações[Esconder]Interpretações
Copenhague · Conjunta
Teoria das variáveis ocultas ·Transacional
Muitos mundos · Histórias consistentes
Lógica quântica · Interpretação de Bohm[Expandir]Tópicos avançados[Expandir]Cientistas
ver • editar
A Wikipédia possui o portal:Portal de Física
A Interpretação de muitos mundos (ou IMM) é uma interpretação da mecânica quântica que
propõe a existência de múltiplos "universos paralelos". A IMM foi formulada inicialmente porHugh
Everett para a explicação de alguns processos não determinísticos (tais como medição) na
mecânica quântica.
Embora varias versões de IMM tenham sido propostas desde o trabalho original de Everett, todas
compartilham duas idéias chaves. A primeira delas é a existência de uma função estadopara
todo universo a qual obedece a equação de Schrödinger para todo tempo e para a qual não há
processo de colapso da onda. A segunda idéia é que este estado universal é umasobreposição
quântica de vários, possivelmente infinitos, estados de idênticos universos paralelos não
comunicantes.
As idéias da IMM originaram-se na tese de Ph. D. de Hugh Everett na Universidade de Princeton,
mas a frase “muitos mundos” é devida a Bryce DeWitt, que posteriormente desenvolveu algumas
das idéias presentes no trabalho original de Everett. A formulação de DeWitt tornou-se tão popular
que muitos confundem-na com o trabalho original de Everett.
IMM é uma das muitas hipóteses multiverso na física e na filosofia.
Índice
[esconder]
1 Muitos mundos e o problema da interpretação
2 Visão geral
3 Estado relativo
4 Propriedades comparativas e suporte experimental
5 Um exemplo simples
6 Traço Parcial e estado relativo
o 6.1 Estados coerentes como estados relativos
o 6.2 Ramificações múltiplas
o 6.3 Operadores quânticos gerais
o 6.4 Ramificação
7 Aceitação da interpretação de muitos mundos
8 Muitos mundos na literatura e ficção cientifica
9 Referências
10 Ver também
11 Ligações externas
Muitos mundos e o problema da interpretação [editar]
Como outras interpretações da mecânica quântica, a interpretação de muitos mundos é motivada
pelo comportamento que pode ser ilustrado pela experiência da dupla fenda. Quando partículas de
luz (ou algo semelhante) são conduzidos através de uma dupla-fenda, uma explicação baseada no
comportamento de onda para luz é necessária para identificar onde as partículas deverão ser
observadas. Já quando as partículas são observadas, elas se mostram como partículas e não como
ondas não localizadas. Pela interpretação de Copenhague da mecânica quântica é proposto um
processo de "colapso" do comportamento de onda para o de partícula para explicar o fenômeno
observado.
Na época em que John von Neumann escreveu seu famoso tratado Mathematische Grundlagen der
Quantenmechanik em 1932, o fenômeno do "colapso da função de onda" era acomodado em dentro
da formulação matemática da mecânica quântica postulando-se que havia dois processos de
transformação da função de onda:
A mudança descontinua e de natureza aleatória que é ocasionada pelo processo de
observação.
A evolução no tempo de um sistema isolado que obedece a equação de Schrödinger, que
é determinista.
O fenômeno do colapso da função de onda por (1) proposto pela interpretação Copenhague foi
amplamente considerada como artificial e ad-hoc, e conseqüentemente uma interpretação
alternativa na qual o comportamento da medição pudesse ser entendido a partir de um principio
físico mais fundamental era amplamente desejável.
A tese de doutorado de Everett tinha a intenção de prover uma interpretação alternativa. Everett
propôs que para um sistema composto (por exemplo, aquele formado por uma partícula que
interage com o aparato de medição), não se pode associar um estado bem definido a um
determinado subsistema. Isto levou a Everett sugerir a noção de estado relativo de um subsistema
em relação a outro.
O formalismo de Everett para compreender o processo do colapso da função de onda como um
resultado da observação é matematicamente equivalente a superposição de funçōes de onda.
Everett deixou a pesquisa física logo apos obter seu Ph.D, tendo como resultado que suas idéias
foram desenvolvidas por outros pesquisadores.
Visão geral [editar]
Na formulação de Everett, um aparato de medição M e um sistema objeto S formam um sistema
composto, cada parte do qual antes da medição existem em estados bem definidos (mas tempo-
dependentes). A medição é tida como causadora da interação de M e S. Apos S interagir com M,
não é mais possível descrever ambos sistemas como estados independentes. De acordo com
Everett, a única descrição possível de cada sistema são estados relativos: por exemplo o estado
relativo de S dado o estado de M ou o estado relativo de M dado o estado de S. Na formulação de
DeWitt, o estado de S após a medição é dado pela superposição quântica das historias alternativas
de S.
Por exemplo, considere o menor sistema quântico verdadeiro possível S, como mostrado na
ilustração. Este descreve por exemplo, o estado-spin de um elétron. Considerando um eixo
especifico (digamos o eixo z) o pólo norte representando o spin "para cima" e o pólo sul, spin "para
baixo". Os estados de superposição do sistema descrito pela (a superfície da) esfera, chamada
de esfera de Bloch. Para se executar uma medição em S, deve-se interagi-lo com um outro sistema
similar a M. Após esta interação, o sistema combinado é descrito por um estado que abrange um
espaço de seis dimensões (o motivo para o número 6 é explicado no artigo sobre a esfera de Bloch).
Este objeto de 6 dimensões pode também ser concebido a como uma superposição quântica de
duas "histórias alternativas" do sistema original S, uma das quais "para cima" foi observada e a
outra na qual o "para baixo" foi observado. Cada subseqüente medição binária (que é uma interação
com o sistema M) causa uma divisão similar na árvore da história. Portanto após três medições, o
sistema pode se apresentar como a superposição quântica, o sistema pode ser representado
inicialmente como uma superposição quântica de 8= 2 × 2 × 2 copias do sistema original S.
A terminologia aceita é de algum modo enganosa porque é incorreto considerar o universo esteja se
dividindo um certo número de vez.
Estado relativo [editar]
O objetivo do formalismo do estado-relativo, como originalmente proposto Everett em 1957 na sua
dissertação de doutorado, foi interpretar o efeito da observação externa englobada inteiramente no
arcabouço desenvolvido por Dirac, Von Neumann e outros, descartando totalmente o mecanismo
ad-hoc de colapso da função de onda. Desde trabalho original de Everett, tem surgido alguns
formalismos similares na literatura. Um destes será discutido na próxima seção.
Do formalismo do estado-relativo, nos podemos obter a interpretação do estado-relativo por duas
suposições. A primeira é que a função de onda não é só uma simples descrição do estado do
objeto, mas que ela é realmente inteiramente equivalente ao objeto, esta exigência foi muito comum
em outras interpretações. A segunda e que o observador não possua uma condição especial, ao
contrario da interpretação de Copenhague a qual considera o colapso da função de onda como um
tipo especial de evento que ocorre como resultado da observação.
A interpretação de muitos mundos é reconstruída por DeWitt a partir de um formalismo de estado (e
interpretação). Everett refere-se ao sistema (tal como o observador) como sendo dividido por uma
observação, cada divisão corresponde a um resultado possível de se obter pela observação. Estas
divisões geram uma árvore de possibilidade como mostrada no gráfico abaixo. Subseqüentemente
DeWitt introduziu o termo "mundo" para descrever uma história completa da medição de um
observador, a qual corresponde a um caminho iniciado na raiz daquela árvore. Note que "divisão"
neste sentido, é dificilmente novo ou inédito na mecânica quântica. A idéia de um espaço de
histórias completamente alternativas já foi usada pela teoria da probabilidade desde meados de
1930, por exemplo, para o modelo do movimento Browniano. A inovação no ponto de vista DeWitt's
foi que as várias histórias completamente alternativas podem se sobrepor para formar um novo
estado.
No contexto da interpretação de muitos mundos, a equação de Schrödinger influência todos os
instantes e lugares. Uma observação ou medição de um objeto por um observador é modelada pela
aplicação da equação de onda de Schrödinger a todo sistema englobando o observador e o objeto.
Uma conseqüência é que cada observação pode ser tida como a causadora de divisão da função
universal de onda na superposição quântica de dois ou mais ramos não comunicantes, ou
"mundos". Desde muitos eventos semelhantes de observação estão constantemente acontecendo,
há um enorme número de simultâneos estados de existência simultâneos.
Se um sistema é composto de dois ou mais subsistemas, o estado do sistema típico será uma
superposição dos produtos dos estados dos subsistemas. Uma vez que os subsistemas interajam,
seus estados não mais completamente independentes. Cada produto dos estados subsistema irão
acabar envolvendo no decorrer do tempo o estada dos outros. Os subsistemas se
tornaramentrelaçados e não será possível mais considerá-los como sendo independentes. O termo
usado por Everett's para este entrelaçamento de subsistemas foi estado relativo, desde que cada
subsistema deve ser agora considerado relativamente aos outros subsistemas como o qual ele
tenha interagido.
Propriedades comparativas e suporte experimental [editar]
Uma das características a se salientar da interpretação de muitos mundos é que o observador não
requer de uma construção especial (tal como o colapso da função de onda) para ser explicada.
Muitos físicos, por outro lado, não gostam da implicação de haver infinitos universos alternativos não
observáveis.
Como desde 2002, não foram feitos experimentos práticos que para distinguir entre as
interpretações de muitos mundos e Copenhague, e na ausência de dados amostrais, a escolha de
uma delas é de caráter pessoal. Porem, uma das áreas de pesquisa e planejar experimentos os
quais possam distinguir entre as várias interpretações da mecânica quântica, embora exista algum
ceticismo se esta é mesmo uma questão importante a ser respondida. Realmente, pode ser
argumentado que há uma equivalência matemática entre Copenhague (quando é expressa, por
exemplo, como um conjunto de algoritmos para manipulação densidade de estado) e muitos
mundos (o qual da as mesmas respostas das de Copenhague usando uma visão matemática mais
elaborada) o que parece mostrar que esta empreitada seja impossível. Porem, esta equivalência
algorítmica não deve ser verdadeira em escala cosmológica. Foi proposto que em um mundo com
infinitos universos alternativos, os universos que se colapsam existem por um tempo menor que os
universos que se expandem, este fenômeno pode causar um diferença detectável probabilidade
entre as interpretações de muitos mundos e Copenhague.
Na interpretação de Copenhague, a matemática da mecânica quântica permite prever
a probabilidades para a ocorrência de vários eventos. Na interpretação de muitos mundos, todos
estes eventos ocorrem simultaneamente. O que se obtem por estes cálculos de probabilidade? E
porque nos devemos observar, em nossa história, que eventos com alta probabilidade parecem
ocorrer com mais freqüência? Uma das respostas para esta questão é dizer que há medição
probabilidade no espaço de todos universos, onde um possível universo é uma arvore completa do
universo de ramificação. Isto é o que realmente este calculo produz. Então nos deveríamos esperar
encontrar-nos mesmo em um universo com alta probabilidade do que em um de relativamente baixa
probabilidade: mesmo que todas as saídas em uma experimento ocorram, elas não ocorrem de igual
maneira.
A interpretação de muitos mundos não deve ser confundida com a interpretação com a muitas
mentes a qual postula que é somente a mente do observador que se divide ao invés de todo
universo.
Um exemplo simples [editar]
Considere-se formalmente o exemplo apresentado na introdução. Considere um par
de partículas de spin 1/2, A e B, na qual nos unicamente consideraremos o spin observável (em
particular sua mudança de posição). Como um sistema isolado, A partícula A é descrita por
um Espaço de Hilbert de duas dimensões HA; similarmente a partícula B é descrita por um Espaço
de Hilbert HB. O sistema composto é descrito pelo produto tensor:
o qual é de dimensão 2 x 2. Se A e B não estão interagindo, o conjunto de tensores puros
é invariante no que se refere a evolução temporal; de fato, nos somente consideramos os
observáveis do spin para os quais as partículas isoladas são invariantes, o tempo não terá
efeito a prior na observação. Porém, apos a interação, o estado do sistema composto é um
possível estado de entrelaçamento quântico, o qual não é um tensor puro.
O estado de entrelaçamento mais geral é uma soma
Para este estado corresponde um operador linear HB → HA o qual aplica estados puros
para estados puros.
Esta aplicação (essencialmente numa normalização modular do estado) é
o aplicação do estado relativo definido por Everett, como associado a um
estado puro de B correspondente a estado relativo(puro) associado de A. Mais
precisamente, há uma únicadecomposição polar de TΦ tal que
e U é uma aplicação isométrica definido em algum sub-espaço de HB. Veja
também decomposição de Schmidt.
Note que a matriz de densidade do sistema composto é pura. Porém, é
também possível considerar a matriz densidade reduzidadescrevendo a
partícula A isolada tomando o traço parcial sobre os estados da partícula B. A
matriz de densidade reduzida, ao contrario da matriz original descreve
um estado misto. Este exemplo em particular é baseado no paradoxo EPR.
O exemplo anterior pode ser generalizado facilmente para sistemas
arbitrários A, B sem nenhuma restrição na dimensão de espaço de Hilbert
correspondente. Em geral, o estado relativo é uma aplicação linear isométrica
definida no subespaço de HB para valores emHA.
Traço Parcial e estado relativo [editar]
A transformação de um sistema quântico resultante do processo de medição,
tal como na experiência de dupla fenda discutida acima, pode ser facilmente
descrita matematicamente de uma forma que seja consistente a maioria
dos formalismos matemáticos. Nos iremos apresentar uma destas
descrições, também chamada de estado reduzido, baseada no conceito traço
parcial, o qual pode ser processo pela interação, resume para um tipo de
conhecimento formalismo muitos mundos. Isto então é um pequeno passo do
formalismo de muitos mundos para a interpretação de muitos mundos.
Por definição, assumir-se-á que o sistema sempre é uma partícula tal como
o elétron. A discussão do estado reduzido e muitos mundos não é diferente
no caso que se nos considerarmos qualquer outro sistema físico, incluindo
um "sistema observador". No que se segue, nos deveremos considerar não
somente estados puros para o sistema, mas mais genericamente estados
mistos; Estes são certamente operadores lineares no espaço
Hilbertiano H descrevendo o sistema quântico. Sem duvida, como vários
cenários medição apontados, o conjunto de estados puros não relacionados
com a medição. Matematicamente, a matriz de densidade são misturas
estatísticas de estados puros. Operacionalmente um estado misto pode ser
identificado como a agrupamento estatísticoresultante de um especifico
procedimento preparação laboratorial.
Estados coerentes como estados relativos [editar]
Suponha que tenhamos um agrupamento de partículas tal que o estado S dele é puro. Isto
significa que haverá um vetor unitário ψ emH tal que S é o operador dado em notação bra-
ket pela fórmula seguinte:
Agora consideremos um experimento para determinar se a partícula deste agrupamento
tem uma propriedade particular: Por exemplo, a propriedade poderia ser a localização da
partícula em alguma região A do espaço. O experimento pode ser preparado para se
comportar seja como uma medição de um observador ou seja como um filtro. Como uma
medição, determinará que a variável Qassume o valor 1 se a partícula se encontra em A e
0 no caso contrario. Como um filtro, ele deixará passar somente aquelas partículas que se
encontram em A e impedindo a passagem das outras.
Matematicamente, uma propriedade é dada pela sua projeção auto-adjunta E no espaço
de Hilbert H: Aplicando o filtro para um pacote de partículas, algumas delas serâo
rejeitadas, e outras passam. Agora será possível mostrar que uma operação de filtro
ocasiona o "colapso" do estado puro como no seguinte exemplo: prepara-se um novo
estado composto dado pelo operador densidade
onde F = 1 - E.
Para ver isto, note-se que como um resultado da medição, o estado das partículas
imediatamente após a medição é um eigevetor deQ, que é um dos dois estados
puros...
com as respectivas probabilidades
A forma matemática da de apresentação deste estado combinado é pela
utilização de combinação convexa de estados puros:
na qual o operados S1 acima.
Comentário. O uso da palavra colapso neste contexto é de alguma
maneira diferente daquela usada na explicação da interpretação de
Copenhague. Nesta discussão não se irá referir a um colapso ou
transformação da onda em nenhuma parte, mas particularmente da
transformação de um estado puro em um estado misto.
As considerações precedente são completamente padrões da maioria dos
formalismos da mecânica quântica. Agora considere um sistema
"ramificado" o qual seguindo espaço de Hilbert é
onde H2 é uma espaço de Hilbert bi-dimensional com vetores de
base and . A ramificação no espaço pode ser entendida como
um sistema composto constituído do sistema original (do qual agora
é um subsistema) juntamente com um sistema não-interativo
subordinado qbit simples. No sistema ramificado, considere o estado
entrelaçado
Nos podemos expressar este estado na matriz de densidade
formatado como . Multiplicando resulta em:
O traço parcial do estado misto foi obtido pela somatória dos coeficientes do operador
de and na expressão acima. Isto resulta em estado misto em H. De fato, este
estado misto é idêntico ao estado composto "pos filtragem" S1 acima.
Sumarizando, nos temos descrição matemática do efeito do filtro para a partícula no estado
puro ψ no seguinte caminho:
O estado original é ampliado com sistema qubit subordinado.
O estado puro do sistema original é substituído por um estado de entrelaçamento puro
de um sistema subordinado e
O estado pos-filtro do sistema é o traço parcial do estado entrelaçado para o estado
subordinado.
Ramificações múltiplas [editar]
No curso do tempo de vida do sistema esperar-se-ía que muitos eventos de filtragem
ocorressem. A cada um destes eventos, uma ramificação ocorre. De forma que isto seja
consistente com estrutura de ramificação como descrito na ilustração acima, nos deveremos
mostrar que se um evento de filtragem ocorre em um dos caminhos do nodo raiz da árvore,
então teremos que assumir que ele ocorrera em todas as ramificações. Isto mostra que a
árvore é consideravelmente simétrica, que é para cada nodo n da árvore, a forma da árvore
não muda pelo intercâmbio da sub-árvores imediatamente abaixo deste nodo n.
De forma a mostrar esta propriedade de uniformidade de ramificação, note que alguns cálculos
resultam no mesmo se o estado original de S é composto. De fato, o estado pos-filtragem será
o operador de densidade:
O estado S1 é o caminho parcial de
Isto significa que cada medição subseqüente (ou ramificação) ao longo de um destes
caminhos da raiz da árvore para um nodo folha corresponde a uma ramificação
homologa ao longo de cada caminho. Isto garante a simetria da árvore de muitos
mundos em relação a rotação os nodos filhos de cada nodo.
Operadores quânticos gerais [editar]
Nas duas seções anteriores, tem-se a representação da operação de medição em
sistemas quânticos em termos de estados relativos. De fato existe uma classe mais
ampla de operadores que devem ser considerados: estes são conhecidos
como operadores quânticos. Considerado as operações com operadores densidade no
sistema de espaço Hilbertiano H, isto se dará da seguinte forma:
onde I é um conjunto finito ou indexado infinitamente comutável. Os
operadores Fi são chamados de operadores de Kraus.
'Teorema. Dado
Então
Além disso, o mapeamento V definido por
é tal como
Se γ é uma operador quântico que preserva o caminho,
então V é um mapa linear isométrico
Onde a soma direta de Hilbert e feita sobre todas as copias
de H indexadas pelos elementos de I. Podemos considerar
tais mapas Φ como embutidos. Em particular:
Corolário. Qualquer operador quântico que preserve o
caminho é a composição de uma isometria embutida e um
caminho parcial.
Isto sugere que o formalismo de muitos mundos pode ser
considerado para uma classe mais geral de transformações
da mesma forma que foi feita para uma simples medição.
Ramificação [editar]
Em geral, pode-se mostrar a propriedade da ramificação
uniforme da árvore como se segue: Se
e
onde
e
então um calculo fácil mostra
Isto também demonstra que entre as
medições propriamente ditas dos
operadores quânticos (isto é, não-
unitária), podemos interpolar uma
arbitraria evolução unitária.
Aceitação da interpretação de muitos mundos [editar]
Há uma ampla gama de pontos a serem considerados na interpretação de "muitos mundos". É
freqüentemente salientado (ver a referência a Barret) que Everett por si mesmo não estava
inteiramente consciente do que ela significava. Além disso, popularmente tem-se usado
freqüentemente a interpretação de muitos mundos para justificar afirmações a respeito do
relacionamento entre a consciência e o mundo material. Fora destas interpretações new-age,
interpretações do tipo "muitos mundos" são consideradas suficientemente coerentes.
Por exemplo, um a votação entre 72 físicos de destaque, conduzida pelo pesquisador
Americano David Raub em 1995 e publicada em um periódico Francês Sciences et Avenir em
Janeiro de 1998, registrou que aproximadamente 60% acreditavam que a interpretação de
muitos mundos era verdadeira. Max Tegmark (veja referencia para sua web page abaixo)
também relata o resultado de uma pesquisa feita no Seminário de mecânica quântica de 1997.
De acordo com Tegmark, "A interpretação de muitos mundo está cotada em segundo lugar,
confortavelmente à frente das histórias consistentes e interpretações de Bohm." Outras
votações não cientificas têm sido feitas noutras conferências: ver por exemplo o blogue
de Michael Nielsen [1] o qual relata algumas destas votações. Porém, o valor destas votações
é um tanto discutível.
Um dos mais fortes defensores da Interpretação de muitos mundos é David Deutsch. De
acordo com Deutsch, o padrão de interferência observado com um único no experimento de
dupla fenda, pode ser explicado pela interferência das fotos nos múltiplos universos. Visto
desta forma, o experimento de interferência de um único fóton é indistinguível de um
experimento de vários fótons. De um ponto de vista mais prático, numa das suas mais recentes
publicações de computação quântica (Deutsch 1985), ele sugere que o paralelismo que resulta
da validade da IMM poderia conduzir a "um método pelo qual certas tarefas probabilísticas
poderiam ser feitas mais rápidas por um computador quântico universal do que por qualquer
um com restrições clássicas ".
Asher Peres foi um crítico aberto a IMM, por exemplo, em uma seção em seu livro texto
de 1993 com o título Interpretação de Everett e outras teorias bizarras . De fato, Peres
questiona se MWI é realmente uma "interpretação" ou mesmo se interpretações da mecânica
quântica são mesmo necessárias. Além disso, a interpretação de muitos mundos pode ser
considerada como meramente uma transformação formal, a qual não adiciona nenhuma regra
instrumentalista (i.e. estatístico) à mecânica quântica. Talvez mais significativo, Peres parece
sugerir a crença da existência de um número infinito de universos não-comunicantes que
somente piora o problema que supõem tentar resolver.
IMM é considerada por alguns como sendo não testável, porque os múltiplos universos
paralelos são não comunicáveis no sentido que informação não pode passar entre eles. Além
disso, como também foi salientado (por exemplo, por Peres) que votações de "aprovação" tais
como as mencionadas acima não podem ser usadas como evidência da correção ou não de
uma teoria em particular.
Muitos mundos na literatura e ficção cientifica [editar]
A interpretação de muitos mundos (e o conceito relacionado dos mundos possíveis) tem sido
associado com diversos temas naliteratura, arte e ficção científica.
Ao lado da violação de princípios fundamentais da casualidade e relatividade, estas histórias
são extremamente equivocadas desde que estrutura da teoria da informação de caminhos dos
múltiplos universos (que é o fluxo de informações entre os diferentes caminhos) é
extraordinariamente complexa. Veja também FAQ de Michael Price referenciado na seção de
links externos abaixo onde estes temas (e outros similares) são tratados como mais detalhes.
Outro tipo da visão popular da divisão em muitos mundos, a qual não envolve fluxo de
informações entre os caminhos ou informação fluindo para trás no tempo considera finais
alternativos para eventos históricos. Do ponto de vista da física quântica, estas histórias são
incorretas por pelo menos dois motivos:
Não há nada que relacione a mecânica quântica com a descrição dos desdobramentos
de eventos históricos. De fato, este tipo de analise baseada em casos é uma técnica
comum no planejamento é pode ser analisada quantitativamente pela probabilidade
clássica.
O uso de eventos históricos é uma forma complicada para introdução a teoria quântica
já que se geralmente se considera ser este assunto externo a ela, especialmente a
questão da natureza da escolha individual.
Imortalidade quânticaOrigem: Wikipédia, a enciclopédia livre.
Imortalidade quântica é definida como uma especulação controversa derivada do experimento
mental do suicídio quântico que afirma que a interpretação de muitos
mundos de Everett da mecânica quântica implica que seres conscientes são imortais1 2 .
[editar]A Teoria
Suicídio quântico consiste em uma teoria criada a partir de um experimento mental no qual
imagina-se um homem que se senta frontalmente a uma arma e a aponta para sua cabeça. A arma
está ligada a uma máquina que mede o spin de fótons. A cada 10 segundos, o spin de um novo
fóton é medido; dependendo do seu valor, a arma é disparada ou não.
Como existe a possibilidade de 50% para cada caso, a Interpretação de muitos mundos diz que, a
cada turno do experimento, as duas possibilidades serão verdadeiras, com uma divisão do universo
nas duas versões possíveis. Logo, se o gatilho for acionado pela primeira vez a arma não dispara; o
gatilho é novamente acionado e novamente a arma não dispara. O gatilho continuará a ser acionado
com o mesmo resultado: a arma não vai disparar, uma vez que a partícula manterá seu spin
idêntico.
Mas, de acordo com a interpretação de muitos mundos, quando o gatilho é acionado pela primeira
vez, o universo se divide em dois, e, numa outra versão da realidade, a medida mostra que o spin
do fóton tem um dado valor. Conseqüentemente, a arma dispara e o homem morre. Mas como
vimos inicialmente, a cada nova realização do experimento, os dois casos serão verdadeiros. Ele
não tem consciência disso, mas está vivo e morto, e cada vez que o gatilho é acionado, o universo
se divide em dois e vai continuar a se dividir cada vez que o gatilho for acionado, criando múltiplas
realidades. Não importa quantas vezes o gatilho for acionado, em uma das realidades possíveis a
arma não irá disparar e assim, ele vai continuar o processo eternamente, tornando-se "imortal".
[editar]Surgimento
A idéia do Suicídio quântico foi introduzida pelo então teórico da Universidade de Princeton Max
Tegmark3 em 1997 (atualmente professor do MIT), baseada na teoria dos muitos mundos que
contrasta com a interpretação de Copenhagen; esta teoria, resumidamente, diz que para cada
possível resultado de uma ação que ocorra, a realidade se "divide" em uma cópia de si mesma
através de um processo instantâneo o qual Everett chamou de "descoesão".
Hugh Everett IIIOrigem: Wikipédia, a enciclopédia livre.
Este artigo ou secção está a ser traduzido. Ajude e colabore com a tradução.
Hugh Everett III
Física
Nacionalidade Estadunidense
Residência EUA
Nascimento 11 de Novembro de 1930
Local Washington, D.C., Maryland,EUA
Falecimento 19 de julho de 1982 (51 anos)
Local McLean, Virgínia, EUA
Actividade
Campo(s) Física
Alma mater Universidade Católica da América
Universidade de Princeton
Orientador(es) John Archibald Wheeler
Conhecido(a) por Interpretação de muitos mundos
Física quântica
ver
Hugh Everett III (11 de Novembro, 1930 – 19 de Julho, 1982) foi um físicoestadunidense que
propôs a interpretação de muitos mundos (IMM) da física quântica, que ele chamou formulação
do "estado relativo".
Abandonou a física após completar seu Ph. D., desanimado pela falta de respostas a suas
teorias pelos outros físicos1 . Desenvolveu o uso de Multiplicadores de
Lagrangena investigação operacional e aplicou esta comercialmente como analista de defesa e
consultor. Foi casado com Nancy Everett née Gore, com quem teve dois filhos, Mark Oliver
Everett (vocalista da banda Eels) e Elizabeth Everett.
Vida e educação [editar]
Everett nasceu e cresceu em Washington, D.C.. Após a Segunda Guerra Mundial, o pai de
Everett foi mandado para a Alemanha Ocidental, e Hugh visitou Leipzig naAlemanha Oriental,
em 1949. Graduou-se na Universidade Católica da América em 1953 em engenharia química, e
então recebeu uma bolsa da Fundação Nacional da Ciência, que lhe permitiu frequentar
a Universidade de Princeton. Iniciou seus estudos na Universidade de Princeton no
Departamento de Matemática trabalhando no então novo campo da teoria dos jogos, mas
seguiu lentamente em Física. Em 1953 ele começou a ter suas primeiras aulas de física,
notavelmente Introdução à Física Quântica com Robert Dicke.
Muitos mundos em Princeton e depois [editar]
Para seu segundo ano, em Princeton, a partir de 1954, ele se mudou para o Departamento de
Física. Seu curso principal naquele ano foi de Métodos de Física Matemática com Eugene
Wigner, embora ele permaneceu ativo em matemática e apresentou um trabalho sobre a teoria
dos jogos militares em dezembro. Ele passou seus exames em geral, na Primavera de 1955,
ganhando assim o seu Mestrado, e depois começou a trabalhar na sua tese que (muito) depois
o tornaria famoso. Ele trocou de orientador de tese para John Wheeler há algum tempo, em
1955, escreveu um par de artigos curtos sobre a teoria quântica e completou o seu extenso
trabalho,Ondas Mecânicas Sem Probabilidade em abril de 19562 , mais tarde renomeado
como A Teoria da Função de Onda Universal, e, eventualmente, defendeu sua tese depois de
algum atraso na primavera de 1957. Um pequeno artigo, que foi um compromisso entre Everett
e Wheeler sobre como apresentar o conceito e quase idêntico à versão final de sua tese,
apareceu emReviews of Modern Physics Vol 29 # 3 454-462, (julho 1957), acompanhada por
uma revisão de apoio por Wheeler. O mundo da física deu pouca atenção. Everett já havia
deixado a academia para o trabalho da defesa.
A dissertação de Everett foi digitada pela secretária departamental da Universidade de
Princeton, Nancy Gore, com quem se casou no ano seguinte.3 4
Durante Março e Abril de 1959, a pedido de Wheeler, Everett visitou Copenhagen, em férias
com sua esposa e filha, a fim de conhecerNiels Bohr, o "pai da interpretação de
Copenhague da mecânica quântica ". A visita foi um tremendo desastre; Everett era
simplesmente incapaz de comunicar a idéia central de que a função de onda deveria ser
considerada como um campo real clássico, o que era simplesmente uma heresia para Bohr e
os outros em Copenhague. O abismo conceitual entre as suas posições era simplesmente
demasiado grande para permitir uma reunião de mentes; Léon Rosenfeld, um dos seguidores
de Bohr, falando sobre a visita de Everett, descreveu Everett como sendo "indescritivelmente
estúpido e não poderia entender as coisas mais simples na mecânica quântica". Everett mais
tarde descreveu a experiência como "um inferno ... condenado desde o início".5
Em 1962, Everett aceitou um convite para apresentar a formulação do estado-relativo (como
ainda era chamado) em uma conferência sobre os fundamentos da mecânica quântica
realizada na Universidade Xavier de Cincinnati.5 Na sua apresentação Everett mostrou sua
derivação da probabilidade e também explicitamente que os observadores em todos os ramos
da função de onda eram igualmente válidos. Ele também concordou com uma observação que
o número de ramos da função de onda universal era um conjunto infinito.
Multiverso (ciência)Origem: Wikipédia, a enciclopédia livre.
Esta página ou secção não cita nenhuma fonte ou referência, o que compromete suacredibilidade (desde julho de 2012).Por favor, melhore este artigo providenciando fontes fiáveis e independentes, inserindo-as no corpo do texto por meio de notas de rodapé. Encontre fontes: Google — notícias, livros, acadêmico —Scirus — Bing. Veja como referenciar e citar as fontes.
Impressão artistica de um multiverso nível 9
'Teoria do multiverso' é um termo usado para descrever um hipotético grupo de todos
os universos possíveis; geralmente usado na ficção científica, embora também como consequência
de algumas teorias científicas, para descrever um grupo de universos que estão relacionados
(universos paralelos). A ideia de que o universo que se pode observar é só uma parte da realidade
física deu luz a definição do conceito "multiverso".
O conceito de Multiverso tem suas raízes na moderna Cosmologia e na Teoria Quântica e engloba
várias ideias da Teoria da Relatividade de modo que pode ser possível a existência de
inúmeros Universos onde todas as probabilidades quânticas de eventos ocorrem. Simplesmente há
espaço suficiente para acoplar outros universos numa estrutura dimensional maior: o chamado
Multiverso.
Os Universos seriam, em uma analogia, semelhantes a bolhas de sabão flutuando num espaço
maior. Alguns seriam até interconectados entre si por buracos negros ou de buracos de minhoca.
Devido ao facto da teoria quântica ser em sua grande parte teórica, impossibilita, atualmente,
qualquer tipo de prova tecnicamente real, como a prova visivel do conceito Multiverso. Imagina-se
um esquema em que todas as bolas de sabão se agregavam mutuamente por uma infinita vastidão.
O conceito de Multiverso implica numa contradição em relação a atual busca pela teoria do Campo
Unificado, uma vez que em cada Universo ("bolha de sabão") pode-se imaginar que haja diferentes
Leis Físicas.
As diferentes Teorias de Multiverso também são utilizadas para contraposição à ideia do Design
Inteligente e seu Argumento da Improbabilidade ou Argumento do Universo Bem Ajustado. Ou seja,
são utilizadas como explicação para a improbabilidade estatística das leis da física (constantes
físicas fundamentais, relatividade das forças nucleares, eletromagnetismo, gravidade entre
partículas fundamentais, etc) serem tão bem ajustadas para permitirem a construção do universo tal
qual o conhecemos. Se existem múltiplos universos, em um número muito grande, a probabilidade
de pelo menos um deles se desenvolver de forma a possibilitar a vida se torna plausível.
O entrelaçamento quântico é um fenômeno da mecânica quântica que permite que dois ou
mais objetos estejam de alguma forma tão ligados que um objeto não possa ser corretamente
descrito sem que a sua contra-parte seja mencionada - mesmo que os objetos possam estar
espacialmente separados. Isso leva a correlações muito fortes entre as propriedades físicas
observáveis dos diversos sub-sistemas.
Essas fortes correlações fazem com que as medidas realizadas num sistema pareçam estar a
influenciar instantaneamente outros sistemas que estão emaranhados com ele, e sugerem que
alguma influência estaria a propagar-se instantaneamente entre os sistemas, apesar da
separação entre eles. Mas o emaranhamento quântico não permite a transmissão de
informação a uma velocidade superior à da velocidade da luz, porque nenhuma informação útil
pode ser transmitida desse modo. Só é possível a transmissão de informação usando um
conjunto de estados emaranhados em conjugação com um canal de informação clássico -
aquilo a que se chama o teletransporte quântico.
O emaranhamento quântico é a base para tecnologias emergentes, tais como computação
quântica, criptografia quântica e tem sido usado para experiências como o teletransporte
quântico. Ao mesmo tempo, isto produz alguns dos aspectos teóricos e filosóficos mais
perturbadores da teoria, já que as correlações previstas pela mecânica quântica são
inconsistentes com o princípio intuitivo do realismo local, que diz que cada partícula deve ter
um estado bem definido, sem que seja necessário fazer referência a outros sistemas distantes.
Os diferentes enfoques sobre o que está a acontecer no processo do emaranhamento quântico
dão origem a diferentes interpretações da mecânica quântica.
A interpretação transacional da mecânica quântica (em inglês, Transactional Interpretation
of Quantum Mechanics, TIQM), proposta por John Cramer em 1986,1 2 é
uma interpretaçãopouco usual da mecânica quântica que descreve as interações quânticas
como uma onda estacionária formada pela combinação de uma onda que precede a partícula
(avançada no tempo) e uma outra onda que segue a partícula (retardada no tempo). Essa
interpretação descreve todo evento quântico como se fosse um "aperto de mãos" entre a onda
avançada e a onda retardada.3 4 Segundo Cramer, essa maneira de ver as coisas é mais
intuitiva, evita o problema filosófico do papel do observador (presente na interpretação de
Copenhague) e resolve vários paradoxos quânticos. De acordo com o autor, a interpretação
transacional é coerente com os resultados da experiência da borracha quântica de escolha
retardada de Marlan Scully, ao passo que a interpretação de Copenhague e a interpretação
dos mundos múltiplos não o são.5 . A interpretação transacional é também consistente
com Experimento de Afshar, apresentado em 2004 pelo físico iraniano Shahriar S. Afshar.6
A existência de ondas adiantadas e retardadas como soluções válidas das equações de
Maxwell já havia sido proposta em 1945, por R. Feynman e J. Wheeler (citados no artigo
original de John Cramer) na teoria do absorvedor. Isso lhes permitiu resolver o problema
da autoenergiado elétron. Mais tarde, eles desistiram da ideia das ondas que voltassem no
tempo.
J. Cramer retomou a ideia das duas ondas para formular sua interpretação transacional
da teoria quântica. Enquanto a equação de Schrödinger usual não admite soluções avançadas,
sua versão relativista permite essas soluções, as quais são empregadas na interpretação
transacional. De acordo com essa interpretação, qualquer fonte normalmente emite uma onda
retardada com a metade da amplitude observada, enquanto o detector emite uma onda
avançada com a mesma meia amplitude. As fases da onda retardada e avançada são
correlacionadas de tal forma que as ondas interferem positivamente na região do espaço-
tempocorrespondente à onda verdadeira (observável) e interferem negativamente em todas as
outras regiões do espaço-tempo (isto é, antes do ponto de emissão e depois do ponto de
absorção). Para o observador, esta onda padrão no espaço-tempo pareceria como se uma
partícula viajasse através do espaço.
Cramer adotou a TIQM no seu curso de mecânica quântica na Universidade de Washington,
em Seattle.
O problema da medição em mecânica quântica, é um problema não resolvido de como
acontece o colapso da função de onda. A incapacidade de observar esse processo diretamente
deu origem as diversas interpretações da mecânica quântica, e possuiu um conjunto chave de
questões que cada interpretação devem responder. A função de onda, na mecânica quântica,
envoluem de acordo com a equação de Schrödinger em uma superposição linear de diferentes
estados, mas a medida real sempre encontra o sistema físico em um estado definitivo.
Qualquer evolução futura é baseada no estado do sistema que foi descoberto ao se realizar a
medição, significando que a medição "fez alguma coisa" sobre o processo em questão.
Sistemas quânticos podem ser descritos por uma função de estado que evolui de maneira
linear e determinística, segundo a Equação de Schrödinger. Uma outra maneira de o sistema
evoluir é passar instantaneamente, durante o processo de medição, de uma superposição de
auto-estados para um auto-estado específico. A primeira forma de evolução não traz problema
algum, sendo compatível com o eletromagnetismo de Maxwell e também com a física
newtoniana. Para a segunda forma, cria-se um problema ainda não resolvido pela teoria
quântica (TQ): como acontece o colapso da função de onda, onde a superposição colapsa num
auto-estado? Este problema é conhecido como “O Problema da Medição”. “As raízes do
problema se encontram nos primórdios da física quântica”, discutido pelos fundadores da
teoria, como Niels Bohr, Albert Einstein e Erwin Schrödinger, entre outros.
Em 1932, John Von Neuman introduziu um postulado, que denominou de “postulado de
projeção” aquilo que na literatura era conhecido como “redução do pacote de onda”. Pelo
postulado, a equação de Schrödinger não teria validade durante os processos de medição.
Teríamos então dois processos: na ausência de medição, o processo seria regido pela
equação de Schrödinger, evoluindo de modo linear, contínuo e determinístico; no outro, durante
a medição, o processo evoluiria regido pelo postulado de projeção, sendo não-linear,
descontínuo e probabilístico.
O Problema da Medição é, segundo alguns físicos, uma prova da incompletude da teoria
quântica porque não consegue tratar adequadamente esses dois processos. Para outros,
dentre eles o próprio Bohr, o problema sequer existe, pois esta é uma característica especial do
processo de "medição".
O Princípio da Incerteza, formulado por Werner Heisenberg, estabelece que a posição e o
momento de uma partícula (assim como tempo e energia) são grandezas conjugadas e não se
pode precisar, simultaneamente, o valor de uma sem perda de precisão, proporcional, no valor
da outra. Isso está relacionado com diversas situações da TQ, dentre elas o Problema da
Medição.
Para certas interpretações da mecânica quântica, A função de onda evolui de acordo com a
equação de Schrödinger em uma superposição linear de diferentes estados, mas, durante o
processo de medição, a medida real sempre encontra o sistema físico em um estado definido.
Qualquer evolução futura é baseada no estado do sistema que foi revelado ao se realizar a
medição, significando que a medição "fez alguma coisa" sobre o processo em questão,
provocando o colapso da função. Contudo, quando a função de onda colapsa, da perspectiva
de um observador, o estado parece "pular" de uma superposição de auto-estados para aquele
auto-estado em particular. Após o colapso, o sistema continuará evoluindo de acordo com a
Equação de Schrödinger. No entanto, a equação não faz qualquer alusão à causa do colapso.
Fala apenas que o auto-estado é descrito por um vetor unitário, sendo que este auto-estado
está associado a um autovalor. O vetor guarda as probabilidades para o resultado de todas as
possíveis medições aplicadas ao sistema. Como o colapso acontece fica fora da explicação.
Einstein e Schrödinger defendiam, junto com outros físicos, a incompletude da teoria por não
relacionar satisfatoriamente esses aspectos à sua base; Bohr, um dos fundadores da teoria, no
entanto, afirmava que a teoria quântica estava completa e que ela poderia dizer tudo o que era
possível dizer sobre o sistema.
O Gato de Schrödinger. Num experimento de pensamento, um gato vivo, átomos de um
elemento químico que sofre decaimento espontâneo a um dado intervalo de tempo, um frasco
contendo veneno e um contador Geiger são postos em uma caixa lacrada. Se o contador
Geiger detectar radiação, o frasco é quebrado, liberando o veneno, matando o gato. Quando se
abre a caixa depois de um intervalo de tempo, devemos encontrar o gato vivo ou morto?
Segundo a teoria quântica, teríamos a probabilidade de 50% de encontrar o gato vivo e de 50%
de probabilidade de encontrar o gato morto. Poderíamos, então, encontrar uma superposição
desses estados (auto-estados), o gato vivo-morto. Mas isso nunca é verificado. Sempre que
abrirmos a caixa, ou o gato estará vivo, ou estará morto. Perguntas ainda em aberto
questionam o que acontece no instante em que um evento colapsa, como, por exemplo,
quando abrimos a caixa e encontramos o gato num auto-estado (um estado bem definido) ou
vivo ou morto. O que força o colapso para um auto-estado? Por que não vemos uma
superposição de estados (gato vivo-morto) “onde o vetor de estado do gato estaria
emaranhado com aquele de um sistema microscópico, tal como um átomo”? O que acontece
na transição do mundo microscópico para o macroscópico? “A impressão é que, na ausência
de mecanismos internos à teoria capazes de justificar a não-ocorrência de certas
superposições na escala macroscópica, a validade universal da mecânica quântica seria posta
em questão justamente por nossas experiências mais familiares.” (OSNAGHI, 2005).
Em um outro experimento de pensamento, que ficou conhecido como paradoxo EPR,
formulado por Einstein, Podolsky e Rosen, estes cientistas demonstraram que o resultado de
uma medição realizada em uma parte do sistema quântico poderia ter um efeito instantâneo no
resultado de uma medição realizada em outra parte (ou mais radicalmente, sequer seria
necessária a sua medição para se saber o resultado) independentemente da distância que
separa as duas partes. No experimento EPR tem-se uma fonte emissora de pares de elétrons,
com um elétron enviado para o destino A, onde existe uma observadora chamada Alice, e outro
elétron é enviado para o destino B, onde existe um observador chamado Bob. De acordo com a
mecânica quântica, podemos arranjar nossa fonte de forma tal que cada par de elétrons
emitido ocupe um estado quântico conhecido como singleto. Isto pode ser visto como uma
superposição quântica de dois estados; sejam eles I e II. No estado I, o elétron A tem spin
apontado para cima ao longo do eixo z (+z) e o elétron B tem seu spin apontando para baixo ao
longo do mesmo eixo z (-z). No estado II, o elétron A tem spin -z e o elétron B, +z. Quando
Alice mede o spin no eixo z ela pode obter duas possíveis respostas: +z ou -z. Suponha que
ela obteve +z. O estado quântico do sistema colapsou para o estado I. O estado quântico
determina a probabilidade das respostas de qualquer medição realizada no sistema. Neste
caso, se Bob a seguir, medir o spin no eixo z, ele obterá -z com 100% de certeza.
Similarmente, se Alice obtiver -z, Bob terá +z. Não há, certamente, nada de especial quanto à
escolha do eixo z. Por exemplo, suponha que Alice e Bob agora decidam medir o spin no eixo
x. O estado singleto do spin deve estar exprimido igualmente bem como uma superposição dos
estados de spin orientados na direção x. Chamemos tais estados de Ia e IIa. No estado Ia, o
elétron de Alice tem o spin +x e o de Bob, -x. No estado IIa, o elétron de Alice tem spin -x e o
de Bob, +x. Portanto, se Alice mede +x, o sistema colapsa para Ia e Bob obterá -x. Por outro
lado, se Alice medir -x, o sistema colapsa para IIa e Bob obterá +x.
Na mecânica quântica, o spin x e o spin z são "observáveis incompatíveis", significa que o
princípio da incerteza de Heisenberg está operando sobre eles (um estado quântico não pode
possuir um valor definido para ambas as variáveis). Suponha que Alice meça o spin z e
obtenha +z, com o estado quântico colapsando para o estado I. Agora, ao invés de medir o
spin z também, suponha que Bob meça o spin x. De acordo com a mecânica quântica, quando
o sistema está no estado I, a medição do spin x de Bob terá uma probabilidade de 50% de
produzir +x e 50% de -x. Além disso, é fundamentalmente impossível predizer qual resultado
será obtido até o instante em que Bob realize a medição. Os autores argumentavam que a
descrição quântico-mecânica, fornecida pelas funções ondulatórias não era completa “porque
violava a pressuposição da localidade”, entendida como base de qualquer teoria em
concordância com a Teoria da Relatividade Especial. Ademais, argumentaram que a posição e
o momento de uma das partículas poderiam ser considerados "elementos [simultâneos] de
realidade”.
Em 1964, John Stuart Bell formulou um teorema, conhecido como Teorema de Bell, onde
derivou uma desigualdade cujo valor era violado por certas situações da teoria quântica e
derrubava a possibilidade de existência de Teorias de Variáveis Ocultas (TVO's) Locais. Esse
fato foi importante para que se abrisse a possibilidade de testar experimentalmente a teoria
quântica para além de sua já bem-sucedida capacidade de previsão, além claro, de derrubar a
localidade, base do argumento EPR.
Na interpretação de muitos mundos, ou "estados relativos", Hugh Everett contornou o problema
da medição descartando o processo de colapso, pela reformulação da relação entre o aparato
de medição e o sistema, de tal forma que uma linha das leis da mecânica quântica seja
universal, ou seja, os sistemas quânticos evoluiriam de modo linear e deterministicamente, de
acordo com a equação de Schrödinger. Para Everett, o universo como um todo deveria ser
descrito por uma única função de onda. O aparente "colapso" que ocorre durante as medições
seria uma ilusão ligada à nossa "trajetória de configurações de memória".
Por fim, temos a entrada em cena de Eugene P. Wigner. Em seu trabalho sob o título “The
Problem of Measurement”, ele introduziu um paradoxo que ficou conhecido como “paradoxo do
amigo de Wigner”, pelo qual “a presença de um observador consciente em um processo físico
de medição leva a resultados diferentes (isso em termos da descrição fornecida pela TQ)”. Ele
propõe que a medição ocorre, e a função de onda colapsa, quando um observador consciente
vira-se para [olhar] o estado do aparato de medição. Nesse ponto de vista, o cérebro é descrito
de maneira ordinária dentro da mecânica quântica, mas a mente não; esta não estaria sujeita
às leis da física. Assim, qualquer ato de olhar (observar) é tido como uma medição.
Computador quânticoOrigem: Wikipédia, a enciclopédia livre.
A Esfera de Block é uma representação de um qubit, o bloco de construção fundamental de computadores
quânticos.
Um computador quântico é um dispositivo que executa cálculos fazendo uso direto de
propriedades da mecânica quântica, tais como sobreposição e interferência.
Teoricamente,computadores quânticos podem ser implementados e o mais desenvolvido atualmente
trabalha com poucos qubits de informação. O principal ganho desses computadores é a
possibilidade de resolver em tempo eficiente, alguns problemas que na computaçãoclássica
levariam tempo impraticável (exponencial no tamanho da entrada), como por exemplo, a fatoração
em primos de números naturais. A redução do tempo de resolução deste problema possibilitaria a
quebra da maioria dos sistemas de criptografia usados atualmente. Contudo, o computador quântico
ofereceria um novo esquema de canal mais seguro.
Computadores quânticos são diferentes de computadores clássicos tais comocomputadores de
DNA e computadores baseados em transístores, ainda que estes utilizem alguns efeitos da
mecânica quântica.
Índice
[esconder]
1 A estrutura dos computadores quânticos
2 O poder dos computadores quânticos
3 A história dos computadores quânticos
4 Como trabalha
o 4.1 Teoria da Complexidade
5 Referências
6 Ligações externas
7 Outras Informações
A estrutura dos computadores quânticos [editar]
Na Mecânica Quântica, é possível que uma partícula esteja em dois ou mais estados ao mesmo
tempo. Uma famosa metáfora denominada o gato de Schrödinger expressa esta realidade. Imagine
que um gato esteja dentro de uma caixa, com 50% de chances de estar vivo e 50% de chances de
estar morto; para a Mecânica Quântica, até abrirmos a caixa e verificarmos como está o gato, ele
deve ser considerado vivo e morto ao mesmo tempo. A esta capacidade de estar simultaneamente
em vários estados chama-se superposição.
Um computador clássico tem uma memória feita de bits. Cada bit guarda um "1" ou um "0" de
informação. Um computador quântico mantém um conjunto de qubits. Um qubit pode conter um "1",
um "0" ou uma sobreposição destes. Em outras palavras, pode conter tanto um "1" como um "0" ao
mesmo tempo. O computador quântico funciona pela manipulação destes qubits.
Um computador quântico pode ser implementado com alguns sistemas com partículas pequenas,
desde que obedeçam à natureza descrita pela mecânica quântica. Pode-se construir computadores
quânticos com átomos que podem estar excitados e não excitados ao mesmo tempo, ou
com fótons que podem estar em dois lugares ao mesmo tempo, ou com prótons e nêutrons, ou
ainda com elétrons e pósitrons que podem ter um spin ao mesmo tempo "para cima" e "para baixo"
e se movimentam em velocidades próximas à da luz. Com a utilização destes, ao invés de nano-
cristais de silício, o computador quântico é menor que um computador tradicional.
Uma molécula microscópica pode conter muitos milhares de prótons e nêutrons, e pode ser usada
como computador quântico com muitos milhares de qubits. A grande questão a ser resolvida hoje
para a implementação destas máquinas é a capacidade de controlar este sistema, já que as
interferências são grandes e o tempo de coerência dos estados das partículas, pequeno.
O poder dos computadores quânticos [editar]
Qubits são compostos de partículas controladas (por exemplo, dispositivos que aprisionam partículas e as
trocam de um estado para outro).
Encontrar todos os fatores primos de um número grande pode ser uma tarefa muito difícil. Um
computador quântico poderia resolver este problema muito rapidamente. Se um número tiver n bits
(ou seja, se tiver o comprimento de n dígitos quando escrito em binário), então um computador
quântico com um pouco mais de 2n qubits poderá encontrar os seus fatores. Também poderá
solucionar um problema relacionado, chamado problema dologaritmo discreto. Esta capacidade
poderia permitir a um computador quântico quebrar qualquer dos sistemas criptográficos atualmente
em uso. A maior parte das cifras de chave pública mais populares poderiam ser quebradas com
rapidez, incluindo formas da cifrasRSA, ElGammal e Diffie-Helman. Estas cifras são utilizadas para
proteger páginas web seguras, email encriptado e muitos outros tipos de dados. A quebra destes
códigos poderia ter um impacto significativo. A única forma de tornar seguro um algoritmo com
o RSA seria tornar o tamanho da chave maior do que o maior computador quântico que pudesse ser
construído. Parece provável que possa sempre ser possível construir computadores clássicos com
mais bits que o número de qubits no maior computador quântico, e se verificar que isto é verdade,
então algoritmos como o RSA poderão permanecer seguros.
Se um computador quântico fosse baseado nos prótons e nêutrons de uma molécula, seria talvez
demasiado pequeno para ser visível, mas poderia factorizar números inteiros com milhares de bits.
Um computador clássico a correr algoritmos conhecidos também poderia factorizar estes números,
mas para o conseguir fazer antes que o sol desaparecesse, teria de ser maior que universo
conhecido. Seria algo inconveniente construí-lo.
Não surpreendentemente, os computadores quânticos poderiam também ser úteis para correr
simulações de mecânica quântica. O aumento de velocidade poderia ser tão grande como para
factorizações. Isto poderia trazer grandes benefícios a muitos físicos.
Atualmente se sabe que essa vantagem dos computadores quânticos existe apenas para os três
problemas seguintes: fatoração, logaritmo discreto e simulações de física quântica. Existe outro
problema em que os computadores quânticos têm uma vantagem maior, porém menos significativa,
a busca quântica em base de dados, à qual é referida algumas vezes por square root speedup.
Suponha que existe um problema como encontrar a senha para desencriptar um arquivo. O
problema possui as quatro propriedades:
A única forma de resolvê-lo é chutar respostas repetidamente e verificá-las
Existem n respostas possíveis para se verificar
Toda resposta possível gasta o mesmo tempo de verificação
Não existem pistas indicando quais respostas sejam melhores. Gerar as possibilidades
aleatoriamente é tão eficiente quanto verificá-las em alguma ordem especial
Problemas com todas as quatro propriedades levarão uma média de n/2 tentativas para encontrar a
resposta usando um computador clássico. O tempo gasto por um computador quântico seria
proporcional à raiz quadrada de n. Isso pode representar um ganho enorme, encurtando o tempo
para solução de alguns problemas de anos para segundos. Essa vantagem pode ser usada para
atacar cifras simétricas tais como o 3DES e AES. Porém a defesa contra tal ataque é fácil,
consistindo em dobrar o tamanho da chave para a cifra. Há também mais métodos complicados
para tornar uma comunicação segura, tal como usar Criptografia Quântica.
Atualmente não há outro problema prático conhecido para o qual os computadores quânticos
mostrem um ganho expressivo sobre os computadores clássicos. As pesquisas continuam, e mais
problemas podem, então, ser identificados.
A história dos computadores quânticos [editar]
1981 - Richard Feynman elaborou a primeira proposta de utilizar um fenômeno quântico para
executar rotinas computacionais. Foi numa palestra apresentada na Primeira Conferência de
Computação Física no MIT. Ele mostrou que um computador tradicional levaria um tempo
extremamente longo para simular um simples experimento de física quântica. Por outro lado,
sistemas quânticos simples podem executar enormes quantidades de cálculos num curto espaço de
tempo. Poderia ser possível utilizar essa capacidade para se calcular algo útil.
1985 - David Deutsch, na Universidade de Oxford, descreveu o primeiro computador quântico
universal. Exatamente como umaMáquina de Turing pode simular outra máquina de Turing
eficientemente, um computador quântico universal é capaz de simular o funcionamento de outro
computador quântico com complexidade, no máximo, polinomial. Isso fez crescer a esperança de
que um dispositivo simples seja capaz de executar muitos algoritmos quânticos diferentes.
1994 - Peter Shor, no Bell Labs da AT&T em Nova Jersey, descobriu um excelente algoritmo. Ele
permite a um computador quântico fatorar grandes inteiros rapidamente. Ele resolve tanto o
problema da fatoração quanto o '[problema do logaritmo discreto. O Algoritmo de Shor poderia, em
teoria, quebrar muitos dos sistemas criptográficos em uso atualmente. Essa descoberta criou um
enorme interesse nos computadores quânticos, até fora da comunidade acadêmica.
1996 - Lov Grover, no Bell Labs, descobriu o algoritmo de pesquisa em bases de dados quânticas.
O speedup de raiz quadrada não foi tão dramático quanto o speedup para fatoração, logs discretos,
ou simulações físicas. Mas o algoritmo poderia ser aplicado a uma variedade muito maior de
problemas. Qualquer problema que tinha que ser resolvido por uma pesquisa de força bruta,
aleatória, podia agora ter um speedup de raiz quadrada.
1996(?) É Proposto o primeiro esquema para correção de erro quântico. Isso é uma aproximação a
computadores quânticos que podem processar grandes números de qubits por longos períodos de
tempo. Erros sempre são introduzidos pelo meio, mas uma forma de correção de erros quânticos
pode sobrescrevê-los e corrigi-los. Esta pode ser a chave tecnológica para a produção em larga
escala de computadores quânticos que realmente funcionam. Estas propostas adiantadas tiveram
um certo número de limitações. Poderiam corrigir alguns erros, mas não erros que ocorrem durante
o próprio processo da correção. Algumas melhorias foram sugeridas, e a pesquisa sobre esta
continua ativa.
O suspeito relacionamente da BQP à outros espaços de problema.
1999(?) - No MIT foram construídos os primeiros computadores quânticos baseados em montagem
térmica. O computador é , na verdade, uma única molécula pequena, que armazena qubits na
rotação (spin) de seus prótons e nêutrons. Trilhões e trilhões destas moléculas podem flutuar em um
copo da água. O copo está colocado em um equipamento de ressonância magnética nuclear, similar
à imagem por ressonância magnética das máquinas usadas nos hospitais. Este conjunto do room-
temperature (' ' thermal ' ') das moléculas (' ' ensemble ' ') tem quantidades maciças de redundância,
que permite que mantenha coerência muito melhor do que muitos outros sistemas propostos.
2007 - Empresa Canadense D-Wave afirmou ter desenvolvido um computador híbrido chamado
Orion que inclui um processador quântico de 16 qubits mas que também processa bits
convencionais 1 . Se confirmado, será a primeira máquina desse tipo capaz de realizar tarefas
práticas o que é surpreendente. Alguns especialistas vinham prevendo que demoraria 20 anos para
que os computadores quânticos pudessem ser usados na prática. O Orion seria capaz de resolver
problemas de lógica, encontrar soluções para o jogo Sudoku e pesquisar alternativas para drogas
usadas na indústria farmacêutica. Em seu estágio atual, o Orion não teria aplicação comercial. Mas
a D-Wave diz que vai produzir um computador de 32 qubits ainda neste ano. No primeiro semestre
de 2008, a empresa pretende chegar a 512 qubits para, em menos de dois anos, atingir 1 quiloqubit.
A comunidade científica recebeu o anúncio da empresa com ceticismo, por ela não ter liberado
maiores detalhes do processador.2
Como trabalha [editar]
Um computador clássico com três bits de memória pode apenas armazenar dois estados lógicos
(uns ou zeros). Num determinado momento, pode conter os bits "000" ou "001" ou "010" ou "011" ou
"100" ou "101" ou "110" ou "111". Um computador quântico pode atualmente armazenar 16 valores
analógicos em pares para formar 8 números complexos. Em um dado instante, ele poderia
conter isto:
Estado Amplitude Probabilidade
* (a+ib) (a²+b²)
000 0.37 + i 0.04 0.14
001 0.11 + i 0.18 0.04
010 0.09 + i 0.31 0.10
011 0.30 + i 0.30 0.18
100 0.35 + i 0.43 0.31
101 0.40 + i 0.01 0.16
110 0.09 + i 0.12 0.02
111 0.15 + i 0.16 0.05
Se existissem n qubits, então esta tabela teria 2n linhas. Para um n nas centenas, isso seriam mais
linhas do que os átomos conhecidos no universo.
A primeira coluna mostra todos os estados possíveis para os três bits. Um computador clássico
apenas suporta um destes padrões de cada vez. Um computador quântico pode colocar-se na super
posição de assumir os 8 estados simultaneamente. A segunda coluna mostra a "amplitude" para
cada um dos 8 estados. Estes 8 números complexos são uma imagem dos conteúdos de um
computador quântico num determinado momento. Durante a computação, estes 8 números irão
modificar e interagir uns com os outros. Neste sentido, um computador quântico de 3-qubit tem
muito mais memória do que um computador clássico de 3-bit.
No entanto, não existe nenhuma forma de ver diretamente estes 8 números. Quando o algoritmo é
terminado, é feita uma únicamedida. A medida fornece uma simples linha de 3-bit, e elimina todos
os 8 números complexos. A linha fornecida é gerada aleatoriamente.
A terceira coluna da tabela calcula a probabilidade de cada linha possível. Neste exemplo, há uma
probabilidade de 14% de que a linha fornecida seja "000", uma de 4% de que seja "001", e assim
por diante. Cada probabilidade é encontrada com a execução do quadrado do módulo do número
complexo (ou a multiplicação do complexo pelo seu conjugado - dá no mesmo). O quadrado do
módulo de (a+ib) é (a²+b²). As 8 probabilidades somam até 1.
Geralmente, um algoritmo num computador quântico irá dar início a todos os números complexos de
modo a se equivalerem a valores, por isso todos os estados terão probabilidades equivalentes. A
lista de números complexos pode ser vista como um vector de 8 elementos. Em cada passo do
algoritmo, esse vector é modificado ao multiplicá-lo por uma matriz. A matriz advém da física da
própria máquina, e será sempre invertível, e irá garantir que as probabilidades continuem a somar
até 1 (ou seja, a matriz será sempre ortogonal).
Para uma máquina térmica completa, a operação é realizada disparando um curto pulso de radiação
no recipiente de moléculas. Diferentes tipos de pulsos resultam em diferentes matrizes. O algoritmo
para o computador quântico consiste em que pulsos usar e em que ordem. A sequência é
usualmente escolhida de modo que todas as probabilidades tendam a 0 exceto uma. Essa
probabilidade é a que corresponde à linha que é a resposta correta. Então, quando as medidas são
feitas, essa resposta é a mais provável de ser retornada. Para um dado algoritmo, as operações
serão sempre feitas na mesma ordem. Não existe regras "SE ENTÃO" para variar a ordem, já que
não há modo de ler a memória antes da medição no final.
Para mais detalhes na sequência de operações usada para vários algoritmos, veja computador
quântico universal, Algoritmo de Shor, busca quântica em base de dados, e correção de erro
quântico.
O computador quântico do exemplo acima pode ser imaginado como uma caixa preta contendo 8
números complexos. Ou, pode ser imaginado como 8 caixas pretas, cada uma contendo 1 número
complexo, cada um se situando num universo alternativo diferente, e todas se comunicando uma
com as outras. Essas duas interpretações correspondem a Interpretação Copenhaque e
Interpretação Everett de diferentes-mundos, respectivamente, da mecânica quântica. A escolha da
interpretação não influi no cálculo, ou no comportamento do computador quântico. Nos dois casos, é
um vetor de 8 elementos que é modificado pela multiplicação da matriz.
Teoria da Complexidade [editar]
Esta secção mostra o que é actualmente conhecido matematicamente acerca do poder dos
computadores quânticos. Descreve os resultados conhecidos da teoria da complexidade e da teoria
da computação que dizem respeito aos computadores quânticos.
Uma classe de problemas que pode ser resolvida eficientemente por computadores quânticos é
chamada BQP, para "bounded error, quantum, polynomial time". Computadores quânticos somente
executam algoritmos aleatórios, então BQP em computadores quânticos é a parte contrária
do BPP em computadores clássicos. É definido como um conjunto da problemas solucionável como
um algoritmo de tempo polinomial, cuja probabilidade de errar é reduzida para metade. Um
computador quântico "resolve" um problema se, para toda situação, sua resposta estará certa com
alta probabilidade. Se esta solução for encontrada em tempo polinomial, então este problema
é BQP.
BQP é supostamente disjunto de NP-Completo e super-conjunto de P, mas nada é conhecido.
Tanto a factorização de inteiros como o logaritmo discreto pertencem a BQP. Ambos são
problemas NP mas suspeita-se que não estejam em P nem em NP-Completo. Existe um comum
mal-entendido que os computadores quânticos poderão resolver problemas completos em NP em
tempo polinomial. Existem muitas dúvidas, mas é considerada uma afirmação falsa.
Já foi mostrado que se um computador quântico pudesse ser desenhado com operadores não-
lineares, então poderia resolver problemas completos em NP em tempo polinomial e até para #P-
Completos. No entanto estes formulações ainda não foram aprovadas por outros colegas.
Embora computadores quânticos sejam algumas vezes mais rápidos que os computadores
clássicos, eles não podem solucionar problemas que computadores clássicos não podem resolver,
tendo tempo e memória suficientes. Uma Máquina de Turing pode simular um computador quântico,
então um computador quântico nunca poderá solucionar um problema sem a capacidade de decisão
parecido com o Problema da parada. A existência de computadores quânticos não pode refutar a
tese de Church-Turing.
Richard FeynmanOrigem: Wikipédia, a enciclopédia livre.
(Redirecionado de Feynman)
Richard Feynman
Física
Nacionalidade Estadunidense
Residência Estados Unidos
Nascimento 11 de maio de 1918
Local Far Rockaway, Queens, New York
Falecimento 15 de fevereiro de 1988 (69 anos)
Local Los Angeles
Actividade
Campo(s) Física
Instituições Projeto Manhattan, Universidade Cornell,Instituto
de Tecnologia da Califórnia
Alma mater Instituto de Tecnologia de
Massachusetts,Universidade de Princeton
Orientador(es) John Archibald Wheeler
Orientado(s) Albert Hibbs, George Zweig,Giovanni Rossi
Lomanitz,Thomas Curtright
Conhecido(a) por Diagramas de Feynman,ponto de
Feynman,fórmula de Feynman–Kac,aspersor de
Feynman,teorema de Hellmann–
Feynman,parametrização de Feynman
Prêmio(s) Prêmio Albert Einstein (1954),Prêmio Ernest
Orlando Lawrence (1962), Nobel de Física
(1965),Medalha Oersted (1972),Medalha Nacional
de Ciências (1979)
Assinatura
ver
Richard Philips Feynman (Nova Iorque, 11 de maio de 1918 — Los Angeles,15 de
fevereiro de 1988) foi um renomado físico norte-americano do século XX, um dos pioneiros
da eletrodinâmica quântica, e Prémio Nobel da Física em 1965.
Índice
[esconder]
1 Biografia
2 Contribuições à Física
3 Experiência no Brasil
4 Leitura
5 Ver também
6 Ligações externas
Biografia [editar]
Nasceu em Nova York e cresceu em Far Rockaway. Desde criança demonstrava facilidade com
ciências e matemática. Cursou física no Instituto de Tecnologia de Massachusetts onde, graças
a John Clarke Slater, Julius Adams Stratton e Philip McCord Morse, além de outros professores, era
devidamente conceituado.
Na graduação, em colaboração com Manuel Sandoval Vallarta, publicou um artigo sobre os raios
cósmicos. Outro artigo foi publicado no mesmo ano, creditado somente a Feynman, versando
sobre forças moleculares.
Adicionalmente a seus trabalhos sobre física teórica, Feynman foi pioneiro na área de computação
quântica, introduzindo o conceito de nanotecnologia, no encontro anual da Sociedade Americana de
Física, em 29 de dezembro de1959, em sua palestra sobre o controle e manipulação da matéria em
escala atômica. Defendeu a hipótese de que não existe qualquer obstáculo teórico à construção de
pequenos dispositivos compostos por elementos muito pequenos, no limite atômico, nem mesmo
o princípio da incerteza.
Pós graduado no Instituto de Estudos Avançados de Princeton, do qual participou Albert Einstein.
Lá, fica sob a supervisão de John Archibald Wheeler, com o qual cria uma teoria de eletrodinâmica
clássica equivalente às equações de Maxwell. No seu trabalho, desenvolve a eletrodinâmica
quântica, onde utiliza o método das integrais de caminho. Participa também do projeto Manhattan.
Torna-se professor da Universidade de Cornell e em seguida do Instituto de Tecnologia da
Califórnia (Caltech), onde atuou como professor por 35 anos e ministrou 34 cursos, sendo 25 deles
cursos de pós graduação avançados, os demais cursos eram, basicamente, introdutórios de pós
graduação, salvo o curso de iniciação à física ministrado para alunos dos 1° e 2° anos durante os
anos de 1961-1962 e 1962-1963, cursos que originaram uma de suas mais conceituadas obras,
o Feynman Lectures on Physics publicado originalmente em 1963. Dois anos depois, em 1965,
Feynman recebeu o Nobel de Física por seu trabalho na eletrodinâmica quântica. Concebeu, ainda,
a ideia dacomputação quântica, e chefiou a comissão que estudou o acidente do ônibus
espacial Challenger em 1986.
Contribuições à Física [editar]
A maior contribuição de Feynman à Física foi o desenvolvimento daeletrodinâmica quântica, a qual
foi desenvolvida paralelamente por Julian Schwinger e Sin-Itiro Tomonaga. Nela, utiliza o método
das integrais de caminho.
Na década de 1950, Feynman trabalha na teoria das interações fracas, e nos anos 1960, ele
trabalhou na teoria das interações fortes.
Também trabalhou na superfluidez do hélio líquido.
Experiência no Brasil [editar]
No começo da década de 50, Feynman se interessa pela América do Sul e acaba indo lecionar
como convidado de Jayme Tiomno noCentro Brasileiro de Pesquisas Físicas no Rio. Entre 1951 e
1952, Feynman passa vários meses no Brasil e sua estada é relatada no capítulo "O americano,
outra vez!" do seu Livro “O senhor está brincando, Sr. Feynman!”. Entre outros assuntos ele
descreve sua divertida experiência com o povo brasileiro, com a língua portuguesa e com a música
(percussão e samba). No final do capítulo ele se utiliza da experiência que teve com seus alunos e
suas falhas durante o aprendizado para fazer uma crítica ao método de aprendizado por meio da
memorização mecânica em vez de usar o raciocínio.
Leitura [editar]
Livro: "O senhor está brincando, Sr. Feynman!"; Richard P. Feynman; tradução do original
em inglês, "Surely You're Joking, Mr. Feynman!", publicado no Brasil pela Editora Elsevier; Rio
de Janeiro; 2006.
Livro: "O Arco-iris de Feynman"; Leonard Mlodinow, publicado no Brasil pela Editora
Sextante; 2005
Livro: "Física em 12 Lições : Fáceis e Não tão Fáceis"; Richard P. Feynman.
em Portugal, escritos por Richard Feynman
Livro: "O que é uma lei física?", Gradiva.
Livro: "Uma tarde com o senhor Feynman", Gradiva.
Livro: "O prazer da descoberta", Gradiva.
Livro: "O Significado de Tudo", Gradiva.
Livro: "QED", Gradiva.
Livro: "Nem sempre a brincar, Sr. Feynman", Gradiva.
Livro: "Deve estar a brincar, Sr. Feynman!", Gradiva.
Na física, força forte é a interação entre quarks e glúons descrita pela cromodinâmica
quântica. Antigamente, era entendida como aforça nuclear, que ocorria
entre prótons e nêutrons, até então considerados indivisíveis. Sempre foi classificada como
uma interação fundamental da natureza. A força nuclear forte é uma das quatro forças
fundamentais da natureza. Sendo a mais forte embora tenha um curtíssimo raio de ação de
aproximadamente centímetros(dez elevado à potencia menos treze, uma distância
muito pequena). O trabalho pioneiro sobre as forças fortes foi realizado pelo físico japonês
Yukawa em 1934, mas até meados da década de 1970 não havia uma teoria capaz de explicar
os fenômenos nucleares. Foi então que surgiu a cromodinâmica quântica, a teoria que explica
os fenômenos que ocorrem no interior do núcleo atômico. As outras forças fundamentais são força nuclear fraca, força eletromagnética e a força gravitacional.
Índice
[esconder]
1 História
2 Detalhes
1. 2.1 Comportamento da força forte
3 Referências
4 Ver também
[editar]História
Antes da década de 1970, os físicos estavam incertos acerca do mecanismo de ligação do
núcleo atômico. Era claro que ele era formado por prótons e nêutrons, e que o próton
tinha carga elétrica e o nêutron era eletricamente neutro. Pela compreensão física da época, os
prótons deveriam se repelir e fazer o átomo decair rapidamente, mas isso não acontecia, era
necessária uma nova teoria da física.
A Força Forte foi postulada para explicar como o núcleo atômico continua unido apesar da
mútua repulsão eletromagnética do prótons. Essa era a hipótese da Força Forte, uma força
fundamental que atuava nos nucléons (os prótons e nêutrons). Experimentos mostram que isso
força os nucléons a ficaram juntos mesmo com a repulsão eletromagnética dos prótons (a
Força Forte é cem vezes mais forte que a eletromagnética).
Então foi descoberto que os prótons e nêutrons não eram as partículas fundamentais, e que
eram formados de quarks, e que a atração entre nucléons era efeito colateral do que ocorria
dentro deles, fazendo os quarks ficarem unidos. A Teoria da Cromodinâmica quântica, e que os
quarks transportavam o que era chamado carga de cor, embora não tenha nenhuma relação
com a luz visível, quarks com cor diferentes se atraem como resultado da forte interação que é
mediada por partículas chamadas de glúons.
[editar]Detalhes
A interação forte é cem vezes mais forte que a força eletromagnética, cerca de 1011 maior que
a força fraca, e cerca de 1039 maior que a gravidade.
[editar]Comportamento da força forte
A interação de quarks dentro de um nêutron deve-se à força forte.
A forte força contemporânea é descrita pela Cromodinâmica quântica (QCD), sendo parte
domodelo padrão da física de partículas. Matematicamente, a QCD é uma teoria de calibre não
abeliana, com base em um calibre (local) de grupo de simetria chamado SU (3).
Os quarks e glúons são as únicas partículas que não tem o desaparecimento da carga e cor,
podendo então participarem da forte interação, sendo que esta atua diretamente nestes.
A força forte, ao contrário das outras forças fundamentais da natureza (eletromagnética, fraca e
gravidade) não fica menos poderosa com a distancia de seu alcance (que é do tamanho de um
hádron), a sua força de atuação é de cerca de 10.000 newtons, em QCD isto é chamado
confinamento da cor, mas implica que somente hádrons e não quarks individuais podem ser
observados. A explicação é que a quantidade de trabalho realizado contra uma força de 10.000
newtons (sobre o peso de uma tonelada métrica de massa sobre a superfície da Terra) é o
suficiente para criar novas partículas pelo choque entre elas. Em termos simples a própria
energia aplicada para puxar dois quarks separados irá gerar um novo par de quarks. O
fracasso em observar quarks livres é uma evidencia desse fenômeno.
Força fracaOrigem: Wikipédia, a enciclopédia livre.
(Redirecionado de Força nuclear fraca)
Força nuclear fraca ou interação fraca é uma das quatro forças fundamentais da natureza. É
comumente vista no decaimento betarelacionado a radiação. Ela afeta todos os léptons e quarks. É
mediada pelos bósons W e Z. A força nuclear fraca (ou simplesmente força fraca) é a força que
cinde as partículas. O Modelo padrão da física de partículas, desenvolvido em 1968 por Sheldon
Glashow,Abdus Salam e Steven Weinberg, descreve a interação eletromagnética e a interação fraca
como dois aspectos diferentes de uma mesma interação eletrofraca1 .
[editar]Corrente neutra
Em 1933, Enrico Fermi, físico italiano, introduziu o conceito de interação fraca, que em conjunto com
o recém postulado neutrino, entrariam na teoria do decaimento beta. Assim numa interação fraca um
neutrino é sempre produzido com um pósitron, ou umantineutrino com um elétron, o que dá um
conjunto de carga eletricamente carregado.
Esperava-se que nas correntes fracas e raras, a interação entre neutrino e a matéria, um neutrino
desse um elétron. Observou-se esse fenômeno mas também um fenômeno inesperado, um neutrino
que interagia guardando a sua carga nula. Era preciso concluir na existência de uma corrente
neutra, o que já permitia de relação indireta com as previsões da teoria electrofraca.
[editar]Gargamela
A Gargamela no museu Microcosmo do CERN.
Foi em 1973 na experiência da câmara de bolhas Gargamela, do CERN, com
um feixe deneutrinos que permitiu estabelecer a existência de interacção fraca electricamente
neutra, a força nuclear fraca2 -.3
Eletrodinâmica quântica (EDQ), ou QED, de Quantum electrodynamics, é uma teoria
quântica de campos do eletromagnetismo. A EDQ descreve todos
os fenômenos envolvendo partículas eletricamente carregadas interagindo por meio da força
eletromagnética. Sua capacidade de predição de grandezas como o momento
magnético anômalo do múon e o desvio de Lamb dos níveis de energia dohidrogênio a tornou
uma teoria renomada.
[editar]História
A eletrodinâmica foi a evolução natural das teorias da antigamente denominada segunda
quantização, isto é, quantização dos campos, ao ramo da eletrodinâmica.
As teorias de campo são necessariamente relativísticas, já que admitindo-se que haja partículas mensageiras na troca de energia e momento mediados pelo campo, essas
mesmas partículas, a exemplo do fóton (que historicamente precedeu a descoberta das teorias
de quantização do campo) devem se deslocar a velocidades próximas ou igual à da luz no
vácuo (c = 299 792 458 m/s).
A eletrodinâmica quântica se desenvolveu a partir dos trabalhos de Sin-Itiro Tomonaga, Julian
Schwinger e Richard Feynman. Pelos seus trabalhos, eles ganharam o prêmio Nobel em 1965.
[editar]Desenvolvimento formal
A Eletrodinâmica Quântica é uma teoria abeliana de calibre, dotada de um grupo de calibre
U(1).
O campo de calibre que media a interação entre campos de spin 1/2, é o campo
eletromagnético, que se apresenta sob a forma defótons.
A descrição da interação se dá através da Lagrangiana para a interação
entre elétrons e pósitrons, que é dada por:
onde e sua adjunta de Dirac são os campos representando partículas eletricamente
carregadas, especificamente, os campos doelétron e pósitron representados como espinores
de Dirac.
Teoria quântica de camposOrigem: Wikipédia, a enciclopédia livre.
(Redirecionado de Teoria Quântica dos Campos)
Esta página ou secção não cita nenhuma fonte ou referência, o que compromete suacredibilidade (desde Setembro de 2011).Por favor, melhore este artigo providenciando fontes fiáveis e independentes, inserindo-as no corpo do texto por meio de notas de rodapé. Encontre fontes: Google — notícias, livros, acadêmico —Scirus — Bing. Veja como referenciar e citar as fontes.
Teoria quântica de campos
(Diagramas de Feynman)
Histórica
[Esconder]Pano de fundo
Teoria de gauge
Teoria dos campos
Simetria de Poincaré
Mecânica quântica
Quebra espontânea de simetria[Expandir]Simetrias[Expandir]Ferramentas[Expandir]Equações[Expandir]Modelo padrão[Expandir]Teorias incompletas[Expandir]Cientistas
ver • editar
A Teoria Quântica de Campos é a aplicação conjunta da mecânica quântica e da relatividade
especial aos campos que fornecem a estrutura teórica usada na física de partículas e na física da
matéria condensada. Em particular, a teoria quântica do campo eletromagnético, conhecida
como eletrodinâmica quântica (tradicionalmente abreviada como QED, do inglês "Quantum
EletroDynamics"), é a teoria provada experimentalmente com maior precisão na Física.
Resumidamente, pode-se dizer que a teoria quântica dos campos é uma teoria criada com o objetivo
de descrever os campos de forma quantizada (na denominação mais antiga se chamasegunda
quantização). Por outro lado, a mecânica quântica lida essencialmente com a quantização da
matéria e da energia.
A teoria quântica dos campos considera tanto as partículas que compõem a matéria
(quarks eleptóns) quanto os condutores de força (bósons mensageiros) como excitações de um
campo fundamental de energia mínima não-nula (vácuo).
Índice
[esconder]
1 História
1.1 Advento da teoria clássica dos campos
1.2 Mecânica, Eletromagnetismo e Relatividade
1.3 Termodinâmica e Mecânica Quântica
2 Primeiras unificações. Equações relativísticas
2.1 Equação de Klein-Gordon
2.2 Equação de Dirac
2.3 Desenvolvimento da teoria quântica dos campos
2.4 Quantização canônica dos campos
3 Ligações externas
História [editar]
Advento da teoria clássica dos campos [editar]
A noção de campo surgiu inicialmente como uma construção matemática "conveniente" para
descrever as forças, que são conceitos centrais na mecânica de Newton. Entretanto, no século XIX,
devido principalmente aos trabalhos de Maxwell, o conceito de campo passa a ocupar o papel
central na descrição física da realidade. De fato, a mudança foi ainda maior, porque foi então que
surgiu a primeira grande unificação da física: a relação entre campos elétricos e magnéticos, bem
como o reconhecimento de que a luz (óptica) é uma manifestação particular deste campo
eletromagnético.
Mecânica, Eletromagnetismo e Relatividade [editar]
O eletromagnetismo foi a "raison d’être" do surgimento da relatividade. Com a inadequação
das transformações de Galileu quando aplicadas à equação de onda tridimensional, surgiu um
dilema: ou se preservava a mecânica clássica e abandonava-se o nascenteeletromagnetismo, ou se
preservava este e abandonava-se quase três séculos de previsões solidamente confirmadas pela
experimentação.
O caminho foi achado, surpreendemente, numa espécie de conciliação entre as duas alternativas.
Inicialmente, Woldemar Voigt derivou em 1887 um conjunto de relações, baseado apenas
na equação de onda ordinária, devida a Jean D'Alembert. Essas relações eram transformações
espaciais e temporais que deixavam invariante a forma desta equação.
Estas relações são as que se conhecem como transformações de Loretz-Fitzgerald, cientistas que
redescobriram estas transformações mais tarde. Em particular, Lorentz o fez num contexto diferente,
na tentativa de se reconciliar as teorias do éter com os resultados de experiências físicas, tais como
a de Michelson-Morley. Einstein então entra em cena, com seu trabalho seminal de1905, "Sobre a
Eletrodinâmica dos Corpos em Movimento", onde introduz a relatividade, interpretando
corretamente as transformações de Lorentz-Fitzgerald como alterações do espaço e do tempo em
função da velocidade relativa entre os referenciais.
Termodinâmica e Mecânica Quântica [editar]
A mecânica quântica surgiu da incapacidade conjunta da termodinâmica e
do eletromagnetismo clássicos de prever a correta distribuição de energias em função da freqüência
no problema de corpo negro.
A tentativa de derivação feita por Lord Rayleigh e por James Jeans postulava que cada onda
eletromagnética estava em equilíbrio com as paredes do forno. Isso se traduz num teorema que
mantém sua validade mesmo na mecânica quântica:
"Numa cavidade fechada em equilíbrio térmico com o campo eletromagnético confinado, o
campo é equivalente a um conjunto enumeravelmente infinito de osciladores harmônicos, e a
sua energia é igual à soma das energias desses osciladores.
Cada frequência corresponde aos osciladores tomados dois a dois."
Max Planck obteve a forma correta da distribuição porque postulou a quantização da energia
dos osciladores harmônicos que comporiam as paredes da cavidade que confina a radiação. Essa
hipótese teve por efeito introduzir um limite máximo de freqüência acima do qual há um corte
(cutoff) nas contribuições dos entes (ondas eletromagnéticas) que estão em equilíbrio. Einstein,
para explicar o efeito fotoelétrico, ampliou o conceito da quantização para a energia radiante,
postulando a existência do fóton (o que "implicitamente" quer dizer que as equações de Maxwell não
tem validade ilimitada, porque a existência do fóton implica não-linearidades). A antiga teoria
quântica cedeu lugar à mecânica quântica moderna quando Schrödinger desenvolveu a famosa
equação que leva o seu nome. Entretanto, a primeira versão que ele desenvolveu foi a equação que
hoje é conhecida como equação de Klein-Gordon, que é uma equação relativista, mas que não
descrevia bem o átomo de hidrogênio, por razões que só mais tarde puderam ser entendidas.
Assim, ele abandonou a primeira tentativa, chegando à sua equação (equação de Schrödinger):
A equação de Schrödinger acima colocada é a equação "dependente do tempo", pois o tempo
aparece explicitamente. Neste caso, as soluções são funções das coordenadas espaciais e do
tempo.
Quando o potencial não depende do tempo, ou seja, quando o campo de força ao qual a
partícula está submetida é conservativo, é possível separar as variáveis e .
A equação que a parte espacial da função de onda obedece é:
conhecida como equação de Schrödinger "independente do tempo". Esta é uma equação de
autovalores, ou seja, através dela se obtem simultaneamente autofunções (no caso as funções de
onda ) e autovalores (no caso, o conjunto das energias estacionárias ).
Primeiras unificações. Equações relativísticas [editar]
Equação de Klein-Gordon [editar]
Como foi dito acima, quando Schrödinger primeiro procurou uma equação que regesse os sistemas
quânticos, pautou sua busca admitindo uma aproximação relativista, encontrando a depois
redescoberta equação de Klein-Gordon:
onde
A equação de Klein-Gordon, às vezes chamada de equação de Klein-Fock-Gordon (ou ainda Klein-
Gordon-Fock) pode ser deduzida de algumas maneiras diferentes.
Usando-se a definição relativística de energia
chega-se à equação:
Essa expressão, por conter operadores diferenciais sob o radical, além de apresentar dificuldades
computacionais, também apresenta dificuldades conceituais, já que se torna uma teoria não-
local (pelo fato de a raiz poder ser expressa como uma série infinita). Por ser uma equação de
segunda ordem não permite que fique bem definida a questão da normalização da função de
onda.
Fock deduziu-a através da generalização da equação de Schrödinger para campos
magnéticos (onde as forças dependem da velocidade). Fock e Klein usaram ambos o método de
Kaluza-Klein para deduzi-la. O motivo, só mais tarde entendido, da inadequação desta equação ao
átomo de hidrogênio é que ela se aplica bem somente a partículas sem carga e de spin nulo.
Equação de Dirac [editar]
Em 1928 Paul Dirac obteve uma equação relativística baseada em dois princípios básicos
A equação deveria ser linear na derivada temporal;
A equação deveria ser relativisticamente covariante.
A equação obtida por ele tinha a seguinte forma:
onde , , e não são números reais ou complexos, mas sim matrizes quadradas com N²
componentes. Semelhantemente, as funções são na verdade matrizes coluna da forma
e as matrizes , , e devem ser hermitianas.
A equação de Dirac, diferentemente da equação de Klein-Gordon, é uma equação que dá bons
resultados para partículas de spin ½. Aliás, um dos sucessos é que esta equação incorpora
o spin de forma natural, o que não ocorre com a equação de Schrondinger, onde o spin é
admitido posteriormente como uma hipótese ad hoc. Não obstante, isso levou certos autores a
afirmarem que o spin é um grau de liberdade relativístico, o que é contestado. Outro sucesso
da equação de Dirac foi prever a existencia do pósitron, já que a equação previa valores negativos
de energia, o que foi inicialmente interpretado, à luz da "teoria dos buracos", como indicação
de elétrons com energias negativas. Essa teoria afirmava que
os pósitrons seriam vacâncias produzidas pela promoção desses elétrons para estados com
energias positivas. O vácuo é então visto como um mar de elétrons onde eles estariam
compactamente colocados. Hoje, entretanto, essa teoria cedeu lugar à questão de criação e
aniquilação de partículas num contexto mais geral da quantização canônica dos campos.
Desenvolvimento da teoria quântica dos campos [editar]
A origem da teoria quântica dos campos é marcada pelos estudos de Max Born e Pascual
Jordan em 1925 sobre o problema da computação da potência irradiada de um átomo em uma
transição energética.
Em 1926, Born, Jordan e Werner Heisenberg formularam a teoria quântica do campo
eletromagnético desprezando tanto apolarização como a presença de fontes, levando ao que se
chama hoje de uma teoria do campo livre. Para tanto, usaram o procedimento da quantização
canônica.
Três razões principais motivaram o desenvolvimento da teoria quântica dos campos:
A necessidade da uma teoria que lidasse com a variação do número de partículas;
A necessidade de conciliação entre as duas teorias: mecânica quântica e a relatividade;
A necessidade de lidar com estatísticas de sistemas multipartículas.
Quantização canônica dos campos [editar]
Um campo, no esquema conceitual da teoria dos campos, é uma entidade com infinitos graus de
liberdade.
O estado de mais baixa energia, chamado de vácuo, corresponde à ausência de partículas.
Estas, entretanto, podem ser criadas ou destruidas através de dois operadores:
: operador criação
: operador aniquilação
que agem sobre a função de onda do campo, respectivamente simbolizando a criação e a
aniquilação de partículas dotadas de momento , possibilidade exigida pela relatividade.
Os operadores, agindo sobre os estados de um tipo específico de espaço de Hilbert,
chamado espaço de Fock, criam e destroem as partículas. Entretanto, uma restrição é:
o que quer dizer que não pode haver aniquilação sobre o estado básico, já que nesse caso não há
partículas a serem aniquiladas.
NeutrinoOrigem: Wikipédia, a enciclopédia livre.
Observação de um neutrino batendo em um próton em uma câmara de bolhas. A colisão ocorreu no ponto onde
emanam três faixas da direita da fotografia.
O neutrino é uma partícula subatômica sem carga elétrica e que interage com outras partículas
apenas por meio da interação gravitacional e da fraca (duas das quatro interações fundamentais da
Natureza, ao lado da eletromagnética e da forte)1 . É conhecido por suas características extremas: é
extremamente leve (algumas centenas de vezes mais leve que oelétron2 3 ), existe com enorme
abundância (é a segunda partícula mais abundante do Universo conhecido, depois do fóton) e
interage com a matéria de forma extremamente débil (cerca de 65 bilhões de neutrinos atravessam
cada centímetro quadrado da superfície da Terra voltada para o Sol a cada segundo)4 .
Índice
[esconder]
1 Características
o 1.1 Sabores de neutrinos e antineutrinos
o 1.2 Cargas e Massa
o 1.3 Interações
o 1.4 Ocorrência na Natureza
2 História
o 2.1 Previsão teórica da existência do neutrino
2.1.1 O espectro contínuo da radiação β
2.1.2 Novas leis da física x nova partícula
2.1.3 Outras motivações para a previsão do neutrino
o 2.2 Os modelos teóricos
o 2.3 Observação experimental
o 2.4 Os três sabores de neutrinos
o 2.5 O problema dos neutrinos solares e a massa dos neutrinos
o 2.6 A massa não-nula
3 Suposta observação de neutrinos mais velozes que a luz
o 3.1 As possibilidades de explicação
4 Referências
o 4.1 Bibliografia
[editar]Características
[editar]Sabores de neutrinos e antineutrinos
Há três tipos, ou sabores, de neutrinos5 :
neutrino do elétron
neutrino do múon
neutrino do tau
Eles têm esses nomes porque o neutrino do elétron só participa de interações entre partículas
subatômicas em que o elétron também participa; o do múon só naquelas em que o múon também
participa; e o mesmo com o do tau. O elétron, o múon e o tau são três partículas elementares que,
juntamente com os três neutrinos, são classificadas como léptons.
Existem também os antineutrinos, ou antipartículas dos neutrinos. Ocorrem também em três
sabores: do elétron, do múon e do tau.
Os três tipos de neutrinos transformam-se espontaneamente uns nos outros, fenômeno conhecido
por "oscilação de neutrinos".
[editar]Cargas e Massa
Os neutrinos não possuem carga elétrica nem carga de cor (a "carga" das interações fortes). Não se
sabe o valor exato de suas massas, mas indícios indiretos apontam que devem ser algumas
centenas de vezes menores que a massa do elétron (que é de 0,511MeV/c2), ou menos 2 3 . Os
experimentos realizados com oscilações de neutrinos dão indicações diretas apenas das diferenças
entre os quadrados das massas dos três tipos.6 Há três dessas diferenças (entre neutrino do elétron
e do múon; entre do múon e do tau; e entre do elétron e do tau), mas apenas dois valores foram
obtidos até agora: 0,000079 (eV/c2)27 e 0,0027 (eV/c2)28 Como estamos falando de diferença entre os
quadrados das massas, pelo menos uma das massas tem que ser pelo menos igual à raiz quadrada
deste valor. Assim, existe pelo menos um neutrino com massa de pelo menos 0,04 eV/c2.9
[editar]Interações
Como não possuem carga nem cor, os neutrinos não interagem eletromagneticamente nem por
meio da interação forte. Apenas interagem com a matéria por meio da força gravitacional e da força
fraca. Estas são interações muito débeis. Para haver probabilidade apreciável de um neutrino
interagir com pelo menos um próton, ele deveria atravessar uma chapa de chumbo de um ano-luz
de espessura.10
Assim, os neutrinos são classificados como léptons, isto é, partículas imunes à interação forte.
Um exemplo de interação fraca na qual o neutrino toma parte é o decaimento do nêutron, que
produz a radiação beta (radiação β)11 :
(nêutron → próton + elétron + antineutrino)
Quando esse decaimento acontece em um núcleo atômico, o nêutron se transforma em
um próton, que permanece no núcleo (portanto, o número atômico aumenta de uma
unidade), enquanto o antineutrino e o elétron são ejetados (o elétron constituirá a radiação
beta).
Essa reação, na verdade, acontece apenas com o quark down (d) do nêutron, e o
decaimento completo se dá em dois passos12 :
(quark d → quark u + partícula W- → quark u + elétron + antineutrino)
O W- é um bóson intermediário ou de calibre que, juntamente com as partículas
W+ e Z0, são os intermediadores da interação fraca (assim como o fóton é o
da interação eletromagnética).
[editar]Ocorrência na Natureza
Neutrinos existem em grande quantidade atravessando o espaço a velocidades
próximas à da luz. É a segunda partícula mais abundante do Universo depois do
fóton. Não os percebemos cotidianamente, ao contrário dos fótons, por ele
interagir muito fracamente com a matéria. Grande parte é produzida
pelas reações nucleares que ocorrem no interior de estrelas e que geram a
energia das mesmas (inclusive no Sol) e também por supernovas (grandes
explosões estelares).
A maioria dos neutrinos que atravessam a Terra foi produzida no Sol13 , mas
podem originar-se também de reatores nucleares,explosões
nucleares, decaimentos radioativos e da interação dos raios cósmicos com as
camadas superiores da atmosfera terrestre.
[editar]História
[editar]Previsão teórica da existência do neutrino
[editar]O espectro contínuo da radiação β
A existência do neutrino foi predita teoricamente em 1930 pelo físico
austríaco Wolfgang Pauli, para explicar o fato de o espectro de energia
da radiação beta estar distribuída em uma faixa contínua, e não com valores bem
definidos (ou seja, discretos), como acontecia com outras radiações
nucleares, alfa e gama14 . O espectro contínuo da radiação beta foi confirmado em
1914 por James Chadwick15 16 (o mesmo que em 1932 descobriria o nêutron).
A razão pela qual isso demandava uma explicação radical a ponto de exigir a
postulação da existência de uma nova partícula era que o fenômeno parecia
contradizer leis bem estabelecidas da física, como a lei da conservação da
energia17 . Átomos iguais deveriam emitir radiação com a mesma energia; no
entanto, no caso da radiação beta - e só nesse caso - parecia que emitiam com
energias infinitamente variadas.
Naturalmente, primeiro pensou-se que essa variação ocorria porque a radiação
beta interagia com a matéria e perdia energia antes de chegar nos aparelhos
detectores. No entanto, em meados da década de 1920, graças às pesquisas de
Charles Drummond Ellis18 e outros, estava claro que esse espectro contínuo não
era devido a fatores externos aos núcleos atômicos que emitiam a radiação; ela já
saía do núcleo dessa forma19 .
[editar]Novas leis da física x nova partícula
Diante do impasse, vários físicos adotaram dois tipos de abordagem.
Alguns, liderados por Niels Bohr, passaram a defender que as leis da física
deviam ser radicalmente alteradas para explicar o fenômeno. Bohr chegou a
propor o abandono da lei da conservação da energia, que então valeria apenas
estatisticamente17 .
Outros, liderados por Wolfgang Pauli, supunham que a energia que faltava era
carregada por uma terceira partícula desconhecida, emitida junto com a partícula
beta20 . Nesse caso, a energia das duas partículas juntas seria ainda bem
definida; no entanto, ela poderia ser distribuída de infinitas maneiras entre elas, de
modo que a partícula beta poderia ter várias energias possíveis. Como resultado,
o espectro contínuo poderia ser explicado com as leis da física intactas. Pauli não
publicou sua proposta, mas comentou-a em diversas cartas a colegas, sendo a
mais famosa a endereçada para vários deles datada de 4 de dezembro de
193021 , reproduzida parcialmente em Pais (1986)14 .
Essas partículas novas foram chamadas inicialmente de "nêutrons", porque não
tinham carga elétrica. Com a descoberta, em 1932, do que conhecemos hoje por
"nêutrons"22 , elas passaram a ser chamadas pelo diminutivo em italiano,
"neutrino", palavra escolhida pelo físico italiano Enrico Fermi23 .
[editar]Outras motivações para a previsão do neutrino
É comum que os livros de física mencionem que o caso da radiação beta foi a
única inspiração para a previsão do neutrino24 . No entanto, segundo o físico e
historiador da ciência Abraham Pais, Pauli tinha também outro problema grave em
vista quando postulou o neutrino. Era o problema da composição do núcleo
atômico25 .
Sabe-se que os prótons têm carga positiva e os elétrons, negativa. Ora, se o
átomo é eletricamente neutro, então o número de prótons no núcleo deve ser
igual ao de elétrons. No entanto, a massa do núcleo é bem maior que a soma da
massa desses prótons (em geral mais do que o dobro), de maneira que ele
parecia ter mais prótons! Imaginava-se então que havia elétrons no núcleo, para
cancelar o excesso de cargas positivas desses prótons.
Mesmo assim, esse modelo levava a complicações relacionadas com o spin do
núcleo. Pauli achava que elas também podiam ser resolvidas se se admitisse que
os neutrinos também fizessem parte do núcleo. Porém, em 1932, descobriu-se
que o núcleo continha nêutrons22 , o que resolveu esses problemas.
[editar]Os modelos teóricos
A hipótese de Bohr das novas leis físicas e da quebra das leis de conservação
perdeu força nos anos seguintes. Com a descoberta dos nêutrons, a hipótese
dominante para a origem dos neutrinos passou a ser o decaimento do nêutron em
um próton, um elétron e um neutrino. O próton permaneceria no núcleo e o elétron
e o neutrino seriam ejetados (o elétron formaria a radiação beta). Essa é a versão
atualmente aceita, exceto por o neutrino ser, na verdade, um antineutrino
(a antipartícula do neutrino).
Em 1934, Enrico Fermi formulou a primeira teoria consistente para descrever esse
processo26 . A teoria teve muito sucesso em descrever quantitativamente o
espectro da radiação beta e por isso a existência do neutrino passou a ser mais
aceita (antes, o próprio Pauli era cauteloso com relação a isso20 ). A concordância
entre a previsão teórica e o resultado experimental era máxima quando a massa
do neutrino introduzida nas equações era zero.
Aperfeiçoamentos da teoria de Fermi foram feitos nos anos seguintes. A teoria
vigente hoje é a teoria de Abdus Salam, Sheldon Lee Glashow e Steven
Weinberg das interações eletrofracas (que descreve simultaneamente as forças
fracas, responsáveis pela radiação beta, e as forças fortes), formulada em 1968 e
corroborada experimentalmente a partir do início dos anos 198027 .
[editar]Observação experimental
Faltava, porém, uma evidência direta da existência do neutrino no laboratório. A
dificuldade era que o neutrino interage muito fracamente com a matéria, e por isso
era muito difícil de ser detectado.
Essa limitação poderia ser superada se fosse usada uma fonte bastante intensa
de neutrinos. Frederick Reines e Clyde Cowantiveram a ideia de usar para isso
um reator nuclear. Após uma tentativa pouco conclusiva em 1953 em Hantford,
Washington, EUA (com o mesmo reator que produziu plutônio para a bomba
atômica usada no fim da Segunda Guerra Mundial), eles finalmente alcançaram
seu objetivo em 1956 com o reator do laboratório de Savannah River, na Carolina
do Sul (que produzia um fluxo de 1013antineutrinos atravessando cada centímetro
quadrado a cada segundo).
Usaram como detector um tanque de água com cloreto de cádmio. Alguns dos
neutrinos que entravam no tanque interagiam com os prótons dos átomos,
produzindo nêutrons e pósitrons (elétrons positivos). Os pósitrons aniquilavam-
se com os elétrons dos átomos, produzindo raios gama. Já os nêutrons eram
capturados pelos núcleos atômicos do cádmio, produzindo outros raios gama com
frequências diferentes. Os espectros dos dois tipos de raios gama eram uma
"assinatura" da presença do antineutrino ali28 .
[editar]Os três sabores de neutrinos
A partir dos anos 1950, descobriu-se que havia mais de um tipo, ou sabores, de
neutrino29 . Algumas inconsistências nos decaimentos observados em partículas
elementares levaram E. J. Mahmoud, H. M. Konopinski30 e Julian Schwinger31 a
conjecturar sobre a existência de um segundo neutrino. O problema mais
contundente era que o decaimento:
(muon → elétron + antineutrino + neutrino)
era observado, mas não o decaimento:
(muon → elétron + fóton)
No entanto, como o neutrino e o antineutrino se aniquilavam
formando dois fótons de raios gama, era incompreensível que a
primeira ocorresse e a segunda não. Isso seria resolvido se o
antineutrino não fosse a antipartícula daquele neutrino. Ou seja,
se houvesse dois tipos de neutrinos e o decaimento do múon
produzisse neutrino de um tipo e antineutrino de outro. Se
assim fosse, os dois últimos não poderiam se aniquilar e o fóton
jamais poderia surgir.
Essa previsão foi confirmada em 1962 no laboratório de
Brookhaven, nos EUA32 . O primeiro neutrino foi
chamado neutrino do elétron e o segundo, neutrino do
múon. Na verdade, sabe-se hoje que a reação é:
(múon negativo → elétron + antineutrino do elétron + neutrino do múon);
(múon positivo → pósitron + neutrino do elétron + antineutrino do múon)
Os nomes dos dois neutrinos foram escolhidos
porque o neutrino do elétron só participa de
decaimentos em que o elétron aparece, enquanto
o do múon só participa de decaimentos em que o
múon aparece.
Não era, porém, o fim da história. Em 1975, um
novo lépton foi observado, o tau33 . Conjecturou-se
imediatamente se existiria umneutrino do tau.
Este foi observado finalmente em 2000, pela
Colaboração DONUT, no Fermilab, nos EUA34 .
[editar]O problema dos neutrinos solares e a massa dos neutrinos
Desde o modelo pioneiro de Enrico Fermi,
publicado em 1934, achava-se que a massa de
repouso dos três tipos de neutrinos era zero. O
modelo em si continha uma variável para a
massa, mas a coincidência entre a previsão
teórica do modelo e os dados experimentais era
máxima quando o valor zero era dado a essa
variável. O neutrino, então, conteria
apenas energia cinética e viajaria na velocidade
da luz (segundo a teoria da relatividade especial,
partículas sem massa de repouso, como o fóton,
devem necessariamente viajar na velocidade da
luz).
Isso mudou após a solução do chamado problema
dos neutrinos solares. Os modelos físicos que
descrevem a geração de energia do Sol eram bem
sucedidos na comparação de suas previsões com
as observações, exceto por um detalhe: os
neutrinos observados vindos do Sol eram apenas
um terço do que a teoria previa (uma discrepância
conhecida desde o fim dos anos 196035 36 ).
Diversas tentativas foram feitas para resolver essa
discrepância.
A hipótese que sobreviveu aos testes
observacionais dizia que os três tipos de neutrinos
podem transformar-se uns nos outros, proposta
por Bruno Pontecorvo em 196837 . Assim, parecia
haver menos neutrinos porque os astrofísicos
estavam observando neutrinos do elétron vindos
do Sol, que era o que a teoria previa que o Sol
produzia, mas no meio do caminho para a Terra
parte deles se transformava em neutrinos do
múon e do tau. Como a transformação é oscilante,
o fenômeno foi chamado "oscilação dos neutrinos"
e foi observado diretamente em 1998 no
observatório Superkamiokande, no Japão38 . O
problema dos neutrinos solares foi finalmente
resolvido em 2002, com observações do
Observatório de Neutrinos de Sudbury (SNO), no
Canadá, que mostraram que, levando-sem em
conta as oscilações, o número de neutrinos vindos
do Sol coincide bem com as previsões teóricas.39 .
[editar]A massa não-nula
A equação que descreve a oscilação dos
neutrinos no tempo depende da diferença entre as
massas dos três neutrinos. Se as massas dos três
fosse nula, não haveria oscilação. Assim, a
observação do Sudbury também implicou que os
neutrinos tivessem massa. Os experimentos,
porém, apenas indicam a diferença entre as
massas dos três tipos de neutrino, não o valor das
massas individuais. Indícios indiretos, porém,
indicam que essas massas provavelmente são da
ordem de poucos elétrons-volt ou frações de
elétrons-volt23 . Isso é centenas de vezes menor
que a massa de um elétron, de 0,511 MeV/c2.
[editar]Suposta observação de neutrinos mais velozes que a luz
Antes que a ideia de oscilações de neutrinos
surgisse, era comumente aceito que eles viajavam
à velocidade da luz.40 A questão da velocidade do
neutrino está intimamente relacionada à
sua massa extremamente pequena, algumas
centenas de milhares de vezes menores que a
do elétron.41 42 De acordo com a teoria da
relatividade, se os neutrinos têm massa, eles não
podem alcançar a velocidade da luz.
Em setembro de 2011, surgiram dados43 da
Colaboração OPERA (cujo detector subterrâneo
de neutrinos está em Gran Sasso, na Itália) que
pareciam indicar a observação de neutrinos
movendo-se a uma velocidade 0,00248% superior
à da luz no vácuo.44Resultados semelhantes já
haviam sido publicados em 2007 por outra
colaboração, a MINOS, no laboratório Fermilab,
em Chicago, nos EUA, mas com índice de
confiabilidade menor.45 Grande parte das
declarações de cientistas na imprensa
demonstrou ceticismo ou pelo menos cautela
quanto aos resultados da OPERA.46 47 Os próprios
pesquisadores que realizaram a medição dizem
que os resultados são intrigantes e que devem ser
analisados com cautela.48 O artigo original,
inclusive, informa que serão necessários testes
independentes para confirmar ou refutar a
informação.43 No entanto, um seminário49 dos
autores na Organização Europeia para a
Investigação Nuclear (CERN), em Genebra,
Suíça, dado diante de uma plateia de
especialistas um dia depois da publicação de seu
artigo no arXiv, pareceu convincente para boa
parte da comunidade científica.50
[editar]As possibilidades de explicação
Houve, porém, cientistas que buscaram explicar
os resultados de outras formas. Tais tentativas
podem ser classificadas em três grupos:51
Houve algum erro por parte dos autores da
pesquisa;
Os neutrinos realmente viajam mais
rapidamente que a luz e isso significa uma
violação da teoria da relatividade especial
(inclusive, alguns teóricos já vêm dando os
primeiros passos na busca de uma teoria
alternativa à relatividade52 );
Os neutrinos realmente viajam mais
rapidamente que a luz, mas a teoria da
relatividade não é violada.
O último item demanda explicações. Ao contrário
do que muitos imaginam, a existência de
partículas com velocidades maiores que a da luz
não é totalmente incompatível com a teoria da
relatividade. Se for aceita a existência de
outras dimensões espaciais além das três
conhecidas, partículas que se deslocam pelas
dimensões extras podem parecer mais velozes
que a luz quando vistas por observadores restritos
no espaço tridimensional. Alguns cientistas vêm
explorando essa hipótese.53
Outra possibilidade de se compatibilizar a
observação de neutrinos mais velozes que a luz
com a relatividade especial seria considerar os
neutrinos como táquions. Táquions são partículas
que viajam sempre mais velozmente que a luz.
Isto é compatível com a relatividade, pois o que
ela proíbe é que a velocidade da luz
seja ultrapassada.54 No entanto, essa hipótese
parece não ser compatível com as observações
dos neutrinos da supernova SN 1987a.55 52
Segundo informações mais recentes publicadas
pelo grupo de pesquisadores responsáveis pela
descoberta no sítio eletrônico por eles mantido,
revisão dos procedimentos adotados no
experimento que culminaram com o artigo acerca
das velocidades supraluminais dos neutrinos
levantaram dúvidas quanto à sincronização dos
equipamentos nas duas localidades envolvidas.
Aparelhos GPS não corretamente sincronizados
seriam os vilões da estória. Além de tal problema
técnico, há a suspeita de que o canal de fibra ótica
que conecta o GPS externo ao relógio principal do
OPERA poderia também não estar funcionando
corretamente quando as medidas foram tomadas.
Se confirmado, esses defeitos seriam os
responsáveis por uma subestimativa do tempo de
voo dos neutrinos.56
Em 2012, o cientista Antonio Ereditato, porta-voz
do experimento responsável por esta experiência,
pediu demissão.57 58 59 60
No modelo padrão da física das partículas, um muão (português europeu) ou múon (português brasileiro) (grego: μείον, "menos") é uma partícula elementar semi-estável com carga eléctrica negativa e spin de 1/2 (fermião). Em conjunto com o electrão, o tau e seus respectivos neutrinos, é classificado como fazendo parte da família dos leptões. Tal como todas as partículas fundamentais, o muão tem a sua antipartícula, com carga oposta mas com massa e spin idêntico: o antimuão ou muão positivo.
Um férmion (português brasileiro) ou fermião (português europeu) é uma partícula que tem spin semi-inteiro
(em unidades de ) e obedece à estatística de Fermi-Dirac.1 Recebem este nome em
homenagem ao físico Enrico Fermi. Todas as partículas elementaresou são férmions
ou bósons.
Em decorrência do princípio de exclusão de Pauli, dois férmions de spin 1/2 quaisquer não
podem ter simultaneamente todos os números quânticos idênticos, aí incluídos os valores das
projeções ms do spin. Em decorrência disso e do fato de que para uma partícula com spin = s
há 2s + 1 orientações possíveis de spin, o número máximo de ocupação de um férmion com
spin 1/2 em um estado é 1 (2 se se abstrair o spin) ms = +1/2 e ms = - 1/2.
Exemplos de férmions:
prótons
quarks
elétrons
neutrinos
Motivação
As partículas microscópicas exibem propriedades que, no começo do século XX, motivaram o
surgimento da Mecânica quântica. O problema da identidade das partículas, antes tido como
ponto pacífico pela Mecânica clássica, toma feição inteiramente nova.
Duas partículas que podem ser distinguidas pela posição na mecânica clássica já não o podem
ser pela mecânica quântica. Isso decorre pela imprecisão inerente às medidas efetuadas sobre
os observáveis, que correspondem, grosso modo, à noção depropriedade da mecânica
clássica.
A imprecisão da mecânica quântica decorre do Princípio da incerteza de Heisenberg, que
estipula restrição para a medição simultânea de propriedades incompatíveis, que são
aquelas que são relacionadas pela relação de incerteza de Heisenberg
[editar]Estatística quântica
Com o advento da Mecânica quântica as noções de distinção das partículas subatômicas e da
ocupação de estados de energia sofreram sérias reformulações.
No começo do século XX, Boltzmann havia chegado a forma correta da distribuição do número
de partículas em função do nível de energia. Mas isso no âmbito da mecânica clássica.
Contudo, principalmente com o surgimento da moderna teoria quântica, o conceito de trajetória
se torna seriamente prejudicado, quando não totalmente desnecessário e contraditório.
Uma trajetória implica o deslocamento de uma partícula (idealizada como um ponto
matemático) no espaço e no tempo. Nesse sentido, uma trajetória física corresponderia, na
matemática, a uma curva suave e diferenciável, completamente contínua em todos os seus
pontos.
Porém, mesmo no trabalho de Einstein sobre o movimento browniano em 1905 (publicado
juntamente com outros três trabalhos: sobre o efeito fotoelétrico, sobre o calor específico dos
sólidos e sobre a relatividade), esse cientista postulou trajetórias em zig-zag, descontínuas em
inúmeros (para não dizer infinitos) pontos, para as moléculas e átomos, assim como também
as partículas movidas, fossem elas partículas de pó, pólen, dentre outras. Assim, ainda no
cenário da física clássica, as trajetórias suaves já eram admissíveis.
Com o entendimento trazido à luz pela interpretação do princípio da incerteza de Heisenberg, e
pela interpretação estatística daFunção de onda dada por Max Born foi totalmente por terra a
noção de que a partícula tinha trajetória definida.
Assim sendo, não se podem distinguir partículas cujas características sejam idênticas se se
aproximam muito uma da outra, porque então não se pode identifica-las pela trajetória, já que
para pontos muitos próximos, dependendo da velocidade, os pontos já não são discerníveis. A
relação matemática que rege essa indeterminação fundamental é a relação da incerteza de
Heisenberg:
[Xk,Pl] = i
onde Xk representa o operador posição, Pl representa o operador Momento linear e o
operador identidade.
Dentro desse entendimento, a distribuição de Boltzmann não é mais válida, senão
como aproximação. Verificou-se que as distribuições válidas para partículas com carácter
manifestamente quântico, são as seguintes:
Distribuição de Fermi-Dirac
Distribuição de Bose-Einstein
A primeira é válida para partículas de Spin semi-inteiro( 1/2, 3/2, 5/2...),em unidades de , ou
seja, para os férmions, ao passo que a segunda é a distribuição válida para partículas de spin
inteiro (0,1,2,3...), ou seja, para os bósons.
Pode-se explicar qualitativa e sucintamente, de forma simplificada, que para os férmions as
função de onda , são funções anti-simétricas, ou seja, trocam de sinal perante a troca
simultânea das coordenadas espaciais e das coordenadas de spin entre dois férmions.
Estatística de Fermi-DiracOrigem: Wikipédia, a enciclopédia livre.
Distribuição Fermi-Dirac como uma função de ε/μ num gráfico para 4 temperaturas diferentes. Ocupando transições são deriváveis a mais altas temperaturas.A estatística de Fermi-Dirac é uma estatística quântica que rege as partículas de spin semi-inteiro, os férmions. Leva o nome de dois eminentes físicos: Enrico Fermi e Paul Adrien Maurice Dirac.Índice [esconder] 1 Formulação matemática2 Interpretação física3 Aplicações4 Ver também[editar]Formulação matemática
A distribuição de Fermi-Dirac é dada por
Onde: é o número médio de partículas no estado de energia .
é a degeneração do estado i-ésimo é a energia no estado i-ésimo é o potencial químico é a temperatura a constante de BoltzmannEm casos aonde é a energia de Fermi e , a função é chamada de função Fermi:
Fermi-Dirac distribution as a function of temperature. More states are occupied at higher temperatures.[editar]Interpretação física
Para baixas temperaturas, a distribução de Fermi é uma função de passo que vale 1 se e 0 se . Isto quer dizer que as partículas vão se posicionando desde o nivel mais baixo de energia até acima devido ao princípio de exclusão de Pauli até que se tenham postas todas as partículas. A energia do último nível ocupado se denomina energia de Fermi e a temperatura à que corresponde esta energia mediante , a temperatura de Fermi.Se da circunstância de que a temperatura de Fermi da maioria dos metais reais é enorme (da ordem de 10000 Kelvin), portanto a aproximação de dizer que a distribução de Fermi-Dirac segue sendo um escalar até temperatura ambiente é válida com bastante precisão.A distribuição de Fermi-Dirac tem importância capital no estudo de gases de férmions e em particular no estudo dos elétrons livres em um metal.[editar]Aplicações
Este artigo ou secção está a ser traduzido (desde novembro de 2007). Ajude e colabore com a tradução.Estatísticas de Fermi–Dirac e Bose–Einstein aplicadas quando efeitos quânticos tendem a ser levadas em conta e as partículas são consideradas "indistinguíveis". Os efeitos quânticos aparecem se a concentração de partículas (N/V) ≥ nq (aonde nq é a concentração quântica). A concentração quântica é quando a distância interpartículas é igual ao comprimento de onda térmico de de Broglie, i.e. quando a funções de onda das partículas são atingidos mas não ultrapassados. Como a concentração quântica depende da temperatura; altas temperaturas irão colocar a maioria dos sistemas no limite clássico sem eles terem uma muito alta densidade, e.g. uma anã branca. A estatística de Fermi–Dirac é aplicada a férmions (partículas que obedecem ao princípio de exclusão de Pauli), a estatística de Bose–Einstein é aplicada a bósons. Tanto Fermi–Dirac e Bose–Einstein tornam-se a estatística de Maxwell–Boltzmann a altas temperaturas ou baixas concentrações.
Estatísticas de Maxwell–Boltzmann são frequentemente descritas como estatísticas de partículas clássicas "distinguíveis". Em outras palavras a configuração de partícula A no estado 1 e a partícula B no estado 2 é diferente do caso aonde a partícula B está no estado 1 e a partícula A está no estado 2. Quando esta idéia é estendida, conduz à distribuição própria (de Boltzmann)de partículas em estados de energia, mas conduz a resultados sem significado físico para a entropia, conforme encorporado no paradoxo de Gibbs. Estes problemas desaparecem quando se percebe que todas as partículas são de fato indistinguíveis entre sí. Ambas as distribuições se aproximam da distribuição de Maxwell-Boltzmann no limite de alta temperatura e baixa densidade, sem a necessidade
de quaisquer pressupostos adicionais ad hoc. A distribuição estatística de Maxwell–Boltzmann é particularmente útil para estudar gases. A distribuição estatística de Fermi–Dirac é mais usualmente usada para o estudo do comportamento de elétrons em sólidos. Como tal, é a base da teoria dos dispositivos semicondutores e da eletrônica.
Em mecânica estatística, a estatística de Bose–Einstein (ou mais coloquialmente estatística
B-E) determina a distribuição estatística de bósons idênticos indistinguíveis sobre os estados
de energia em equilíbrio térmico.
[editar]Formulação matemática
O número esperado de partículas num estado de energia i é:
onde:
é o número de partículas no estado i.
é a degenerecência quântica do estado i.
é a energia do estado i.
é o potencial químico.
é a constante de Boltzmann.
é a temperatura.
A estatística de Bose-Einstein reduz-se à estatística de Maxwell-Boltzmann para
energias:
Estatística de Maxwell–BoltzmannOrigem: Wikipédia, a enciclopédia livre.
Em mecânica estatística, a estatística Maxwell–Boltzmann descreve a distribuição estatística de
partículas materiais em vários estados de energia em equilíbrio térmico, quando a temperatura é alta
o suficiente e a densidade é baixa suficiente para tornar os efeitos quânticos negligenciáveis. A
estatística Maxwell–Boltzmann é consequentemente aplicável a quase qualquer fenômeno terrestre
para os quais a temperatura está acima de poucas dezenas de kelvins.
O número esperado de partículas com energia para a estatística de Maxwell–Boltzmann é
onde:
onde:
é o número de partículas no estado i
é a energia do estado i-ésimo
é a degenerescência do nível de energia i, o número de estados dos partículas (excluindo o
estado de "partícula livre") com energia
μ é o potencial químico
k é a constante de Boltzmann
T é a temperatura absoluta
N é o número total de partículas
Z é a função partição
e(...) é a função exponencial, sendo e o número de Euler
A distribuição de Maxwell-Boltzmann tem sido aplicada especialmente à teoria
cinética dos gases, e outros sistemas físicos, além de em econofísica para predizer a
distribuição da renda. Na realidade a distribuição de Maxwell-Boltzmann é aplicável a
qualquer sistema formado por N "partículas" ou "indivíduos" que interacambiam
estacionariamente entre si uma certa magnitude m e cada um deles têm uma
quantidade mi da magnitude m e ao longo do tempo ocorre que M := m1+m2+...+ mN.
[editar]Limites de aplicação
Para um sistema de partículas quânticas, a hipótese de que seja substancialmente
menor que para os estados diferentes do fundamental em geral não se cumprirá e é
necessário recorrer-se à estatística de Bose-Einstein se as partículas
são bosônicas ou àestatística de Fermi-Dirac se as partículas são fermiônicas.
As estatísticas de Bose–Einstein e Fermi–Dirac podem ser expressas como:
Assumindo que o valor mínimo de é bastante pequeno, se pode verificar que a
condição na qual a distribuição de Maxwell-Boltzmann é válida é quando se
cumpre que:
Para um gás ideal, podemos calcular os potenciais químicos utilizando o
desenvolvimento da equação de Sackur–Tetrode para demonstrar que:
onde é a energia interna total, é a entropia, é o volume, e é
o comprimento de onda térmico de de Broglie. A condição de aplicação
para a distribuição Maxwell-Boltzmann em um gás ideal resulta:
Gás de FermiOrigem: Wikipédia, a enciclopédia livre.
Um gás de férmions, gás de Fermi ou gás de elétrons livres é um conjunto de férmions não
interativos. É a versão na Mecânica Quântica de um gás ideal, para o caso de partículas
fermiônicas. Elétrons em metais e semicondutores e nêutrons em estrelas de nêutrons podem
aproximadamente ser considerados gases de Fermi.
A distribuição de energia dos férmions em um gás de Fermi em equilíbrio térmico é determinada por
sua densidade, pela temperaturae pelos estados de energia disponíveis, via a estatística de Fermi-
Dirac. Pelo princípio de exclusão de Pauli, nenhum estado quânticopode ser ocupado por mais que
um férmion, então a energia total do gás de Fermi à temperatura do zero absoluto é tão grande
quanto o produto do número de partículas pelo estado de energia de cada partícula. Por esta razão,
a pressão de um gás Fermi é diferente de zero na temperatura de zero absoluto, em contraste com
um gás ideal clássico. Esta então chamada pressão de degeneraçãoestabiliza uma estrela de
nêutrons (um gás de Fermi de nêutrons) ou uma estrela anã branca (um gás de Fermi de elétrons)
contra a tração interna da gravidade.
É possível definir uma temperatura de Fermi abaixo do qual o gás pode ser considerado
degenerado. Esta temperatura depende da massa dos férmions e da energia da densidade dos
estados. Para metais, a temperatura do gás de elétrons de Fermi é geralmente de muitos milhares
de kelvins, quando então eles podem ser considerados degenerados. A máxima energia dos
férmions a temperatura do zero absoluto é chamada energia de Fermi. A superfície da energia de
Fermi no momento espacial é chamada superfície de Fermi.
Desde que as interações são negligenciadas por definição, o problema de tratar propriedades do
equilíbrio e o comportamento dinâmico de um gás de Fermi se reduz ao estudo do comportamento
de partículas independentes e isoladas. Como está, é ainda relativamente tratável e dá forma ao
ponto de servir de base para teorias mais avançadas (tais como a teoria do líquido de Fermi ou
ateoria perturbacional) as quais levam em conta as interações com algum grau de exatidão.
Índice
[esconder]
1 Descrição matemática
Gás de Fermi como modelo para os núcleos dos átomos
Referências
Ligações externas
5 Ver também
[editar]Descrição matemática
Dentro da estrutura que a física estatística possibilita, segue-se que com a ajuda de conjuntos
estatísticos para um número médio de ocupação dos estados com a energia
da estatística de Fermi-Dirac:
Onde é o potencial químico, a temperatura e a constante de Boltzmann.
Estes férmions que estão sujeitos ao princípio de exclusão de Pauli, podem estar na condição
de máxima ocupação, ou seja . Esta condição é que a estatística de Fermi-Dirac
tratará para qualquer valor de preenchimento pleno , porque o potencial químico de um gás
ideal de Fermi não é sujeito a quaisquer restrições.
[editar]Gás de Fermi como modelo para os núcleos dos átomos
O primeiro pesquisador a apontar uma explicação simples para o movimento independente
de núcleons através do núcleo atômico em seus estado fundamental foi Weisskopf.1 Tal
explicação usa como base o modelo de gás de Fermi. O modelo utilizado é essencialmente o
mesmo utilizado para tratar de elétrons livres em um metal condutor. É suposto que cada
núcleon do núcleo atômico mova-se num potencial efetivo atrativo que representa um efeito
médio de suas interações com os outros núcleons naquele núcleo. Há um valor constante
dentro do núcleo para este potencial e externamente ao núcleo ele decresce até zero a uma
distância igual ao alcance das forças nucleares e é aproximadamente igual a um poço
quadrado infinito e tridimensional, de raio ligeiramente superior ao raio do núcleo.2 O núcleo
atômico contém dois tipos de partículas, os prótons e os neutrons e ambos têm um momento
angular intrínseco, ambos são classificados como férmions de spin 1/2, mas sendo duas
partículas distinguíveis o princípio de exclusão de Pauli age independentemente sobre cada um
deles. Assim podemos considerar que o núcleo é constituído por dois gases de Fermi, o dos
prótons e o dos nêutrons e que corresponderão a dois estado energéticos diferentes e cada
estado só pode ser ocupado por apenas dois prótons ou dois nêutrons, com spins de sinais
opostos.3 4 5
O elétron (português brasileiro) ou electrão (português europeu) (do grego ήλεκτρον, élektron, "âmbar"),
geralmente representado como e-, é uma partícula subatômica que circunda o núcleo atômico,
identificada em 1897 pelo inglês John Joseph Thomson. Subatómica e de carga negativa, é o
responsável pela criação de campos magnéticos e eléctricos.
No modelo padrão ele é um lépton, junto com o muon, o tau e os respectivos neutrinos. O
elétron foi proposto como partícula subatómica por J. J. Thomson em 1897. A carga do elétroné
de -1,60217733 ×10-19 C, e a sua massa é de 9,1093897 ×10-31 kg, ou 511,0 keV/c².
Normalmente, em física nuclear, a carga do elétron é definida como sendo uma unidade.
É o número de electrões de um átomo que define a sua carga, sendo que um número de
electrões igual ao número de protões origina uma partícula electricamente neutra. Nas escalas
de distâncias dos átomos o comportamento da partícula é regido pela mecânica quântica,
segundo a qual os electrões ficam "espalhados" pela maior parte do átomo, numa área
denominada "nuvem electrónica". Por outro lado, o núcleo que comporta a carga positiva do
átomo está localizado no centro deste.
O elétron, além de interagir com outras partículas pela força electromagnética, também
interage pela força nuclear fraca, onde normalmente vem acompanhado do seu neutrino associado. Sua antipartícula é o posítron, com a mesma massa, mas carga positiva.
Índice
[esconder]
1 Considerações gerais
História e descobrimento do elétron
Os elétrons e a prática
3.1 Classificação dos elétrons
3.2 Propriedades e comportamento dos elétrons
3.3 Elétrons no universo
3.4 Elétrons na vida cotidiana
3.5 Elétrons na indústria
Elétrons em laboratório
Os elétrons e a teoria
Ver também
7 Ligações externas
Considerações gerais [editar]
Os elétrons apresentam uma carga elétrica muito pequena e seu movimento gera corrente
elétrica. Visto que os elétrons das camadas mais externas de um átomo definem as atrações
com outros átomos, estas partículas possuem um papel importante na química.
História e descobrimento do elétron [editar]
A existência do elétron foi postulada por G. Johnstone Stoney como uma unidade de carga no
campo da eletroquímica. O elétron foi descoberto
por Thomson em 1897 no Laboratório Cavendish, da Universidade de Cambridge, enquanto
estudava o comportamento dosraios catódicos. Influenciado pelo trabalho de Maxwell e o
descobrimento dos raios X.
"O Tubo de Raios catódicos de J.J. Thomson". O tubo de raios catódicos é semelhante ao tubo
de imagem de um aparelho de televisão. Partículas carregadas (hoje conhecidas como
elétrons) são emitidas por um filamento aquecido em uma das extremidades de um tubo
evacuado e aceleradas por uma diferença de potencial elétrico (V). Depois de passarem por
uma fenda em um anteparo, formam um feixe estreito. Em seguida, passam por uma região
onde existem dois campos cruzados e atingem uma tela fluorescente, onde produzem um
ponto luminoso (na televisão os pontos são parte da imagem). As Forças a que o elétron é
submetido na região de campos cruzados podem desviá-lo do centro da tela. (como o sentido
da deflexão depende do sinal da carga das partículas, Thomson foi capaz de provar que
as partículas responsáveis pelo ponto luminoso na tela tinham carga negativa). Thomson
também afirmou que essas partículas estavam presentes em todas as formas de matéria e
também eram mais de 1000 vezes mais leves que o átomo mais leve conhecido (hidrogênio).
Ainda que Stoney haja proposto a existência do elétron, foi Thomson quem descobriu seu
caráter de partícula fundamental. Para confirmar a existência do elétron, era necessário medir
suas propriedades, em especial a sua carga elétrica. Este objetivo foi alcançado por Millikan,
através da célebre experiência da gota de azeite, realizada em 1909.
George Paget Thomson, filho de J.J. Thomson, demonstrou a natureza ondulatória do elétron,
provando a dualidade onda-corpúsculo postulada pela mecânica quântica. Esta descoberta lhe
valeu o Prémio Nobel de física de 1937.
O spin do elétron foi observado pela primeira vez pela experiência de Stern-Gerlach. Sua carga
elétrica pode ser medida diretamente através de um eletrômetro e a corrente gerada pelo seu
movimento com um galvanômetro.
Os elétrons e a prática [editar]
Classificação dos elétrons [editar]
O elétron é um tipo de partícula subatômica denominada lépton, acreditando-se que é uma das
partículas fundamentais, isto é, que não pode ser dividida em constituintes menores.
A palavra "partícula" não é totalmente correta, porque a mecânica quântica nos indica que os
elétrons, em determinadas condições, se comportam como uma onda, fato que ocorre na
experiência de dupla fenda. Esta propriedade é denominada dualidade onda-corpúsculo.
Propriedades e comportamento dos elétrons [editar]
O elétron tem uma carga elétrica negativa de −1.6 × 10−19 coulomb e uma massa de
9.10 × 10−31 kg (0.51 MeV/c²), que é aproximadamente 1/1836 da massa do próton.
O elétron tem um spin 1/2, implicando que é um férmion, ou seja, que se pode aplicar-lhe a
estatística Fermi-Dirac.
Ainda que a maioria dos elétrons faça parte da constituição dos átomos, existem aqueles que
se deslocam independentemente pela matéria ou aqueles que se deslocam juntos, formando
um feixe de elétrons no vácuo. Em alguns supercondutores os elétrons se movem em pares.
Quando os elétrons que não fazem parte da estrutura do átomo se locomovem e existe um
fluxo deles numa determinada direcção, este fluxo é chamado de corrente eléctrica.
A eletricidade estática não é um fluxo de elétrons. É mais correto denominá-la de "carga
estática". Esta carga é causada por um corpo cujos átomos apresentam mais ou menos
elétrons que o necessário para equilibrar as cargas positivas dos núcleos dos seus átomos.
Quando existe um excesso de elétrons, diz-se que o corpo está carregado negativamente.
Quando existem menos elétrons que prótons, o corpo está carregado positivamente. Se o
número total de prótons e elétrons é equivalente, o corpo está num estado eletricamente
neutro.
Os elétrons e os posítrons podem aniquilar-se mutuamente, produzindo fótons, assim como, de
maneira inversa, fótons de alta energia podem transformar-se em elétrons e posítrons.
O elétron é uma partícula elementar; isso significa que não apresenta uma subestrutura - pelo
menos não foi comprovado até agora. Por isso, pode ser representado por um ponto, ou seja,
sem extensão espacial. Entretanto, nas cercanias de um elétron, pode-se medir variações na
sua massa e na sua carga elétrica. Este é um efeito comum a todas as partículas elementares:
a partícula influi nas flutuações do vácuo que o cerca, de forma que as propriedades
observadas de maior distância são a soma das propriedades da partícula mais as causadas
pelo efeito do vácuo que a rodeia.
Existe uma constante física chamada raio clássico do elétron, com um valor de 2.8179 ×
10−15 metros. É preciso considerar que este é o raio que se pode aferir a partir da carga do
elétron descrito sob o ponto de vista da eletrodinâmica clássica, não da mecânica quântica.
Esta constante baseia-se num conceito desfasado, porém útil para alguns cálculos.
Elétrons no universo [editar]
Acredita-se que o número total de elétrons que caberiam no universo conhecido é da ordem de
10130.
Elétrons na vida cotidiana [editar]
A corrente elétrica que abastece com energia as nossas casas é proveniente de elétrons em
movimento. O tubo de raios catódicos de um televisor se baseia num feixe de elétrons no
vácuo que é desviado por campos magnéticos para atingir uma tela fosforescente.
Ossemicondutores são utilizados em dispositivos tais como os transístores.
Elétrons na indústria [editar]
Feixes de elétrons são utilizados em solda.
Elétrons em laboratório [editar]
O microscópio eletrônico, que utiliza feixes de elétrons no lugar de fótons, permite ampliar até
500.000 vezes os objetos. Os efeitos quânticos do elétron são a base do microscópio de efeito
túnel, que permite estudar a matéria em escala atómica.
Os elétrons e a teoria [editar]
Na mecânica quântica, o elétron é descrito pela equação de Fermi-Dirac. No modelo padrão da
física das partículas, forma uma dupla com o neutrino, visto que ambos interagem de forma
fraca. O elétron tem os padrões massivos adicionais múon e tau.
O equivalente do elétron na antimatéria, sua antipartícula, é o pósitron, que tem a mesma
quantidade de carga elétrica que o elétron, mas positiva. O spin e a massa são iguais no
elétron e no pósitron. Quando um elétron e um pósitron colidem, acontece a aniquilação mútua,
originando-se dois fótons de raios gama com uma energia de 0,500 Mev cada um.
Os elétrons são um elemento chave no eletromagnetismo, uma teoria adequada desde um
ponto de vista clássico, aplicável a sistemas macroscópicos.
Ver também [editar]
Antielétron (pósitron)
Efeito fotoelétrico
Física de partículas
Nêutron
Partícula subatômica
Próton
Raio catódico
QuarkOrigem: Wikipédia, a enciclopédia livre.
Este artigo ou secção contém uma lista de fontes ou uma única fonte no fim do texto, mas esta(s) não são citadas no corpo do artigo, o que compromete a confiabilidade das informações. (desde abril de 2012)Por favor, melhore este artigo introduzindo notas de rodapé citando as fontes, inserindo-as no corpo do texto quando necessário. Nota: Para outros significados, veja Quark (desambiguação).Quark, na física de partículas, é um dos dois elementos básicos que constituem a matéria (o outro é o lépton) e é a única, entre as partículas, que interage através de todas as quatro forças fundamentais. O quark é um férmion fundamental com carga hadrónica ou cor. Não se observaram ainda quarks em estado livre. Segundo o Modelo Padrão, os
quarks ocorrem em seis tipos na natureza: "top", "bottom", "charm", "strange", "up" e "down". Os dois últimos formam os prótons e nêutrons, enquanto os quatro primeiros são formados em hádrons instáveis em aceleradores de partículas.Os quarks têm uma unidade de carga hadrônica, que aparece em três tipos distintos (cores). O campo hadrônico é também chamado de força nuclear forte. A teoria que estuda a dinâmica de quarks e das cargas hadrônicas (mediadas pelos glúons) é chamada Cromodinâmica Quântica. Segundo a Cromodinâmica Quântica, os quarks podem formar estados ligados aos pares e às trincas. Os pares de quarks são chamados mésons e as trincas bárions. O próton é uma trinca de quarks, formado por dois quarks "up" e um quark "down". O nêutron é outro estado ligado de três quarks, dois deles "down" e um "up".Os quarks têm carga elétrica -1/3 ou 2/3, em que a unidade é a carga do elétron. Antipartículas dos quarks têm carga oposta. Os quarks também interagem com a força nuclear fraca, a qual transmuta tipos distintos de quarks. Por exemplo, o quark tipo "down" pode mudar para um quark tipo "up" pela emissão de um bóson vetorial massivo, que transporta a força nuclear fraca. Tal mecanismo está por trás da desintegração do nêutron.Apesar de não serem observados em estado livre, a massa dos quarks pode ser inferida dos hádrons e mésons observados. Sabe-se que os quarks "up" e "down" tem massa comparável com a do eléctron, enquanto o quark "top" tem uma massa cerca de 200 vezes maior que a do próton.A propriedade mais importante dos quarks é chamada de confinamento. É um fato experimental que os quarks individuais não são vistos — Eles estão sempre confinados ao interior dos hádrons, partículas subatômicas como os prótons, nêutrons, e méson. Esperava-se que esta propriedade fundamental surgisse da moderna teoria das interações forte, chamada de cromodinâmica quântica (QCD). Embora não exista nenhuma derivação matemática de confinamento na QCD, é fácil mostrar isto usando a teoria grade gauge.Índice [esconder] 1 Quarks livres2 Confinamento e propriedades do quark3 Sabores4 Spin5 Cores6 Massa do quark6.1 Massa corrente do quark6.2 Massa do quark de valência6.3 Massa dos quarks pesados7 Antiquarks8 Sub-estrutura9 História10 Ver também11 Referências e ligações externas11.1 Fontes primárias e secundárias11.2 Outras refêrenciasQuarks livres [editar]
Nenhuma pesquisa para quarks livres ou carga elétrica fracionária produziu uma evidência convincente. A ausência de quarks livres foi então sendo incorporada na noção de confinamento, o qual, acredita-se, a teoria de quark deve possuir. Contudo,
deve ser possível mudar o volume do confinamento pela criação de matéria quark densa ou quente. Esta nova fase da matéria QCD foi predita teoricamente e buscas experimentais por ela já foram iniciadas.Confinamento e propriedades do quark [editar]
Cada partícula subatômica é descrita por um pequeno conjunto de números quânticos tais como spin J, paridade P, e massa m. Usualmente estas propriedades são diretamente identificadas por experimentos. Contudo, o confinamento torna impossível medir estas propriedades nos quarks. Ao invés disto, elas devem ser inferidas pela medição das propriedades das partículas compostas que são feitas de quarks. Tais inferências são mais fáceis de serem feitas adicionando números quânticos chamados de sabor (flavor).As particulas compostas feitas de quarks e antiquarks são os hádrons. Estes incluem os mesons os quais obtêm os seus números quânticos de um quark e de um antiquark, e os baryons, os quais obtêm os seus números quânticos de três quarks. Os quarks (e os antiquarks) que contam para os números quânticos dos hádrons são chamados quark de valência. À parte destes, muitos hádrons devem conter um número indefinido de quarks, antiquarks e glúons virtual os quais contribuem para os seus números quânticos. Cada quark virtual é denominado de mar de quarks.Sabores [editar]
Sabor em partículas físicasNúmeros quânticos saboresNúmero leptônico: LNúmero bariônico: BCarga Elétrica: QHipercarga Fraca: YWIsospin fraco: TzIsospin: I, IzHipercarga: YEstranheza: SCharme: CInferioridade: B'Superioridade: TY=B+S+C+B'+TQ=Iz+Y/2Q=Tz+YW/2B-L conservado no modelo padrãoTópicos relacionados:Simetria CPTMatriz CKMSimetria CPQuiralidadeA cada quark é atribuído um número bariônico, B = 1/3, e um numero leptônico nulo L = 0. Eles tem uma carga elétrica fracionada, Q, Q = +2/3 ou Q = −1/3. Os iniciais chamaram up-type quarks, e depois, down-type quarks. A cada quark é atribuído um isospin fraco: Tz = +1/2 para um quark "up" e Tz = −1/2 para um quark "down". Cada vez que se dobra o isospin fraco tem-se uma nova geração de quarks. Existem três gerações, e então 6 sabores de quarks — o quark up tem os sabores u, c e t, os down os d, s, b.
O número de gerações de quarks e léptons são iguais no modelo padrão. O número de gerações de leptons é fortemente restrito, segundo os testes experimentais feitos no LEP e CERN e pela observação da abundância de hélio no universo. A precisão da medição da meia-vida do bóson Z no LEP restringe o número de gerações a três. Observações astronômicas da abundância de hélio produzem resultados consistentes com essa restrição. Os resultados, de uma busca direta por uma quarta geração de quarks apontam para a existência de um limite mínimo na massa dos quarks, sendo os de quarta geração os mais leves possíveis. A mais severa limitação veio da análise dos resultados do colisor Tevatron do Fermilab, e mostra que a massa da quarta geração de quark deve ser maior que 190 GeV.Cada sabor define um número quântico que será conservado durante a interação forte, mas não na interação fraca. A alteração da magnitude do sabor na interação fraca é codificada em uma estrutura chamada matriz CKM. Esta também determina a violação CP que é permitida no modelo padrão. Os números quânticos do sabor são descritos em detalhes no artigo Sabor.Spin [editar]
Números quânticos correspondem a simetrias não-abelianas tal como a rotação. Elas requerem mais atenção na sua extração, dado que as simetrias não são aditivas. No modelo dos quarks, a construção de um mésons se dá com um quark e um antiquark; por outro lado, bárions são constituídos por três quarks. Desde que os mésons são bósons (têm spin inteiro) e bárions são férmions (têm spin semi-inteiro), o modelo dos quarks implica que os quarks são férmions. Além disto, o fato de bárions mais leves terem spin igual a -1/2 implica que cada quark pode ter spin J = 1/2. Os spins de mésons e bárions excitados são completamente consistente com estes argumentos.Cores [editar]
Como os quarks são férmions, o princípio de exclusão de Pauli implica que os três quarks de valência devam estar em uma combinação assimétrica em um bárion. Contudo, a carga Q = 2 bárion, Δ++ (a qual é uma dos quatro isospin Iz = 3/2 bárions) pode somente ser feita de três quarks u com spins paralelos. Como esta configuração é simétrica com respeito ao intercâmbio das cargas dos quarks, isso implica que existem outros números quânticos internos que poderão então compor combinações assimétricas. A isto se dá o nome de cor, embora não tenha nada a ver com a sensação fisiológica cores. Este número quântico é a carga envolvida na Teoria Gauge chamada de Cromodinâmica Quântica (QCD).A outra única partícula colorida é o gluon, o qual é o bóson mediador da QCD. Tal como todas as outras teorias mediadoras não-Abelianas (e diferentemente da Eletrodinâmica Quântica) os bósons mediadores interagem com os outros devido à mesma força que afeta os quarks.A Cor é uma simetria gauge SU(3). Os quarks são dispostos na representação fundamental, 3, desde que eles se mostrem em 3 cores. Os gluons são dispostos na representação adjunta, 8 e, por conseguinte aparecem em 8 variedades. Para mais informações a este respeito, veja carga colorida.Massa do quark [editar]
Embora se fale da massa do quark da mesma forma que se fala da massa de qualquer outra partícula, a noção da massa do quark é mais complicada pelo fato de ele não poder ser encontrado livre na natureza. Como um resultado disto, a noção da massa do quark é
uma construção teórica, a qual só faz sentido quando se especifica o procedimento usado para defini-la.Massa corrente do quark [editar]A aproximada simetria chiral da QCD, por exemplo, permite definir a razão entre as massas dos vários quarks (para cima, para baixo e estranho) através da combinação das massas do octeto de méson escalar no modelo quark utilizando a teoria da perturbação chiral, dado
O fato de que mu ≠ 0 é importante, dado que estes não estão no problema forte CP se mu forem eliminadas. Os valores absolutos de massa foram atualmente determinados para leis de soma QCD (também conhecido como leis da somatória da função espectral) e grade QCD. A massa determinada desta maneira é conhecida como massa corrente do quark. A conexão entre diferenças de massa corrente do quark necessita de mecanismo pleno de renormalização para estas especificações.Massa do quark de valência [editar]Outro, antigo, método de especificar a massa do quark foi usado na fórmula de massa de Gell-Mann-Nishijima no modelo de quark, a qual relaciona a massa do hádron às massas do quark. A massa assim determinada é chamada massa do quark constituinte, e é significantemente diferente da massa corrente do quark definida acima. A massa constituinte não tem qualquer significado dinâmico.Massa dos quarks pesados [editar]As massas dos quarks pesados, charme e inferior são obtidas das massas de hádrons que contêm um simples quark pesado (e um antiquark leve ou dois quarks leves) e da análise do seu quarkoma. Cálculos com grade QCD usando a teoria do quark pesado influente (HQET em inglês) ou cromodinâmica quântica não relativista (NRQCD em inglês) são usadas atualmente para determinar a massa destes quarks.O quark topo é suficientemente pesado para que a QCD de perturbação possa ser usada para determinar sua massa. Antes da sua descoberta em 1995, a melhor estimativa teórica da massa do quark topo foi obtida da análise global de testes de precisão do Modelo Padrão. O quark topo, contudo, é o único entre os quarks que decai antes que se tenha uma chance de hadronizar. Portando, sua massa tem de ser indiretamente medida através do produto de seu decaimento. Isto pode ser feito somente em um Tevatron o qual é o único acelerador de partícula com energia bastante para produzir quarks em abundância.Propriedades dos QuarksSabor Nome Geração Carga Massa (MeV)Iz=+1/2, Tz=+1/2 para acima (u) 1 +2/3 1.5 a 4.0Iz=−1/2, Tz=−1/2 para abaixo (d) 1 −1/3 4 a 8S=−1, Tz=−1/2 Estranho (s) 2 −1/3 80 a 130C=1, Tz=+1/2 Charmoso (c) 2 +2/3 1150 a 1350B′=−1, Tz=−1/2 Inferior (b) 3 −1/3 4100 a 4400T=1, Tz=+1/2 Superior (t) 3 +2/3 172700 ± 2900Massa do quark Superior do Tevatron Electroweak Working GroupOutra massas do quark obtidas de Grupo de massa de partícula.Os números quânticos do quark topo e inferior são denominados algumas vezes como, respectivamente, verdadeiro e belo.Antiquarks [editar]
Os números quânticos aditivos de antiquarks são iguais em magnitude e opostos em sinal àqueles dos quarks. A simetria CPT obriga-os a terem o mesmo spin e massa que
seus quarks correspondentes. Testes de simetria CPT não podem ser realizados diretamente nos quarks e antiquarks devido ao confinamento, mas podem ser feito nos hádrons. A notação de antiquarks segue à da antimatéria em geral: um quark up é referido como , e um quark anti-up é referido como .Sub-estrutura [editar]
Algumas evoluções do Modelo Padrão lançaram a idéia que os quarks e leptons têm subestrutura. Em outras palavras, este modelo assume que as partículas elementares do modelo padrão são de fato partículas compostas, feitas de algum outro constituinte elementar. Tais idéias estão abertas para a fase de testes experimentais, e estas teorias são severamente limitadas por falta de dados. Não há no momento atual nenhuma evidência desta sub-estrutura.História [editar]
A noção de quarks evoluiu da classificação dos hádrons desenvolvida independentemente em 1961 por Murray Gell-Mann e Kazuhiko Nishijima, sendo atualmente denominada como modelo quark. O esquema agrupa partículas com isospin e estranheza usando simetria unitária derivada da álgebra corrente, a qual nós reconhecemos hoje como parte de simetria chiral de QCD aproximada. Esta é uma simetria de sabor SU(3) global, a qual não deve ser confundida com a simetria de calibre da QCD.Neste esquema os mésons leves (spin-0) e os bárions (spin-½) foram agrupados em octetos, 8, com simetria de sabor. A classificação dos bárions de spin-3/2 em uma representação 10 produziu previsão de uma nova partícula, Ω−, a qual foi descoberta em 1964, levando à larga aceitação do modelo. A desejada representação 3 foi identificada como quarks.Este esquema ficou conhecido como "modelo das oito dobras" (do inglês eightfold way) por Gell-Mann, em uma clara referência aos octetos do modelo das oito dobras do Budismo. Ele também inventou o nome quark e atribuiu-lhe a sentença “Three quarks for Muster Mark” em Finnegans Wake de James Joyce. Os resultados negativos dos experimentos de busca do quark levaram Gell-Mann a considerá-los como ficção matemática.A análise de certas propriedade das reações de altas energias dos hádrons levou Richard Feynman a postular a existência de subestruturas nos hádrons, as quais foram chamadas de pártons (pois elas são partes dos hádrons). Uma adaptação de seções tranversais de espalhamento profundamente inelástico derivada da álgebra corrente por James Bjorken recebeu uma explicação em termos de párton. Quando adaptação de Bjorken foi verificada experimentalmente em 1969, foi imediatamente percebido que partons e quarks poderiam ser a mesma coisa. Com a prova da liberdade assintótica na QCD em 1973 por David Gross, Frank Wilczek e David Politzer, esta concepção foi firmemente estabelecida.O quark charmoso foi postulado por Sheldon Glashow, John Iliopoulos e Luciano Maiani em 1973 para prevenir mudanças não físicas do sabor em decaimentos fracos, os quais deveriam de outra forma ocorrer segundo o modelo padrão. A descoberta em 1975 do méson que veio a ser denominado de J/ψ levou ao reconhecimento que ele seria composto de um quark charmoso e um antiquark.
A existência de uma terceira geração de quaks foi predita por Makoto Kobayashi e Toshihide Maskawa em 1973, que entenderam que a observação da violação da simetria CP por kaons neutros não poderia ser acomodada no modelo padrão com duas gerações
de quarks. O quark inferior foi descoberto em 1980 e o quark superior em 1996 no acelerador de partículas Tevatron, do Fermilab.
PrótonOrigem: Wikipédia, a enciclopédia livre.
Nota: Para outros significados, veja Proton (desambiguação).Esta página ou secção não cita nenhuma fonte ou referência, o que compromete suacredibilidade (desde junho de 2009).Por favor, melhore este artigo providenciando fontes fiáveis e independentes, inserindo-as no corpo do texto por meio de notas de rodapé. Encontre fontes: Google — notícias, livros, acadêmico —Scirus — Bing. Veja como referenciar e citar as fontes.
O protão/próton é composto de doisquarks u e um quark d.
Um "protão" (português europeu) ou "próton" (português brasileiro) é uma partícula "sub-atômica" que faz parte do
núcleo de todos os elementos. Convencionou-se que o prótontem carga eléctrica positiva.
É uma das partículas, que junto com o nêutron, formam os núcleos atómicos.
Índice
[esconder]
1 História
Características físicas
Na química e bioquímica
4 Ver também
História [editar]
Em 1886, o físico alemão Eugen Goldstein criou um tubo e observou que, quando ocorriam
descargas elétricas através do tubo contendo um gás rarefeito, surgiam raios que
apresentavam massa e cargas elétricas positivas. Esses raios foram denominados de raios canais.
Posteriormente, o inglês Ernest Rutherford verificou que os raios canais originários do hidrogénio
possuíam a menor carga positiva conhecida até então. A essa unidade eletricamente carregada
positivamente deu-se o nome de próton.
Características físicas [editar]
A massa real de um próton é de, aproximadamente, 1,673 · 10−27 kg ou 1.007276 u. Entretanto,
atribui-se-lhe uma massa relativa de valor 1.
A carga elétrica real do próton é de, aproximadamente, 1,6 · 10−19 coulombs. Porém, do mesmo
modo que à massa, atribuiu-se uma carga relativa de +1.
O próton é formado por dois quarks up e um down, sendo escrito como: uud.
Comparativamente:
O nêutron não tem carga elétrica e é ligeiramente mais pesado que o próton.
O elétron apresenta a mesma carga que o próton, porém de sinal contrário. Entretanto, é 1836
vezes mais leve (1/1836).
Na química e bioquímica [editar]
Na química e bioquímica , a palavra próton é frequentemente usada como um sinônimo para o íon
molecular de hidrogênio (H+) em vários contextos:
A transferência do H+ em uma reação ácido-base é descrita como a transferência de um
próton. Um ácido é tido como um doador de próton e uma base como um receptor de
próton.
O íon de hidrogênio (H3O+) em uma solução aquosa corresponde ao íon de hidreto de
hidrogênio. Frequentemente a molécula da água é ignorada e o íon é escrito simplesmente
como H+(aq) ou finalmente H+, e tratado como um próton.
Modelo padrãoOrigem: Wikipédia, a enciclopédia livre.
Este artigo ou secção contém uma lista de fontes ou uma única fonte no fim do texto, mas esta(s) não são citadas no corpo do artigo, o que compromete a confiabilidade das informações. (desde maio de 2011)Por favor, melhore este artigo introduzindo notas de rodapé citando as fontes, inserindo-as no corpo do texto quando necessário.O modelo padrão da física de partículas é uma teoria que descreve as forças fundamentais forte, fraca e eletromagnética, bem como as partículas fundamentais que constituem toda a matéria. Desenvolvida entre 1970 e 1973, é uma teoria quântica de campos, consistente com a mecânica quântica e a relatividade especial. Para demonstrar sua importância, quase todos os testes experimentais das três forças descritas pelo
modelo padrão concordaram com as suas predições. Entretanto, o modelo padrão não é uma teoria completa das interações fundamentais, primeiramente porque não descreve a gravidade.Índice [esconder] 1 O Modelo padrão2 Testes e predições3 Tabela4 Desafios do Modelo padrão5 Links e Referências5.1 Artigos selecionados5.2 Ligações externas[editar]O Modelo padrão
O modelo padrão descreve dois tipos de partículas fundamentais: férmions e bósons.Os férmions são as partículas que possuem o spin semi-inteiro e obedecem o princípio de exclusão de Pauli, que diz que férmions idênticos não podem compartilhar o mesmo estado quântico.Os bósons possuem o spin inteiro e não obedecem o princípio de exclusão de Pauli.Informalmente falando, os férmions são as partículas que constituem a matéria e os bósons são as partículas que transmitem as forças. Para uma descrição detalhada das diferenças entre férmions e bósons, veja o artigo de partículas idênticas.No modelo padrão, a teoria da interação eletrofraca (que descreve as interações fracas e eletromagnéticas) é combinada com a teoria da cromodinâmica quântica. Todas estas teorias são teorias de calibre, significando que modelam as forças entre férmions acoplando aos bósons que "carregam" as forças. A Lagrangiana de cada conjunto de bósons mediadores é invariante sob uma transformação chamada de transformação de calibre, assim estes bósons mediadores são referidos como bósons de calibre. Os bósons no modelo padrão são:Fótons, que medeiam a interação eletromagnética.Bósons W e Z, que medeiam a interação fraca.Oito espécies dos glúons, que medeiam a interação forte. Seis destes glúons são rotulados como pares de "cores" e de "anti-cores" (por exemplo, um glúon pode carregar o "vermelho" e "anti-verde".) Outras duas espécies são uma mistura mais complexa das cores e anti-cores.Os bósons de Higgs, que induzem a quebra espontânea de simetria dos grupos de calibre e são responsáveis pela existência da massa inercial.As transformações de gauge dos bósons de calibre podem ser descritas usando um grupo unitário chamado grupo de calibre. O grupo de calibre da interação forte é o SU(3), e o grupo de calibre da interação eletrofraca é o SU(2)×U(1). Conseqüentemente, o modelo padrão é frequentemente referido como SU(3)×SU(2)×U(1). O bóson de Higgs é o único bóson na teoria que não é um bóson de calibre; tem um status especial na teoria, o que foi assunto de algumas controvérsias. Grávitons, os bósons que acredita-se mediar a interação gravitacional, não é explicado no modelo padrão.Há doze tipos diferentes de "sabores" dos férmions no modelo padrão. Entre o próton, o nêutron, e o elétron, aqueles férmions que constituem a maior parte da matéria, o modelo padrão considera somente o elétron uma partícula fundamental. O próton e o nêutron são agregados de umas partículas menores conhecidas como quarks, que são mantidos junto pela interação forte.[editar]Testes e predições
O modelo padrão predisse a existência dos bósons W e Z, dos glúons, do quark top e do quark charm antes que estas partículas fossem observadas. Suas propriedades preditas foram confirmadas experimentalmente com uma boa precisão.O grande colisor de Elétron-Pósitron no CERN testou várias predições sobre a decaimento dos bósons Z, e foram confirmados.Para ter uma ideia do sucesso do modelo padrão, uma comparação entre os valores medidos e preditos de algumas quantidades são mostrados na seguinte tabela:Quantidade Valores medidos(GeV) Modelo Padrão (GeV)Massa do bóson WMassa do bóson Z[editar]Tabela
fermions levógeros (para esquerda) no Modelo PadrãoFermion Símbolo Carga elétrica Carga fraca* Isospin fraco Hipercarga
Carga Colorida* Massa**Geração 1Eletron -1 -1/2 -1/2 0.511 MeVneutrino eletron 0 +1/2 -1/2 < 50 eVPosítron 1 0 1 0.511 MeVAntineutrino eletron 0 0 0 < 50 eVQuark Up +2/3 +1/2 +1/6 ~5 MeV ***Quark Down -1/3 -1/2 +1/6 ~10 MeV ***Antiquark Up -2/3 0 -2/3 ~5 MeV ***Antiquark Down +1/3 0 +1/3 ~10 MeV ***Geração 2Muon -1 -1/2 -1/2 105.6 MeVNeutrino muon 0 +1/2 -1/2 < 0.5 MeVAnti-Muon 1 0 1 105.6 MeVantineutrino Muon 0 0 0 < 0.5 MeVQuark charme +2/3 +1/2 +1/6 ~1.5 GeVQuark Estranho -1/3 -1/2 +1/6 ~100 MeVAntiquark anti-charme -2/3 0 -2/3 ~1.5 GeVAntiquark anti-estranho +1/3 0 +1/3 ~100 MeVGeração 3Tau -1 -1/2 -1/2 1.784 GeVNeutrino tau 0 +1/2 -1/2 < 70 MeVAnti-Tau 1 0 1 1.784 GeVAntineutrino tau 0 0 0 < 70 MeVQuark Top +2/3 +1/2 +1/6 173 GeVQuark Bottom -1/3 -1/2 +1/6 ~4.7 GeVAntiquark Top -2/3 0 -2/3 173 GeVAntiquark Bottom +1/3 0 +1/3 ~4.7 GeV* - Essas não são Cargas Abeliana ordinárias que podem ser adicionadas, mas sim identificações de Representações de gupo dos Grupos de Lie.** – A massa é realmente um acoplamento entre fermion dextrógeno e levógeno. Por exemplo, a massa de um eletro é realmente um acoplamento entre um elétron dextrógeno e levógeno, o qual é antiparticula de um positron levógeno. Também os neutrinos mostram a grande mistura entre seus acoplamentos de massa, então não é certo falar de massa do neutrino e no Sabor básico ou sugerir que o neutrino elétron
levógeno e um neutrino elétron dextrógeno tem a mesma massa como esta tabela parece sugerir.*** – O que é sempre medido experimentalmente são as massas dos baryons e hadrons e vários razões de seção transversal. Desde que os quarks não podem ser isolados por causa do confinamento QCD, a quantidade expressa é a suposta massa do quark na escala da renormalização de fase de transição QCD.Os fermions podem ser agrupados em três gerações, a primeira consiste do elétron, quark para cima e para baixo e o neutrino elétron. Toda a matéria ordinária é feita desta primeira geração de partículas; as gerações mais altas de partículas decaem rapidamente para a primeira geração e somente podem ser gerados por um curto tempo em experimentos de alta-energia. A razão para este arranjo em gerações é que os quatro fermions em cada geração comportam-se sempre exatamente como seus contrapontos na outra geração; a única diferença e suas massas. Por exemplo, o elétron e o muon têm sempre meio spin e carga elétrica unitária, mas o muon e cerca de 200 vezes mais massivo.Os elétrons e os neutrinho-eletron, e seus contrapontos em outras gerações, são chamados de "leptons", "partículas de interação fraca". Diferentes dos quarks, eles não possuem uma qualidade chamada "cor", e suas interações são somente eletromagnética e fraca, e diminuem com a distância. Por outro lado, a força forte ou cor entre os quarks se torna mais forte com a distância, tal que os quarks são sempre encontrado em combinações neutras chamadas de hadrons, num fenômeno conhecido como confinamento quark. Existem os fermionic baryons compostos de três quark (o proton e o neutro para começar são os exemplos mais familiares) e os mesons bosonico compostos de um par quark-antiquark (tais como os pions). A massa de cada agrupamento excede a massa de seus componentes devido a energia de ligação.[editar]Desafios do Modelo padrão
Embora o modelo padrão tivesse um grande sucesso de explicar os resultados experimentais, ele nunca foi aceito como uma teoria completa da física fundamental, por ter dois grandes defeitos:O modelo contém 19 parâmetros livres, tais como as massas da partícula, que devem ser determinadas experimentalmente (mais uns outros 10 para massas do neutrino). Estes parâmetros não podem ser calculados independentemente.O modelo não descreve a interação gravitacional.Desde a conclusão do modelo padrão, muitos esforços foram feitos dirigidos a estes problemas.Uma tentativa de resolver o primeiro defeito é conhecida como teorias de grande unificação. As teorias de grande unificação às vezes chamada de (GUTs) especulam que o SU(3), o SU(2), e o U(1) grupos são subgrupos de um único grupo da simetria maior. Em altas energias (além do alcance de experiências atuais), a simetria do grupo unificador é preservada; em energias baixas, reduz-se a SU(3)×SU(2)×U(1) por um processo conhecido como quebra espontânea de simetria. A primeira teoria deste tipo foi proposta em 1974 por Georgi e por Glashow, usando SU(5) como o grupo unificador. Uma característica importante desta GUT é que, ao contrário do modelo padrão, o modelo de Georgi-Glashow prediz a existência do decaimento do próton. Em 1999, o Observatório de neutrinos Super-Kamiokande relatou que não tinha detectado o decaimento do próton, estabelecendo um limite mais baixo na meia-vida do próton de 6.7 × 1032 anos. Isto e outras experiências descartaram numerosas GUTs, includindo o SU(5).
Além disso, há algumas razões cosmológicas pelas quais acredita-se que o modelo padrão está incompleto. Dentro dele, a matéria e o antimatéria são simétricas. A preponderância da matéria no universo poderia ser explicada dizendo que o universo começou fora deste caminho, mas a maioria dos físicos acham essa explicação não elegante. Além disso, o modelo padrão não fornece nenhum mecanismo para gerar a inflação cósmica que acredita-se ter ocorrido no começo do universo, uma conseqüência de sua omissão da gravidade.O bóson de Higgs, que é predito pelo modelo padrão, não foi observado até 2005 (embora alguns fenômenos foram observados nos últimos dias do colisor LEP, que poderiam estar relacionados ao Higgs; uma das razões para construir o LHC é que o aumento na energia espera fazer um Higgs observável).O primeiro desvio experimental do modelo padrão veio em 1998, quando os resultados publicados pelo Super-Kamiokande indicaram a oscilação dos neutrinos. Isto implicou a existência de massas não-nulas dos neutrinos desde que partículas sem massa viajam na velocidade da luz e assim não experimentam a passagem do tempo. O modelo padrão não acomodou neutrinos massivos, porque supôs a existência somente dos neutrinos "canhotos", que têm o spin alinhado no sentido anti-horário em relação ao seu eixo de movimento. Se os neutrinos tiverem massas não-nulas, então eles viajam necessariamente mais lentamente do que a velocidade da luz. Conseqüentemente, seria possível "alcançar" um neutrino, escolhendo um sistema da referência em que o seu sentido do movimento é invertido sem afetar seu spin (que os faz destros). Desde então, os físicos revisam o modelo padrão para permitir que os neutrinos tenham massas, o que fazem aumentar os parâmetros livres adicionais além dos 19 iniciais.Uma extensão do modelo padrão pode ser encontrada na teoria da supersimetria que propõe um "parceiro" supersimétrico massivo para cada partícula no modelo padrão convencional.
As partículas supersimétricas foram sugeridas como candidatas para explicar a matéria escura.
Em Física Nuclear e Física de Partículas, um lépton (português brasileiro) ou leptão (português
europeu) (grego para "leve", em oposição aos hádrons, ou hadrões, que são "pesados") é
uma partícula subatómica que não interage fortemente. Léptons comportam-se comoférmions e
não são feitos de quarks.
Um lépton pode ser um elétron, um múon, um tau lépton ou um dos seus respectivos neutrinos.
[editar]Cargas elétricas
Os leptões podem ou não ter carga elétrica. Os neutrinos não tem carga, e os elétrons,
os múons e os taus têm carga equivalente a uma unidade. As respectivas antipartículas têm
carga oposta. Os léptons não sentem a força nuclear forte, mas interagem com
oshádrons pela força nuclear fraca.
[editar]Tabela de leptões
Nome Carga Massa(GeV/c²)
Elétron -1 0.000511
Múon -1 0.1056
Tau -1 1.777
Neutrino do elétron 0 ~0
Neutrino do múon 0 ~0
Neutrino do tau 0 ~0
(Experimentos recentes com neutrinos solares mostram que pelo menos dois dos três tipos de
neutrinos possuem massa acima de zero. Contudo isto ainda não está confirmado.)
Partícula elementarOrigem: Wikipédia, a enciclopédia livre.(Redirecionado de Lista de partículas)
Esta página ou secção foi marcada para revisão, devido a inconsistências e/ou dados de confiabilidade duvidosa. Se tem algum conhecimento sobre o tema, por favor verifique e melhore a consistência e o rigor deste artigo. Pode encontrar ajuda no WikiProjeto Física.Se existir um WikiProjeto mais adequado, por favor corrija esta predefinição. Este artigo está para revisão desde abril de 2011.Física
As Equações de MaxwellFísicaHistória da FísicaFilosofia da Física[Expandir]Divisões elementares[Expandir]Grandezas Físicas[Expandir]Campos de pesquisa[Expandir]Cientistas[Expandir]Experimentos[Expandir]Experimentos atuaisver • editarEm física de partículas, uma partícula elementar ou partícula fundamental é uma partícula que não possui nenhuma subestrutura1 . Por exemplo, átomos são feitos de partículas menores conhecidas como elétrons, prótons e nêutrons. Os prótons e nêutrons, por sua vez, são compostos de partículas mais elementares conhecidas como quarks. Um dos mais notáveis da física de partículas é encontrar as partículas mais elementares – ou as co-denominadas partículas fundamentais – as quais constroem todas as outras partículas encontradas na natureza, e não são elas mesmas compostas de partículas menores. Historicamente, os hádrons (mésons e Bárions tais como o próton o nêutron) e até mesmo o átomo inteiro já foram considerados como partículas elementares.Índice [esconder] 1 Modelo padrão1.1 Férmions fundamentais1.1.1 Antipartículas1.1.2 Quarks
1.2 Bósons Fundamentais1.2.1 Glúons1.2.2 Bósons eletrofracos1.2.3 Bóson de Higgs2 Além do modelo padrão2.1 Supersimetria2.2 Teoria das cordas2.3 Teoria Preon3 Ver também4 Bibliografia5 Referências6 Ligações externas[editar]Modelo padrão
Ver artigo principal: Modelo padrãoO modelo padrão das partículas físicas contém 12 sabores de férmions (partículas massa) elementares, além de suas correspondentes antipartículas, como também bósons ("partículas de radiação") elementares que mediam as forças e o recém descoberto bóson de Higgs. Contudo, o modelo padrão é largamente considerado como sendo uma teoria provisória do que uma verdade fundamental, desde que ele é incompatível como a relatividade geral de Einstein. Os fótons (partículas emitidas pela luz) por exemplo são o quanta dos campos eletromagnéticos. Há o que provavelmente sejam partículas elementares hipotéticas que não são descritas pelo modelo padrão, tais como o gráviton, a particular que transporta a força gravitacional ou as s-partículas, associações supersimétricas da partículas ordinárias.[editar]Férmions fundamentaisOs doze sabores fundamentais de férmions estão divididos em três gerações de quatro partículas cada. Seis destas partículas são quarks. As seis restantes são leptons, três dos quais são neutrinos, e as três restantes as quais tem carga elétrica -1: o elétron e dois primos, o muon e o tau.Gerações de PartículasPrimeira Geraçãoelétron: e-neutrino do elétron: νequark up: uquark down: dSegunda Geraçãomuon: μ-neutrino do múon: νμquark charmoso: cquark estranho: sTerceira Geraçãotau: τ-neutrino do tau: ντquark top: tquark bottom: b[editar]AntipartículasVer artigo principal: AntipartículaHá também 12 antipartículas fermiônicas fundamentais correspondentes às doze outras. O posítron e+ corresponde ao elétron e assim por diante:
AntiparticulasPrimeira Geraçãopósitron: e+elétron-antineutrino: anti-quark up: anti-quark down: Segunda Geraçãomuon positivo: μ+muon-antineutrino: anti-quark charmoso: anti-quark estranho: sTerceira Geraçãotauon positivo: τ+tauon-antineutrino: ντanti-quark top: anti-quark bottom: [editar]QuarksVer artigo principal: QuarkQuarks e antiquarks nunca foram detectados isoladamente. Um quark pode existir emparelhado com um antiquark, formando um meson: o quark tem uma cor(veja carga colorida) e um antiquark tem uma anticor correspondente. Uma cor e a anticor cancelam-se mutuamente, produzindo o negro (isto é, a ausência de carga colorida). Ou três quarks podem existir juntos formando um Bárion: um quark é "vermelho", outro "azul", outro "verde". Estas três cores juntas formam o branco (isto é, a ausência de carga colorida) Ou três antiquarks podem existir juntos formando um anti-Bárion: um antiquark é "antivermelho", outro "anti-azul", outro "antiverde". Estas três anticores juntas forma o antibranco (isto é neutro). O resultado é que cores (ou anticores) não podem ser isoladas, mas quark carregam cores, e antiquarks carregam anticores.Os quarks possuem carga elétrica fracionária, mas como eles estão confinados dentro dos hadrons nos quais as cargas são todas inteiras, cargas fracionárias nunca foram isoladas. Note que os quarks têm carga elétrica +2/3 ou -1/3, enquanto os antiquarks têm cargas elétricas correspondentes -2/3 ou +1/3.Evidências de quarks vêm do bombardeamento com elétrons de núcleos de hidrogênio (essencialmente um próton) para determinar a distribuição da carga dentro de um próton. Se a carga é uniforme, o campo eletrostático em volta do próton deve ser uniforme e o elétron deve espalhar elasticamente. Elétrons de baixa energia espalham-se da mesma forma que o próton recua, mas acima de uma dada energia, os prótons defletem alguns elétrons em grandes ângulos. O recuo dos elétrons tem muito menos energia e um jato de partículas fundamentais é emitido. Se os prótons podem provocar isto para nos elétrons, sugere-se que a carga no próton não é uniforme mas dividia entre partículas carregadas menores, isto é os quarks.[editar]Bósons FundamentaisNo modelo padrão, bósons vetores (spin-1) (gluons, fótons, e os bósons W e Z) mediam forças, enquanto os bósons Higgs são responsáveis pelo fato das partículas possuírem massa.[editar]GlúonsOs Glúons são mediadores da força nuclear forte, e transportam cor e uma anti-cor. Embora gluons não possuam massa, eles nunca foram observados em detectores devido ao confinamento; porém eles produzem jatos de hadrons, similares aos de um único quarks.
[editar]Bósons eletrofracosExistem três bóson gauge fracos: W+, W-, e Z0; estes mediam a força nuclear fraca O fóton media a força eletromagnética.[editar]Bóson de HiggsVer artigo principal: Bóson de HiggsEmbora as forças eletromagnética e fraca apareçam muito diferentes para nós nas energias do dia-a-dia, as duas forças são teoricamente unificadas em uma única força eletrofraca a altas energias. A razão para estas diferenças a baixas energias é atribuída à existência do bóson de Higgs. Através do processo de quebra espontânea de simetria, o Higgs seleciona uma direção especial no espaço eletrofraco que proporciona três partículas eletrofracas tornassem bem pesadas (o bosons fracos) e uma permanecer sem massa (o fóton eletromagnético).[editar]Além do modelo padrão
[editar]SupersimetriaUma das mais importantes extensões do modelo padrão envolve partículas supersimétricas , abreviada como s-particulas, as quais incluem os sleptons, squarks, neutralinos e charginos. Cada partícula no modelo padrão tem um super-padrão que difere por 1/2 da partícula original. Em adição, estas s-partículas são mais pesadas do que seus contrapontos originais: eles são tão pesados que colineadores de partículas existentes não tem potência suficiente para ser capaz de detecta-los. Porem, alguns físicos acreditam que as s-particulas possam ser detectadas no Large Hadron Collider do CERN a partir de seu funcionamento.[editar]Teoria das cordasVer artigo principal: Teoria das CordasDe acordo com a teoria das cordas, cada tipo de particular fundamental corresponde a um diferente modo vibração de uma corda fundamental (cordas estão constantemente vibrando em padrão de ondas fundamentais, de forma similar a qual as órbitas quantizadas dos elétrons no modelo de Bohr vibrando em padrões de ondas fundamentais.A Teorias das cordas também prevê a existência de gravitons. Gravitons são praticamente impossíveis de serem detectados, porque a força gravitacional é muito fraca se comparada às outras forças.[editar]Teoria PreonDe acordo com a teoria do Préon existe uma ou mais ordens de partículas mais fundamentais do que esta (ou mais do que estas) encontradas no modelo padrão. Esta famílias mais fundamentais que estas são normalmente chamadas "Preons" para quais derivaram dos "pre-quarks". Em essência, a teoria tenta fazer o modelo padrão arquivo que o modelo padrão tinha feito ao zoológico de partículas que havia antes dele. A maioria dos modelos assume que o modelo padrão pode ser explicado em termos de três a meia dúzia de partículas mais fundamentais e leis que governam suas interações.
Enquanto a metodologia na teoria das cordas é tipicamente tentar construir uma estrutura matemática completa do zero, uma Teoria Preon tipicamente procura por padrões no modelos padrões em si e tenta encontrar modelos que podem imitar estes padrões.
AntimatériaOrigem: Wikipédia, a enciclopédia livre.
Esta página ou secção foi marcada para revisão, devido a inconsistências e/ou dados de confiabilidade duvidosa. Se tem algum conhecimento sobre o tema, por favor verifique e melhore a consistência e o rigor deste artigo. Pode encontrar ajuda no WikiProjeto Física.Se existir um WikiProjeto mais adequado, por favor corrija esta predefinição.Física
As Equações de MaxwellFísicaHistória da FísicaFilosofia da Física[Expandir]Divisões elementares[Expandir]Grandezas Físicas[Expandir]Campos de pesquisa[Expandir]Cientistas[Expandir]Experimentos[Expandir]Experimentos atuaisver • editarAntimatéria - na física de partículas e na química quântica, é a extensão do conceito de antipartícula da matéria, por meio de que a antimatéria é composta de antipartículas da mesma maneira que matéria normal está composta das partículas.Por exemplo, anti-elétrons (pósitrons, elétrons com carga positiva), antiprótons (prótons com carga negativa) e antinêutrons (com carga nula como os nêutrons) poderiam dar forma a antiátomos da mesma maneira que elétrons, prótons e nêutrons dão forma a átomos normais da matéria.Além disso, a mistura da matéria e da antimatéria conduziria ao aniquilamento de ambos, da mesma maneira que a mistura das antipartículas e das partículas, criando assim fótons de grande energia (raios gama) e outros pares de partículas e antipartículas. As partículas que resultam do aniquilamento matéria-antimatéria são dotadas de energia igual à diferença entre a massa do descanso dos produtos do aniquilamento e a massa do descanso do par original da matéria-antimatéria, que é sempre grande (ver: aniquilação pósitron-elétron).Índice [esconder] 1 Introdução2 A teoria3 Experimentos4 Ver também5 Bibliografia6 Referências7 Ligações externasIntrodução [editar]
Em 1928, o físico teórico britânico Paul Dirac elaborou uma equação que leva seu nome. Esta equação tornou possível antever a existência dos pósitrons e, portanto, a existência da antimatéria.Há uma especulação considerável na ciência e na ficção científica a respeito de por que o universo observado parece ser constituído inteiramente de matéria. Especula-se a respeito de outros lugares possivelmente constituídos apenas por antimatéria. Atualmente, a assimetria aparente entre matéria e antimatéria é um dos maiores problemas sem solução da física. Os possíveis processos pelo que ocorreu são explorados mais detalhadamente na bariogênese.Em 1995, foram produzidos antiátomos de anti-hidrogênio, assim como núcleos de anti-deutério, criados a partir de um antipróton e um antinêutron. Porém, não houve sucesso na obtenção de antimatéria de maior complexidade.A antimatéria cria-se no universo como resultado da colisão entre partículas de alta energia, como ocorre no centro das galáxias, entretanto, não se tem detectado nenhum tipo de antimatéria como resíduo do Big Bang, coisa que ocorre com a matéria normal. A desigual distribuição entre a matéria e a antimatéria no universo tem sido, durante muito tempo, um mistério. A solução mais provável reside em certa assimetria nas propriedades dos mésons-B e suas antipartículas, os antimésons-B [1].Os pósitrons e os antiprótons podem ser armazenados num dispositivo denominado "armadilha" (Penning trap, em inglês), que usa uma combinação de campos magnéticos e elétricos. Para a criação de armadilhas que retenham átomos completos de anti-hidrogênio foram empregados campos magnéticos muito intensos, assim como temperaturas muito baixas. As primeiras destas armadilhas foram desenvolvidas pelos projetos ATRAP e ATHENA.
Foguete de antimatéria: astronave que, teoricamente, utilizaria antimatéria como combustível.O símbolo que se usa para descrever uma antipartícula é o mesmo símbolo da partícula normal, porém com um traço sobre o símbolo. Por exemplo, o antiproton é simbolizado como:.As reações entre matéria e antimatéria tem aplicações práticas na medicina como, por exemplo, na tomografia por emissão de pósitrons (PET).As colisões entre matéria e antimatéria convertem toda a massa possível das partículas em energia. Esta quantidade é muito maior que a energia química ou mesmo a energia nuclear que se podem obter atualmente através de reações químicas, fissão ou mesmo fusão nuclear. A reação de 1 kg de antimatéria com 1 kg de matéria produziria 1.8×1017 J de energia (segundo a equação E=mc²). Em contraste, queimar 1 kg de petróleo produziria 4.2×107 J, e a fusão nuclear de 1 kg de hidrogênio produziria 2.6×1015 J.A escassez de antimatéria significa que não existe uma disponibilidade imediata para ser usada como combustível. Gerar somente um antipróton é imensamente difícil e requer aceleradores de partículas, assim como imensas quantidades de energia (muito maior do que a obtida pelo aniquilamento do antipróton), devido a ineficiência do processo. Os métodos conhecidos para produzir antimatéria também produzem uma quantidade igual de matéria normal, de forma que o limite teórico do processo é a metade da energia administrada se converter em antimatéria. Inversamente, quando a antimatéria é aniquilada com a matéria ordinária, a energia emitida é o dobro da massa de antimatéria, de forma que o armazenamento de energia na forma de antimatéria poderia apresentar (em teoria) uma eficiência de 100%.
Na atualidade, a produção de antimatéria é muito limitada, porém tem aumentado em progressão geométrica desde o descobrimento do primeiro antipróton em 1995. A taxa atual de produção de antimatéria é entre 1 e 10 nanogramas por ano, esperando-se um incremento substancial com as novas instalações do CERN e da Fermilab.Considerando as partículas mais elementares que se conhecem atualmente: Lépton (Elétron, Elétron-neutrino, Múon, múon-neutrino, Tau e Tau-neutrino), Quarks (Up, Down, Charm, Strange, Top e Bottom) e Bósons (Fótons, Glúons, Bósons vetoriais mediadores e grávitons), podemos dizer que para cada uma delas, existe uma antipartícula, com massa igual porém com carga elétrica e momento magnético inverso. Elas dão origem ao antielétron (chamado também de pósitron), ao antipróton e ao antinêutron - a antimatéria, portanto.A teoria [editar]
A teoria mais aceita para a origem do universo é a do Big Bang que diz que tudo se iniciou numa grande expansão. Nos primeiros instantes o universo não era constituído por matéria, mas sim por energia sob forma de radiação. O universo então passou a expandir-se e, consequentemente, a arrefecer. Pares de partícula-antipartícula eram criados e aniquilados em grande quantidade. Com a queda de temperatura a matéria pôde começar a formar hádrons, assim como a antimatéria a formar antihádrons, pois matéria e antimatéria foram geradas em quantidades iguais. Atualmente, no entanto, parece que vivemos em um universo onde só há matéria.
Na esquerda: Partículas (elétron, próton, nêutron).Na direita: Antipartículas (pósitron, antipróton, antinêutron).Na realidade, já é estranho que o universo exista[carece de fontes], pois, quando a matéria e a antimatéria se encontram, o processo inverso da criação ocorre, ou seja, elas anulam-se gerando apenas energia nesse processo. Seria altamente provável[carece de fontes], portanto, que logo após terem sido criadas, partículas e antipartículas se anulassem, impedindo que corpos mais complexos como hádrons, átomos, moléculas, minerais e seres vivos pudessem formar-se[carece de fontes]. Acredita-se[carece de fontes] que esse processo de geração e aniquilação realmente ocorreu para quase toda a matéria criada durante o início da expansão do universo, mas o simples fato de existirmos indica que ao menos uma pequena fração de matéria escapou a esse extermínio precoce[carece de fontes].É possível que algum processo, de origem desconhecida, tenha provocado uma separação entre a matéria e a antimatéria. Neste caso existiriam regiões do universo em que a antimatéria e não a matéria seria mais abundante[carece de fontes]. Planejam-se algumas experiências no espaço para procurar essas regiões. No entanto, como até hoje não se conhece um processo capaz de gerar tal separação[carece de fontes], a maioria dos cientistas não acredita nessa hipótese[carece de fontes].Por outro lado, existe a possibilidade de que a natureza trate de forma ligeiramente diferente a matéria e a antimatéria. Se isto for verdade, seria possível que uma pequena fração da matéria inicialmente gerada tenha sobrevivido e formado o universo conhecido hoje. Há resultados experimentais e teóricos que apontam nesta direção.[carece de fontes]Experimentos [editar]
Experimentos para a produção artifical de antimatéria e seu armazenamento por períodos relativamente longos de tempo vem sendo tentados por cientistas nos últimos anos.Em setembro de 2010, a equipe internacional ALPHA do CERN (a qual inclui pesquisadores de diversos países, includindo os brasileiros Cláudio Lenz Cesar e Daniel de Miranda Silveira) anunciou que conseguiu pela primeira vez capturar átomos de antimatéria. Foram aprisionados 38 átomos de antihidrogênio no "tanque de antimatéria" criado pelos cientistas, cada um deles ficando retido por mais de um décimo de segundo.1Em junho de 2011, a mesma equipe ALPHA anunciou um novo recorde, ao aprisionar átomos de antimatéria por 1000 segundos (mais de 16 minutos e 35 segundos).2
Em março de 2012, a equipe ALPHA anunciou que conseguiu pela primeira vez efetuar medições de propriedades de átomos de antimatéria.
Energia escuraOrigem: Wikipédia, a enciclopédia livre.
Cosmologia
Universo · Big Bang
Idade do universo
Cronologia do Universo
Derradeiro destino do Universo
[Expandir]Universo primordial[Expandir]Universo em expansão[Expandir]Formação das estruturas[Expandir]Componentes[Expandir]Cronologia[Expandir]Experimentos[Expandir]Cientistas
Esta caixa: ver • editar
Em cosmologia, a energia escura (ou energia negra) é uma forma hipotética de energiaque estaria
distribuída por todo espaço e tende a acelerar a expansão do Universo.1 A principal característica da
energia escura é ter uma forte pressão negativa. De acordo com ateoria da relatividade, o efeito de
tal pressão negativa seria semelhante, qualitativamente, a uma força que age em larga escala em
oposição à gravidade. Tal efeito hipotético é frequentemente utilizado, por diversas teorias atuais
que tentam explicar as observações que apontam para um universo em expansão acelerada.
A natureza da energia escura é um dos maiores desafios atuais da física, da cosmologia e
da filosofia. Existem hoje muitos modelos fenomenológicos diferentes, contudo os dados
observacionais ainda estão longe de selecionar um em detrimento dos demais. Isso acontece pois a
escolha de um modelo de energia escura depende de um bom conhecimento da variação temporal
da taxa de expansão do universo o que exige a observação de propriedades de objetos a distâncias
muito grandes (observações e medição de distância em altos redshifts).
As principais formas das diferentes propostas de energia escura são: a constante cosmológica (que
pode ser interpretada tanto como uma modificação de natureza geométrica nas equações de campo
da relatividade geral, quanto como um efeito da energia do vácuo, a qual preenche o universo de
maneira homogênea); e a quintessência(usualmente modelado como campo escalar cuja densidade
de energia pode variar no tempo e no espaço).
Outra proposta relativamente popular entre pesquisadores é a quartessência que visa unificar os
conceitos de energia escura e matéria escura postulando a existência de uma forma de energia
conhecida como gás de Chaplygin que seria responsável tanto pelos efeitos das duas componentes
escuras.