Um novo segredo gelado


Carnegie Institution

Mistério derretido: H2O revela um novo segredo

 IMAGEM: Um fragmento da estrutura cristalina do novo tipo de gelo — os átomos de oxigênio são representados em azul, os de hidrogênio em rosa; os hidrogênios expulsos de suas moléculas em amarelo – esses últimos parecem ficar localizados nos vazios da estrutura poliédrica do oxigênio, uma das quais é representada pelo sombreado cinza. Anteriormente se acreditava que esses vazios continuavam a existir mesmo após a molécula de água se romper a pressões extremas.

Imagem cortesia do Oak Ridge National Laboratory

Imagem ampliada e mais informações.

Washington, D.C.— Empregando novas técnicas revolucionárias, uma equipe liderada por Malcolm Guthrie da Carnegie fez uma chocante descoberta sobre como o gelo se comporta sob pressão, modificando ideias que vigiam a quase 50 anos. Suas descobertas podem modificar nossa compreensão sobre como a molécula de água responde a condições encontradas nas profundezas dos planetas e pode ter outras implicações nas ciências de energia. Este trabalho foi publicado em Proceedings of the National Academy of Sciences.

Quando a água se torna gelo, suas moléculas são reunidas em uma estrutura cristalina através das pontes de hidrogênio. As pontes de hidrogênio são muito versáteis e, em função disto, os cristais de gelo podem apresentar uma chocante diversidade com ao menos 16 tipos de estrutura diferentes.

Em todas essas formas de gelo, a simples molécula de H2O é o elemento básico de construção. Entretanto, em 1964 foi previsto que, sob pressão suficiente, as pontes de hidrogênio pode se reforçar ao ponto onde elas podem mesmo romper as moléculas. A possibilidade de observar diretamente uma molécula de água dissociada se provou uma isca fascinante para os cientistas e foi objeto de contínuas pesquisas pelos últimos 50 anos. Nos meados da década de 1990, várias equipes, inclusive uma da Carnegie, observou a transição por meio de técnicas de espectroscopia. Porém estas técnicas eram indiretas e somente conseguiam uma parte do quadro.

Um dos métodos preferidos é “ver” diretamente os átomos de hidrogênio – melhor dizendo, os prótons. Isso pode ser feito quicando nêutrons no gelo e medindo cuidadosamente sua dispersão. Porém a aplicação desta técnica em altas pressões para ver a molécula se dissociar simplesmente não era possível até agora. Guthrie explica: “só se consegue chegar a essas pressões extremas se suas amostras de gelo forem realmente pequenas. Infelizmente, isso torna os átomos de hidrogênio muito difíceis de enxergar”.

A Fonte de Espalação de Nêutrons (Spallation Neutron Source = SNS) foi aberta no Laboratório Nacional de Oak Ridge no Tennessee em 2006, para fornecer um novo e extremamente brilhante suprimento de nêutrons. Tendo projetado uma nova classe de ferramentas, otimizadas para explorar esse fluxo sem precedentes de nêutrons, Guthrie e sua equipe – Russell Hemley, Reinhard Boehler e Kuo Li, da Carnegie, juntamente com Chris Tulk, Jamie Molaison e António dos Santos do Laboratório Nacional de Oak Ridge –conseguiram obter os primeiros vislumbres dos próprios átomos de hidrogênio no gelo a pressões sem precedentes, da ordem de 500.000 vezes a pressão atmosférica.

“Os nêutrons nos dizem o que outras técnicas não conseguiam”, diz Hemley, diretor do Laboratório de Geofísica da Carnegie. “Os resultados indicam que a dissociação das moléculas de água segue dois mecanismos diferentes. Algumas moléculas começam a se dissociar a pressões bem mais baixas e por um caminho diferente do previsto no clássico artigo de 1964”.

“Nossos dados pintam um quadro totalmente novo acerca do gelo”, comenta Guthrie. “Os resultados têm não só amplas consequências para a compreensão das ligações na H2O; as observações também podem apoiar uma teoria anteriormente proposta de que os prótons no gelo do interior dos planetas podem ser móveis, mesmo que o gelo continue sólido”.

E esta surpreendente descoberta pode se provar apenas o início de descobertas científicas. Tulk enfatiza que “conseguir ‘enxergar’ o hidrogênio com nêutrons não é importante só para os estudos do gelo. Isso pode se revelar uma descoberta capaz de mudar todo o jogo na técnica. As aplicações poderiam se estender a sistemas críticos para desafios socialmente críticos, tais como o campo da energia. Por exemplo, a técnica pode levar a uma compreensão melhor de hidratos de clatrato contendo metano e até de materiais para armazenagem de hidrogênio que podem, um dia, abastecer automóveis”.

 

###

Diamantes com defeito?… Perfeito!


DOE/Lawrence Berkeley National Laboratory

Diamantes defeituosos prometem sensibilidade perfeita

Pesquisadores do Laboratório Berkeley e seus colegas estendem o spin dos elétrons nos diamantes para fazer detectores magnéticos incrivelmente pequenos

 IMAGEM: Um centro de vacância de nitrogênio é um tipo de defeito puntual na estrutura cristalina de um diamante, no qual um átomo de nitrogênio fica no lugar de um átomo de carbono e fica uma vaga imediatamente adjacente ao nitrogênio.Clique aqui para mais informações.

Desde o cérebro, passando pelo coração e chegando ao estômago, os corpos dos animais geram campos magnéticos fracos que um detector ultra sensível poderia usar para descobrir doenças, rastrear drogas – e, quem sabe?… até ler mentes. Sensores do tamanho da unha do polegar poderiam mapear depósitos de gás no subsolo, analisar substâncias químicas e descobrir explosivos que poderiam se esconder de outras sondas.

Agora os cientistas do Laboratório Nacional Lawrence Berkeley (Berkeley Lab) do Departamento de Energia e da Universidade da California em Berkeley, em conjunto com seus colegas da Universidade Harvard, conseguiram aumentar o desempenho de um dos sensores mais potentes possíveis de campos magnéticos em nanoescala – um defeito em um diamante do tamanho de um par de átomos, chamado um “centro de vacância de nitrogênio” (nitrogen vacancy = NV center).

As descobertas da equipe de pesquisadores pode eventualmente permitir a fabricação de relógios menores que um chip de computador e, ainda assim, precisos até uns poucos quatrilhões de segundo, ou sensores de movimentoa mais rápidos e com maior tolerância a temperaturas extremas do que os giroscópios em smartphones. Não demora muito e um chip barato de diamante pode ser capaz de nuclear um computador quântico. A equipe relata seus resultados em Nature Communications.

Um sensor feito de diamante

Centros de vacância de nitrogênio são um dos defeitos mais comuns em diamantes. Quando um átomo de nitrogênio substitui um átomo de carbono no cristal de diamante e fica emparelhado com um espaço vazio (onde falta um átomo de carbono que devia estar lá), neste centro fica um número de elétrons, soltos dos átomos de carbono que deveriam estar naqueles lugares.

Os estados dos spins dos elétrons são bem definidos e muito sensíveis a campos magnéticos, campos elétricos e luz*, de forma que podem ser facilmente dispostos, ajustados e lidos por lasers.

“Os estados de spin dos centros NV são estáveis ao longo de um amplo espectro de temperaturas, de muito quente a muito frio”, diz Dmitry Budker da Divisão de Ciência Nuclear do Berkeley Lab, que também é professor de física da UC Berkeley. Mesmo pequenas lascas de diamante que custam centavos por grama, podem ser usadas como sensores, porque, como afirma Budker, “nós podemos  controlar o número de centros NV no diamante apenas os irradiando ou assando”, ou seja, dando-lhes têmpera.

O desafio é manter a informação inerente nos estados de spin do centro NV, uma vez que esta tenha sido lá codificada, sem deixá-la vazar antes que se possa realizar medições: nos centros NV, isso requer a extensão do que é chamado de tempo de “coerência” dos spins dos elétrons, ou seja, o tempo que os spins permanecem sincronizados entre si.

Recentemente Budker trabalhou com Ronald Walsworth de Harvard em uma equipe que incluía Nir Bar-Gill de Harvard e  Andrey Jarmola pesquisador pós-doutorado da UC Berkley. Eles conseguiram estender o tempo de coerência de um conjunto de spins de elétrons de um centro NV por mais de duas ordens de magnitude acima das experiências anteriores.

“Para mim, o aspecto mais entusiasmante deste resultado é a possibilidade de estudar as mudanças nas formas com que os centros NV interagem entre si”, diz Bar-Gill, autor principal do artigo e que estará indo para a Universidade Hebraica em Jerusalém no segundo semestre deste ano. “Isto é possível porque os tempos de coerência são muito mais longos do que aquele necessário para as interações entre os centros NV”.

E Bar-Gill acrescenta: “Agora podemos imaginar a engenharia de amostras de diamantes para realizar arquiteturas de computação quântica”. Os centros NV interativos fazem o papel dos bits em computadores quânticos, chamados qubits. Onde um dígito binário (bit) representa um 0 ou 1, um qubit representa 1 e 0 superpostos, um estado tipo “Gato-de-Schrödinger” simultâneo que persiste enquanto os estados forem coerentes, até que uma medição seja feita e faça colapsar todos os qubits emaranhados de uma só vez.

“Nós empregamos alguns truques para nos livrarmos de fontes de descoerência”, diz Budker. “Um deles foi usar amostras de diamante especialmente preparadas para serem feitas apenas de puro carbono-12”. Os diamantes naturais incluem uma pequena quantidade do isótopo carbono-13, cujo spin nuclear acelera a descoerência dos spins dos elétrons dos centros NV. O carbono-12 tem um spin nuclear zero.

“O outro truque foi baixar a temperatura até a do nitrogênio líquido”, diz Budker. A descoerência foi reduzida pelo resfriamento das amostras a 77°K, abaixo da temperatura ambiente, mas facilmente obtenível.

Trabalhando em conjunto no laboratório de Budker, os membros da equipe montaram os diamantes dentro de um criostato. Um feixe de laser atravessando o diamante, conjugado com um campo magnético, ajustou os spins dos elétrons no centro NV e os fez emitir fluorescência.  O brilho fluorescente foi a medida da coerência dos estados de spin.

“Controlar o spin é essencial”, explica Budker, “de forma que pegamos emprestada uma ideia da ressonância magnética nuclear”  – a base de procedimentos familiares como o Imageamento por Ressonância Magnética (MRI) nos hospitais.

Embora seja diferente do spin nuclear, a coerência dos spins dos elétrons pode ser estendida com técnicas semelhantes. Assim, quando os estados dos spins nos centros NV chegavam à beira da descoerência, os pesquisadores chacoalhavam o diamante com uma série de até 10.000 curtos pulsos de micro-ondas. Os pulsos invertiam os spins dos elétrons quando começavam a perder o sincronismo mútuo, produzindo “ecos” nos quais os spins invertidos se auto-ajustavam. A coerência era re-estabelecida.

Eventualmente os pesquisadores conseguiram tempos de coerência de spin de mais de meio segundo. “Nossos resultados são realmente brilhantes para o sensoreamento de campos magnéticos e informação quântica”, brinca Bar-Gill.

Longos tempos de coerência de spin se soma às vantagens que os diamantes já têm, colocando os NVs de diamantes na vanguarda dos potenciais candidatos para computadores quânticos práticos – uma busca favorita dos pesquisadores de Harvard. O que o grupo de Budker acredita ser uma perspectiva ainda mais interessante é o potencial que os longos tempos de coerência apresentam no sensoreamento de campos magnéticos, com aplicações que vão da biofísica à defesa.

 

###

“Solid-state electronic spin coherence time approaching one second”, por Nir Bar-Gill, Linh M. Pham, Andrey Jarmola, Dmitry Budker e Ronald L. Walsworth,será publicado na edição de 23 de abril de 2013 da  Nature Communications, online em http://www.nature.com/ncomms/journal/v4/n4/full/ncomms2771.html.


Nota do tradutor: [*] Considerando que os fótons – as partículas de luz, não só a visível, mas todas as frequências – são portadores dos campos elétricos e magnéticos, é claro que se algo é sensível aos campos elétricos e magnéticos terá que ser sensível à luz… Enfim…

Antimatéria = Antigravidade (???)

University of California – Berkeley

A antimatéria é antigravidade?

Primeira medição direta do peso da antimatéria, comparado ao da matéria normal

 IMAGEM: Físicos da UC Berkeley/LBNL se perguntam se o hidrogênio normal (esquerda) pesa o mesmo que o anti-hidrogênio (direita)

Clique aqui para mais informações.

A antimatéria é um negócio esquisto  Ela tem a carga elétrica oposta à da matéria normal e, quando se encontra com sua contraparte, as duas se aniquilam, gerando um clarão de luz.

Quatro físicos da Universidade da Califórnia em Berkeley estão se perguntando se a matéria e a antimatéria seriam afetadas pela gravidade de maneira diferente. Será que a antimatéria poderia cair para cima  – ou seja, exibir antigravidade – ou cair para baixo com uma aceleração diferente da matéria normal?

Quase todo o mundo, inclusive os físicos, acham que a antimatéria provavelmente vai cair da mesma forma que a matéria normal, mas ninguém até agora deixou antimatéria cair para ver se isso é verdade, argumenta Joel Fajans, professor de física da UC Berkeley. E, embora existam muitos indícios indiretos de que antimatéria e matéria pesem a mesma coisa, todos eles dependem de suposições que podem não ser corretas. Alguns poucos teóricos argumentam que alguns busílis cosmológicos, tais como, por exemplo, por que existe mais matéria do que antimatéria, poderiam ser explicados se a antimatéria caísse para cima.

Em um novo artigo publicado online em 30 de abril na Nature Communications, os físicos da UC Berkeley e seus colegas da experiência ALPHA no CERN em Genebra, relatam a primeira medição direta do efeito da gravidade sobre a antimatéria, especificamente anti-hidrogênio em queda livre. Embora os resultados estejam longe de serem definitivos – a incerteza é cerca de 100 vezes maior do que a medição esperada – a experiência da UC Berkeley aponta na direção de uma resposta definitiva sobre a questão fundamental de se a antimatéria cai para cima ou para baixo.

“Esta é a primeira palavra, não a última”, diz Fajans. “Nós demos os primeiros passos na direção de uma experiência direta de questões que físicos e não-físicos têm matutado por mais de 50 anos. Certamente nós esperamos que a antimatéria caia para baixo, mas pode bem ser que tenhamos uma surpresa”.

Fajans e seu colega físico, professor Jonathan Wurtele, se valeram de dados do Aparato Laser de Física de Anti-hidrogênio (Antihydrogen Laser Physics Apparatus = ALPHA) no CERN. A experiência captura antiprótons e os combina com antielétrons (posítrons) para fabricar átomos de anti-hidrogênio, os quais são armazenados e estudados por uns poucos segundos em uma armadilha magnética. Depois, no entanto, a armadilha é desligada e os átomos caem para fora. Os dois pesquisadores perceberam que, analisando como o anti-hidrogênio cai da armadilha, eles poderiam estabelecer se a gravidade atuava sobre o anti-hidrogênio de maneira diferente da que atua sobre o hidrogênio.

O anti-hidrogênio não se comportou de maneira estranha, de forma que eles calcularam que ele não pode ser mais do que 110 vezes mais pesado do que o hidrogênio. Se a antimatéria for antigravitacional – coisa que eles ainda não podem descartar – ele não acelera para cima a mais de 65 Gs.

“Precisamos fazer melhor e esperamos fazê-lo nos próximos anos”, diz Wurtele. A experiência ALPHA está passando por aperfeiçoamentos e deve fornecer dados mais precisos quando voltar a operar em 2014.

 

###
Fontes:

Uma nova assimetria entre matéria e antimatéria

lhcb

Vista da área subterrânea do LHCb, olhando para cima a partir do fundo do poço.

(Imagem: Anna Pantelia/CERN)


A experiência LHCb (Large Hadron Collider beauty – onde o “beauty” ainda usa o nome antigo para o quark  “bottom”) descobriu mais uma assimetria no decaimento dos Bósons B (mais exatamente no méson B0 – formado por um antiquark “bottom” e um quark “strange”). Esta é a quarta partícula a exibir essa quebra de simetria (e os dados, coletados nas experiências de 2011 têm uma significância maior que 5 Sigma).

Supostamente, no início da existência do universo, foram criadas quantidades simetricamente iguais de matéria e antimatéria, mas, por algum motivo ainda desconhecido, a matéria acabou prevalecendo e o universo atual é feito dela (bem… pelo menos uns quase 5% do atual universo – o resto é matéria escura e energia escura, sejam isso lá o que forem).

É exatamente isso uma das coisas que os cientistas do LHC pesquisam: esse viés do universo pela matéria, em desfavor da antimatéria – ou, em termos mais técnicos, “violação da simetria CP” . E uma das experiências em curso no LHC é a LHCb, que examina o decaimento dos mésons que contêm quarks bottom (genericamente chamados que “mésons B”).

A primeira vez que se observou uma violação da simetria CP foi no decaimento dos Kaons (ou mésons K), pelo Laboratório de Brookhaven, nos EUA, em 1960. Mais 40 anos se passaram e, no Japão e nos EUA, verificaram que o decaimento dos mésons B0 (antiquark bottom e quark up) também apresentava o mesmo comportamento.

Recentemente, tanto a experiência LHCb, como outras “fábricas de Bs”, tinham flagrado essa violação CP no decaimento dos mésons B+ (antiquark bottom + quark up).

Todas essas violações da paridade CP estão perfeitamente de acordo com o Modelo Padrão da Física de Partículas (ou, se você preferir, Física Quântica, ou ainda Física de Altas Energias), mas as discrepâncias observadas ainda são dignas de estudos mais aprofundados. Como declara Pierluigi Campana, porta-voz da colaboração LHCb: “Nós também sabemos que o efeito total induzido pelas violações CP do Modelo Padrão, são muito pequenas para explicar a total predominância da matéria sobre a antimatéria. No entanto, através do estudo dessas violações CP, estamos procurando pelas peças que faltam no quebra-cabeças, realizando testes que comprovam com mais acurácia as previsões da teoria do Modelo Padrão e sondando a possibilidade da existência de uma física além do Modelo Padrão”.

###

Fonte: LHCb experiment observes new matter-antimatter difference.

Artigo submetido ao Physical Review Letters – First observation of CP violation in the decays of Bs mesons.

Mandando a luz para onde ela deve ir


Harvard University

Os físicos encontraram a solução para a óptica on-chip

Roteador em nano-escala converte e direciona com eficiência sinais ópticos

 IMAGEM: Dois dispositivos de acoplamento baseados no padrão em espinha de peixe: um dispositivo retangular e outro anular.

Clique aqui para mais informações.

Cambridge,  Massachusetts. – 22 de abril de 2013 – Uma equipe de pesquisadores com base em Harvard criou um novo tipo de nano-dispositivo que converte um sinal óptico em ondas que se propagam ao longo de uma superfície de metal. A característica mais significativa deste dispositivo é que ele pode reconhecer tipos específicos de luz polarizada e, segundo essa polarização, enviar o sinal em uma determinada direção.

A descoberta, publicada na edição de 19 de abril da Science, dá uma nova maneira para manipular precisamente a luz na escala abaixo do comprimento de onda, sem danificar um sinal que pode transportar dados. Isto abre as portas para uma nova geração de interconexões ópticas em chips que podem canalizar informações de dispositivos ópticos para dispositivos eletrônicos.

“Se quisermos enviar um sinal de dados para todos os lados de um pequeno chip com vários componentes, precisamos ser capazes de controlar precisamente para onde o sinal vai”, explica Balthasar Müller, principal co-autor do artigo e estudante de pós-graduação na Escola de Engenharia e Ciências Aplicadas (School of Engineering and Applied Sciences = SEAS) em Harvard. “Se o sinal não for bem controlado, a informação se perde. A direcionalidade é um fator extremamente importante”.

O acoplador transforma a luz incidente em um tipo de onda chamado polariton plasmon de superfície, uma ondulação superficial no mar de elétrons que existe nos metais.

 IMAGEM: Uma micrografia eletrônica que exibe as perfurações em nano-escala do acoplador plasmônico.

Clique aqui para mais informações.

Antigamente já era possível controlar a direção dessas ondas, mudando-se o ângulo de incidência da luz sobre o acoplador, porém, como coloca Müller, “Isso era uma grande maçada. Circuitos ópticos são muito difíceis de alinhar, de modo que reajustar os ângulos para rotear o sinal não era uma solução prática”.

Com o novo acoplador, a luz só precisa incidir perpendicularmente e o dispositivo faz o resto. Atuando como um controlador de tráfego, ele lê a polarização da onda de luz incidente – que pode ser linear, circular destrógira, ou circular levógira – e a roteia de acordo com isso. O dispositivo pode até dividir um feixe de luz e enviar partes dele em diferentes direções, permitindo a transmissão da informação em vários canais.

O acoplador consiste de uma fina folha de ouro, salpicada de pequenas perfurações. Porém, é no preciso padrão formado pelas fendas, dispostas como espinhas de peixe, onde reside a genialidade.

“A solução mais empregada até agora era uma série de ranhuras paralelas, conhecidas como gradil, que funciona, mas perde uma grande parte do sinal no processo”, explica o principal pesquisador Federico Capasso, Professor “Robert L. Wallace” de Física Aplicada e Pesquisador Associado Sênior “Vinton Hayes” de Engenharia Elétrica na SEAS de Harvard. “Talvez agora nossa solução seja a mais empregada. Ela torna possível controlar a direção dos sinais de maneira simples e elegante”.

 IMAGEM: Estas imagens, tiradas com um microscópio de escaneamento óptico de campo próximo, mostram as ondas plasmônicas se propagando pela superfície do acoplador.

Clique aqui para mais informações.

Uma vez que a nova estrutura é tão pequena — cada uma das unidades que se repetem é menor do que o comprimento de onda da luz visível — os pesquisadores acreditam que será fácil incorporá-la em novas tecnologias, tais como óptica plana.

Porém Capasso fala animadamente acerca das possibilidades de incorporar o novo acoplador em futuras redes de informação de alta velocidade que podem combinar eletrônica em nano-escala com elementos ópticos e plasmônicos em um único microchip.

“Isto gerou um grande entusiasmo neste campo”, conclui Capasso.

 

###

 

Müller e Capasso tiveram a colaboração do co-autor principal Jiao Lin, um antigo doutor pesquisador da SEAS que agora está no Instituto de Tecnologia de Manufatura de Singapura; e dos co-autores Qian Wang e Guanghui Yuan, da Universidade Tecnológica Nanyang, Singapura; Nicholas Antoniou, Principal Engeneheiro FIB no Centro Harvard de Sistemas em Nano-escala; e Xiao-Cong Yuan, professor do Instituto de Óptica Moderna na Universidade Nankai na China.

 

O que é mesmo “inteligência”?

Photobucket

Físico propõe uma nova abordagem para o conceito de inteligência

Estes diagrama mostram como o software que considera as “forças entrópicas causais”, emula o comportamento inteligente necessário para caminhar ereto ou usar ferramentas.
Crédito da imagem: Cortesia de Alexander Wissner-Gross

Um conceito radical pode causar a revisão das teorias que abordam o comportamento cognitivo

19 de abril de 2013 – 16:30

Por: 

Chris Gorski, ISNS

(ISNS) — Uma simples equação, fundamentada nos princípios básicos da física, pode descrever a inteligência e estimular novas abordagens em campos tão diversos quanto as finanças e a robótica – é o que diz uma nova pesquisa.

Alexander Wissner-Gross, um físico da Universidade Harvard e do Massachusetts Institute of Technology, e Cameron Freer, um matemático da Universidade do Hawaii em Manoa, desenvolveram uma equação que, segundo eles, descreve muitos comportamentos ditos inteligentes ou cognitivos, tais como caminhar ereto e usar ferramentas.
Os pesquisadores sugerem que o comportamento inteligente tem origem no impulso de obter o controle de eventos futuros no ambiente. Isto é exatamente o oposto do clássico cenário de ficção-científica onde os computadores ou robôs se tornam inteligentes e resolvem dominar o mundo.
As descobertas descrevem uma relação matemática que pode “induzir espontaneamente comportamentos notavelmente sofisticados associados ao ‘nicho cognitivo’ humano, o que inclui o uso de ferramentas e a cooperação social, em sistemas físicos simples”, como diz o artigo publicado por eles hoje na Physical Review Letters.
“É um artigo provocativo”, disse Simon DeDeo, um pesquisador do Santa Fe Institute que estuda sistemas biológicos e sociais. “Não é o que costumamos chamar de ciência”.
Wissner-Gross, um físico, disse que a pesquisa era “muito ambiciosa” e citou desenvolvimentos em vários campos como as principais fontes de inspiração.
A matemática por trás da pesquisa vem da teoria sobre como a energia térmica pode realizar trabalho e se dissipar com o tempo – a termodinâmica. Um dos conceitos fundamentais da física é chamado entropia – a tendência que têm os sistemas de evoluir para uma quantidade maior de desordem. A segunda lei da termodinâmica explica como, em qualquer sistema isolado, a quantidade de entropia tende a aumentar. Por exemplo, um espelho pode se despedaçar em vários cacos, mas uma coleção de cacos não vai se reajuntar em um espelho.
Esta nova pesquisa propõe que a entropia é diretamente conectada ao comportamento inteligente.
“[O artigo] é basicamente uma tentativa de descrever a inteligência como um processo fundamentalmente termodinâmico”, declara Wissner-Gross.
Os pesquisadores desenvolveram um software, chamado Entropica, e o alimentaram com modelos de várias situações onde ele pudesse demonstrar comportamentos que se parecessem muito com inteligência. E eles criaram os padrões de muitos desses exercícios com base em clássicos testes de inteligência animal.
Em um dos testes, os pesquisadores apresentaram a Entropica uma situação onde ele poderia usar um item como ferramenta para retirar outro item de dentro de um recipiente; em outro, ele poderia mover um carrinho de modo a balancear uma das rodas suspensa no ar. Governado pelos simples princípios da termodinâmica, o software respondeu exibindo um comportamento similar ao que as pessoas ou animais poderiam fazer, tudo isso sem ter recebido uma meta específica para qualquer um dos cenários.
“Ele realmente auto-determina qual é seu objetivo”, conta Wissner-Gross. “Esta [inteligência artificial] não precisa da especificação explícita de uma meta, diferentemente de qualquer outra [inteligência artificial]”.
O comportamento inteligente do Entropica emerge do “processo físico de tentar capturar tantas histórias futuras quanto possível”, diz Wissner-Gross. As histórias futuras representam todo o conjunto de possíveis resultados que estão disponíveis para um sistema em qualquer dado momento.
Wissner-Gross chama o conceito central da pesquisa de “forças entrópicas causais”. Essas forças são a motivação do comportamento inteligente. Elas encorajam o sistema a preservar tantas histórias futuras quanto for possível. Por exemplo, no exercício do carrinho-e-roda, o Entropica controla o carrinho para manter a roda erguida. Permitir que a roda caísse, diminuiria drasticamente o número de histórias futuras restantes, ou, em outras palavras, reduziria a entropia do sistema carro-e-roda. Manter a roda suspensa no ar, maximiza a entropia. Isto mantem todas as histórias futuras que podem ter início neste estado, inclusive as resultantes de deixar a roda do carrinho cair.
“O universo existe no estado presente que tem agora. Ele pode prosseguir em várias direções diferentes. Minha proposta é que a inteligência é um processo que tenta se assenhorar das histórias futuras”, explicou Wissner-Gross.
A pesquisa pode ter aplicações além das que são tipicamente associadas à inteligência artificial, inclusive estruturas da linguagem e cooperação social.
DeDeo disse que seria interessante aplicar esta nova estrutura para examinar a WikiPedia e pesquisar se ela, enquanto sistema, exibe os mesmos comportamentos descritos no artigo.
“Para mim [esta pesquisa] parece uma tentativa autêntica e honesta de encarar questões realmente grandes”, disse DeDeo.
Uma aplicação potencial dessa pesquisa é o desenvolvimento de robôs autônomos que possam reagir a ambientes mutáveis e escolher seus próprios objetivos.
“Eu estaria muito interessado em aprender mais e compreender melhor o mecanismo com o qual eles estão conseguindo alguns resultados impressionantes, porque isso poderia potencialmente auxiliar nossa busca pela inteligência artificial”, declarou Jeff Clune, um cientista de computação na Universidade do Wyoming.
Clune, que cria simulações de evolução e usa a seleção natural para evoluir inteligência artificial e robôs, expressou algumas reservas quanto à nova pesquisa, que ele sugeriu que pode ser motivada por uma diferença do jargão usado nos diferentes campos. Wissner-Gross deu a entender que ele espera trabalhar em conjunto com pessoas de diferentes campos no futuro, para ajudá-los a compreender como seus respectivos campos deram informações para a nova pesquisa e como as novas perspectivas podem ser úteis nesses campos.
A nova pesquisa foi buscar inspiração em desenvolvimentos de ponta de diversas outras disciplinas. Alguns cosmólogos sugeriram que certas constantes fundamentais na natureza têm os valores que têm, porque senão os homens não seriam capazes de observar o universo¹. Softwares avançados podem atualmente competir com os melhores jogadores humanos no xadrez e no jogo de estratégia Go. Os  pesquisadores até buscaram inspiração no que é conhecido como teoria do nicho cognitivo, que explica como a inteligência pode se tornar um nicho ecológico e, dessa forma, influenciar a seleção natural.
A proposta requer que um sistema seja capaz de processar informação e predizer as histórias futuras muito rapidamente para que possa exibir comportamento inteligente. Wissner-Gross sugeriu que as novas descobertas se encaixam bem em uma argumentação que liga a origem da inteligência à seleção natural e a evolução darwiniana – nada além das leis da natureza é necessário para explicar a inteligência.
Embora se declare confiante nos resultados, Wissner-Gross concede que existe espaço para refinamentos, tais como incorporar princípios de física quântica ao arcabouço. Ao par disto, ele fundou uma  companhia para explorar as aplicações comerciais da pesquisa em áreas como a robótica, a economia e a área de defesa.
“Nós basicamente vemos isto como uma grande teoria unificada da inteligência”, disse Wissner-Gross. “E eu sei que isto soa impossivelmente ambicioso, talvez, no entanto isto realmente unifica várias correntes de vários campos que vão da cosmologia à ciência da computação, comportamento animal e une tudo em um belo quadro termodinâmico”.

Chris Gorski é um editor do Inside Science News Service.

[1] O tradutor acha que esses tais cosmólogos deveriam procurar um psiquiatra urgentemente…

A carga magnética do Antipróton

Photo of  researchers examining a tubular structure to measure the magnetic charge of an antiproton.

Na busca por compreender melhor a surpreendente falta de equilíbrio entre matéria e antimatéria no universo, membros da equipe ATRAP usaram um aparelho criogênico de armazenamento para confinar um único antipróton por semanas, enquanto mediam seu campo magnético com uma precisão 680 vezes maior do que tinha sido, até então, possível com outros processos. Da esquerda para a direita Mason Marshall, Kathryn Marable, Gerald Gabrielse e Jack DiSciacca.

Crédito: Katherine Taylor/Harvard Public Affairs (via National Science Foudation)
Link para a imagem original, onde há outro link para download da imagem em alta resolução

A equipe que estuda as propriedades da antimatéria no CERN, Antihydrogen trap research team (equipe de pesquisa por confinamento de anti-hidrogênio), ou, simplesmente, Colaboração ATRAP, manteve um solitário antipróton em uma Armadilha Penning, um dispositivo que mantém as partículas confinadas em campos magnéticos de modo a não interagirem com qualquer parte material do próprio dispositivo (se a partícula o fizesse, imediatamente se aniquilaria ao fazer contato com qualquer próton normal, coisa que aconteceria bem rápido, considerando que a carga elétrica negativa do antipróton seria atraída pela carga elétrica positiva dos prótons).

Com o antipróton confinado, os pesquisadores o bombardearam com sinais de rádio-frequência e, cada vez que a frequência correta era aplicada, o impacto do fóton de RF fazia com que o spin do antripróton fosse para a frente e para trás. A partir daí era só medir a frequência correta: quanto mais alta fosse a frequência,  maior seria o campo magnético do antipróton. O resultado foi então comparado com o conhecidíssimo valor do campo magnético do próton comum.

Segundo o Modelo Padrão da Física de Partículas, o próton e o antipróton deveriam ter um campo magnético exatamente igual em força – apenas diferindo quanto à polaridade em relação a seu spin. E foi exatamente isto que os pesquisadores observaram – só que com uma precisão 680 vezes maior do que a de observações anteriores, conforme artigo publicado na edição de hoje de Physical Review Letters.

Você pode estar se perguntando: “para que então tiveram todo este trabalho, se o resultado foi exatamente o que era de se esperar?”

Armadilha Penning. Imagem de WikiMedia Commons. Link para o original

Exatamente por isso: se o resultado fosse ligeiramente diferente, então haveria algum erro no Modelo Padrão e essa diferença poderia dar uma pista para um dos maiores problemas da Física, da Astrofísica e da Cosmologia: se o Big Bang criou quantidades exatamente iguais de matéria e antimatéria (como se supõe que fez, uma vez que, no universo atual que podemos estudar, sempre as partículas são criadas aos pares partícula-antipartícula), como é que o universo conhecido é composto quase que exclusivamente por matéria?

Gerald Gabrielse, o Professor “Leverett” de Física na Universidade Harvard, líder da equipe de pesquisa, comentou: “Teria sido mais divertido e teríamos mais pistas sobre o desequilíbrio [entre matéria e antimatéria] do universo, se tivéssemos observado que os dois campos magnéticos tivessem valores diferentes”.

Só que não… A precisão da medição cada vez mais confirma o que se esperava: o Modelo Padrão da Física de Partículas está correto – cada vez com mais casas decimais – e ainda não foi desta vez que o mistério do desaparecimento da antimatéria do universo foi desvendado.

###

Fontes: Press-release 13-049 da National Science Foundation e EurekAlert da AAAS

Driblando a incerteza quântica (2)


University of Rochester

Dando a volta no Princípio da Incerteza

Físicos realizam as primeiras medições diretas dos estados de polarização da luz

 IMAGEM: Medição fraca:  quando a luz passa através de um cristal birrefringente, os componentes polarizados horizontal e verticalmente são separados mas ainda há uma certa superposição espacial entre eles, enquanto que em uma medição forte eles seriam inteiramente separados.

Clique aqui para mais informações.

Pesquisadores da Universidade de Rochester e da Universidade de Ottawa aplicaram uma técnica recentemente desenvolvida para medir diretamente pela primeira vez os estados de polarização da luz. Seu trabalho ao mesmo tempo suplanta os importantes desafios impostos pelo famoso Princípio da Incerteza de Heisenberg, como também é aplicável aos qubits, as unidades da teoria da informação quântica.

Seus resultados são relatados em um artigo na edição desta semana da Nature Photonics.

A técnica de medição direta foi inicialmente desenvolvida em 2011 pelos cientistas do Conselho Nacional de Pesquisas do Canadá (National Research Council) para medir a função de onda – uma maneira de estabelecer o estado de um sistema quântico.

Essa medição direta da função de onda sempre pareceu impossível por causa de um dos fundamentos do princípio da incerteza – a ideia de que certas propriedades de um sistema quântico só podem ser conhecidas de maneira vaga, se outras propriedades relacionadas forem conhecidas com precisão. A capacidade de realizar tais medições diretamente desafia diretamente a ideia de que uma completa compreensão de um sistema quântico jamais poderia decorrer de uma observação direta.

Os pesquisadores em Rochester/Ottawa, liderados por Robert Boyd, que desempenha funções em ambas universidades, mediu os estados de polarização da luz – as direções nas quais os campos elétrico e magnético da luz oscilam. Seu principal resultado, tal como o da equipe pioneira na medição direta, é que é possível medir variáveis chave relacionadas, conhecidas como “variáveis conjugadas”, de uma partícula ou estado quântico diretamente. Os estados de polarização da luz podem ser usados para codificar informação e exatamente por isso podem ser a base dos qubits nas aplicações de informação quântica.

“A capacidade de realizar medições diretas da função de onda quântica tem importantes implicações futuras para a ciência da informação quântica”, explica Boyd, Catedrático de Óptica Quântica Não-linear  Canada Excellence Research da Universidade de Ottawa e Professor de Óptica e Física na Universidade de Rochester. “O trabalho corrente de nosso grupo envolve aplicar esta técnica a outros sistemas, por exemplo, medir a forma de um estado quântico “misturado” (o oposto a um estado “puro”)”.

Anteriormente, uma técnica chamada tomografia quântica permitiu aos pesquisadores medir a informação contida nesses estados quânticos, porém somente de maneira indireta. A tomografia quântica necessita de uma grande quantidade de pós-processamento dos dados e isto é um processo demorado, não necessário na técnica de medição direta. Em outras palavras, em princípio, a nova técnica fornece a mesma informação que a tomografia quântica, porém em um tempo significativamente menor.

“A chave para a caracterização de qualquer sistema quântico é reunir informações sobre as variáveis conjugadas”, declara o co-autor Jonathan Leach, atualmente um palestrante da Universidade Heriot-Watt, no Reino Unido. “A razão pela qual se pensava ser impossível medir duas variáveis conjugadas diretamente  é porque medir uma causaria o colapso da função de onda antes que se pudesse medir a outra”.

 A técnica de medição direta emprega um “truque” para medir a primeira propriedade de forma tal que não há perturbação significativa do sistema e a informação da segunda propriedade pode ainda ser obtida. Esta medição cuidadosa consiste em uma “medição fraca” da primeira propriedade, seguida de uma “medição forte” da segunda propriedade.

Esta medição fraca, descrita há 25 anos, requer que o acoplamento entre o sistema e o medidor seja, como o nome sugere, “fraco” o que significa que o sistema quase não seja perturbado pelo processo de medição. O lado ruim deste tipo de medição é que uma única medição fornece somente uma pequena quantidade de informação e, para conseguir uma leitura precisa, o processo tem que ser repetido várias vezes a partir do que se obtêm uma média dos resultados.

Boyd e seus colegas usaram a posição e o momento da luz como indicadores do estado de polarização. Para acoplar a polarização ao grau de liberdade espacial, eles usaram cristais bi-refringentes: quando a luz passa através de um cristal desses, é introduzida uma separação espacial entre polarizações diferentes. Por exemplo, se a luz for composta de uma combinação de componentes polarizados vertical e horizontalmente, as posições dos componentes individuais vão se separar quando eles passarem através do cristal conforme suas polarizações. A espessura do cristal pode ser usada para controlar a força da medição, fraca ou forte, e estabelecer o grau de separação correspondente, pequeno ou grande.

Nesta experiência, Boyd e seus colegas passaram a luz polarizada através de dois cristais de diferentes espessuras: o primeiro, um cristal muito fino que media “fracamente” os estados de polarização vertical e horizontal; o segundo, um cristal muito mais espesso que media “fortemente” o estado de polarização diagonal e anti-diagonal. Como a primeira medição era “fraca”, o sistema não era perturbado de maneira significativa e, dessa forma, a informação obtida pela segunda medição ainda era válida. Este processo é repetido várias vezes para a obtenção de um resultado estatisticamente significativo. Reunindo tudo, se tem uma caracterização completa e direta dos estados de polarização da luz.

 

###

Os demais autores do artigo são Jeff Z. Salvail, Megan Agnew e Allan S. Johnson, todos estudantes da Universidade de Ottawa quando a pesquisa foi realizada e o estudante de pós-graduação de Ottawa, Eliot Bolduc.

Este trabalho foi financiado pelo Programa Canada Excellence Research Chairs (CERC) e Boyd também reconhece o apoio do Programa DARPA InPho.

Driblando a incerteza quântica

University of Innsbruck

Truques quânticos com medições

 IMAGEM: Em sua recente experiência, os cientistas  demonstraram que é possível reverter uma medição com o auxílio de um protocolo de correção de erro quântico.

Clique aqui para mais informações. 

Uma equipe de físicos da Universidade de Innsbruck, Áustria, realizou uma experiência que parece contradizer os fundamentos da teoria quântica – à primeira vista. A equipe, liderada por Rainer Blatt, reverteu uma medição quântica em um protótipo de processador de informação quântico. A experiência foi possibilitada por uma técnica que foi desenvolvida para a correção de erros quânticos em um futuro computador quântico.

As medições em sistemas quânticos têm intrigado gerações de físicos devido a suas propriedades contraintuitivas. Uma delas é o fato de que medições em um sistema quântico são, de modo geral, não determinísticas. Isso quer dizer que, mesmo que o estado do sistema seja completamente conhecido, é impossível prever o resultado de uma única medição. Além disso, a medição altera o estado do sistema, de forma que uma medição posterior certamente vai dar o mesmo resultado da primeira medição. Em outras palavras, a primeira medição altera irreversivelmente o sistema.

Em sua recente experiência, os cientistss demonstraram que é possível reverter uma medição com o auxílio de um protocolo de correção de erro quântico. Isto aparentemente contradiz os fundamentos da teoria quântica que proíbe explicitamente a reversão de uma medição quântica. Porém, uma olhadela mais detalhada torna fácil a solução deste enigma: a equipe de Philipp Schindler transfere a informação pertinente a uma única partícula para um estado emaranhado que consiste de três partículas. Se agora uma partícula individual for medida, seu estado original pode ser reconstruído a partir das informações que residem nas duas outras partículas restantes, o que não contraria as leis da mecânica quântica.

###

Artigo publicado: Undoing a quantum measurement. Philipp Schindler, Thomas Monz, Daniel Nigg, Julio T. Barreiro, Esteban A. Martinez, Matthias F. Brandl, Michael Chwalla, Markus Hennrich, Rainer Blatt. Physical Review Letters 110, 070403 (2013). DOI: 10.1103/PhysRevLett.110.070403 (http://dx.doi.org/10.1103/PhysRevLett.110.070403)

 

Essa é quente: temperaturas (absolutas) negativas

Max-Planck-Gesellschaft

Uma temperatura abaixo do zero absoluto

Átomos a temperaturas absolutas negativas são os sistemas mais quentes do mundo

 IMAGEM: Uma temperatura negativa quente: Em uma temperatura absoluta negativa, a distribuição de energia das partículas se inverte, em comparação com uma temperatura positiva.Clique aqui para mais informações (em inglês).

O que é corriqueiro para a maior parte das pessoas durante o inverno, até agora era impossível na física: uma temperatura negativa. Na escala Celsius, uma temperatura negativa só é surpreendente durante o verão. Na escala absoluta de temperaturas – também chamada de escala Kelvin – usada pelos físicos, não é possível ir abaixo do zero – pelo menos não no sentido de ficar mais frio do que zero Kelvin. Segundo o significado de temperatura para a física, a temperatura de um gás é determinada pelo movimento caótico de suas partículas – quanto mais frio um gás, mais lentas serão suas partículas. A zero kelvin (menos 273 graus Celsius) as partículas param de se mover e toda a desordem desaparece. Desta forma, nada pode ser mais frio do que o zero absoluto na escala Kelvin. Os físicos da Universidade Ludwig-Maximilians em Munique e do Instituto Max Planck de Óptica Quântica criaram agora em laboratório um gás atômico que, não obstante, apresenta valores Kelvin negativos. Estas temperaturas absolutas negativas causam várias consequências aparentemente absurdas: embora os átomos se atraiam mutuamente e criem uma pressão negativa, o gás não entra em colapso – um comportamento igualmente postulado para a energia escura na cosmologia. Máquinas supostamente impossíveis, tais como um motor de combustão com uma eficiência termodinâmica maior que 100%, também podem ser imaginadas com a ajuda de temperaturas absolutas negativas.

Para levar água à fervura, é preciso adicionar energia. À medida em que a água se aquece, as moléculas de água têm sua energia cinética aumentada ao longo do tempo e se movem cada vez mais rápido em média. Ainda assim, cada molécula individual tem uma energia cinética diferente – desde muito lentas até muito rápidas. Os estados de baixa energia são mais prováveis do que os estados de alta energia, isto é, somente algumas partículas se movem muito rápido. Na física, esta distribuição [de estados] é chamada de distribuição de Boltzmann. Os físicos que trabalham com Ulrich Schneider e Immanuel Bloch agora obtiveram um gás no qual esta distribuição é precisamente invertida: muitas partículas têm altas energias e umas poucas têm baixas energias. Esta inversão da distribuição de energia se traduz como se as partículas tivessem assumido uma temperatura negativa.

“A distribuição de Boltzmann invertida é o marco da temperatura absoluta negativa e foi isso o que conseguimos”, diz Ulrich Schneider. “Entretando o gás não é mais frio do que zero kelvin, porém mais quente”, explica o físico: “É mais quente ainda do que quaisquer temperaturas positivas – a escala de temperaturas simplesmente não termina no infinito; ao invés disso, ela salta para valores negativos”.

Uma temperatura negativa só pode ser obtida com um limite superior para a energia

O significado de uma temperatura absoluta negativa pode ser melhor ilustrado com esferas rolantes em um terreno montanhoso, onde os vales representam uma baixa energia potencial e os topos uma alta energia. Quanto mais rápido as esferas se moverem, mais alta será sua energia cinética: se começarmos com uma temperatura positiva e aumentarmos a energia total das esferas, aquecendo-as, as esferas vão se espalhar, cada vez mais, pelas regiões de alta energia. Se fosse possível aquecer as esferas a uma temperatura infinita, haveria uma probabilidade igual de as encontrarmos em qualquer ponto do terreno, sem qualquer diferença da energia potencial. Se fosse possível adicionar ainda mais energia e aquecer as esferas ainda mais, elas tenderiam a ser reunir em estados de alta energia e ficariam ainda mais quentes do que em uma temperatura infinita. A distribuição de Boltzmann seria invertida e a temperatura, portanto, seria negativa. À primeira vista pode parecer estranho que uma temperatura absoluta negativa seja mais quente do que uma positiva. No entanto, isto é apenas uma consequência da definição histórica de temperatura absoluta; se houvesse uma definição diferente, a aparente contradição não existiria.

Esta inversão da população de estados de energia não é possível com a água ou qualquer outro sistema natural, uma vez que o sistema teria que absorver uma quantidade infinita de energia  – O que é impossível! No entanto, se as partículas tivessem um limite superior para sua energia, tal como o topo dos montes em nosso terreno de energias potenciais, a situação seria completamente diferente. Os pesquisadores do grupo de pesquisa de Immanuel Bloch e Ulrich Schneider obtiveram um sistema assim, de um gás atômico com um limite superior de energia em seu laboratório, seguindo as propostas teóricas de Allard Mosk e Achim Rosch.

 IMAGEM: A temperatura representada como esferas em um terreno montanhoso: A distribuição de Boltzmann estabelece quantas partículas podem ter qual energia.

Clique aqui para mais informações (em inglês).

Em sua experiência, os cientistas primeiro resfriaram cerca de cem mil átomos em uma câmara de vácuo até uma temperatura positiva de poucos bilionésimos de grau Kelvin e os capturaram em armadilhas ópticas feitas com raios laser. O vácuo ultra alto em torno dos átomos garantiu que os átomos ficassem perfeitamente isolados termicamente de seu ambiente. Os feixes de laser criaram uma, assim chamada, grade óptica, na qual os átomos ficam arrumados regularmente nas casas da grade. Nessa grade, os átomos ainda podem se mexer de uma casa para outra, através do efeito de túnel, mas, mesmo assim, sua energia cinética tem um limite superior e, portanto, fica estabelecido o limite superior de energia necessário. A temperatura, entretanto, é relacionada não apenas com a energia cinética, mas à energia total das partículas, o que, neste caso, inclui as energias interativa e potencial. O sistema dos pesquisadores de Munique e Garching também estabelece um limite a ambas. Os físicos então levam os átomos até esse limite superior de energia total – criando assim uma temperatura negativa, no entorno de uns poucos bilionésimos de grau kelvin.

Em uma temperatura negativa, uma máquina pode realizar mais trabalho

Se nossas esferas tivessem uma temperatura positiva e ficassem em um vale de energia potencial mínima, tal estado seria obviamente estável – essa é a natureza que conhecemos. Se as esferas estivessem posicionadas no topo de uma montanha na energia potencial máxima, usualmente elas rolariam para baixo, convertendo sua energia potencial em cinética. “Entretanto, se as esferas estiverem em uma temperatura negativa, sua energia cinética já será tão grande que não pode mais ser aumentada”, explica Simon Braun, um estudante de doutorado do grupo de pesquisas. “Assim, as esferas não podem rolar para baixo e permanecem no topo do morro. O limite de energia as tornou estáveis, portanto!” O estado de temperatura negativa na experiência é, em verdade, tão estável quanto um estado de temperatura positiva. “Desta forma nós criamos o primeiro estado de temperatura absoluta negativa para partículas móveis”, acrescenta Braun.

A matéria em uma temperatura absoluta negativa tem todo um leque de consequências espantosas: com ajuda dela, se pode criar motores térmicos, tais como motores de combustão, com uma eficiência maior que 100%. Isso, porém, não quer dizer que a lei de conservação de energia seja violada. Em lugar disso, o motor seria capaz de absorver energia não só do meio mais quente – e assim realizar trabalho – como, em contraste com o caso usual, poderia absorver também energia do meio mais frio.

Em temperaturas apenas positivas, o meio mais frio inevitavelmente se aquece, absorvendo assim uma parte da energia do meio quente e, desta forma, limitando a eficiência. Se o meio quente tiver uma temperatura negativa, é possível absorver energia de ambos os meios simultaneamente. O trabalho realizado pelo motor, então, será maior do que a energia inserida apenas no meio quente – e a efeiciência sera maior do que 100%.

A realização dos físicos de Munique pode ser também interessante para a cosmologia, uma vez que o comportamento termodinâmico da temperatura negativa exibe semelhanças com a assim chamada energia escura. Os cosmologistas postulam que a energia escura é uma força misteriosa que acelera a expansão do universo, embora o cosmos devesse se contrair por conta da energia da atração gravitacional de todas as massas. Ocorre um fenômeno similar na nuvem atômica do laboratório de Munique: a experiência se apoia no fato de que os átomos no gás não se repelem mutuamente, tal como em um gás ususal; ao contrário, eles se atraem. Isso significa que os átomos exercem uma pressão negativa, em lugar de uma pressão positiva. Como consequência, a nuvem de átomos quer se contrair e deveria entrar em colapso – exatamente como seria de se esperar do universo sob o efeito da gravidade. Porém, por causa da sua temperatura negativa, isso não acontece. O gás é poupado do colapso, tal como o universo.

###

Publicação original:

Simon Braun, J. Philipp Ronzheimer, Michael Schreiber, Sean S. Hodgman, Tim Rom, Immanuel Bloch, Ulrich Schneider Negative Absolute Temperature for Motional Degrees of Freedom
Science, 4 January 2013

 

Sobre ScienceBlogs Brasil | Anuncie com ScienceBlogs Brasil | Política de Privacidade | Termos e Condições | Contato


ScienceBlogs por Seed Media Group. Group. ©2006-2011 Seed Media Group LLC. Todos direitos garantidos.


Páginas da Seed Media Group Seed Media Group | ScienceBlogs | SEEDMAGAZINE.COM