A carga magnética do Antipróton

Photo of  researchers examining a tubular structure to measure the magnetic charge of an antiproton.

Na busca por compreender melhor a surpreendente falta de equilíbrio entre matéria e antimatéria no universo, membros da equipe ATRAP usaram um aparelho criogênico de armazenamento para confinar um único antipróton por semanas, enquanto mediam seu campo magnético com uma precisão 680 vezes maior do que tinha sido, até então, possível com outros processos. Da esquerda para a direita Mason Marshall, Kathryn Marable, Gerald Gabrielse e Jack DiSciacca.

Crédito: Katherine Taylor/Harvard Public Affairs (via National Science Foudation)
Link para a imagem original, onde há outro link para download da imagem em alta resolução

A equipe que estuda as propriedades da antimatéria no CERN, Antihydrogen trap research team (equipe de pesquisa por confinamento de anti-hidrogênio), ou, simplesmente, Colaboração ATRAP, manteve um solitário antipróton em uma Armadilha Penning, um dispositivo que mantém as partículas confinadas em campos magnéticos de modo a não interagirem com qualquer parte material do próprio dispositivo (se a partícula o fizesse, imediatamente se aniquilaria ao fazer contato com qualquer próton normal, coisa que aconteceria bem rápido, considerando que a carga elétrica negativa do antipróton seria atraída pela carga elétrica positiva dos prótons).

Com o antipróton confinado, os pesquisadores o bombardearam com sinais de rádio-frequência e, cada vez que a frequência correta era aplicada, o impacto do fóton de RF fazia com que o spin do antripróton fosse para a frente e para trás. A partir daí era só medir a frequência correta: quanto mais alta fosse a frequência,  maior seria o campo magnético do antipróton. O resultado foi então comparado com o conhecidíssimo valor do campo magnético do próton comum.

Segundo o Modelo Padrão da Física de Partículas, o próton e o antipróton deveriam ter um campo magnético exatamente igual em força – apenas diferindo quanto à polaridade em relação a seu spin. E foi exatamente isto que os pesquisadores observaram – só que com uma precisão 680 vezes maior do que a de observações anteriores, conforme artigo publicado na edição de hoje de Physical Review Letters.

Você pode estar se perguntando: “para que então tiveram todo este trabalho, se o resultado foi exatamente o que era de se esperar?”

Armadilha Penning. Imagem de WikiMedia Commons. Link para o original

Exatamente por isso: se o resultado fosse ligeiramente diferente, então haveria algum erro no Modelo Padrão e essa diferença poderia dar uma pista para um dos maiores problemas da Física, da Astrofísica e da Cosmologia: se o Big Bang criou quantidades exatamente iguais de matéria e antimatéria (como se supõe que fez, uma vez que, no universo atual que podemos estudar, sempre as partículas são criadas aos pares partícula-antipartícula), como é que o universo conhecido é composto quase que exclusivamente por matéria?

Gerald Gabrielse, o Professor “Leverett” de Física na Universidade Harvard, líder da equipe de pesquisa, comentou: “Teria sido mais divertido e teríamos mais pistas sobre o desequilíbrio [entre matéria e antimatéria] do universo, se tivéssemos observado que os dois campos magnéticos tivessem valores diferentes”.

Só que não… A precisão da medição cada vez mais confirma o que se esperava: o Modelo Padrão da Física de Partículas está correto – cada vez com mais casas decimais – e ainda não foi desta vez que o mistério do desaparecimento da antimatéria do universo foi desvendado.

###

Fontes: Press-release 13-049 da National Science Foundation e EurekAlert da AAAS

Nano-fios e energia solar


University of Copenhagen – Niels Bohr Institute

Nano-fios para células solares aumentam o limite de eficiência

 IMAGEM: Cristais de nano-fios usados como células solares.

A imagem mostra, da esquerda para a direita, imagens de cristal de arseniato de gálio sobre um substrato de silício, tiradas com um SEM (Scaning Electron Microscope), uma de um único fio, tirada com um TEM (Transmission Electron Microscope) e as colunas de átomos, flagradas por um STEM (Scanning Transmission Electron Microscope)

Clique aqui para mais informações.

Os cientistas do Centro de Nano-Ciência do Niels Bohr Institut, Dinamarca, e da Ecole Polytechnique Fédérale de Lausanne, Suíça, mostraram como um único nano-fio pode concentrar a luz do Sol até 15 vezes mais do que a intensidade normal da luz solar. Estes resultados são surpreendentes e têm um grande potencial para desenvolver um novo tipo de célula solar de alta eficiência.

Devido a algumas propriedades físicas particulares apresentadas pelos nano-fios em absorver a luz, o limite de quanta energia dos raios solares pode ser utilizada acaba sendo maior do que se pensava antes. Estes resultados demonstram o grande potencial de desenvolvimento de células solares com base em nano-fios, diz o PhD Peter, sobre a surpreendente descoberta descrita em um artigo na Nature Photonics.

Os grupos de pesquisas estudaram nos últimos anos como desenvolver e melhorar a qualidade dos cristais de nano-fios que são estruturas cilíndricas com um diâmetro de cerca um décimo-milésimo de um cabelo humano. Acredita-se que os nano-fios terão um grande potencial não só no desenvolvimento de células solares, como também nos futuros computadores quânticos e outros produtos eletrônicos.

 IMAGEM: Esta figura mostra que os raios de Sol são conduzidos para dentro de um nano-fio, pousado sobre um substrato. A um dado comprimento de onda, a luz do Sol é concentrada em até 15 vezes.

Clique aqui para mais informações.

Acontece que os nano-fios naturalmente concentram os raios de Sol em uma área muito pequena do cristal, até um fator de 15 vezes. Como o diâmetro do nano-fio é menor que o comprimento de onda da luz solar, isto causa ressonâncias na intensidade da luz dentro e em torno dos nano-fios. Desta forma, as ressonâncias podem fornecer uma luz solar concentrada para a conversão na energia desejada, o que pode ser usado para obter uma maior eficiência na captação da energia solar, explica Peter Krogstrup.

Um novo limite de eficiência

O típico limite de eficiência – o assim chamado “Limite de Shockley-Queisser” – é um limite que, por muitos anos, tem sido um marco de referência para a eficiência de células solares para os pesquisadores. Porém, agora, parece que esse limite pode ser superado.

“Para um pesquisador é entusiasmante poder mover um limite teórico, como todos sabem. Embora não pareça muito que o limite seja aumentado em alguns pontos percentuais, isso terá um grande impacto no desenvolvimento de células solares, na exploração de raios solares com nano-fios e talvez na extração de energia a nível internacional. No entanto, serão necessários alguns anos até que a produção [industrial] de células solares feitas com nano-fios se torne uma realidade”, declara Peter Krogstrup que acabou de completar seu PhD no Instituto Niels Bohr da Universidade de Copenhagen.

A pesquisa foi (e continua sendo) realizada em colaboração com o Laboratório de Materiais Semicondutores da Escola Politécnica Federal de Lausanne e a Fundação e a companhia SunFlake A / S. A presente descoberta corrobora os resultados publicados na Science em janeiro. Aqui, um grupo de pesquisadores de Lund, mostraram que os raios de Sol eram chupados para dentro dos nano-fios, devido à grande quantidade de energia que sua célula solar produzia.

 

###

 

E o universo ficou mais velho… e diferente

Telescópio do Polo Sul (WikiMedia Commons)

Telescópio do Polo Sul. Imagem da WikiMedia Commons.
Link para a imagem original.


Quando eu publiquei o post O universo antigo produzia mais estrelas do que se pensava, eu tive que escolher entre vários press-releases sobre o mesmo assunto. Eu traduzi o da Universidade de Chicago, mas havia também os da National Science Foundation, “Telescópios Financiados pela NSF no Polo Sul e Chile descobrem bursts de formação de estrelas no universo primitivo”, da Fundação Kavli, “Testemunhando starbursts em galáxias jovens”, da Universidade do Arizona, “[O Telescópio] ALMA expõe  fábricas de estrelas escondidas no universo jovem”, do National Radio Astronomy Observatory, “[O Telescópio] ALMA descobre “monstruosas” galáxias starburst no universo jovem”, da Carnegie Institution, “Descobertas galáxias antigas e extremamente ativas”, e outros dois com o mesmo título: “[O Telescópio] ALMA reescreve a história do baby boom estelar do Universo”, um da Universidade McGill e outro do European South Observatory.

É claro que todo este fuzuê sobre a descoberta tinha um motivo bem claro: os cálculos dos astrofísicos sobre a linha-do-tempo da formação de estrelas, galáxias e do próprio universo continham algum erro.

Imediatamente me ocorreu entrar em contato com o scibling Ethan Siegel do Starts With a Bang, mas diversas outras coisas (combinadas com meu raro talento em procrastinar) foram “deixando-para-depois” e, quando finalmente eu acessei o blog dele, me deparei com o post “O que todos deveriam saber sobre o universo, na véspera [da divulgação dos dados] do [Telescópio Espacial] Planck”. Bem… se Ethan esperava alguma novidade importante dos dados do Planck, eu também poderia…

Imagem do Fundo Cósmico de Micro-ondas obtida pelo Satélite Planck.
Link para a imagem original.


Agora, esta figura já é conhecida por todos e as agências de notícias já comentaram que o Universo é, pelo menos, 80 milhões de anos mais velho do que se calculava. Mas, como eu esperava, Ethan chama a atenção para diversas outras novidades em seu post “Do que é feito todo o Universo, graças ao Planck”. E eu vou tomar a liberdade de kibar desavergonhadamente o post dele. Espero que me perdoem se eu não reproduzir algumas das ilustrações do post do Ethan porque elas são demasiado técnicas. Por mais que eu ame a física quântica e a astrofísica, quando começam a argumentar “se o hamiltoniano é hermitiano”, eu me sinto como o cachorrinho que caiu do caminhão de mudanças…

Comparação da Resolução das imagens Cobe, WMAP e Planck.

Comparação da Resolução das imagens Cobe, WMAP e Planck. Crédito: NASA Jet Propulsion Laboratory, CalTech.

Link para a imagem original.

A primeira coisa que Ethan enfatiza é a qualidade da imagem fornecida pelo Planck. Como diz ele, na década de 1990 o satélite  Cosmic Background Explorer (COBE ou Explorador do Fundo Cósmico) nos deu uma primeira imagem difusa do Fundo Cósmico de Micro-ondas (Cosmic Microwave Background, ou simplesmente CMB). Se você está pensando naquele eco do Big Bang descoberto quase que por acaso por Penzias e Wilson em 1965, está correto! A primeira imagem disto foi obtida na década de 1990 pelo satélite Cobe, com uma resolução de imagem de cerca de 7 graus, e a sonda Wilkinson Microwave Anisotropy Probe (WMAP) da NASA obteve, em 2006, após muita filtragem dos ruídos das emissões “atuais”, uma imagem bem mais nítida do CMB, com uma resolução de cerca de meio grau. Agora, também após um exaustivo processo de filtragem do ruído, o Planck chegou ao limite de resolução possível; Ethan enfatiza que o problema não é o da sensibilidade dos instrumentos do Planck, mas da própria natureza do universo!

A segunda coisa que ele realça é que o universo não só é composto de mais matéria do que se pensava, como também está se expandindo mais devagar do que se calculava. O Parâmetro de Hubble medido pelo Planck é tão menor do que aquele que se usava que, se fosse ele a única diferença encontrada, significaria que o universo seria um bilhão de anos mais velho do que se pensava! (Só que não…) As quantidades de matéria normal e escura são bem maiores do que se acreditava, sobrando uma fatia menor para a energia escura. Em lugar de 73% de energia escura, o Planck nos diz que é algo na faixa de 68 a 69%; a matéria escura deve ficar entre 26 a 26,5% e a matéria bariônica (ou “normal”, da qual somos feitos nós e as estrelas) não é mais só 4,6% do universo: o número subiu para 4,9%. Ah!… Sim… E, em tanto quanto o Planck tem a nos dizer, não há uma “curvatura” no universo: ele é “plano”.

Em outras palavras, existe um pouco mais de matéria normal, uma quantidade significativamente maior de matéria escura e uma quantidade significativamente menor de energia escura do que pensávamos! De forma que, enquanto a taxa de expansão menor nos diz que o universo é mais velho do que acreditávamos, o aumento de matéria (e diminuição da energia escura) nos diz que o universo é mais jovem do que seria de outra forma!

Um universo que fosse composto por 100% de matéria normal + matéria escura, teria apenas uns 10 bilhões de anos, porém o nosso parece ser dividido em cerca de 31,5% de matéria-total e 68,5% de energia escura. De forma que, quando ajustamos nossos atuais dados, chegamos a um universo com 13,81 bilhões de anos, ou seja: 80 milhões de anos mais velho do que nossa melhor estimativa anterior.

Outra coisa que se procurou entre os dados do Planck foi a “assinatura” de ondas gravitacionais primevas, o que corroboraria certos modelos da inflação do universo e descartaria outros. Os dados de polarização ainda estão sendo analisados, mas, por enquanto, nada definitivo emergiu.

Finalmente, os dados confirmam algo muito esquisito, já notado anteriormente: existe um alinhamento das anomalias locais do CMB com o eixo de nossa galáxia, algo que os astrofísicos chamam jocosamente de “eixo do mal”.


Crédito da imagem: ESA e a Colaboração Planck (essa eu não achei o original e kibei direto do blog do Ethan)

O universo antigo produzia mais estrelas do que se pensava


University of Chicago

“Ruidos” nos dados levam à surpreendente descoberta de um nascedouro de estrelas

 IMAGEM: Isto é uma concepção artística de uma das fontes descobertas pelo Telescópio do Polo Sul, com base em informações do ALMA e do Telescópio Espacial Hubble.

Clique aqui para mais informações.

Por — Steve Koppes and Marcus Woo

Quando uma leva de brilhantes objetos cósmicos apareceu pela primeira vez nos mapas feitos com dados obtidos pelo Telescópio do Polo Sul, os astrônomos do Instituto Kavli de Física Cosmológica da Universidade de Chicago viram isto apenas como um aborrecimento inevitável.

As fontes luminosas interferiam com os esforços para medir com maior precisão o fundo cósmico de micro-ondas — o brilho remanescente do big bang. No entanto, os astrônomos logo perceberam que tinham feito uma rara descoberta na varredura ampla dos céus feita pelo Telescópio do Polo Sul. Os espectros de alguns dos objetos brilhante – o arco-íris de luz que eles emitem – eram inconsistentes com o que os astrônomos esperavam de uma população de rádio-galáxias bem conhecida.

Pelo contrário, os objetos pareciam ser galáxias cheias de poeira e com uma alta taxa de formação de estrelas. Esse tipo de galáxia deveria ser facilmente identificável nas varreduras dos céus na faixa infravermelha, só que não havia coisa alguma conhecida que correspondesse ao que o Telescópio do Polo Sul tinha descoberto. Eles tinham que estar extremamente distantes para escaparem da detecção do infravermelho e, portanto, tinham que ser extremamente luminosos. Intrigados, os astrônomos realizaram um imageamento detalhado do local indicado com o novo Telescópio ALMA (Atacama Large Millimeter Array) no Deserto de Atacama, no Chile. Estas observações mostraram que as galáxias poeirentas estavam prenhes de estrelas em formação muito antes do que se previa na história do cosmo.

 IMAGEM: A luz emitida por uma galáxia distante é defletida pela gravidade de uma galáxia mais próxima, conforme previsto na Teoria da Relatividade Geral de Einstein.

Clique aqui para mais informações.

Joaquin Vieira, atualmente um doutor do California Institute of Technology, encabeça uma equipe que relata a descoberta na edição de 14 de março da Nature e em dois outros artigos que serão publicados no Astrophysical Journal.

“Nós mal podíamos esperar o ALMA ficar pronto para que pudéssemos realizar essas observações”, relata Vieira, com mestrado em 2005 e PhD em 2009, que baseou sua pesquisa de doutorado na UChicago na descoberta de fontes extra-galáticas. “As fontes que descobrimos com o Telescópio do Polo Sul ficavam tão distantes no céu do Sul que nenhum telescópio no Hemisfério Norte as podia observar. Nós temos o raro privilégio de estarmos entre os primeiros astrônomos a usarem o ALMA.”

Vieira tem trabalhado com o Telescópio do Polo sul desde o início, tendo ajudado a construir o telescópio e sua câmera, diz John Carlstrom, Professor de Serviços Distinguidos S. Chandrasekhar em Astronomia e Astrofísica na UChicago. “Ele esteve envolvido desde o chão, ou do gelo para ser mais preciso”, diz Carlstrom, que chefia a colaboração do TPS e é um co-autor do artigo na Nature.

 IMAGEM: Esta foto do prato de 10 metros do Telescópio do Polo Sul foi tirada em janeiro de 2013, logo depois da instalação de seu escudo extendido.

Clique aqui para mais informações.

Uma produção prodigiosa de estrelas

As galáxias starburst produzem estrelas a uma taxa prodigiosa, criando o equivalente a um milhar de novos sóis anualmente. Vieira e seus colegas descobriram starbursts que estavam parindo estrelas quando o universo tinha apenas um bilhão de anos de idade. Antes disto, os astrônomos duvidavam que as galáxias pudessem formar novas estrelas tão cedo na história do universo.

Brilhando com a energia de um trilhão de sóis (ou mais), essas galáxias recém-descobertas são vistas como eram mais ou menos há 12 bilhões de anos, mostrando uma “foto de infância” das galáxias mais maciças nas vizinhanças cósmicas da Terra atualmente. “Quanto mais distante for a galáxia, mais se está olhando para o passado, de forma que, ao medir suas distâncias, nós podemos alinhavar uma linha de tempo sobre o quão vigorosamente o universo vem fazendo novas estrelas nos diferentes estágios de sua existência de 13,7 bilhões de anos”, explica Vieira.

Os astrônomos descobriram dúzias dessas galáxias com o Telescópio do Polo Sul, um prato de 10 metros na Antártica que varre o céu na faixa de comprimento de onda milimétrico (situada entre as faixas de rádio e infravermelho do espectro eletromagnético). Então a equipe deu uma olhada mais detalhada, usando o ALMA no Chile. “Essas não são galáxias normais”, diz Vieira. “Elas formavam estrelas a uma taxa extraordinária quando o universo ainda era muito jovem — nós ficamos muito surpresos em encontrar galáxias assim tão cedo na história do universo”.

As novas observações representam alguns dos mais significativos resultados científicos do ALMA até agora. Vieira afirmou que “Não poderíamos ter feito isto sem a combinação do TPS e do ALMA”, acrescentando que “O ALMA é tão sensível que vai mudar nossa visão do universo de várias maneiras diferentes”.

Os  astrônomos usaram somente 16 dos 66 pratos que eventualmente comporão o ALMA, que é o mais poderoso telescópio que funciona nos comprimentos de onda milimétrico e sub-milimétrico. O ALMA começou a operar no ano passado.

Análise dos dados do ALMA

A análise dos dados do ALMA mostraram que mais de 30% das novas galáxias começaram a existir a apenas um bilhão de anos depois do big bang. Só nove dessas galáxias eram anteriormente conhecidas – o número dessas galáxias quase que dobrou, dando novos dados valiosos que auxiliarão outros pesquisadores a limitar e refinar modelos de computador de formação de estrelas e galáxias no universo primitivo.

A equipe de Vieira estabelece a distância dessas poeirentas galáxias starburst a partir das emissões de seus gases e da própria poeira. Antes, os astrônomos tinham que depender de uma complicada combinação de observações indiretas ópticas e de rádio, precisando de muitos telescópios para estudar as galáxias. Porém a sensibilidade sem precedentes do ALMA e sua capacidade de medir os espectros permitiu aos astrônomos fazer suas observações e analisá-las em um único passo. Como resultado, as novas distâncias são mais confiáveis e representam a melhor amostra, até agora, dessa população de galáxias primitivas.

As propriedades exclusivas desses objetos também ajudou nas medições. Primeiro, as galáxias observadas por acaso estavam sob o efeito de lentes gravitacionais — um fenômeno previsto por Einstein, no qual uma galáxia mais próxima encurva a luz de uma galáxia mais ao fundo, como uma lente de aumento. Esse efeito de lente faz com que as galáxias mais ao fundo pareçam mais brilhantes, o que reduz o tempo necessário para observá-las com um telescópio umas 100 vezes.

Segundo, os astrônomos tiraram vantagem de uma característica fortuita dos espectros dessas galáxias. Normalmente, galáxias mais distantes aparecem mais esmaecidas. Mas acontece que o universo em expansão desvia os espectros de emissão de uma maneira tal que a luz que recebemos na faixa milimétrica não é atenuada para fontes que estejam mais distantes de nós. Consequentemente, as galáxias aparecem, nessas faixas de comprimento de onda, com o mesmo brilho, não importa a distância.

Os novos resultados representam aproximadamente um quarto do número total de fontes que Vieira e seus colegas descobriram com o Telescópio do Polo Sul. Eles preveem encontrar ainda mais dessas galáxias starbust poeirentas e esperam que algumas sejam de épocas ainda mais antigas do universo, à medida em que continuam analisando seus dados.

 

###

Nota do tradutor: eu escolhi este press-release entre vários outros que relatam a mesma descoberta. Essencialmente, todos contém as declarações de Vieira e cada instituição “puxa a brasa para sua sardinha”, como faz a UChicago ao descrever os títulos de Vieira neste aqui.

Descoberto novo sistema estelar próximo


Penn State

O sistema estelar mais próximo encontrado no último século

 IMAGEM: Um par de estrelas recém-decoberto é o 3º sistema estelar mais próximo do Sol e o mais próximo a ser descoberto desde 1916.

Clique aqui para mais informações.

Por Barbara K. Kennedy

Um para de estrelas recém-descobertas é o terceiro sistema estelar mais próximo do Sol, de acordo com um artigo a ser publicado em Astrophysical Journal Letters. O par é o sistema estelar mais próximo descoberto desde 1916. A descoberta foi feita por Kevin Luhman, um professor associado de astronomia e astrofísica da Penn State University e pesquisador no Centro para Exoplanetas e Mundos Habitáveis da Penn State.

Ambas as estrelas no novo sistema binário são “anãs marrons”, ou seja, estrelas com massa tão pequena que jamais conseguiram chegar à temperatura necessária para dar início à fusão do hidrogênio. Por causa disso, elas são muito frias e esmaecidas, lembrando mais um planeta gigante como Júpiter do que uma estrela brilhante como o Sol.

“A distância até o par de anãs marrons é de 6,5 anos-luz – tão próximas que as emissões de TV de 2006 daqui da Terra estão chegando lá agora”, diz Luhman. “Isto vai ser um excelente campo de caça por novos planetas porque é muito próximo da Terra, o que faz ser bem mais fácil observar quaisquer planetas que estejam em órbita de qualquer uma das anãs marrons”. E Luhman acrescenta que, já que é o terceiro sistema estelar mais próximo, no futuro distante pode ser um dos primeiros destinos de expedições tripuladas além do sistema solar.

 IMAGEM:Os sistemas estelares conhecidos mais próximos do Sol.

Clique aqui para mais informações.

O sistema estelar tem o nome “WISE J104915.57-531906” porque foi descoberto em um mapa completo do céu obtido pelo satélite Explorador de Busca Infravermelho Grande-angular (Wide-field Infrared Survey Explorer = WISE) da NASA. Ele fica um pouquinho mais distante do que a segunda estrela mais próxima, a Estrela de Barnard, que foi descoberta em 1916 e fica a 6 anos-luz do Sol. O sistema estelar mais próximo consiste de Alpha Centauri, que se descobriu ser o vizinho mais próximo do Sol em 1839, a uma distância de 4,4 anos-luz e a menos luminosa Proxima Centauri, descoberta em 1917 a 4,2 anos-luz.

Edward (Ned) Wright, o principal investigador do satélite WISE, declarou: “Uma das principais metas da proposta do WISE era descobrir as estrelas mais próximas do Sol. O WISE 1049-5319 é de longe o sistema estelar mais próximo descoberto através dos dados do WISE e podemos obter vistas mais aproximadas desse sistema binário com grandes telescópios como o Gemini e o futuro Telescópio Espacial James Webb que vão nos ensinar um bocado sobre as estrelas de pequena massa conhecidas como anãs marrons”. Wright é o Catedrático Presidente David Saxon de Física e professor de física e astronomia na UCLA.

 IMAGEM: Esta é uma concepção artística do sistema binário WISE J104915.57-531906, com o Sol ao fundo.

Clique aqui para mais informações.

Os astrônomos vinham especulando há tempos sobre a possível existência de um objeto escuro e distante em órbita do Sol, algumas vezes chamado de “Nêmesis”. No entanto, Luhman concluiu que “podemos descartar a hipótese de que o novo sistema de anãs marrons seja este tal objeto porque ele se move pelo céu rápido demais para estar em órbita em torno do Sol”.

Para descobrir o novo sistema estelar, Luhman estudou as imagens do ceú que o satélite WISE obteve durante um período de 13 meses que terminou em 2011. Durante sua missão, o WISE observou cada pedaço do céu de 2 a 3 vezes. “Por estas imagens intervaladas no tempo, eu pude concluir que o sistema estava se movendo muito depressa pelo céu – uma grande pista de que ele estava provavelmente muito próximo de nosso sistema solar”, explicou Luhman.

Após ter detectado este movimento rápido nas imagens do WISE,  Luhman foi procurar por outros indícios detectados do sistema em outras pesquisas anteriores. Ele descobriu que, realmente, ele tinha sido detectado em imagens desde 1978 até 1999 obtidas pelas Digitized Sky Survey, a Two Micron All-Sky Survey e a Deep Near Infrared Survey of the Southern Sky. “Com base no movimento aparente desse sistema estelar tiradas das imagens do WISE, eu fui capaz de extrapolar as posições prováveis dele nas pesquisas mais antigas e, com certeza, lá estava ele”, diz Luhman.

Combinando as detecções do sistema estelar das várias pesquisas, Luhman foi capaz de medir sua distância através da paralaxe que é a aparente mudança de posição de uma estrela causada pela órbita da Terra em torno do Sol. Aí ele usou o Telescópio Gemini [do Hemisfério] Sul, em Cerro Pachón no Chile, para obter seu espectro, o qual mostrou que o sistema tinha uma temperatura muito baixa e, portanto, era uma anã marrom. “E como um bônus adicional, as imagens nítidas do Gemini também revelaram que o objeto não era apenas uma anã marrom, mas um par delas orbitando uma a outra”, acrescenta Luhman.

“Foi um verdadeiro trabalho de detetive”. conta Luhman. “Existem bilhões de pontos em infravermelho pelo ceú e o mistério é qual deles – se é que algum deles é – pode ser uma estrela bem próxima de nosso sistema solar”.

###

 

CONTATOS

Kevin Luhman at Penn State: kluhman@astro.psu.edu

Barbara Kennedy at Penn State (PIO): (+1) 814-863-4682, science@psu.edu

Peter Michaud at Gemini (PIO): 808-974-2510, pmichaud@gemini.edu

Edward (Ned) Wright at WISE and UCLA: 310-825-5755, wright@astro.ucla.edu

IMAGENS  e ANIMAÇÃO

Imagens de alta definição e uma animação online em http://science.psu.edu/news-and-events/2013-news/Luhman3-2013.

Driblando a incerteza quântica (2)


University of Rochester

Dando a volta no Princípio da Incerteza

Físicos realizam as primeiras medições diretas dos estados de polarização da luz

 IMAGEM: Medição fraca:  quando a luz passa através de um cristal birrefringente, os componentes polarizados horizontal e verticalmente são separados mas ainda há uma certa superposição espacial entre eles, enquanto que em uma medição forte eles seriam inteiramente separados.

Clique aqui para mais informações.

Pesquisadores da Universidade de Rochester e da Universidade de Ottawa aplicaram uma técnica recentemente desenvolvida para medir diretamente pela primeira vez os estados de polarização da luz. Seu trabalho ao mesmo tempo suplanta os importantes desafios impostos pelo famoso Princípio da Incerteza de Heisenberg, como também é aplicável aos qubits, as unidades da teoria da informação quântica.

Seus resultados são relatados em um artigo na edição desta semana da Nature Photonics.

A técnica de medição direta foi inicialmente desenvolvida em 2011 pelos cientistas do Conselho Nacional de Pesquisas do Canadá (National Research Council) para medir a função de onda – uma maneira de estabelecer o estado de um sistema quântico.

Essa medição direta da função de onda sempre pareceu impossível por causa de um dos fundamentos do princípio da incerteza – a ideia de que certas propriedades de um sistema quântico só podem ser conhecidas de maneira vaga, se outras propriedades relacionadas forem conhecidas com precisão. A capacidade de realizar tais medições diretamente desafia diretamente a ideia de que uma completa compreensão de um sistema quântico jamais poderia decorrer de uma observação direta.

Os pesquisadores em Rochester/Ottawa, liderados por Robert Boyd, que desempenha funções em ambas universidades, mediu os estados de polarização da luz – as direções nas quais os campos elétrico e magnético da luz oscilam. Seu principal resultado, tal como o da equipe pioneira na medição direta, é que é possível medir variáveis chave relacionadas, conhecidas como “variáveis conjugadas”, de uma partícula ou estado quântico diretamente. Os estados de polarização da luz podem ser usados para codificar informação e exatamente por isso podem ser a base dos qubits nas aplicações de informação quântica.

“A capacidade de realizar medições diretas da função de onda quântica tem importantes implicações futuras para a ciência da informação quântica”, explica Boyd, Catedrático de Óptica Quântica Não-linear  Canada Excellence Research da Universidade de Ottawa e Professor de Óptica e Física na Universidade de Rochester. “O trabalho corrente de nosso grupo envolve aplicar esta técnica a outros sistemas, por exemplo, medir a forma de um estado quântico “misturado” (o oposto a um estado “puro”)”.

Anteriormente, uma técnica chamada tomografia quântica permitiu aos pesquisadores medir a informação contida nesses estados quânticos, porém somente de maneira indireta. A tomografia quântica necessita de uma grande quantidade de pós-processamento dos dados e isto é um processo demorado, não necessário na técnica de medição direta. Em outras palavras, em princípio, a nova técnica fornece a mesma informação que a tomografia quântica, porém em um tempo significativamente menor.

“A chave para a caracterização de qualquer sistema quântico é reunir informações sobre as variáveis conjugadas”, declara o co-autor Jonathan Leach, atualmente um palestrante da Universidade Heriot-Watt, no Reino Unido. “A razão pela qual se pensava ser impossível medir duas variáveis conjugadas diretamente  é porque medir uma causaria o colapso da função de onda antes que se pudesse medir a outra”.

 A técnica de medição direta emprega um “truque” para medir a primeira propriedade de forma tal que não há perturbação significativa do sistema e a informação da segunda propriedade pode ainda ser obtida. Esta medição cuidadosa consiste em uma “medição fraca” da primeira propriedade, seguida de uma “medição forte” da segunda propriedade.

Esta medição fraca, descrita há 25 anos, requer que o acoplamento entre o sistema e o medidor seja, como o nome sugere, “fraco” o que significa que o sistema quase não seja perturbado pelo processo de medição. O lado ruim deste tipo de medição é que uma única medição fornece somente uma pequena quantidade de informação e, para conseguir uma leitura precisa, o processo tem que ser repetido várias vezes a partir do que se obtêm uma média dos resultados.

Boyd e seus colegas usaram a posição e o momento da luz como indicadores do estado de polarização. Para acoplar a polarização ao grau de liberdade espacial, eles usaram cristais bi-refringentes: quando a luz passa através de um cristal desses, é introduzida uma separação espacial entre polarizações diferentes. Por exemplo, se a luz for composta de uma combinação de componentes polarizados vertical e horizontalmente, as posições dos componentes individuais vão se separar quando eles passarem através do cristal conforme suas polarizações. A espessura do cristal pode ser usada para controlar a força da medição, fraca ou forte, e estabelecer o grau de separação correspondente, pequeno ou grande.

Nesta experiência, Boyd e seus colegas passaram a luz polarizada através de dois cristais de diferentes espessuras: o primeiro, um cristal muito fino que media “fracamente” os estados de polarização vertical e horizontal; o segundo, um cristal muito mais espesso que media “fortemente” o estado de polarização diagonal e anti-diagonal. Como a primeira medição era “fraca”, o sistema não era perturbado de maneira significativa e, dessa forma, a informação obtida pela segunda medição ainda era válida. Este processo é repetido várias vezes para a obtenção de um resultado estatisticamente significativo. Reunindo tudo, se tem uma caracterização completa e direta dos estados de polarização da luz.

 

###

Os demais autores do artigo são Jeff Z. Salvail, Megan Agnew e Allan S. Johnson, todos estudantes da Universidade de Ottawa quando a pesquisa foi realizada e o estudante de pós-graduação de Ottawa, Eliot Bolduc.

Este trabalho foi financiado pelo Programa Canada Excellence Research Chairs (CERC) e Boyd também reconhece o apoio do Programa DARPA InPho.

Sobre ScienceBlogs Brasil | Anuncie com ScienceBlogs Brasil | Política de Privacidade | Termos e Condições | Contato


ScienceBlogs por Seed Media Group. Group. ©2006-2011 Seed Media Group LLC. Todos direitos garantidos.


Páginas da Seed Media Group Seed Media Group | ScienceBlogs | SEEDMAGAZINE.COM