Como crescem os Aglomerados Estelares Gigantes

EurekAlert

27-JAN-2016

Nascimento de estrelas: aglomerados gigantescos de estrelas criam novas estrelas “adotando” gases cósmicos livres

THE KAVLI FOUNDATION

IMAGE

Foto do massivo aglomerado globular NGC 1783 na Grande Nuvem de Magalhães, tirada pelo telescópio espacial Hubble. Este denso agrupamento de estrelas fica a cerca de 160.000 anos luz da Terra e tem uma massa equivalente da 170.000 vezes a de nosso Sol. Um novo estudo aponta que esse aglomerado globular sugou o gás e a poeira intergaláticos para gerar três diferentes gerações de estrelas.

CRÉDITO: ESA/Hubble & NASA. Acknowledgement: Judy Schmidt (geckzilla.com)

Entre os mais surpreendentes objetos do universo, estão os brilhantes e densos grupos de estrelas conhecidos como aglomerados globulare. Os astrônomos sempre pensaram que os aglomerados globulares formaram seus milhões de estrelas em uma só fornada e que todos os aglomerados globulares tinham, mais ou menos, a mesma idade, tais como irmãos e irmãs gêmeos. Porém descobertas recentes de estrelas jovens dentro de velhos aglomerados globulares tiraram essa imagem do foco.

Em lugar de ter toda sua descendência estelar em uma única ninhada, os aglomerados globulares podem ter uma segunda e até uma terceira ninhada de estrelas irmãs. Um novo estudo, liderado pelos pesquisadores do Kavli Institute for Astronomy and Astrophysics (KIAA) na Universidade de Beijing e que incluiu astrônomos dos Observatórios Nacionais da Academia Chinesa de Ciências (NAOC), da Universidade Northwestern e do Planetário Adler, pode explicar essas gerações sucessivas e intirgantes de estrelas.

Empregando observações feitas pelo Telescópio Espacial Hubble, a equipe de pesquisas encontrou, pela primeira vez, populações de estrelas jovens dentro de aglomerados globulares que, aparentemente, se desenvolveram graças ao gás de fora desses aglomerados. Este método contrasta com a ideia convencional de que as estrelas iniiciais dos aglomerados estelares espalham seu gás, na medida em que envelhecem, para formar novas ninhadas de estrelas.

O estudo será publicado hoje (27/01/2016) na Nature.

“O presente estudo fornece novas abordagens para o problema de múltiplas gerações de estrelas em aglomerados estelares”, afirma o autor principal Chengyuan Li, astrônomo de KIAA, NAOC e do Observatório Nacional da Montanha Violeta, afiliado à Academia Chinesa de Ciências. “Nosso estudo indica que o combustível gasoso para essas novas populações de estelas tem uma origem externa ao aglomerado, não interna”.

Dito de outra forma, os aglomerados globulares parecem ser capazes de “adotar” estrelas recém nascidas – ou, ao menos, o material do qual elas são formadas – em lugar de criarem mais descendentes “biológicos”, como o fazem as famílias humanas.

“Nossa explicação de que as populações estelares secundárias se originam de gás acretado a partir das vizinhanças do aglomerado, é a alternativa mais viável até agora”, diz Richard de Grijs, também astrônomo do KIAA e mentor de PhD de Chengyuan. “Aglomerados globulares passaram a ser muito mais complexos do que se pensava”.

Os aglomerados globulares são grupos de estrelas densamente compactadas. de formato esférico, que orbitam as periferias das galáxias. Nossa própria galáxia, a Via Láctea, hospeda várias centenas deles. Entretanto, a maioria desses aglomerados locai e massivos, são bastante velhos, de forma que a equipe virou sua atenção para aglomerados jovens e de meia idade, encontrados em duas galáxias anãs próximas: as Nuvens de Magalhães.

Mais especificamente, os pesquisadores se valeram das observações feitas pelo Hubble dos aglomerados globulares NGC 1783 e NGC 1696 na Grande Nuvem de Magalhães, em conjunto com o NGC 411 na Pequena Nuvem de Magalhães. Os cientistas rotineiramente inferem as idades das estrelas pela observação de suas cores e luminosidade. Dentro do NGC 1783, por exemplo, Li, de Grijs e seus colegas identificaram uma população inicial de estrelas com 1,4 bilhões de anos de idade, junto com duas populações mais jovens que se formaram a 890 milhões e 450 milhões de anos respectivamente.

Qual é a explicação mais direta para essas idades icongruentes das estrelas? Alguns aglomerados globulares podem reter gás e poeira suficientes para dar à luz várias gerações de estrelas, mas isto parece pouco provável, afirma o co-autor do estudo Licai Deng do NAOC e segundo mentor de PhD de Chengyuan.

“As estrelas mais massivas que se formam em um aglomerado globular, só vivem por cerca de 10 milhões de anos, antes de explodirem em spernovas, que ejetam o combustível de gás e poeira necessário para gerar novas estrelas”, explica Deng.

A equipe de pesquisadores propõe que os aglomerados globulares são capazes de sugar o gás e poeira que encontram na medida em que se movem em torno de suas galáxias mães. A teoria de que estrelas recém nascidas surgem nos aglomerados na medida em que eles “adotam” gases interestelares, na verdade surgiu em um artigo publicado em 1952. Mais de meio século depois, essa ideia, tida então como especulativa ganou indícios claros para apoiá-la.

“Finalmente demonstramos que essa ideia de aglomerados globulares formarem novas estrelas pela acreção de gás pode funcionar”, afirma de Grijs, “e não soemnte para os três aglomerados que observamos para o presente estudo, mas para um monte deles”. Estudos futuros terão como alvo estender as descobertas para a outra Nuvem de Magalhães, assim como outros aglomerados globulares da Via Láctea.

Outros membros da esquipe de pesquisa incluem Yu Xin e Yi Hu do NAOC, Aaron M. Geller da Universidade Northwestern e do Planetário Adler, e Claude-André Faucher-Giguère da Universidade Northwestern.

###

Grandes problemas quânticos: tudo está conectado

Link para o texto original: Solving hard quantum problems: Everything is connected

Novos processos para cálculos de vários corpos

VIENNA UNIVERSITY OF TECHNOLOGY

IMAGE
Ondas em um condensado de Bose-einstein: um efeito de várias partículas

CRÉDITO: TU WIEN

 

Sistemas quânticos são extremamente difíceis de analisar, se consistirem em mais do que umas poucas partes. Não é tão difícil calcular um único átomo de hidrogênio, porém, para descrever uma nuvem com milhares de átomos, normalmente são necessárias aproximações grosseiras. A razão disso é que as partículas quânticas são conectadas entre si e não podem ser descritas separadamente. Kaspar Sakmann (TU Wien, Vienna) e Mark Kasevich (Stanford, USA) agora demonstram, em um artigo publicado em Nature Physics que este problema pode ser superado. Eles tiveram sucesso em calcular efeitos em nuvens de átomos super-resfriados que só podem ser explicados em termos das correlações quânticas entre vários átomos. Essas nuvens de átomos são conhecidas como Condensados de Bose-Einstein e são um campo ativo de pesquisas.

Correlações Quânticas

A física quântica é um jogo de sorte e aleatoriedade. Inicialmente, os átomos em uma nuvem de átomos resfriada não têm uma posição predeterminada. De forma muito parecida com um dado [de jogo] lançado pelo ar, onde o número ainda não é conhecido, os átomos estão localizados em todas as posições possíveis ao mesmo tempo. Somente quando são medidos é que suas posições são fixadas. “Lançamos uma luz sobre a nuvem de átomos que a absorvem”, explica Kaspar Sakmann. “Os átomos são fotografados e isso é o que determina suas posições. O resultado é totalmente aleatório”.

No entanto, existe uma diferença fundamental entre a aleatoriedade quântica e um jogo de dados: Se lançarmos dados diferentes ao mesmo tempo, eles podem ser considerados independentes um do outro. Se sair ou não o número seis no primeiro dado, isto não influencia o número que vai sair no segundo .Por outro lado, os átomos na nuvem são fisicamente conectados pela física quântica. Não faz sentido analisá-los individualmente; eles são um grande objeto quântico. Portanto, o resultado da medição de cada posição de qualquer átomos depende das posições de todos os outros átomos de uma forma matematicamente complicada.

“Não é difícil estabelecer a probabilidade de encontrar uma partícula em uma posição específica”, diz Kaspar Sakmann. “A probabilidade é mais alta no centro da nuvem e diminui gradualmente na direção das bordas”. Em um sistema aleatório clássico, esta seria toda a informação necessária. Se sabemos que, a cada lance de um dado, cada número tem 1/6 de probabulidade de sair, também podemos calcular a probabilidade de obtermos três números 1 com três dados. Mesmo que o resultado de três números 1 se repita cinco vezes, a probabilidade permanece a mesma para a próxima vez. Na física quântica é mais complicado do que isso. .

“O problema é resolvido passo a passo”, explica Sakmann. “Primeiro se calcula a probabilidade da primeira partícula ser medida em uma certa posição. A probabilidade de distribuição espacial da segunda partícula depende de onde a primeira partícula foi encontrada. A posição da terceira partícula depende das duas primeiras e assim por diante”. Para que se possa descrever a posição da última partícula, todas as outras posições têm que ser conhecidas. Este tipo de entrelaçamento quântico torna o problema matemático extremamente desafiador.

Somente as correlações podem explicar os dados experimentais

Mas estas correlações entre várias partículas são extremamente importantes – por exemplo, para calcular o comportamento dos átomos em uma colisão entre condensados de Bose-Einstein. “As experiências mostram que tais colisões podem conduzir a um tipo especial de ondas quânticas. Em certas posições vamos encontras muitas partículas, em uma posição adjacente, podemos não encontrar partícula alguma”, afirma Kaspar Sakmann. “Se considerarmos os átomos separadamente, isto não pode ser explicado. Somente se levarmos em conta toda a distribuição quântica, com todas as suas correlações de mais alto nível, essas ondas podem ser reproduzidas por nossos cálculos”.

Outros fenômenos também forma calculados com o mesmo processo, por exemplo, condensados de Bose-Einstein agitados com um feixe de laser, de forma que emergem pequenos vórtices – outro típico efeito quântico de muitas partículas. “Nossos resultados demonstram como são importantes essas correlações e que é possível incluí-las nos cálculos quânticos, a despeito de toda dificuldade matemática”, diz Sakmann. Com certas modificações, a abordagem pode vir a ser útil para mutos outros sistemas quânticos também.

###

Teóricos sugerem novo processo para sondar o começo do universo

Link para o original: Theorists propose a new method to probe the beginning of the universe

HARVARD-SMITHSONIAN CENTER FOR ASTROPHYSICS

Como começou o universo? E o que havia antes do Big Bang? Cosmologistas têm feito estas perguntas desde que se descobriu que nosso universo está se expandindo. As respostas não são fáceis de encontrar. O início do cosmo está velado e oculto das vistas de nossos mais poderosos telescópios. Ainda assim, as observações que fazemos hoje, podem nos dar pistas da origem no universo. Novas pesquisas sugerem uma nova maneira de sondar o início do espaço-tempo e determinar qual das teorias correntes está correta.

O cenário teórico mais largamente aceito para o começo do universo é a inflação que prediz que o universo se expandiu em taxas exponenciais nas primeiras nano-frações de segundo. Por outro lado, vários outros cenários alternativos foram sugeridos, alguns dos quais predizem que, antes do Big Bang, houve um Big Crunch. O truque está em encontrar medições que possam estabelecer uma distinção entre esses possíveis cenários.

Uma fonte de informações promissora acerca do começo do universo é o Fundo Cósmico de Micro-ondas (conhecido pela sua abreviatura em inglês, CMB) – o eco distante do Big Bang que permeia todo o espaço. Esse brilhareco parece, a uma primeira vista, ser suave e uniforme, porém, quando investigado mais a fundo, mostra pequeninas variações. Essas variações decorrem de flutuações quânticas presentes no nascimento do universo que foram esticadas na medida em que este se expandiu.

A abordagem convencional para distinguir entre os diferentes cenários, busca os possíveis traços de ondas gravitacionais, geradas durante o universo primordial, na CMB. “O que estamos propondo é uma nova abordagem que pode nos permitir revelar diretamente a história de evolução do universo primordial, a partir dos sinais astrofísicos. Esta história é diferente em cada cenário”, diz o co-autor Xingang Chen do Harvard-Smithsonian Center for Astrophysics (CfA) e da Universidade do Texas em Dallas.

Muito embora os estudos experimentais e teóricos deem pistas para as variações no universo primordial em termos de espaço, eles não o fazem para o elemento chave, o tempo. Sem um relógio para medir a passagem do tempo, a história da evolução do universo primordial não pode ser estabelecida sem dúvidas.

“Imagine que se pegasse os quadros de um filme e se empilhasse eles aleatoriamente. Se esses quadros não tiverem uma etioqueta de tempo, não será possível colocá-los na ordem certa. O universo primordial simplesmente explodiu, ou implodiu antes de explodir? Se não soubermos se o filme está correndo para a frente ou para trás, não podemos distinguir uma coisa da outra”, explica Chen.

Esta nova pesquisa sugere que este tal relógio existe e pode ser usado para medir a passagem do tempo no nascimento do universo. Esses relógios tomam a forma de partículas pesadas que são um produto esperado da “Teoria de Tudo” que vai integrar a mecânica quântica com a relatividade geral. Eles foram batizados de “relógios padrão primordiais”.

As partículas subatômicas pesadas se comportarão como um pêndulo, oscilando para frente e para trás de uma forma universal e padronizada. Elas podem fazê-lo por meio de oscilações quânticas, sem serem impelidas inicialmente. Essas oscilações quânticas vão agir como um tique-taque e adicionar as etiquetas de tempo aos quadros do filme da nossa analogia.

“Os tique-taques desses relógios padrão primordiais criariam as oscilações correspondentes no CMB, cujo padrão será forçosamente único para cada cenário”, diz o co-autor Yi Wang da Universidade de Ciência e Tecnologia de Hong Kong. Porém os presentes dados não são precisos o bastante para plotar variações tão pequenas.

Experiências correntes devem melhorar significativamente a situação. Projetos tais como o BICEP3 do CfA e o Telescópio Keck, assim como várias outras experiências correlatas pelo mundo inteiro, serão capazes de coletar dados extremamente precisos do CMB, ao mesmo tempo que prosseguem as buscas pela detecção de ondas gravitacionais. Se as oscilações dos relógios padrão primordiais forem suficientemente fortes, as experiências devem encontrá-los na próxima década. Indícios adicionais podem vir de outras linhas de investigação, tais como os mapas da estrutura em larga escala do universo que incluam as galáxias e o hidrogênio cósmico.

E, já que os relógios padrão primordiais seriam um componente da “Teoria de Tudo”, encontrá-los também proveria indícios para uma física além do Modelo Padrão em uma escala que os colisores de partículas na Terra não têm acesso.

###

Na aglomeração de galáxias, a massa pode não ser o único fator

EurekAlert

25 de janeiro de 2016

Link para o original: In galaxy clustering, mass may not be the only thing that matters

Primeiros indícios de observações que existe uma tendência para a aglomeração podem causar impacto sobre a compreensão do universo

CARNEGIE MELLON UNIVERSITY

Mapas de distribuição de densidades em galáxias com aproximadamente a mesma massa.
Crédito: KAVLI IPMU

PITTSBURGH — Uma esquipe internacional de pesquisadores que inclui Rachel Mandelbaum da Universidade Carnegie Mellon, demonstrou que a correlação entre os aglomerados de galáxias e a matéria escura em seus halos circunvizinhos é mais complexa do que se pensava. Suas descobertas estão relatadas em um artigo publicado na edição de 25 de janeiro de Physical Review Letters  e são as primeiras a empregar dados de observações para demonstrar que, além das massas, o histórico da formação do aglomerado de galáxias também tem um papel na maneira com a qual o aglomerado interage com seu ambiente.

Existe uma conexão entre os aglomerados de galáxias e seus halos de matéria escura que contém um grande número de informações sobre o conteúdo de matéria escura do universo e sobre a expansão acelerada pela energia escura. Aglomerados de galáxias são agrupamentos que variam de centenas a milhares de galáxias, unidas pela gravidade e que são as estruturas mais massivas do universo. Esses aglomerados ficam embutidos em um halo de matéria escura, invisível. Tradicionalmente, os cosmologistas fizeram predições e interpretações dessa aglomeração com base nos cálculos das massas dos aglomerados e em seus halos. No entanto, noovos estudos teóricos e simulações cosmológicas indicaram que as massas podem não ser o único elemento atuante – algo, batizado de tendência à associação que leva em conta quando e como um aglomerado de galáxias se formou, pode ter influência sobre a aglomeração das galáxias.

“As simulações nos mostram que nosso quadro tem que incluir a tendência à associação”, diz Mandelbaum, do Centro McWilliams para Cosmologia da Carnegie Mellon. “A confirmação disto por observações é uma parte importante para a compreensão da formação e da evolução de galáxias e aglomerados”,

No presente estudo, a equipe de pesquisas, liderada por Hironao Miyatake, Surhud More e Masahiro Takada do Kavli Institute for the Physics and Mathematics of the Universe, analisou dados de observações do catálogo de galáxias DR8 da Sloan Digital Sky Survey. Com esses dados, demonstraram que o quando e o onde as galáxias formam agrupamentos dentro de um aglomerado, tem influência sobre a interação do algomerado com a matéria escura circunvizinha.

Os pesquisadores dividiram aproximadamente 9.000 aglomerados de galáxias em dois grupos, com base na distribuição espacial das galáxias dentro de cada aglomerado. Um grupo continha aglomerados com galáxias agregadas no centro e o outro continha uma distribuição de galáxias mais difusa. Por meio do fenômeno das lentes gravitacionais, eles demonstraram que, muito embora os dois grupos de aglomerados pudessem ter massas totais semelhantes, interagiam com seus ambientes de maneira muito diferente. O grupo com galáxias difusas eram muito mais irregulares {N.T: o termo usado no original é “clumpy” que pode ser traduzido como “encaroçado”] do que aqueles que tinham mais galáxias próximas do centro.

“A medição da maneira como os aglomerados de galáxias se aglomeram em larga escala é um ponto crucial da cosmologia moderna. Partindo daí, podemos prosseguir, sabendo que a massa pode não ser o único fator que influencia a aglomeração”, declarou Mandelbaum.

###

Outros autores do artigo: David N. Spergel, Universidade Princeton; Eli S. Rykoff, Kavli Institute for Particle Astrophysics & Cosmology; e Eduardo Rozo, Universidade do Arizona.

Um nono planeta no sistema solar? Pode ser…

Pesquisadores da Caltech encontram indícios de um nono planeta (de verdade)

CALIFORNIA INSTITUTE OF TECHNOLOGY

IMAGE
IMAGEM: Concepção artística de uma vista do nono planeta e o Sol à distância. Acredita-se que o planeta seja gasoso e semelhante a Urano e Netuno.CRÉDITO: CALTECH/R. HURT (IPAC)

Pesquisadores da Caltech encontraram indícios da existência de um planeta gigante que percorreria uma órbita bizarra e alongada no Sistema Solar Exterior. O objeto, batizado de Planeta Nove, teria uma massa de cerca de 10 vezes a da Terra e orbitaria cerca de 20 vezes mais distante do Sol do que Netuno (o qual orbita o Sol a uma distância de 4,58 bilhões de km). Realmente, esse planeta novo levaria entre 10.000 e 20.000 anos para completar uma única órbita em torno do Sol.

Os pesquisadores, Konstantin Batygin e Mike Brown, descobriram a existência desse planeta por meio de modelos matemáticos e simulações em computador, mas ainda não observaram diretamente sua existência.

“Esse seria um nono planeta de verdade”, diz Brown, Professor “Richard and Barbara Rosenberg” de Astronomia Planetária. “Só foram encontrados dois planetas de verdade desde os velhos tempos e este seria o terceiro. É um pedaço substancial de nosso Sistema Solar que ainda está por aí, esperando ser encontrado, o que é entusiasmante”.

Brown observa que o suposto nono planeta – com uma massa 5.000 vezes maior que a de Plutão – é suficientemente grande para não haver debates sobre se é mesmo um planeta de verdade. Diferentemente dos objetos agora conhecidos como planetas anões, o Planeta Nove domina gravitacionalmente suas vizinhanças no Sistema Solar. Na verdade, ele domina uma região maior do que qualquer outro planeta conhecido – algo que faz que Brown diga que ele é “o mais ‘planetário’ de todos os planetas de todo o Sistema Solar”.

Batygin e Brown descrevem seu trabalho na corrente edição da publicação Astronomical Journal  e mostram como o Planeta Nove ajuda a explicar várias características misteriosas do campo de objetos congelados e pedregulhos que ficam além da órbita de Netuno, conhecido como o Cinturão de Kuiper.

“Embora nós estivéssemos inicialmente bastante céticos que esse planeta pudesse existir, na medida em que continuamos a investigar sua órbita e o que ele significaria para o Sistema Solar Exterior, fomos nos convencendo cada vez mais de sua existência”, diz Batygin, professor assistente de ciência planetária. “Pela primeira vez em 150 anos, existem indícios sólidos de que o censo planetário do Sistema Solar está incompleto”.

O camiho para a descoberta teórica não foi uma linha reta. Em 2014, um antigo pós-doutorando de Brown, Chad Trujillo, e seu colega Scott Shepherd publicaram em um artigo que 13 dos mais distantes objetos [conhecidos] do Cinturão de Kuiper eram similares com respeito a uma característica orbital obscura. Para explicar essa similaridade, eles sugeriram a possível presença de um pequeno planeta. Brown achou que a solução de um planeta era pouco provável, mas seu interesse ficou aguçado.

Ele levou o problema até Batygin e os dois começaram uma colaboração que se estendeu por um ano e meio para investigar os objetos distantes. Sendo um observador e o outro um teórico, respectivamente, os pesquisadores abordaram o trabalho com perspectivas diferentes – Brown como alguém que olha para o céu e tenta ancorar tudo no contexto daquilo que pode ser visto, enquanto Batygin como alguém que procura o contexto dinâmico, considerando como as coisas podem funcionar do ponto de vista da física. Essas diferenças permitiram que os pesquisadores desafiassem mutuamente suas ideias e considerassem novas possibilidades. “Eu trazia alguns aspectos das observações; ele voltava com argumentos teóricos e nós nos confrontávamos. Eu não creio que a descoberta pudesse ter sido feita sem esse vai e vem”, diz Brown. “Foi possivelmente o ano mais divertido para trabalhar com um problema no Sistema Solar que eu já tive”.

Rapidamene Batygin e Brown se deram conta de que os seis obejtos mais distantes da coleção original de Trujillo e Shepherd, seguiam todos órbitas elípticas que apontavam para a mesma direção no espaço físico. Isto é particularmente surpreendente porque os pontos mais distantes de suas órbitas se movem em torno do Sistema Solar e eles viajam em velocidades diferentes.

“É quase como se tivéssemos seis ponteiros em um relógio, cada um se movendo em uma velocidade diferente, e, quando você olha, todos estão exatamente no mesmo lugar”, explica Brown. A probabilidade de que isto aconteça é algo como 1 em 100. Mas além disso, as órbitas dos seis objetos também são inclinadas do mesmo jeito – todas com uma inclinação de 30 graus para com o plano da eclíptica (o plano das órbitas dos oito planetas conhecidos). A probabilidade disto acontecer cai para 0,007%. “Basicamente, isto não pode ser por acaso”, diz Brown. “De forma que pensamos que outra coisa devia estar moldando essas órbitas”.

A primeira possibilidade investigada foi a de que talvez houvesse um número suficiente de objetos no Cinturão de Kuiper – alguns dos quais não tinham sido ainda descobertos – para criar a gravidade necessária para manter esta subpopulação aglomerada. Os pesquisadores rapidamente descartaram isto quando calcularam que este cenário precisaria que o Cinturão de Kuiper tivesse cerca de 100 vezes a massa estimada atualmente.

Isso os deixou com a ideia de um planeta. Sua primeira resposta instintiva foi a de rodar simulações envolvendo um planeta em uma órbita distante que abrangesse as órbitas dos seis objetos do Cinturão de Kuiper, que agiria como um laço gigante para mantê-los em seu alinhamento. Batygin diz que isso quase funciona, mas não coincide precisamente com as excentricidades observadas. Como diz ele: “Perto do alvo, mas não ganha o prêmio”.

Então, realmente por mero acidente, Batygin e Brown perceberam que se eles rodassem simulações com um planeta massivo com uma órbita contra-alinhada – uma órbita na qual o ponto mais próximo do Sol, também chamado de periélio, ficasse distante 180 graus dos outros objetos e planetas conhecidos – os objetos distantes no Cinturão de Kuiper na simulação assumiriam o alinhamento observado atualmente.

“A resposta natural é: ‘Essa geometria orbital não pode estar certa. Isso não pode ser estável a longo prazo porque, ao fim e ao cabo, isso faria com que o planeta e os objetos se encontrassem e, eventualmente, colidissem”, explica Batygin. No entanto, por meio de um mecanismo conhecido como ressonância de movimento médio, a órbita do planeta anti-alinhado na verdade impede que os objetos do Cinturão de Kuiper colidam com ele e os mantém alinhados. Na medida em que os objetos em órbita se aproximam, eles trocam energia. Então, por exemplo, para cada quatro órbitas que o Planeta Nove descreve, um dos objetos distantes do Cinturão de Kuiper pode perfazer nove órbitas. Eles jamais colidem. Em lugar disso, tal como um pai que mantém o arco de uma criança em um balanço, dando empurrões periódicos, o Planeta Nove afeta as órbitas dos objetos distantes do Cinturão de Kuiper de forma tal que sua configuração com o planeta é mantida.

“Ainda assim, eu estava bastante cético” relata Batygin. “Eu nunca tinha visto coisa parecida na mecânica celeste”.

Porém, pouco a pouco, na medida em que os pesquisadores investigavam as caracteríticas adicionais e consequências do modelo, eles se persuadiram. “Uma boa teoria deve não só explicar as coisas que você se porpõe a explicar. Ela deve de preferência explicar outras coisas que você não tinha se proposto explicar e fazer previsões que sejam verificáveis”, argumenta Batygin.

E, com efeito, a existência do Planeta Nove ajuda a explicar mais do que só o alinhamento dos objetos distantes do Cinturão de Kuiper. Ela também explica as misteriosas órbitas que ambos traçam. O primeiro desses objetos, chamado Sedna, foi descoberto por Brown em 2003. Diferentemente da variedade padrão dos objetos do Cinturão de Kuiper que são “chutados para fora” por Netuno e voltam a ele, Sedna nunca se aproxima muito de Netuno. Um segundo objeto parecido com Sedna, conhecido como 2012 VP113, foi anunciado por Trujillo e Shepherd em 2014. Batygin e Brown descobriram que a presença do Planeta Nove em sua órbita proposta, produz naturalmente objetos tipo Sedna, retirando um objeto padrão do Cinturão de Kuiper e lentamente o puxando para uma órbita menos conectada a Netuno.

Mas a maior surpresa dos pesquisadores foi que suas simulações também prediziam que haveria objetos no Cinturão de Kuiper em órbitas perpendiculares ao plano da eclíptica. Batygin continuou encontrando indícios disso e os levou a Brown. “De repente eu percebi que existem objetos assim”, relembra Brown. Nos últimos três anos, observadores identificaram quatro objetos com órbitas mais ou menos perpendiculares à de Netuno e enfileirados. “Nós plotamos as posições desses objetos e suas órbitas e elas se encaixaram exatamente nas simulações”, diz Brown. “Quando descobrimos isso, meu queixo caiu no chão”.

“Quando a simulação alinhou os objetos distantes no Cinturão de Kuiper e criou objetos tais como Sedna, nós pensamos que isso era maravilhoso – mata-se dois coelhos com uma cajadada”, diz Batygin. “Mas quando a existência do planeta também explicou essas órbitas perpendiculares, não foram só dois coelhos: foi mais um coelho que você nem sabia que estava na moita”.

De onde veio o Planeta Nove e como ele foi parar no Sistema Solar Exterior? Os cientistas há muito acreditam que o Sistema Solar em sua infância começou com quatro núcleos planetários que sugaram todo o gás em seu entorno, formando os quatro planetas gasosos – Júpiter, Saturno, Urano e Netuno. Ao longo do tempo, colisões e ejeções os moldaram e levaram a suas presentes posições. “Mas não existe uma razão para que não tenha havido cinco núcleos, em lugar de quatro”, argumenta Brown. O Planeta Nove pode representar esse quinto núcleo e, se ele chegou perto demais de Júpiter ou Saturno, pode ter sido ejetado para sua órbita distante e excêntrica.

Batygin e Brown continuam a refinar suas simulações e aprender mais acerca da órbita do planeta e sua influência sobre o Sistema Solar distante. Por enquanto, Brown e outros colegas começaram a procurar os céus pelo Planeta Nove. Somente sua órbita aproximada é conhecida, não sua localização precisa na rota elíptica. Se o planeta estiver próximo de seu periélio, diz Brown, os astrônomos podem ser capazes de localizá-lo em imagens de varreduras anteriores. Se ele estiver na parte mais distante de sua órbita (afélio), os maiores telescópios do mundo – tais como os telescópios gêmeos de 10m do Observatório W. M. Keck e o Tellescópio Subaru, todos no Mauna Kea, no Hawaii – serão necessários para encontrá-lo. Se, entretanto, o Planeta Nove estiver agora em qualquer ponto intermediário, vários telescópios terão a chance de encontrá-lo.

“Eu adoraria encontrá-lo”, diz Brown. “Mas ficaria plenamente satisfeito se outra pessoa o encontrar. É por isso que estamos publicando este artigo. Esperamos que outras pessoas se inspirem e comecem a procurar”.

Em termos das compreensão do contexto do Sistema Solar no universo, Batygin diz que esse planeta que nos parece tão esdrúxulo, torna nosso Sistema Solar mais parecido com outros sistemas planetários que estão sendo encontrados em outras estrelas. Em primeiro lugar, a maioria dos exoplanetas que orbitam estrelas parecidas com o Sol, não têm um padrão orbital simples – ou seja, alguns orbitam extremamente perto de suas estrelas mães, enquanto que outros seguem em órbitas excepcionalmente distantes. Segundo, a maioria dos exoplanetas varia de 1 a 10 massas terrestres.

“Uma das descobertas mais surpreendentes sobre outros sistemas planetários é que o tipo mais comum de planeta por aí tem uma massa entre a da Terra e a de Netuno”, diz Batygin. “Até agora, nós pensávamos que no Sistema Solar faltava o tipo mais comum de planeta. Pode ser que sejamos mais normais, por fim”.

Brown, que é bem conhecido por seu significativo papel no rebaixamento de Plutão de planeta a planeta anão, acrescenta: “Todas essas pessoas que ficaram com raiva de Plutão não ser mais chamado de planeta, podem se entusiasmar com a possibilidade de haver realmente outro planeta lá fora e fazer o Sistema Solar ficar com nove planetas novamente”.

###

O artifo é intiotulado “Evidence for a Distant Giant Planet in the Solar System.”

EDIÇÃO POSTERIOR:

Órbitas do Planeta Nove e dos objetos do Cinturão de Kuper:

_87819538_p9_kbo_orbits_labeled_1_

Fonte: WikiMedia

Nós quânticos são reais

EurekAlert

Original: Quantum knots are real!

AALTO UNIVERSITY

A primeiríssima observação de nós em matéria quântica acaba de ser relatada na publicação Nature Physics  pelos cientistas da Aalto University (Finlândia) e Amherst College (EUA). Os cientistas criaram ondas solitárias atadas, ou nós de sólitons, no campo mecâncio quiântico que descreve um gás de átomos superfluidos, também conhecido como Condensado de Bose-Einstein.

Em contraste com cordas atadas, o nó quântico criado existe em um campo que assume uma direção determinada em cada ponto do espaço. O campo é segregado em um número infinito de anéis ligados, cada um com sua própria direção de campo. A estrutura resultante é topologicamente estável, uma vez que não pode ser desmembrada sem quebrar os anéis. Em outras palavras, não se pode desatar o nó dentro do superfluido, a menos que se destrua o estado da matéria quântica.

  • Para realizar esta descoberta, expusemos um condensado de Rubídio a rápidas mudanças de um campo magnético especialmente projetado, atando o nó em menos de um milésimo de segundo. Depois que aprendemos a atar o primeiro nó, nos tornamos particularmente destros em fazê-lo. Até agora, atamos várias centenas desses nós – diz o Professor David Hall, Amherst College.

Os cientistas ataram o nó, espremendo a estrutura do condensado a partir das suas bordas. Para tanto, foi necessário inicializar o campo quântico apontando para uma direção em particular, após o que o campo magnético aplicado foi subitamente redirecionado, de forma a criar um ponto nulo isolado, no qual o campo magnético desaparece, no centro da nuvem. Foi necessário esperar por menos de um milissegundo para que o campo magnético operasse seu truque e atasse o nó.

  • Ao longo de décadas, os físicos vinham fazendo previsões teóricas de que seria possível haver nós em campos quânticos, porém jamais alguém conseguiu criar um. Agora que observamos um desses bichos exóticos, estamos realmente entusiasmados para estudar suas propriedades particulares. O mais importante é que nossa descoberta se conecta a vários conjuntos de campos de pesquisas que incluem cosmologia, energia de fusão e computadores quânticos – diz o lider do grupo de pesquisas Mikko Möttönen, Aalto University.

Nós têm fascinado e sido usados pelas civilizações humanas por milhares de anos. Por exemplo, eles permitiram grandes expedições marítimas e inspiraram desenhos e padrões intincados. A antiga civilização Inca usava um sistema de nós, conhecidos como quipu, para armazenar informações. Nos tempos modernos, se acreditava que os nós deviam desempenhar um importante papel nas fundações da natureza em termos de mecânica quântica, muito embora eles até agora permaneçam ocultos na dinâmica quântica.

Na vida cotidiana, os nós são normalmente atados em cordas e fios com duas extremidades. No entanto, esses tipos de nós não são o que os matemáticos chamam de topologicamente estáveis, uma vez que podem ser desatados sem se cortar as cordas. Nos nós estáveis, as extremidades das cordas são coladas, uma com a outra. Estes nós podem ser movimentados dentro da corda, mas só podem ser destados com uma tesoura.

Em termos matemáticos, o nó quântico criado realiza um mapa, conhecido como fibração de Hopf, descoberto por Heinz Hopf em 1931. A fibração de Hopf ainda é largamente estudada na física e na matemática. Agora ela foi experimentalmente demonstrada pela primeira vez em um campo quântico.

  • Este é o começo da saga dos nós quânticos. Seria ótimo ver aparecerem ainda mais nós quânticos ainda mais sofisticados, tais como aqueles com núcleos atados. Também seria importante criar esses nós em condições onde o estado da matéria fosse inerentemente estável. Um tal sistema permitiria estudos detalhados da estabilidade do próprio nó – diz Mikko Möttönen.

###

Artigo sobre a pesquisa:

D. S. Hall, M. W. Ray, K. Tiurev, E. Ruokokoski, A. H. Gheorghe, e M. Möttönen

“Tying Quantum Knots”

Nature Physics, DOI: 10.1038/NPHYS3624

Link: http://dx.doi.org/10.1038/nphys3624

(A versão submetida para publicação pode ser encontrada em http://arxiv.org/abs/1512.08981)

Vídeo e imagens:

https://www.youtube.com/watch?v=fFIAINR6rTY

http://materialbank.aalto.fi:80/public/95cc3f59c88F.aspx

Como a luz se comporta em um espaço curvo

Pesquisadores da FAU investigam como a luz se comporta no espaço curvo

UNIVERSIDADE DE ERLANGEN-NUREMBERG

106866_web

Na imagem desta experiência, um feixe laser se propaga ao longo da superfície bidimensional de um objeto com o formato de uma ampulheta, curvando-se em torno do meio do objeto. Isso é um exemplo de objeto com curvatura negativa (tal como uma sela, por exemplo), em contraste com um objeto com curvatura positiva, tal como uma esfera.
CRÉDITO DA IMAGEM: Vincent Schultheiß

Quando querem investigar a influência da gravidade sobre a propagação da luz, usualmente os pesquisadores têm que se valer de distâncias astronômicas e massas enormes. Porém os físicos da Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) e da Universidade Friedrich Schiller, Jena, demonstraram que há outro meio. Em uma recente edição da publicação Nature Photonics eles encontraram as respostas para as questões astronômicas no laboratório, mudando a abordagem para uma propriedade pouco lembrada dos materiais: a curvatura da superfície.

Segundo a Teoria da Relatividade Geral de Einstein, a gravidade pode ser descrita como uma curvatura do espaço-tempo em quatro dimensões. Nesse espaço curvo, os corpos celestes e a luz se movem ao longo de geodésicas, o caminho mais curto entre dois pontos, que frequentemente se parecem com qualquer outra coisa, menos uma linha reta, quando vistas de fora.

A equipe de pesquisadores, liderada pelo Prof. Dr. Ulf Peschel da Universidade Friedrich Schiller, Jena, se valeu de um truque especial para examinar a propagação da luz em tais espaços curvos no laboratório. Em lugar de modificar todas as quatro dimensões do espaço-tempo, eles reduziram o problema a duas dimensões e estudaram a propagação da luz ao longo de superfícies curvas. Porém nem todas as superfícies curvas são a mesma coisa. “Por exemplo, se pode facilmente abrir um cilíndro ou um cone em uma folha de papel plana. Mas é impossível abrir uma superfície esférica em um plano, sem dividí-la ou distorcê-la”, explica Vincent Schultheiß, estudante de doutorado na FAU e principal autor do estudo. “Um exemplo bem conhecido disso são os mapas do mundo que sempre retratam a superfície de modo distorcido. A curvatura da superfície de uma esfera é uma propriedade intrínseca que não pode ser modificada e tem efeitos na geometria e na física em uma superfície bidimensional como ela”.

A experiência dos pesquisadores examinou os efeitos dessa curvatura intrínseca do espaço sobre a propagação da luz. Para fazer isso, eles capturaram a luz em uma pequena área próxima da superfície de um objeto especialmente preparado e a forçaram a seguir o curso da superfície. Na medida em que a luz se propagou, se comportou da mesma forma que o faz quando é defletida por grandes massas. Mudando-se a curvatura da superfície é possível controlar a propagação da luz. Consequentemente, também é possível deduzir o grau de curvatura de uma superfície pela análise da propagação da luz. Quando se aplica isso às observações astronômicas, significa que a luz que chega até nós das estrelas distantes traz consigo valiosas informações sobre o espaço que ela atravessou.

Em seu trabalho os pesquisadores estudaram a interferometria de intensidade, campo onde os pioneiros foram os físicos ingleses Robert Hanbury Brown e Richard Twiss, que é usada para determinar o tamanho das estrelas próximas do Sol. Nesta técnica de medição, posiciona-se dois telescópios afastados entre si e focalizados na estrela a ser examinada. Então se compara as flutuações na intensidade da luz medida pelos dois telescópios. Como as flutuações da intensidade são resultantes das interferências da luz emitida separadamente pela superfície da estrela – visualizada como um padrão de pontos de luz nas imagens produzidas – isto permite tirar conclusões sobre o tamanho do objeto observado.

Como as trajetórias da luz em um espaço curvo tendem a convergir ou divergir muito mais do que em um espaço plano, o tamanho dos pontos muda em função da curvatura. Os pesquisadores demonstraram que cohecer a curvatura é crucial para a interpretação dos resultados e que a interferometria é adequada para a medição mais exata da curvatura do unverso em geral.

Se os resultados desta pesquisa irão mesmo levar a uma melhor compreensão do universo, é algo ainda escrito nas estrelas. “O principal objetivo da pesquisa era transferir as descobertas com base na Teoria da Relatividade para a ciência de materiais, por meio da cuidadosa modelagem das superfícies dos objetos”, explica o Professor Peschel. Embora esses dois campos pareçam totalmente sem relação, a uma primeira vista, projetos planos são muito mais fáceis de construir. No entanto, superfícies curvas têm um potencial que ainda não foi explorado e poderiam ser usadas para controlar a luz em sistemas óticos, por exemplo. Criar variações locais na curvatura da superfície pode frequentemente ter o mesmo efeito que mudar o próprio volume do material.  Isto pode permitir a redução no número de etapas e na quantidade de materiais empregados na manufatura de circuitos óticos integrados, ou componentes micro-óticos.

###

Inflações secundárias? Pode ser…

Nova teoria de inflação secundária apresenta novas opções para evitar o problema de um excesso de matéria escura

Físicos sugerem que um período menor de expansão inflacionária nos instantes logo após o Big Bang podem explicar a quantidade estimada dessa matéria misteriosa

DOE/BROOKHAVEN NATIONAL LABORATORY

14 de janeiro de 2016 – UPTON, NY — A cosmologia padrão – ou seja, a Teoria do Big Bang, com seu período inicial de expansão exponencial – é o modelo mais aceito para nosso universo, no qual todo o espaço e tempo incharam como um balão, a partir de um ponto muito quente e muito denso, para virar uma vastidão homogênea e sempre em expansão. Essa teoria dá conta de vários fenômenos físicos que observamos. Mas e se isso não for tudo?

Uma nova teoria dos físicos do Laboratório Nacional de Brookhaven, do Laboratório Nacional do Acelerador Fermi e da Universidade Stony Brook, que será publicada online em 18 de janeiro em Physical Review Letters, sugere ter havido um segundo período inflacionário mais curto que pode dar conta da quantidade estimada de matéria escura no cosmos.

“Em geral, uma teoria fundamental da natureza pode explicar certos fenômenos, mas ela pode, no fim, não acabar dando a quantidade certa de matéria escura”, argumenta Hooman Davoudiasl, líder de grupo no Grupo Teórico de Altas Energias do Laboratório Nacional Brookhaven e um dos autores do artigo. “Se você acabar com pouca matéria escura, sempre pode sugerir uma nova fonte para esta, porém matéria escura demais é um problema”.

Medir a quantidade de matéria escura no universo não é uma tarefa fácil. Ao fim e ao cabo ela é escura, de forma que não interage de maneira significativa com a matéria comum. Não obstante, os efeitos gravitacionais da matéria escura dão aos cientistas uma boa ideia de quanto dela existe por aí. As melhores estimativas indicam que ela perfaz cerca de um quarto do total de massa-energia do universo, enquanto que a matéria comum – esta que compõe as estrelas, nosso planeta e nós mesmos – compreende apenas 5%. A matéria escura é a substância dominante no universo, o que levou os físicos a criar teorias e experiências para explorar suas propriedades e entender o que deu origem a ela.

Algumas teorias que apresentam explicações elegantes para certas esqusitices na física que nos deixam perplexos – por exemplo, a pasmante fraqueza da gravidade em comparação com as outras interações fundamentais (eletromagnética, nuclear forte e nuclear fraca) – não podem ser totalmente aceitas porque predizem mais matéria escura do que as observações empíricas podem apoiar.

Esta nova teoria soluciona este problema. Davoudiasl e seus colegas adicionam um novo passo à sequência de eventos comumente aceita na criação do espaço e tempo.

Na cosmologia padrão, a expansão exponencial do universo – chamada de inflação cósmica – teve início provavelmente logo aos 10-35 segundo depois do começo do tempo – isso é zero vírgula 34 zeros, um. Essa expansão explosiva de todo o espaço durou meras frações de uma fração de segundo, o que levou eventualmente a um universo quente, seguido de um período de resfriamento que continua até os presentes dias. Então, quando o universo tinha entre alguns segundos e alguns minutos de idade – ou seja, ficou frio o bastante – começou a formação dos elementos mais leves. Entre esses marcos, podem ter acontecido outros interlúdios inflacionários. argumenta Davoudiasl.

“Eles não teriam sido grandiosos ou tão violentos como o inicial, mas poderiam dar conta de uma diluição da matéria escura”, explica ele.

No começo, quando as temperaturas ultrapassavam bilhões de graus em um volume de espaço relativamente pequeno, as partículas de matéria escura podiam se chocar e se aniquilarem no contato, passando sua energia para os constituíntes da matéria comum – partículas tais como elétrons e quarks. Mas, na medida em que o universo continuou a se expandir e esfriar, as partículas de matéria escura se encontravam cada vez menos vezes e a taxa de aniquilação não conseguia dar conta da taxa de expansão.

“Neste ponto, a abundância de matéria escura foi cozinhada com o resto do bolo”, prossegue Davoudiasl. “Lembrem-se que a matéria escura interage de maneira muito fraca. Dessa forma, não pode continuar a existir uma taxa de aniquilação significativa em temperaturas mais baixas. A auto-aniquilação da matéria escura se torna ineficaz bem cedo e a quantidade de partículas de matéria escura fica congelada”.

No entanto, quanto mais fracas forem as interações da matéria escura – ou seja, quanto menos eficiente for a auto-aniquilação – maior deveria ser a abundância final de partículas de matéria escura. Na medida em que as experiências colocam restrições cada vez maiores na força das interações da matéria escura, algumas teorias correntes acabam por superestimar a quantidade de matéria escura no universo. Para colocar as teorias em alinhamento com as observações, Davoudiasl e colegas sugerem que aconteceu um outro período inflacionário, alimentado por interações em um “setor oculto” da física. Esse segundo período de inflação, mais suave, caracterizado por um rápido crescimento do volume, teria diluído a abundância primordial de partículas, potencialmente deixando o universo com a densidade de matéria escura que observamos atualmente.

“Definitivamente não é a cosmologia padrão, mas temos que aceitar que o universo pode não ser governado pela maneira padrão que pensamos”, disse ele. “Porém, não tivemos que construir alguma coisa complicada. Nós demonstramos que um modelo simples pode obter essa pequena quantidade de inflação no universo primevo e dar conta da quantidade de matéria escura que acreditamos haver por aí”.

Provar a teoria é outra coisa totalmente diferente. Davoudiasl diz que pode haver uma maneira de procurar por, pelo menos, as mais fracas interações entre o setor oculto e a matéria comum.

“Se esse período inflacionário secundário aconteceu, ele pode ser caracterizado por energias dentro do alcance de experiências em aceleradores tais como o Relativistic Heavy Ion Collider (RHIC) e o Large Hadron Collider,” diz ele. Somente o tempo dirá se os sinais de um setor oculto vão aparecer ns colisões dentro desses aceleradores, ou em outras instalações experimentais.

###

Um quasar de pança cheia

EurekAlert

Um quasar quieto aparentemente engoliu tudo o que podia

UNIVERSIDADE DE WASHINGTON

IMAGE

IMAGEM: Concepção artística do quasar que mudou de aparência, tal como ele apareceu pela primeira vez no início de 2015. A região brilhante em azul mostra o restinho de gás sendo engolido pelo Buraco Negro central.

Crédios: DANA BERRY / SKYWORKS DIGITAL, INC.

Os astrônomos da Sloan Digital Sky Survey (SDSS) anunciaram que um quasar distante encheu a pança.

Suas conclusões, relatadas no Encontro da American Astronomical Society, em Kissimmee, Florida, em 8 de janeiro, explicam por que o quasar SDSS J1011+5442 mudou tão dramaticamente nos poucos anos entre as observações.

“Nós estamos acostumados a pensar que os céus são imutáveis”, explica o professor de astronomia da Universidade de Washington Scott Anderson, que é o principal investigador da Pesquisa Espectrocópica de Domínio de Tempo da SDSS. “A SDSS nos proporciona uma grande oportunidade de ver a mudança assim que ela acontece”.

Os quasares são as áreas compactas no centro das grandes galáxias no meio das quais normalmente há um buraco negro massivo. Por exemplo, o buraco negro no centro da J1011+5442 tem uma massa cerca de 50 milhões de vez a de nosso Sol. À medida em que o buraco negro engole o gás superaquecido, ele emite vastas quantidades de ondas de luz e rádiofrequência. Quando os astrônomos da SDSS fizeram suas primeiras observações da J1011+5442 em 2003, eles mediram o espectro do quasar, o que lhes permitiu compreender as propriedades do gás que estava sendo absorvido pelo buraco negro. Em particular, a proeminente linha de “hidrogênio-alpha” no espectro, revelava quanto gás estavga caindo para dentro do buraco negro central.

A SDSS mediu outro espectro desse quasar no início de 2015 e percebeu uma enorme diminuição de 2003 para 2015. A equipe então se valeu de observações adicionais feitas por outros telescópios ao longo desses 12 anos para estreitar o período da mudança.

“A diferença era abaladora e sem precedentes”, disse o estudante de pós-graduação em astronomia da UW John Ruan, membro da equipe. “A emissão de hidrogênio-alpha caiu para algo 50 vezes menor em menos de 12 anos e o quasar agora se parece com uma galáxia normal”.

A mudança foi tão grande que toda a colaboração SDSS e toda a comunidade de astronomia passou a chamá-lo de “quasar que mudou de aparência”. O buraco negro continua lá, é claro, porém nos últimos 10 anos parece ter engolido todo o gás em suas vizinhanças. Com o gás todo absorvido pelo buraco negro, a equipe da SDSS não foi capaz de detectar a assinatura espectroscópica do quasar.

“Esta é a primeira vez que vemos um quasar desligar tão dramática e rapidamente”, diz a principal autora Jessie Runnoe, pesquisadora pós-doutorado na Pennsylvania State University.

Antes de Runnoe, Ruan e seus colegas chegarem a essa conclusão, tinham que eliminar outras duas possibilidades. Uma nuvem de poeira poderia ter-se interposto entre os observadores e a Terra, obscurecendo a visão do burco negro central. Porém, concluíram que de forma alguma qualquer nuvem de poeira pudesse ter-se movido rápido o suficiente para causar uma queda de 50 vezes na luminosidade em apenas dois anos. Outra possibilidade era que o brilhante quasar observado em 2003 fosse apenas um clarão temporário causado pela absorção pelo buraco negro de uma estrela próxima. Embora essa possibilidade tenha sido aventada em casos similares, ela não pode explicar o fato que o quasar que mudou de aparência, tenha brilhado por tantos anos antes de apagar.

A conclusão da equipe é que o quasar gastou todo o gás quente e brilhante em suas vizinhanças, o que levou a um rápido declínio em seu brilho.

“Essencialmente, ele ficou sem comida, pelo menos por enquanto”, diz Runnoe. “Nós fomos felizes em termos flagrado ele antes e depois”.

O quasar que mudou de aparência é a maior descoberta relatada pela Pesquisa Espectrocópica de Domínio de Tempo, um componente da quarta fase da SDSS que vai prosseguir pelos próximos anos.

“Nós descobrimos esse quasar porque voltamos para estudar novamente milhares de quasares já vistos antes”, disse Anderson. “Essa descoberta só foi possível porque a SDSS tem tanta profundidade e continuou por tanto tempo”.

###

Mais sobre a “ação fantasmagórica à distância” (agora, do NIST)

EurekAlert

Equipe do NIST comprova que a “fantasmagórica ação à distância” é mesmo real

103208_web

Krister Shalm, físico do NIST, com a fonte de fótons usados no “experimento de Bell” que dá forte apoio a uma predição chave da mecânica quântica: as “fantasmagóricas ações à distância” realmente existem. Crédito da imagem: Burrus/NIST

 

BOULDER, Colorado. – Einstein estava errado, pelo menos em uma coisa: existem de fato as “fantasmagóricas ações à distância”, conforme comprovado recentemente pelos pesquisadores do Instituto Nacional de Padrões e Tecnologia (National Institute of Standards and Technology = NIST).

Einstein usou esse termo para se referir à mecânica quântica que descreve o curioso comportamento das menores partículas de matéria e da luz. Ele se referia especificamente ao entrelaçamento, a ideia que duas partículas separadas fisicamente podem ter propriedades correlacionadas, com valores incertos até que sejam medidos. Einstein duvidava que isso fosse possível e, até agora, os pesquisadores não tinham sido capazes de comprovar que isso acontecia com confiabilidade quase total.

Tal como descrito em uma artigo publicado online e apresentado para publicação na Physical Review Letters (PRL),* os pesquisadores do NIST e de várias outras instituições criaram pares de partículas de luz idênticas (fótons) e as enviaram a dois locais diferentes para medição. Os pesquisadores demonstraram que os resultados medidos não só tinham correlação entre si, como também — pela eliminação de quaisquer outras opções conhecidas — essas correlações não podem ser causadas pelas condições locais controladas do universo “realístico” onde Einstein pensava que habitamos. A descoberta implica em uma explicação diferente, tal como o entrelaçamento.

Os experimentos do NIST são chamados de experimentos de Bell, assim chamados porque em 1964 o físico irlandês John Bell demonstrou que existem limites para as correlações em medições que podem ser atribuídas às condições locais pré-existentes (ou seja, “realísticas”). Além desses limites, as correlações precisariam ou de sinais mais velozes do que a luz – coisa que os físicos consideram impossível – ou de outro mecanismo, tal como o entrelaçamento quântico.

A equipe de pesquisa alcançou este feito ao fechar simultaneamente todas as três principais lacunas que assolavam todos os testes de Bell anteriores. O fechamento das lacunas se tornou possível com os recentes avanços na tecnologia, inclusive os detectores ultra-rápidos de fótons do NIST que podem detectar com precisão ao menos 90% dos sinais muito fracos e novas ferramentas para escolher aleatoriamente as regulagens dos detectores.

“Não se pode comprovar a mecânica quântica, mas realismo local ou ações ocultas locais são incompatíveis com nosso experimento” declarou Krister Shalm do NIST. “Nossos resultados estão de acordo com as predições da mecânica quântica acerca das ações fantasmagóricas partilhadas por partículas entrelaçadas”.

O artigo do NIST foi apresentado à PRL juntamente com outro artigo da Universidade de Vienna na Áustria que usou um detector de fótons individuais de alta-performance fornecido pelo NIST para a realização de um experimento de Bell que obteve resultados semelhantes.

Os resultados do NIST têm relevância ainda maior do que os recentemente relatados pela Universidade Teconológica Delft da Holanda.

No experimento do NIST, a fonte de fótons e os dois detectores ficaram localizados em três salas diferentes e bem distantes, no mesmo piso de um grande prédio de laboratórios. Os dois detectores ficaram separados por 184 metros entre si e a 126 e 132 metros, respectivamente, da fonte de fótons.

A fonte criou um feixe de fótons por meio de um processo onde um raio laser estimula um tipo especial de cristal. Habiltualmente este processo cria pares de fótons que estão entrelaçados, de modo que a polarização de cada fóton é altamente correlacionada com a do outro fóton do par. A polarização se refere à orientação específica de fóton, tal como horizontal ou vertical (por exemplo, óculos de Sol bloqueiam preferencialmente a luz polarizada na horizontal), em analogia com os dois lados de uma moeda.

Os pares de fótons eram então separados e enviados por cabos de fibra óptica até os detectores separados nas duas salas distantes. Enquanto os fótons estavam em curso, um gerador de números aleatórios escolhia um dos dois ajustes de polarização para cada analisador. Se o fóton concordasse com o ajuste do analisador, ele foi detectado em mais de 90% das vezes.

Na melhor sequência de teste, ambos os detectores identificaram simultaneamente fótons em um total de 6.378 vezes em um período de 30 minutos. Outros resultados (tais como apenas um dos detectores disparar) ocorreram em apenas 5.749 vezes em um total de 12.127 eventos relevantes. Os pesquisadores calcularam que a chance máxima do realismo local produzir esses resultados é de apenas 0,0000000059, ou cerca de 1 em 170 milhões. Este resultado excede o padrão da comunidade da física para um significado de “5 sigma”, necessário para declarar algo como uma descoberta. Os resultados descartam firmemente as teorias de realidade local, sugerindo que a explicação da mecânica quântica do entrelaçamento é, sem dúvida, a explicação correta.

O experimento do NIST fechou as três principais lacunas conforme o seguinte:

Amostragem significativa: graças aos detectores de fótons únicos do NIST, o experimento teve eficiência suficiente para assegurar que os fótons detectados e os resultados das medições fossem representativos dos totais reais. Os detectores, feitos de nano-fios supercondutores, tinham uma eficácia de 90% e a eficácia total do sistema foi de 75%.

Exclusão da comunicação mais rápida que a luz: os dois detectores mediram os fótons de um mesmo par com umas poucas centenas de nanosegundos de diferença, encerrando a medição mais de 40 nanossegundos antes que qualquer comunicação à velocidade da luz pudesse ocorrer entre os detectores. Informações à velocidade da luz levariam 617 nanossegundos para cobrir a distância entre os detectores.

Liberdade de escolha: os ajustes dos detectores eram escolhidos mediante geradores de números aleatórios que funcionavam fora do cone de luz (ou seja, da possível influência) da fonte de fótons e, portanto, ficavam isentos de qualquer manipulação. (Na verade, o experimento demonstrou uma “máquina de violação [do teorema] de Bell” que o NIST planeja eventualmente utilizar para certificar aleatoriedade).

Para se assegurar, além de tudo, que variáveis ocultas, tais como flutuações na rede elétrica, não influenciaram os resultados, os pesquisadores realizaram sequências adicionais de testes misturados com outras fontes de aleatoriedade – dados de filmes populares, shows de TV e os dígitos de Pi. Nada disso modificou os resultados.

O experimento foi realizado no campus do NIST em Boulder, Colorado, onde os pesquisadores construíram um dos detectores de fótons e deram apoio teórico. Os pesquisadores do Jet Propulsion Laboratory (Pasadena, Califórnia) construíram o outro detector. Pesquisadores do quartel-general do NIST em Gaithersburg, Maryland, construíram geradores de números aleatórios e os circuitos a eles relacionados. Pesquisadores da Universidade do Illinois em Urbana-Champaign  e das Universidades Waterloo e de Moncton no Canadá, ajudaram a desenvolver a fonte de fótons e a realizar os experimentos. Pesquisadores do Instituto de Ciência e Tecnologia de Barcelona, Espanha, desenvolveram outro gerador de números aleatórios.

###

Artigo a ser publicado: K. Shalm, E. Meyer-Scott, B.G. Christensen, P. Bierhorst, M.A. Wayne, D.R. Hamel, M.J. Stevens, T. Gerrits, S. Glancy, M.S. Allman, K.J. Coakley, S.D. Dyer, C. Hodge, A.E. Lita, V.B. Verma, J.C. Bienfang, A.L. Migdall, Y. Zhang, W.H. Farr, F. Marsili, M.D. Shaw, J.A. Stern, C. Abellan, W. Amaya, V. Pruneri, T. Jennewein, M.W. Mitchell, P.G. Kwiat, R.P. Mirin, E. Knill e S.W. Nam. A strong loophole-free test of local realism. Enviado para publicação em Physical Review Letters.

Sobre ScienceBlogs Brasil | Anuncie com ScienceBlogs Brasil | Política de Privacidade | Termos e Condições | Contato


ScienceBlogs por Seed Media Group. Group. ©2006-2011 Seed Media Group LLC. Todos direitos garantidos.


Páginas da Seed Media Group Seed Media Group | ScienceBlogs | SEEDMAGAZINE.COM