O “tecido” da realidade pode ser mais fantasmagórico do que pensamos

Inside Science News Service

Por Ben P. Stein, Diretor do ISNS
Crédito da Imagem: Nick Ares via Flickr | http://bit.ly/1iI4N68

(Inside Science) – Eu ando questionando algumas noções básicas acerca da natureza da realidade depois de ler “Spooky Action at a Distance,” (“Fantasmagórica Ação à Distância”), um novo livro escrito por meu amigo e colega George Musser. Eu me junto a vários outros em ver Musser como um dos melhores escritores de ciências que cobrem a pesquisa de ponta da física. (A título de apresentação adicional, ele pertenceu ao comitê do American Institute of Physics que aconselhava o Inside Science.) Seu livro contém ideias fascinantes que ampliam nossos horizontes, e eu passei vários dias pensando sobre elas afinal.

Fazendo uma síntese de várias ideias do “estado-da-arte” da pesquisa de física, Musser apresenta uma argumentação altamente plausível de que nossa percepção do espaço pode ser uma ilusão. Por “espaço”, eu não quero dizer apenas o espaço exterior, mas todo o mundo que nos cerca, inclusive as três dimensões de seu quarto, a colorida paisagem de sua janela e a distância entre sua casa e seu local de trabalho. É isso mesmo: seu percurso diário pode ser fundamentalmente apenas uma ilusão, de acordo com essas teorias emergentes. Ainda são necessários tempo e eenrgia para chegar onde você precisa ir, mas o que você vê da janela de seu meio de transporte pode não ser exatamente aquilo que parece.

Esse tipo de re-pensamento radical não é sem precedentes. Já passamos por uma situação similar com a gravidade. No quadro da gravidade de Isaac Newton, um que ele achou preocupante naquela época, dois objetos tais como a Terra e o Sol exerciam uma atração mútua, muito embora estivessem separados por uma grande distância: Era como se eles estivessem atuando um sobre o outro por meio de um campo de força invisível. No quadro muito diferente da gravidade de Einstein, a massa do Sol distorece a tessitura do sistema solar como uma bola de boliche sobre uma lona. A Terra e os outros planetas rolam por sobre essa lona deformada, produzindo a ainda convincente ilusão de que suas órbitas são causadas por um campo de força invisível.

Sabendo disso, não é surpresa alguma que os físicos estejam re-imaginando o conceito de espaço. Mas ainda é chocante ler a explicação de Musser de que esse “espaço” pode nem existir fundamentalmente. O livro cita o cosmologista e escritor da Caltech Sean Carroll que declarou: “O espaço é totalmente superestimado… é totalmente falso. O espaço é apenas uma aproximação que julgamos útil em certas circunstâncias”

Conquanto eu continue ao menos um pouco cético — o espaço parece funcionar perfeitamente bem na descrição do universo em torno de nós — o livro apresenta argumentos que nos fazem coçar a cabeça e reconsiderar a tessitura da realidade. Existem anomalias suficientes no universo para me fazerem parar para tomar fôlego. E, como aponta Musser, Albert Einstein foi um dos primeiros para apontá-las.

Nos anos 1930, Einstein usou a expressão “ação fantasmagórica à distância” para descrever as possíveis consequências da mecânica quântica. Na então emergente descrição do mundo submicroscópico, duas partículas, separadas em seu nascimento — criadas em um processo como o decaimento de um átomo — podem continuar a afetar uma à outra, mesmo que viajem para lados opostos do universo. Elas seriam capazes de influenciar uma a outra ainda mais rápido do que a luz poderia cobrir a distância entre elas. Um Einstein cético cunhou a expressão “fantasmagórica” para aquilo que ele via como essa previsão estranha da mecânica quântica. Ele pensava que uma teoria mais completa da natureza seria capaz de descartar essa aparente violação do limite máximo de velocidade, a velocidade da luz. No entanto, os experimentadores confirmaram esta “ação fantasmagórica” — melhor conhecida como entrelaçamento quânticorealmente acontece.

Agora, os físicos que lidam com pesquisas de ponta, estão cada vez mais descobrindo que esse tipo de fantasmagoria pode ser capaz de descrever a realidade ainda melhor do que o famoso físico poderia imaginar, o que afeta nossas mais profundas noções sobre espaço.

A distância entre objetos — ou sua proximidade — pode ser tudo uma ilusão, de acordo com a pesquisa que Musser descreve em seu livro.

Recentemente, os físicos descobriram que fica muito mais fácil calcular os resultados de deacimentos múltiplos de partículas super-complicados,  se não levarmos em conta o espaço local em torno delas. Anteriormente, os físicos (e os estudantes de pós-graduação em física) estudariam exaustivamente cada vizinho de cada partícula nesses decaimentos, porém, se ingorarmos sua aparente configuração no espaço, se pode chegar às mesmas respotas corretas de modo muito mais fácil.

E então temos a baleia branca da física — o buraco negro. Um alvo de intensos estudos, esses objetos podem guardar os segredos de várias coisas, inclusive o entrelaçamento. Os buracos negros engolem a matéria com voracidade, mas… para onde ela vai? Muito embora a teoria corrente sugira que o centro de um buraco negro contenha algo totalmente contra-intuitivo — um ponto de densidade infinita conhecido como singularidade — os físicos sabem que estão deixando escapar algo acerca de buracos negros. Pode ser que nosso conceito de espaço como um armazém de matéria, seja parte do problema?

Musser aponta o fato de que um buraco negro com dias vezes a massa de outro buraco negro, deveria ser oito vezes maior, da mesma forma que, se soprarmos um balão até que tenha o dobro do raio original, ele ficará oito vezes maior. Porém um buraco negro com o dobro do raios de outro parece ter apenas o dobro da massa, o que faz parecer que ele está armazenando menos massa do que o esperado. Isso sugere várias possibilidades, tais como a matéria ir para outro lugar no universo — ou talvez algum aspecto de sua aparência externa seja ilusório. Felizmente, o comportamento da superfície externa de um buraco negro — o horizonte de eventos — parece ser um terreno fertil para compreender todo o buraco negro e descobrir uma nova física. E isto nos traz ao que realmente pode estar acontecendo com o espaço.

Tal como a superfície externa do buraco negro pode explicar o que acontece em seu interior, a teoria do “universo holográfico” sugere que o interior de nosso universo pode ser descrito pela compreensão da física das bordas do universo que, infelizmente, não podemos acessar. Como analogia, imaginemos se pudessemos compreender absolutamente tudo o que se passa dentro da Terra, se compreendessemos o comportamento de sua superfície. A Terra tem três dimensões, mas sua superfície é descrita por duas — latitude e longitude. Similarmente, as fronteiras do universo observável teriam essa uma dimensão a menos que seu interior, porém pode ser que ela pudesse explicar completamente seu funcionamento, de acordo com o princípio holográfico.

Seguindo linhas de raciocínio similares, no livro de Musser, o filósofo Jenann Ismael se pergunta se o universo é semelhante a um caleidoscópio, onde a luz atinge objetos individuais e reflete em espelhos criando múltiplas imagens idênticas. Talvez o entrelaçamento que ocorre entre duas partículas a grandes distâncias, seja na verdade, em um nível mais fundamental, a projeção de uma única coisa sobre algo que percebemos como dois pontos distintos no espaço.

Então, será o espaço realmente uma ilusão? Nós supusemos que o espaço é um ingrediente fundamental da realidade, tal como uma tela para uma pintura. A teoria recentemente proposta, porém ainda rudimentar, da “grafidade quântica” (um torcadilho de gravidade quântica e teoria dos grafos) tenta combinar a mecânica quântica e a gravidade, ignorando o espaço e simplesmente explorando os relacionamentos entre objetos conhecidos como “grãos”, que são os “dublês” para os constituentes fundamentais tais como a matéria. Os grãos podem formar uma rede de conexões com outros grãos; um grão pode interagir com outro grão de eles tiverem energia suficiente. O que percebemos como uma distância física, seria, na verdade, a quantidade de energia para que esses dois objetos interajam.

Qual é minha opinião sobre tudo isso? Falando como escritor de ciências que cobriu um bocado de pesquisas em física, porém sem um Ph.D. em física, sem embargo, tenho algumas reservas. O espaço desempenha um ótimo serviço em nos ajudar a compreender a realidade. Eu não me sinto à vontade em descartar postulados válidos acerca do espaço, na tentativa de acomodar alguns casos importantes. Fenômenos tais como buracos negros e entrelaçamento são muito importantes, mas eles parecem representar exceções especiais e incomuns do universo e não a maior parte do que existe ou acontece. Por exemplo, os físicos lutam para construir um computador quântico porque é difícil entrelaçar mais do que uma dúzia de átomos, mesmo por um breve período de tempo. Um efeito preponderante, chamado de decoerência, não abordado no livro relativamente breve de Musser, frequentemente estraga o efeito do entrelaçamento, antes que as partículas possam fazer qualquer fantasmagoria.

Por outro lado, existem questões importantes não resolvidas no universo, inclusive como partículas parecerem poder se comunicar mais rápido que a velocidade da luz. Então, talvez precisemos de uma teoria mais abrangente para explicar tudo. No caso da gravidade, a ilusão de que o Sol puxa a Terra e os planetas, funciona bem para a maioria dos propósitos, mesmo em termos científicos. Só são basicamente necessárias as três leis de Newton para pousar na Lua. Entretanto, quando se quer explicar sutilezas tais como os estranhos movimentos de Mercúrio em torno do Sol que não podem ser resolvidos pelas equações de Newton, precisamos da relatividade geral de Einstein.

Se o espaço não é o que parece, então o que é? Minha melhor analogia seria um grupo de crianças jogando “Minecraft” em diferentes computadores. Elas podem perceber que estão construindo juntas uma bela casa em 3-D, uma que todas podem ver, mas o que fundamentalmente está acontecendo é que elas estão dando inputs em seus computadores e recebendo outputs dele. A casa não existe realmente — o que realmente acontece é apenas uma série de inputs e outputs em seus computadores.

Como alternativa, imagine estar no holodeck de Star Trek, uma câmara na qual são projetadas imagens de forma a causar uma ilusão de realidade em 3-D. O holodeck parece completamente real para aqueles que estão dentro dele e os personagens de Star Trek têm experiências válidas nele. Mas na verdade é tudo uma ilusão. Dessa forma, a experiência no holodeck é inteiramente válida para aqueles imersos naquela realidade virtual, mas a realidade maior é outra coisa está realmente acontecendo.

De forma tal que é uma questão em aberto se seu trajeto para o trabalho pode ser uma questão de ter suficiente energia e tempo para chegar lá — e pode não qualquer relação com espaço. Talvez esteja na hora de pensarmos novamente no espaço — o livro de Musser certamente vai encorajá-lo a fazer isso.


Ben P. Stein é o diretor do Inside Science e cobriu ciências físicas como escritor e editor desde 1991. Seu twitter é @bensteinscience.

LEDs feitos a partir de lixo orgânico

Inside Science News Service

Transformando sobras de comida em iluminação

A luminescência dos pontos de carbono póde ser vista quando banhados em luz ultravioleta
Crédito: Prashant Sarswat, The University of Utah

Comidas e bebidas podem ser tranformados em pontos quânticos que brilham como LEDs.

Original em inglês publicado em 5 de novembro de 2015.
Por Marcus Woo, Contribuidor do ISNS

(Inside Science) — Pode até ser um TV dinner… Pesquisadores conseguiram transformar pedacinhos de restos de comidas em diodos emissores de luz (LEDs) – esses pequenos dispositivos eletrônicos que emitem luz que compõem a maoir parte das telas de TV atuais.

Aquecendo pedaços de tortillas e pão — e até mesmo de sodas e vapores de carvão, papel e madeiras em brasa — os pesquisadores fizeram pequenas esferas chamadas pontos quânticos de carbono. Esses pontos brilham quando são banhados em luz ultravioleta (UV), o que os torna úteis não só como LEDs, como também para células solares e biomarcadores que permitem aos biólogos observarem a iluminação de células biológicas específicas.

A utilização de sobras de comida pode ser uma forma mais barata e ambientalmente amigável para a fabricação de LEDs de pontos de carbono, argumenta Prashant Sarswat da Universidade de Utah, em Salt Lake City.

Pontos quânticos não são novidade. Na verdade, eles são usados nas mais novas telas de TV. Eles são particularmente adequados para ecrans em geral porque os pontos, muito mais estreitos do que um cabelo humano, podem ser ajustados para brilhar em cores precisas por seus tamanhos; os maiores são vermelhos e os menores são azuis.

O problema é que os pontos quânticos normalmente são feitos com semicondutores tais como seleneto de cádmio que é tóxico. Por isso, nos últimos anos, os pesquisadores vêm desenvolvendo pontos quânticos, empregando o carbono que não é tóxico e nem polui o meio ambiente, e que pode ser encontrado em qualquer tipo de material orgânico – o que incui sobras de comida e o resto daquele seu refrigerante.

Outros usaram métodos similares para transformar comidas e bebidas em pontos de carbono. Por exemplo, foram feitas pesquisas com restos de óleo de frituras, cascas de laranjas e outros cítricos, suco de laranja, leite de soja, borra de café e (anátema!) cerveja. Mas a maioria não deu o passo seguinte e construiu um LED.

Sarswat e Michael Free, também da Universidade de Utah, pegaram em pedacinhos de tortilla e pão, soda e gases de escapamento, adicionaram um solvente e aqueceram a mistura até temperaturas na faixa dos 150 a 250 graus (330 a 450 graus Fahrenheit) entre 30 e 90 minutos. O calor quebra os componentes químicos em pontos de carbono, conforme explica Sarswat. As sodas, uma vez que são substâncias mais simples quase que totalmente compostas por açúcares, sãoas que dão os melhores pontos de carbono.

Fazer um LED não precisa de muita comida ou bebida.

“É esperançoso que algo da ordem de uma lata de refrigerante ou coisa assim poderia dar carbono suficiente para uma pequena tela LED de TV”, disse Free. Os pesquisadores que publicaram recentemente seu trabalho em Physical Chemistry Chemical Physics, querem agora refinar seus processos de forma a ajustarem melhor as cores dos pontos.

“O processo de síntese é muito viável do ponto de vista custo-benefício”, declarou Yogendra Mishra, cientista de materiais na Universidade de Kiel na Alemanha e que não participou dessas pesquisas. “Pode ser facilmente levado à produção em escala industrial”. Comparado com as técnicas atuais de fabricação de pontos de carbono que precisam de fontes de carbono puro, o uso de sobras de comida pode cortar os custos pela metade, acrescentou ele.

No entanto, embora os processos de aquecimento sejam relativamente simples, a química subjacente não é, diz Gary Baker, químico da Universidade de Missouri em Columbia que também não participou da equipe. Recentemente, seu grupo usou urina de pessoas para fabricar pontos de carbono (batizados de “pontos-de-xixi”).

Comidas contém todos os tipos de substâncias químicas e, quando aquecidas, se acaba com uma mixórdia de reações químicas complexas e subprodutos – além dos pontos de carbono que possam se formar. E esses outros pedacinhos de matéria orgânica também brilham. Assim, para isolar os pontos de carbono e realmente compreender suas propriedades e como eles acendem, há que depurar a solução, segundo Baker.

Porém a maioria dos estudos de transformação de comida em pontos de carbono pula esta fase, diz ele.

“Este é o problema com a vasta maioria dos artigos sobre pontos de carbono na literatura”.

Este novo estudo não é uma exceção.

“Se eu for julgar este artigo tal como está redigido”, diz ele, “eles não fazem qualquer purificação, o que é espantoso”.

Em consequência, diz Baker, não se pode atribuir toda a luminescência obtida somente aos pontos de carbono.

“Nós podemos nos deixar levar demais com o relato de novos resultados entusiasmantes e podemos por o carro adiante dos bois, estudando características complexas de amostras que foram pobremente classificadas”.

Embora o entusiasmo acerca dos pontos de carbono seja justificável e este estudo possa vir a ser importante para futuros dispositivos emissores de luz, os pesquisadores devem querer purificar suas amostras e re-analizá-las, prossegue ele.

“Eu tenho certeza de que os resultados serão diferentes”.


Marcus Woo é um escritor freelance área da Baía de San Francisco Bay Area que já publicou em Wired, BBC Earth, BBC Future, National Geographic News e outras agências. Seu tweeter é @sucramoow.

Como se cria um universo (versão digital)

EurekAlert

Pesquisadores modelam o nascimento do universo em uma das maiores simulações cosmológicas jamais processadas

DOE/ARGONNE NATIONAL LABORATORY

Os pesquisadores estão peneirando uma avalanche de dados produzidos por uma das maiores simulações cosmológicas jamais realizadas, liderada pelos cientistas do Laboratório Nacional Argonne do Departamento de Energia (DOE) do Governo dos EUA..

A simulação, processada no supercomputador Titan do Laboratório Nacional Oak Ridge do DOE,  modelou a evolução do universo desde apenas 50 milhões de anos após o Big Bang até os dias atuais – de sua primeira infância até sua atual maturidade. Durante o curso de 13,8 bilhões de anos, a matéria do universo se agregou, formando galáxias, estrelas e planetas, mas não sabemos exatamente como isso se deu

Este tipo de simulação auxilia os cientistas a compreender a energia escura, uma forma de energia que afeta a taxa de expansão do universo, inclusive a distribuição das galáxias, compostas por matéria comum e matéria escura, um tipo misterioso de matéria que nenhum instrumento foi capaz de medir até agora,

Levantamentos celestes Intensivos com poderosos telescópios, tais como o Sloan Digital Sky Survey e o novo Dark Energy Survey  mostram aos cientistas onde as galáxias e estrelas estavam quando sua luz foi inicialmente emitida. E os levantamentos da Radiação cósmica de fundo em micro-ondas (CMB, na sigla em inglês), a luz remanescente de quando o universo tinha apenas 300.000 anos de idade, nos mostra como o universo começou – “muito uniforme, com a matéria se agregando ao longo do tempo”, nas palavras de Katrin Heitmann, uma física do Argonne que liderou a simulação.

A simulação visa a preencher a lacuna temporal para mostrar como o universo deve ter evoluido nesse intervalo: “A gravidade atua sobre a matéria escura que começa a se aglomerar cada vez mais e, nesses aglomerados, se formam as galáxias”, diz Heitmann.

Chamada de “Q Continuum”, a simulação envolveu meio trilhão de partículas – dividindo o universo em cubos de 100.000 km de aresta. Isso a torna uma das maiores simulações cosmológicas em uma definição tão grande. Ela rodou usando mais de 90% da capacidade do supercomputador. Para dar uma ideia, normalmente menos de 1% dos trabalhos usam 90% da capacidade do suprcomputador Mira no Argonne, disseram os administradores da Argonne Leadership Computing Facility, do DOE  Pessoal de computação, tanto do Argonne, quanto do Oak Ridge, auxiliou a adaptar o programa para rodar no Titan.

“Esta é uma simulação muito detalhada”, afirma Heitmann. “Podemos usar esses dados para examinar por que as galáxias se aglomeram desta forma, assim como estudar a física fundamental da própria formação da estrutura”.

A análise dos dois e meio petabytes de dados gerados já começou e vai continuar por vários anos, diz ela. Os cientistas podem extrair dados de fenômenos astrofísicos tais como lentes gravitacionais fortes, lentes gravitacionais fracas, lentes de aglomerados e lentes galáxia-galáxia.

O programa para rodar a simulação é chamado de Hardware/Hybrid Accelerated Cosmology Code (HACC), inicialmente escrito em 2008, mais ou menos quando os supercomputadores científicos romperam a barreira do petaflop (um quatrilhão de operações por segundo). O HACC foi projetado com uma flexibilidade inerente que permite que ele rode em supercomputadores com diferentes arquiteturas

###

Os detalhes do trabalho estão contidos no estudo “The Q continuum simulation: harnessing the power of GPU accelerated supercomputers,” publcado em agosto em Astrophysical Journal Supplement Series pela American Astronomical Society. Os outros cientistas do Argonne neste estudo são Nicholas Frontiere, Salman Habib, Adrian Pope, Hal Finkel, Silvio Rizzi, Joe Insley e Suman Bhattacharya, além de Chris Sewell do Laboratório Nacional de Los Alamos (também do DOE).

 

Uma partícula feita apenas de força nuclear forte

EurekAlert
UNIVERSIDADE DE TECNOLOGIA DE VIENA

Uma partícula feita apenas de força nuclear [forte]

Há décadas, osscientistas vêm procurando pelas assim chamadas “glueballs” (“bolas de gluons”). Parece que, enfim, acharam. Uma glueball é uma partícla exótica feita inteiramente de gluons – as partículas “pegajosas” que mantém juntas as partículas nucleares. As glueballs são instáveis e só podem ser detectadas indiretamente, por meio da análise de seu decaimento. No entanto, esse processo de decaimento ainda não é totalmente compreendido.

O Professor Anton Rebhan e Frederic Brünner da TU Wien (Viena, Áustria) empregaram uma nova abordagem teórica para calcular o decaimento de uma glueball. Seus resultados coincidem extremamente bem com dados obtidos em experiências em aceleradores de partículas. Há fortes indícios de que uma ressonância, chamada “f0(1710)”, encontrada em várias experiências, seja de fato a tão procurada glueball. Em pocos meses devem sair novos resultados experimentais.

As Forças também são Partículas

Prótons e nêutrons consistem de partículas ainda mais elementares, chamadas quarks. Esses quarks são ligados pela Força Nuclear Forte. “Na física de partículas, toda força é mediada por um tipo especial de partícula de força e a partícula da forças nuclear forte é o gluon”, explica Anton Rebhan (TU Wien).

Os gluons podem ser encarados como versões mais complexas do fóton. Os fótons sem massa são oss responsáveis pelas interações eletromagnéticas, enquanto que oito tipos diferentes de gluons desempenham um papel similar para a força nuclear forte. No entanto, existe uma importante diferença: os gluons interagem com eles mesmo, enquanto os fótons, não.  Por isso não existem partículas compostas (bound states) de fótons, mas uma partículas composta somente de gluons é, de fato, possível.

Em 1972, pouco depois que a teoria de quarks e gluons foi formulada, os físicos Murray Gell-Mann e Harald Fritsch especularam sobre possíveis partículas compostas somente de gluons (originalmente chamadas de “gluonium”; atualmente chamadas de “glueball”). Várias partículas, encontradas em experiências em aceleradores de partículas, foram consideradas como candidatas viáveis para glueballs, porém nunca houve um consenso científico sobre se esses sinais seriam ou não uma dessas misteriosas partículas feitas inteiramente de partículas de forças. Os sinais detectados poderiam ser, ao invés de uma glueball, uma cominação de quarks e antiquarks. As glueballs são efêmeras demais para serem diretamente detectadas. Se elas existirem, teriam que ser identificadas pelo estudo de seu decaimento.

A candidata f0(1710) decai de modo estranho

“Infelizmente, o padrão de decaimento das glueballs não pode ser calculado com rigor”, lamenta Anton Rebhan. Cálculos com modelos simplificados mostraram que há dois candidatos realísticos para glueballs: os mesons chamados f0(1500) e f0(1710). Por muito tempo, o primeiro foi considerado o candidato mais promissor. O segundo tem uma massa maior, o que concorda mais com as simulações computadorizadas, porém, quando decai, produz muito quarks pesados (os, assim chamados, “quarks estranhos”). Para muitos cientistas de partículas, isto parecia implausível, porque as interações dos gluons não fazem, usualmente, distinção entre quarks mais leves e mais pesados.

Anton Rebhan e seu estudante de PhD, Frederic Brünner, deram um grande passo à frente na solução desse enigma, usando uma abordagem diferente. Existem conexões fundamentais entre as teorias quânticas que descrevem o comportamento das partículas em nosso mundo tridimensional e certos tipos de teorias gravitacionais em espaços com mais dimensões. Isso significa que certas questões de física quântica podem ser respondidas, se usarmos ferramentas da física da gravidade.

“Nossos cálculos mostram que é efetivamente possível que as glueballs decaiam preferencialmente em quarks estranhos”, afirma Anton Rebhan. Surpreendentemente, o padrão de decaimento calculado, em duas partículas mais leves, é extremamente concordante com o padrão de decimento medido para o f0(1710). Além disto, outros decimentos em mais de duas partículas são possíveis. Esses padrões de decaimento também foram calculados.

Novos dados são esperados em breve

Até agora, esses decaimentos alternativos para as glueballs não foram medidos, porém, dentro dos próximos meses, novos dados serão obtidos em duas experências no Grande Colisor de Hardons (Large Hadron Collider = LHC) do CERN (TOTEM e LHCb) e um acelerador em Beijing (BESIII). “Esses resultados serão cruciais para nossa teoria”, diz Anton Rebhan. “Para esses processos multi-partículas, nossa teoria prevê taxas de decaimento muito diferentes dos outros modelos mais simples. Se as medições concordarem com nossos cálculos, isto será um notavel sucesso para nossa abordagem”. Seria um indício definitivo de que o f0(1710) é mesmo uma glueball. E, mais do que isso, será demonstrado que uma gravidade em número superior de dimensões pode ser utilizada para responder a questões da física de partículas – de uma forma que significaria mais um enorme sucesso para a Teoria da Relatividade Geral de Einstein que completa 100 anos no próximo mês.

###

Artigo original: http://journals.aps.org/prl/abstract/10.1103/PhysRevLett.115.131601

Prêmio Nobel de Física 2015: as variações dos neutrinos.

Inside Science News Service

Detector de neutrinos Super-Kamiokande
Crédito da Imagem: cortesia do Observatório Kamioka do Instituto de Pesquisas sobre Raios Cósmicos da Universidade de Tóquio. 
Original (em inglês) publicado em 06/10/2015 
Por: Ben P. Stein, Diretor do ISNS.

(Inside Science) – O Prêmio Nobel de Física de 2015 foi concedido a dois físicos, um japonês e outro canadense, pela descoberta de que as abundantes partículas subatômicas, conhecidas como neutrinos, podem mudar suas identidades, um processo que requer que as pasrtículas – antes tidas como sem massa de repouso, como o fóton – realmente tenham uma massa.

O prêmio foi concedido conjuntamente a Takaaki Kajita da Universidade de Tóquio no Japão e a Arthur B. McDonald da Queen’s University em Kingston, Canadá “pela descoberta da oscilação de neutrinos que demonstra que os neutrinos têm massas”. Os dois agraciados lideraram dois dos principais observatórios subterrâneos em lados opostos do mundo. Kajita fazia parte da colaboração Super-Kamiokande no Japão e McDonald liderava um grupo no Observatório de Neutrinos Sudbury (Sudbury Neutrino Observatory, ou SNO) no Canadá.

“Os neutrinos são um enigma e o Prêmio Nobel de Física deste ano honra um passo fundamental para descobrir a natureza do neutrino”, declarou Olga Botner, membro do Comitê para Física no Nobel e professora de física na Universidade de Uppsala na Suécia.

“Esta foi uma grande premiação”, declarou o físico Michael Turner, diretor do Instituto Kavli de Física Cosmológica da Universidade de Chicago, que observou que este é o quarto Prêmio Nobel atribuído à pesquisa sobre neutrinos,desde 1988 até 2015.

O anúncio de hoje foi “duplamente maravilhoso”, comemorou Gene Beier, professor de física na Universidade da Pennsylvania, também um porta-voz do experimento SNOt. Beier também já trabalhou na experiência Kamiokande II, a predecessora do Super-Kamiokande.

Ambos experimentos deram grandes respostas.

“Os neutrinos são partículas fundamentais”, explicou McDonald pelo telefone, durante o anúncio desta manhã do Nobel na Suécia.

“O neutrino tem uma massa e esta é mais de um milhão de vezes menor que a do elétron”, disse Botner.

“Os neutrinos têm um ‘golpe’ acima de seu peso. Eles contribuem com tanta massa quanto as estrelas”, disse Turner.

Eles são um dos tipos conhecidos mais abundantes no universo, perdendo apenas para os fótons, as partículas de luz. Ainda assim, eles são elusivos e misteriosos. Ainda que, segundo as estimativas, bilhões deles passem através das pessoas a cada segundo, eles “atravessam nosso corpo sem que sintamos ou percebamos”, acrescenta Botner.

Na década de 1930, o físico teórico Wolfgang Pauli propôs inicialmente sua existência para explicar a energia que faltava em um tipo de reação nuclear, conhecida como “decaimento beta“.  Em uma carta datada de 1930, o físico, então com 30 anos, saudava seus colegas como “Caros Senhoras e Senhores Radiativos” (em alemão). Ele depois se desculpou, chamando (segundo relatos) sua proposta de “uma coisa terrível. Eu postulei uma partícula que não pode ser detctada”. O neutrino não irradiaria qualquer forma de luz ou campo eletromagnético. Acreditava-se que o neutrino seria eletricamente neutro – o que o tornaria ainda mais difícil de detectar.

O físico Enrico Fermi deu a essa partícula o nome “neutrino”, ou “coisinha neutra” em italiano. Acreditava-se que eles viajassem perto de ou na própria velocidade da luz.

Os físicos vieram a aceitar a ideia que os neutrinos foram produzidos em abundância no início do universo, em reações nucleares no interior das estrelas e em colisões entre raios cósmicos e a atmosfera. A maioria dos neutrinos passa por dentro da Terra sem serem detectados. Ocasionalmente eles colidem com algo e podem ser detectados.

Foi somente em 1956 que os primeiros sinais de neutrinos foram detectados em reações nucleares em experiências realizadas pelos físicos Frederick Reines e Clyde Cowan nos EUA. Cowan morreu em 1974, mas Reines foi honrado com um Prêmio Nobel (compartilhado) em 1995 pela detecção do neutrino.

No entanto, muito sobre o neutrino permanecia desconhecido.

Nos anos 1960, o físico Ray Davis conduziu experiências estudando os neutrinos vindos do Sol. Na Terra, os pesquisadores detectaram apenas um terço dos neutrinos que se esperava que emanassem do Sol. Será que os cientistas não conheciam com exatidão o Sol, ou estava acontecendo alguma coisa com os neutrinos? Davis compartilhou o Prêmio Nobel de Física em 2002 pela detecção de neutrinos cósmicos, juntamente com o físico jaopnês Masatoshi Koshiba que ajudou a projetar o experimento Kamiokande no Japão para confirmar os resultados de Davis.

Os físicos trabalharam ao longo de décadas para resolver o mistério dos neutrinos que faltavam. De acordo com o [atual] Modelo Padrão da física de partículas, existem três tipos de neutrinos, conhecidos como neutrinos de elétron, neutrinos de muon e neutrinos de tauon que acompanham as partículas com carga conhecidas como elétron, muon e tauon. O Sol produz apenas neutrinos de elétron. Alguns físicos sugeriram que alguns neutrinos de elétron se transformavam nos outros tipos de neutrinos em seu caminho para a Terra.

Mas antes de resolver este problema, os cientistas precisavam construir detectores suficientemente bons. Estes teriam que ser construídos dentro de rocha sólida para bloquear os outros tipos de partículas que abafariam os sinais dos neutrinos .

Em 1996, o detector Super-Kamiokande começou a funcionar no Japão. O Super-K foi construído em uma antiga mina de zinco, debaixo de 1.000 metros de rocha sólida. Contendo 50.000 toneladas de água, o Super-K foi projetado para detectar neutrinos de muon vindos das atmosfera, tanto da atmosfera logo acima, como aqueles que tivessem transpassado todo o globo. Ocasionalmente os neutrinos colidiriam com um elétron ou com um núcleo atômico em uma molécula d’água, e assim geraria uma centelha de luz. Esse poderoso detector subterrâneo só encontrou rastros de 5.000 neutrinos em seus primeiros dois anos de funcionamento.

Anallisando os dados, os pesquisadores descobriram uma diferença entre os neutrinos de muon detectados vindos de logo acima e aqueles que tinham atravessado a Terra. Então concluiram que os neutrinos de muon que atravessavam o globo se transformavam em um tipo diferente de neutrino.

Enquanto isso, o Observatório de Neutrinos Sudbury no Canadá, se empenhava em estudar os neutrinos vindos do Sol. De maneira análoga ao Super-K, ele se localizava em uma mina de níquel. No entanto ele ficava ainda mais enterrado, debaixo de 2.000 metros de rocha. Ele detectou ainda menos neutrinos vindos do Sol – cerca de três por dia em seus primeiros dois anos.

Seu tanque era preenchido com 1.000 toneladas de água pesada. Uma molécula d’água comum contém dois átomos de hidrogênio e um átomo de oxigênio. Na água pesada os hidrogênios são substituídos pelo seu primo mais pesado, o deutério que tem um nêutron extra. Vários tipos de colisões podem ocorrer na água pesada, onde os neutrinos de elétron produzem reações diferentes dos outros tipos de neutrino, o que permitia aos pesquisadores distinguí-los. Eles descobriram os dois terços dos neutrinos que passaram despercebidos nas experiências anteriores e também descobriram indícios que alguns neutrinos de elétron estavam se transformando nos outros tipos.

“Sim, foi mesmo um momento ‘eureka’. Nós conseguimos ver que os neutrinos pareciam estar se transformando de um tipo para outro”, disse McDonald hoje, durante o anúncio do Nobel.

O físico Peter Wittich, atualmente na Universidade Cornell, escreveu sua tese de Ph.D. sobre os resultados do SNO, como relata Beier, porém teve que aguardar até que os pesquisadores verificassem tudo para eliminar possíveis fontes de erro em seu experimento. Ele escondeu sua tese do público durante um ano enquanto o SNO confirmava os resultados.

O que o público pode não perceber é que essa é “a parte dura de qualquer experiência”, diz Beier, sobre a eliminação das fontes de erros. “Obter uma resposta é mais fácil do que se assegurar que ela está correta”, acrescenta ele.

Se os neutrinos estavam se transformando, como se confirmou posteriormente, isto tinha enormes implicações. Os físicos não sabiam se os neutrinos tinhas massa nula, como os fótons, ou tinham uma pequena massa. A teoria Padrão sugeria que eles não tinham qualquer massa.  Turner observa: “Segundo o [então] Modelo Padrão, eles deveriam ter massa nula”. Entretanto, se os neutrinos estavam mudando de tipo do jeito que os cientistas estavam constatando, eles teriam que ter massa…

Isto “deu os indícios de uma física além do [então] Modelo Padrão”, reconta Turner, e mostrava “que ainda havia algo mais a compreender sobre partículas e forças”.

Então os neutrinos podiam ter a chave para a expansão de nossa compreensão da matéria. Como os físicos sabem que eles têm massa, ao contrário do que previa o [então vigente] Modelo Padrão de física de partículas?

A física quântica sugere que qualquer objeto, tal como um elétron, pode agir tanto como uma partícula sólida, quanto como uma onda. Neutrinos também. Vindos do Sol, os neutrinos podem agir como ondas e possuir características de todos os três tipos de neutrinos. Quando são detectados em um experimento, eles são registrados como partículas e têm que assumir a identidade de um dos três tipos. As quantidades relativas dos três tipos de neutrinos que são detectados, depende das diferenças de massas entre os três tipos. O fato dos neutrinos poderem ir de um tipo para o outro e serem registrados em quantidades diferentes, sugere que eles têm massas ligeiramente diferentes.

Desde então, segundo Beier, outros importantes experimentos sobre neutrino vêm sendo feitos. O KamLAND começou um pouco depois. Este confirmou que o SNO estava detectando oscilações de neutrinos.

“Nós ficamos muito satisfeitos em termos sido capoazes de adicionar ao conhecimento mundial em um nível muito fundamental”, declarou hoje McDonald durante o anúncio do Nobel.

A descoberta das oscilações dos neutrinos levanta um pouco mais o véu que encobre o misterioso neutrino e, ao mesmo tempo, abre todo um novo campo de questões ainda sem resposta.


Ben P. Stein, diretor do Inside Science, vem cobrindo a física como escritor de ciências e deitor desde 1991. Seu Twitter é @bensteinscience.

Existe água líquida em Marte!… (e dai?…)

Animação que ilustra um sobrevoo das encostas da Cratera Hale, um dos lugares onde os rastros que parecem indicar a presença de água líquida em Marte, foram observados

A NASA anunciou hoje, com grande estardalhaço, ter encontrado fortes indícios da ocorrência de água no estado líquido no nosso vizinho de Sistema Solar, Marte. A imprensa, convocada desde a última sexta feira para uma coletiva onde se prometia algum tipo de “solução para um velho mistério sobre Marte”, já publicou com fanfarras esta notícia. Então, o que realmente podemos tirar de conclusões sobre a bombástica “descoberta” da NASA?

A primeira coisa a considerar é que os exobiólogos vêm falando, há tempos, sobre a tal “Zona Cachinhos Dourados” (“Goldylocks Zone”) – “não muito quente, nem muito frio” – uma faixa de distância entre um planeta e sua estrela-mãe que permitiria a existência de água em estado líquido e, por consequência, de vida (tal como a existente na Terra).

Entretanto, aqui mesmo na Terra, já foram encontrados organismos vivos em ambientes que, se pensava, eram totalmente hostís e inviáveis para a vida. Tais organismos foram chamados de extremófilos. Um dos tipos mais sofisticados de extremófilo é o bastante popular urso d’água, capazes de resistir à exposição prolongada ao espaço exterior em estado de hibernação e “ressuscitarem”. Isso me sugere que a tal “Zona Cachinhos Dourados” deveria ser um pouco extendida, mas… vá lá!…

Um urso d’água seria perfeitamente capaz de sobreviver nas condições que a NASA sugere que existem em Marte (e eu – que sou fã incondicional de Fred Hoyle – adoraria que as sondas terrestres encontrassem alguns ursos d’água em Marte, mas… deixa pra lá!…)

O que, efetivamente, a NASA observou? Do press-release linkado acima, extraímos o seguinte trecho;

Usando um espectrômetro de imageamento no Mars Reconnaissance Orbiter (MRO), os pesquisadores detectaram as assinaturas de minerais hidratados nas encostas onde se vê rastros misteriosos no Planeta Vermelho. Esses rastros mais escuros parecem brotar e sumir ao longo do tempo. Eles ficam mais escuros e parecem escorrer pelas íngremes encostas durante as estações quentes e então esmaecerem durante as estações mais frias. Eles aparecem em diversos lugares em Marte quando as temperaturas sobem acimade -23°C e desaparecem em temperaturas mais baixas.

Esses rastros de sais hidratados foram identificados como percloratos (uma mistura de perclorato de magnésio, clorato de magnésio e perclorato de sódio, para ser mais exato). E alguns percloratos são conhecidos como anti-congelantes, mantendo a solução deles em estado líquido em temperaturas da ordem de -70°C. Na Terra, são frequentemente encontrados em desertos (onde deixam rastros muito parecidos nas encostas). Ah!… Sim… E – a título de bonus – os percloratos são usados para fazer combustível de foguetes.

Então – a menos que ocorra algum tipo de reação química desconhecido na Terra – é perfeitamente possível que uma salmoura escorra pelas encostas e até que algum tipo de extremófilo viva nelas (e hiberne, tal como um urso d’água, até a próxima estação “quente”).

Mas parece que os homenzinhos verdes não andam por lá…

CAST explora o lado negro do universo

Original em inglês por Corinne Pralavorio – 18 Set 2015. Última atualização em 21 Set 2015.

Vídeo em timelapse do CAST seguindo o Sol pela manhã e à tarde (Vídeo: Madalin-Mihai Rosu/CERN)

Pelos próximos 10 dias o Telescópio de Áxions Solares do CERN (CERN’s Axion Solar Telescope  – CAST) receberá os raios do Sol. O curso do Sol só fica visível da janela da instalação do CAST duas vezes por ano, em março e setembro. Os cientistas vão se aproveitar desses poucos dias para melhorar o alinhamento do detector com o Sol até um décimo de um radiano.

No período fora desse alinhamento, o CAST segue o Sol, mas não consegue vê-lo. O experimento com astropartículas procura por áxions solares, partículas hipotéticas que, se acredita, interagem de modo tão fraco com a matéria comum que passam livremente pelas paredes. É para detectar essas partículas elusivas que o detector do CAST segue o movimento do Sol por uma hora e meia no nascente e outras hora e meia durante o poente.

Os áxions foram propostos como solução para solucionar uma discrepância entre a teoria do infinitamente pequeno e o que é realmente observado. Eles foram batizados com uma marca de sabão em pó porque sua existência pode permitir a “limpeza” da teoria. Se eles existirem, os áxions podem também ser bons candidatos para a vaga de matéria escura do universo.. Acredita-se que a matéria escura represente 80% da matéria do universo, porém sua verdadeira natureza ainda é desconhecida.

Depois de 12 anos de pesquisa, o CAST (ainda) não detectou áxions solares, mas já estabeleceu os limites mais restritivos para sua força de interação. Por conta disso, a experiência se tornou a referência global sobre o assunto.

 Pesquisadores e membros da colaboração CAST instalam seus equipamentos para alinhar o telescópio com a posição do Sol. (Imagem: Sophia Bennett/CERN)

Ao longo de dois anos, a colaboração que envolve cerca de 70 pesquisadores de 20 e tantos institutos, também procurou por outro tipo de partícula hipotética: camaleões. Estas foram propostas para soluconar o problema da energia escura. A energia escura que, como seu nome sugere, permanece misteriosa e indetectável, e tida como representante de 70% de toda a energia do universo e como responsável pela expansão observada no cosmos. Teorias propõem que essa energia escura seja uma quinta força fundamental e que as partículas camaleão podem comprovar a existência dessa força. Elas foram batizadas com o nome do réptil porque, se acredita, elas podem interagir de formas diferentes segundo a densidade do material com quem interagem.

Se as camaleões existirem, elas poderiam, tal como os áxions, ser também produzidas pelo Sol e detectadas pelo CAST. A colaboração acaba de instalar dois novos detectores nas extremidades na ponta do magneto. E também está se preparando para instalar um sensor inovativo com uma membrana ultra fina, capaz de detectar um deslocamento da ordem de 10-15 metros – o tamanho de um núcleo atômico!

Madeira e carvão são bons modelos em escala para o estudo de terremotos

Photobucket

Traduzido de: Wood And Charcoal Cut Earthquake Research Down To Size

Crédito da Imagem: Zyan via flickr | http://bit.ly/1Jng6al
Informações sobre direitos: http://bit.ly/NL51dk
Produtos de madeira podem se comportar como mini-terremotos.
Original publicado pelo ISNS em 17/07/2015
AutorBy: Michael Greshko, Contribuidor do ISNS.

(Inside Science) — As mesmas regras que governam o rangido de um piso de tábuas corridas ou os estalos de uma pilha de carvão seco, podem ser aquelas que governam as fraturas da crosta terrestre durante um terremoto. Dois estudos recentes, publicados em Physical Review Letters descobriram que todos esses eventos de estresse partilham os mesmos padrões matemáticos.

As descobertas podem ajudar a modelagem de terremotos e, talvez, permitir que pesquisadores no futuro possam replicar o “big one” em um computador pessoal.

Há muito tempo os sismologistas sabem que as relações entre os tamanhos e as frequências dos terremotos podem ser descritas pela matemática. Entretanto, mesmo após décadas de estudos, eles não são capazes de descrever quais processos físicos estão subjacentes a essas tendências.

Experimentos em escala reduzida demonstraram que os terremotos não podem ser inteiramente explicados pela fricção de rochas individuais. Comprima e faça romper uma rocha, como se ela estivesse a doze quilômetros de profundidade durante um terremoto e ela vai reagir de maneira extremamente violenta – tão violenta que, se a escala for ampliada para a de um terremoto, ela iria “literalmente arrancar sua cabeça enfiando suas pernas nela”, disse Thomas Heaton, um sismologista do Instituto de Tecnologia da Califórnia em Passadena. Algo torna os terremotos mais “suaves” do que a soma de suas partes – um persistente “paradoxo de estresse” que vem assolando a sismologia pelos últimos quarenta anos.

Para ajudar a responder essas questões irritantes, os cientistas têm procurado por sistemas de escala reduzida que possam imitar de maneira realística as revoluções intestinas da crosta terrestre em laboratóio. A ideia geral é que estresse é estresse e todos os materiais têm alguma maneira de se deformar para compensá-lo – o que inclui o carvão, como Haroldo Ribeiro¹, um físico da Universidade Estadual de Maringá, PR, Brasil, descobriu em seu estudo, publicado em 7 de julho.

Por incrível que pareça, tudo começou com um churrasco. Ribeiro percebeu que a prática comum de regar os tocos de carvão com álcool dava ao carvão uma carga elástica. O líquido evapora em taxas diferentes dentro e fora dos carvões, fazendo com que as pressões e estresses se acumulassem. À medida em que os carvões secavam, produziamm ruídos audíveis e Ribeiro começou a gravar essas “emissões acústicas” com um microfone.

Os padrões matemáticos que ele encontrou em suas gravações, reproduziam os padrões que haviam sido descobertos em terremotos. Em 1894, Fusakichi Omori, um pesquisador da Universidade Imperal de Tóquio, mostrou que o número de réplicas – os tremores que se seguem a um terremoto, às vezes mais suaves, outras menos – decaem de maneira previsível após o primeiro e maior tremor. Se ocorrerem 120 réplicas no primeiro dia após o terremoto, então haverá cerca de 60 no segundo dia e 40 no terceiro. Os “cracks” do carvão eram consistentes com a lei de Omon.

Separadamente, a frequência relativa entre os pipocos maiores e menores do carvão seguiam um padrão ordenado consistente com outro padrão de terremoto descoberto nos anos 1950 por Beno Gutenberg e Charles Francis Richter, sismologistas do Instituto de Tecnologia da Calfórnia. A lei de Gutenberg-Richter diz que terremotos 10 vezes mais poderosos do que um dado terremoto, ocorrem 10  vezes menos frequentemente.

E quando os “cracks” no carvão eram suficientemente grandes, suas maiores réplicas ficaram em niveis de energia cerca de 16 vezes mais fracos do que os iniciais. Exatamente como uma réplica de um terremoto real, tal como descoberto pelo sismologista sueco Markus Båth também nos anos 1950.

“A Terra não é tão diferente de um toco de carvão nesse particular”, diz Ribeiro. “Há a tensão, há os ‘cracks’ – de forma que é algo de se esperar”.

A 13 mil quilômetros de distância, perto de Helsinki, Finlândia, o físico Mikko Alava da Universdade de Helsinki e sua equipe de pesquisa trabalhavam em um problema semelhante. Como a madeira dobra e se quebra quando é comprimida? Eles examinaram os sons produzidos pela madeira quando colocada sob estresse.

“É um fatro conheicdo que a madeira estala quando se anda sobre um piso de tábuas ou se senta em uma cadeira”, diz Alava, “mas sempre ficou a questão: o que pode realmente afirmar no fim das contas?”

A equipe de Alava comprimiu blocos de pinho em tornos. Um microfone gravou cada gemido e estalo dos blocos, enquanto câmeras registravam sinais de estresse em suas superfícies. Embora a madeira parecesse se dobrar suavemente, as medições revelaram que ela na verdade reagia ao estresse em espasmos puntuais e intensos, tal como ocorre em avalanches e terremotos. Os “madeiremotos”, da mesma forma que os estalos dos carvões de Ribeiro, também seguiam as leis de Gutenberg-Richter e de Omori. A Physical Review Letters publicará o estudo de Alava em 20 de julho.

O fato de que materiais tão diferentes como o quebradiço carvão e a flexível madeira compartilhem reações similares ao estresse, segundo o físico da Univesidade de Cornell, James Sethna, nos diz que não devemos nos preocupar com “o que acontece ao nível das células da madeira ou ao nível de pedregulhos na falha sísmica”. Ao inves disso, deveríamos nos preocupar mais com o comportamento desses materiais em larga escala, por exemplo como eles, como um todo, lidam com os estresses na ponta de uma rachadura. O que faz com que uma pequena rachadura se torne uma rachadura de tamanho médio? E como rachaduras médias se transformam em grandes rachaduras?

Ribiero e Alava disseram estar planejando futuros estudos sobre a física universal das rachaduras, o que pode nos ajudar a compreender com perturbar uma área propensa a tremores de terra – quem sabe bombeando água em uma zona de fratura – e os impactos que isso pode ter na atividade sísmica. No entanto predizer exatamente quando e onde vai acontecer um grande terremoto vai continuar sendo cabulosamente difícil. É a mesma coisa que saber quantos gols o artilheiro do campeonato já fez em cada partida e predizer quando ele fará o próximo…


Michael Greshko é um escritor de ciências de Washington, D.C. que já escreveu para NOVA Next, the National Academies e para o NYTimes.com, entre outros. Seu Tweeter é @michaelgreshko.


Nota do Traduor:
1 – O nome correto é Haroldo Ribeiro e não “Ribiero” como grafado no original em inglês. Para sanar dúvidas, siga o link para o estudo.

Uma ruga no tempo divide o mundo quântico da realidade cotidiana

Photobucket

Quarta feira, 17 de junho de 2015
INSIDE SCIENCE NEWS SERVICE
Crédito da Imagem: Alan Cleaver via flickr | http://bit.ly/1G3bRzX
Informação sobre direitos autorais: http://bit.ly/NL51dk

A gravidade estica o tempo e limita os efeitos quânticos em escalas maiores.

Original (em inglês) por: Charles Q. Choi, Contribuidor

(Inside Science) — O mundo se torna um lugar nebuloso e surreal em seus níveis mais elementares, de acordo com a física quântica. Tem sido um mistério o motivo pelo qual os estranhos comportamentos quânticos não são observados nas escalas maiores do cotidiano. Agora pequisadores acreditam que o modo como a Terra distorce o tempo pode explicar essa divisão.

Uma das consequências desconcertantes da física quântica é que átomos e partículas subatômicas podem realmente existir em estados conhecidos como “superposições”, o que, por exemplo, significa que elas podem literalmente estar em dois ou mais lugares ao mesmo tempo, até que sejam “observadas” — ou seja, até que interajam com partículas em seu entorno de alguma forma. Este conceito é frequentemente ilustrado com uma analogia chamada de “Gato de Schrödinger“, no qual um gato está tanto vivo quanto morto, até que se verifique.

As superposições são extremamente frágeis. Uma vez que elas sejam perturbadas de alguma maneira, elas colapsam ou “perdem a coerência” para um único dos estados possíveis. Sendo assim, elas frequentemente envolvem apenas um máximo de umas poucas partículas — quanto maior for um objeto em estados superpostos, mais difícil será mantê-lo sem perturbações. No entanto, em qual escala termina o reino da física quântica e começa o da física clássica, e, mais ainda, por que existe esta fronteira, ainda é um mistério.

Agora pesquisadores sugerem que a teoria de espaço-tempo de Einstein pode ajudar essa mudança de física quântica para clássica, Os cientistas detalharam suas descobertas na edição online de 15 de junho da Nature Physics.

Há um século, a Teoria da Relatividade de Einstein explicou que a graviade decorre da curvatura do espaço-tempo provocada pela massa. Se visualizarmos várias bolas sobre uma folha de borracha, quanto mais massiva for uma bola, mais ela afunda a borracha e puxa as outras bolas para perto.

Uma consequência curiosa da Teoria da Relatividade é a dilatação do tempo, ou seja: o tempo passa mais devagar quanto mais próximo estivermos de um objeto massivo. Embora esse efeito na Terra seja pequeno, ainda é mensurável. “Se você vive no andar de cima de uma casa de dois andares, você vai envelhecer mais rápido que seu vizinho do térreo em cerca de 10 nanosegundos a cada ano”, diz o físico quântico Igor Pikovski do Centro de Astrofísica Harvard-Smithsonian. “Esse minúsculo efeito foi realmente confirmado em várias experiências com relógios muito precisos”.

Pikovski e seus colegas calcularam que, uma vez que os pequenos blocos de construção que compõem objetos maiores – tais como moléculas e, eventualmente, micróbios e partículas de poeira – se agrupem para formar tais objetos maiores, a dilatação do tempo experimentada no campor gravitacional da superfície da Terra pode suprimir as superposições. “Foi muito entusiasmante descobrir que a dilatação do tempo de Einstein pode ter influência”, declarou Pikovski.

A energia de um objeto o faz vibrar. De acordo com as leis da física quântica, quando um objeto está em superposição, todas as partes dele vibram em sincronia. No entando, a dilatação do tempo fará com que partes deste objeto que estejam em altitudes ligeiramente maiores, vibrem em frequências diferentes daqueles em menor altitude, da mesma forma como seu vizinho do andar de baixo vai envelhecer mais devagar que você. Quanto maior for a diferença de altutude entre as partes, maior será a defasagem. Para qualquer objeto suficientemente grande, essa defasagem será capaz de romper todas as superposições.

“Acho encantador ver novas ideias sobre a influência da gravidade em objetos quânticos” declarou o físico experimentar Holger Müller da Universidade da Califórnia em Berkeley, que não participou da pesquisa.

Para provar que este efeito ocorre, os cientistas precisam criar grandes objetos superpostos nos quais tenham suprimido todas as outras possíveis fontes de decoerência, tais como calor. Se a dilatação do tempo pode fazr colapsar as superposições, o limite de tamanho de um objeto superposto na Terra deve ser de cerca de um milímetro.

Müller declarou que a criação de um objeto superposto tão grande é pouqíssimo provável, uma vez que existem várias fontes potenciais para a decoerência, além da dilatação do tempo.

Pikovski foi mais otimístico: “Em princípio, deve ser possível superar essas limitações”, argumentou ele. “É apenas uma questão de tecnologia”. Ele sublinhou o fato de que, graças aos avanços tencológicos na criação de objetos em superposiçãos, os cientistas agora podem criar superposições em objetos do tamanho de milhares de átomos.

Tais descobertas sugerem que, fora do campo gravitacional da Terra, os cientistas sejam capazes de encontrar supeposições em objetos até maiores do que um milímetor, “Até agora, não encontramos nenhuma boa razão para crer que a teoria quântica seja quebrada”, afirma Pikovski.


Charles Q. Choi é um escritor de ciências freelance da cidade de Nova York que já escreveu artigos para The New York Times, Scientific American, Wired, Science, Nature e várias outras publicações. Ele tuíta em @cqchoi.


Nota do Tradutor

Estou “vendendo o peixe pelo preço que comprei”. Em outras palavras, por mais fascinante que a “explicação” proposta seja, eu vejo com muita reserva um efeito de dilatação temporal relativística na escala quântica, já que até o efeito da atração gravitacional é imperceptível nessa escala.

Em busca da matéria escura

Dark Energy Survey cria um guia detalhado para encontrar a matéria escura 

A análise dos dados ajudará os cientistas a compreender o papel da matéria escura na formação das galáxias

DOE/FERMI NATIONAL ACCELERATOR LABORATORY

IMAGE
IMAGEM: Este é o primeiro mapa do Dark Energy Survey que detalha a distribuição da matéria escura ao longo de uma grande área dos céus. As cores representam as densidades projetadas: vermelho e amarelo, as de maior densidade. O mapa de matéria escura reflete o quadro atual de distribuição de massas no universo, onde grandes filamentos de matéria se alinham com galáxias e aglomerados de galáxias. Os aglomerados de galáxias são representados pelas manchas cinzentas no mapa – manchas maiores representam aglomerados maiores. Este mapa cobre 3% da área dos céus que será eventualmente pesquisada pelo DES em sua missão de cinco anos.

CRÉDITO: DARK ENERGY SURVEY

 

Os cientistas do Dark Energy Survey divulgaram o primeiro de uma série de mapas da matéria escura no cosmos. Esses mapas, criados com uma das câmeras digitais mais poderosas do mundo, são os maiores mapas contínuos com este nível de detalhe e ajudarão nossa compreensão do papel da matéria escura na formação das galáxias. A análise da granulação da matéria escura nos mapas também permitirá aos cientistas exploraram a natureza da msiteriosa energia escura que se acredita estar causando a aceleração da expansão do universo.

Os novos mapas foram divulgados hoje na reunião de abril da American Physical Society em Baltimore, Maryland. Eles foram criados a partir dos dados obtidos pela Câmera de Energia Escura (Dark Energy Camera), um dispositivo de imageamento de  570 megapixels que é o principal instrumento do Dark Energy Survey (DES).

A matéria escura, a misteriosa substância que responde por cerca de um quatro do universo, é invisível até para os mais sensíveis instrumentos astronômicos porque não emite ou absorve luz. Mas seus efeitos podem ser vistos através do estudo de um fenômeno chamado de lente gravitacional – a distorção que ocorre quando a gravidade da matéria escura desvia a luz em torno de galáxias distantes. A compreensão do papel da matéria escura é parte do programa de pesquisa para quantificar o papel da energia escura, o objetivo principal deste levantamento.

A presente análise foi liderada por Vinu Vikram do Argonne National Laboratory (então na Universidade de Pennsylvania) e Chihway Chang do ETH Zurich. Vikram, Chang e seus colaboradores na Penn, no ETH Zurich, na Universidade de Portsmouth, na Universidade de Manchester e outras instituições associadas ao DES, trabalharam por mais de um ano para validar os mapas das lentes gravitacionais.

“Nós medimos as distorções quase imperceptíveis nas aparências de cerca de 2 milhões de galáxias para construir esses novos mapas”, declarou Vikram. “Eles são um testemunho, não só da sensibilidade da Câmera de Energia Escura, como também do rigoroso trabalho de nossa equipe de análise de lentes gravitacionais para compreender sua sensibilidade tão bem que fomos capazes de obter resultados de tamanha precisão”.

A câmera foi construída e testada no Fermi National Accelerator Laboratory, do Departamento de Energia do governo dos EUA, e montada no telescópio de 4 metros Victor M. Blanco no Observatório Internacional de Cerro Tololo no Chile. Os dados foram processados no Centro Nacional de Aplicações de Supercomputação na Universidade de Illinois em Urbana-Champaign.

O mapa da matéria escura divulgado hoje resulta das primeiras observações do DES e cobre 3% da área dos céus que será coberta nos cinco anos da missão do DES.  O levantamento acaba de completar seu segundo ano. Na medida em que os cientistas expandirem suas buscas, serão capazes de testar as correntes teorias cosmológicas, comparando as quantidades de matéria visível e escura.

As teorias correntes sugerem que, uma vez que existe muito mais  matéria escura do que matéria visível no universo, as galáxias devem se formar onde estejam presentes grandes concentrações de matéria escura (e, portanto, maior atração gravitacional). Até agora, as análises do DES sustentam esta hipótese: os mapas mostram grandes filamentos de matéria ao longo dos quais as galáxias e aglomerados de galáxias de matéria visível existem, assim como grandes vazios onde existem poucas galáxias. Os estudos subsequentes de alguns filamentos e vazios, assim como o enorme volume de dados coletados pelo levantamento, revelarão mais acerca desta interação entre massa e luz.

“Nossa análise, até agora, é coerente com o quadro previsto para nosso universo”, diz Chang. “Ao darmos um zoom para dentro dos mapas, pudemos medir como a matéria escura envolve galáxias de diferentes tipos e como evoluem em conjunto ao longo do tempo cósmico. Estamos ansiosos para usar os novos dados que estão chegando para podermos realizar testes mais precisos ainda dos modelos teóricos”

###

Sobre ScienceBlogs Brasil | Anuncie com ScienceBlogs Brasil | Política de Privacidade | Termos e Condições | Contato


ScienceBlogs por Seed Media Group. Group. ©2006-2011 Seed Media Group LLC. Todos direitos garantidos.


Páginas da Seed Media Group Seed Media Group | ScienceBlogs | SEEDMAGAZINE.COM