CAST explora o lado negro do universo

Original em inglês por Corinne Pralavorio – 18 Set 2015. Última atualização em 21 Set 2015.

Vídeo em timelapse do CAST seguindo o Sol pela manhã e à tarde (Vídeo: Madalin-Mihai Rosu/CERN)

Pelos próximos 10 dias o Telescópio de Áxions Solares do CERN (CERN’s Axion Solar Telescope  – CAST) receberá os raios do Sol. O curso do Sol só fica visível da janela da instalação do CAST duas vezes por ano, em março e setembro. Os cientistas vão se aproveitar desses poucos dias para melhorar o alinhamento do detector com o Sol até um décimo de um radiano.

No período fora desse alinhamento, o CAST segue o Sol, mas não consegue vê-lo. O experimento com astropartículas procura por áxions solares, partículas hipotéticas que, se acredita, interagem de modo tão fraco com a matéria comum que passam livremente pelas paredes. É para detectar essas partículas elusivas que o detector do CAST segue o movimento do Sol por uma hora e meia no nascente e outras hora e meia durante o poente.

Os áxions foram propostos como solução para solucionar uma discrepância entre a teoria do infinitamente pequeno e o que é realmente observado. Eles foram batizados com uma marca de sabão em pó porque sua existência pode permitir a “limpeza” da teoria. Se eles existirem, os áxions podem também ser bons candidatos para a vaga de matéria escura do universo.. Acredita-se que a matéria escura represente 80% da matéria do universo, porém sua verdadeira natureza ainda é desconhecida.

Depois de 12 anos de pesquisa, o CAST (ainda) não detectou áxions solares, mas já estabeleceu os limites mais restritivos para sua força de interação. Por conta disso, a experiência se tornou a referência global sobre o assunto.

 Pesquisadores e membros da colaboração CAST instalam seus equipamentos para alinhar o telescópio com a posição do Sol. (Imagem: Sophia Bennett/CERN)

Ao longo de dois anos, a colaboração que envolve cerca de 70 pesquisadores de 20 e tantos institutos, também procurou por outro tipo de partícula hipotética: camaleões. Estas foram propostas para soluconar o problema da energia escura. A energia escura que, como seu nome sugere, permanece misteriosa e indetectável, e tida como representante de 70% de toda a energia do universo e como responsável pela expansão observada no cosmos. Teorias propõem que essa energia escura seja uma quinta força fundamental e que as partículas camaleão podem comprovar a existência dessa força. Elas foram batizadas com o nome do réptil porque, se acredita, elas podem interagir de formas diferentes segundo a densidade do material com quem interagem.

Se as camaleões existirem, elas poderiam, tal como os áxions, ser também produzidas pelo Sol e detectadas pelo CAST. A colaboração acaba de instalar dois novos detectores nas extremidades na ponta do magneto. E também está se preparando para instalar um sensor inovativo com uma membrana ultra fina, capaz de detectar um deslocamento da ordem de 10-15 metros – o tamanho de um núcleo atômico!

Madeira e carvão são bons modelos em escala para o estudo de terremotos

Photobucket

Traduzido de: Wood And Charcoal Cut Earthquake Research Down To Size

Crédito da Imagem: Zyan via flickr | http://bit.ly/1Jng6al
Informações sobre direitos: http://bit.ly/NL51dk
Produtos de madeira podem se comportar como mini-terremotos.
Original publicado pelo ISNS em 17/07/2015
AutorBy: Michael Greshko, Contribuidor do ISNS.

(Inside Science) — As mesmas regras que governam o rangido de um piso de tábuas corridas ou os estalos de uma pilha de carvão seco, podem ser aquelas que governam as fraturas da crosta terrestre durante um terremoto. Dois estudos recentes, publicados em Physical Review Letters descobriram que todos esses eventos de estresse partilham os mesmos padrões matemáticos.

As descobertas podem ajudar a modelagem de terremotos e, talvez, permitir que pesquisadores no futuro possam replicar o “big one” em um computador pessoal.

Há muito tempo os sismologistas sabem que as relações entre os tamanhos e as frequências dos terremotos podem ser descritas pela matemática. Entretanto, mesmo após décadas de estudos, eles não são capazes de descrever quais processos físicos estão subjacentes a essas tendências.

Experimentos em escala reduzida demonstraram que os terremotos não podem ser inteiramente explicados pela fricção de rochas individuais. Comprima e faça romper uma rocha, como se ela estivesse a doze quilômetros de profundidade durante um terremoto e ela vai reagir de maneira extremamente violenta – tão violenta que, se a escala for ampliada para a de um terremoto, ela iria “literalmente arrancar sua cabeça enfiando suas pernas nela”, disse Thomas Heaton, um sismologista do Instituto de Tecnologia da Califórnia em Passadena. Algo torna os terremotos mais “suaves” do que a soma de suas partes – um persistente “paradoxo de estresse” que vem assolando a sismologia pelos últimos quarenta anos.

Para ajudar a responder essas questões irritantes, os cientistas têm procurado por sistemas de escala reduzida que possam imitar de maneira realística as revoluções intestinas da crosta terrestre em laboratóio. A ideia geral é que estresse é estresse e todos os materiais têm alguma maneira de se deformar para compensá-lo – o que inclui o carvão, como Haroldo Ribeiro¹, um físico da Universidade Estadual de Maringá, PR, Brasil, descobriu em seu estudo, publicado em 7 de julho.

Por incrível que pareça, tudo começou com um churrasco. Ribeiro percebeu que a prática comum de regar os tocos de carvão com álcool dava ao carvão uma carga elástica. O líquido evapora em taxas diferentes dentro e fora dos carvões, fazendo com que as pressões e estresses se acumulassem. À medida em que os carvões secavam, produziamm ruídos audíveis e Ribeiro começou a gravar essas “emissões acústicas” com um microfone.

Os padrões matemáticos que ele encontrou em suas gravações, reproduziam os padrões que haviam sido descobertos em terremotos. Em 1894, Fusakichi Omori, um pesquisador da Universidade Imperal de Tóquio, mostrou que o número de réplicas – os tremores que se seguem a um terremoto, às vezes mais suaves, outras menos – decaem de maneira previsível após o primeiro e maior tremor. Se ocorrerem 120 réplicas no primeiro dia após o terremoto, então haverá cerca de 60 no segundo dia e 40 no terceiro. Os “cracks” do carvão eram consistentes com a lei de Omon.

Separadamente, a frequência relativa entre os pipocos maiores e menores do carvão seguiam um padrão ordenado consistente com outro padrão de terremoto descoberto nos anos 1950 por Beno Gutenberg e Charles Francis Richter, sismologistas do Instituto de Tecnologia da Calfórnia. A lei de Gutenberg-Richter diz que terremotos 10 vezes mais poderosos do que um dado terremoto, ocorrem 10  vezes menos frequentemente.

E quando os “cracks” no carvão eram suficientemente grandes, suas maiores réplicas ficaram em niveis de energia cerca de 16 vezes mais fracos do que os iniciais. Exatamente como uma réplica de um terremoto real, tal como descoberto pelo sismologista sueco Markus Båth também nos anos 1950.

“A Terra não é tão diferente de um toco de carvão nesse particular”, diz Ribeiro. “Há a tensão, há os ‘cracks’ – de forma que é algo de se esperar”.

A 13 mil quilômetros de distância, perto de Helsinki, Finlândia, o físico Mikko Alava da Universdade de Helsinki e sua equipe de pesquisa trabalhavam em um problema semelhante. Como a madeira dobra e se quebra quando é comprimida? Eles examinaram os sons produzidos pela madeira quando colocada sob estresse.

“É um fatro conheicdo que a madeira estala quando se anda sobre um piso de tábuas ou se senta em uma cadeira”, diz Alava, “mas sempre ficou a questão: o que pode realmente afirmar no fim das contas?”

A equipe de Alava comprimiu blocos de pinho em tornos. Um microfone gravou cada gemido e estalo dos blocos, enquanto câmeras registravam sinais de estresse em suas superfícies. Embora a madeira parecesse se dobrar suavemente, as medições revelaram que ela na verdade reagia ao estresse em espasmos puntuais e intensos, tal como ocorre em avalanches e terremotos. Os “madeiremotos”, da mesma forma que os estalos dos carvões de Ribeiro, também seguiam as leis de Gutenberg-Richter e de Omori. A Physical Review Letters publicará o estudo de Alava em 20 de julho.

O fato de que materiais tão diferentes como o quebradiço carvão e a flexível madeira compartilhem reações similares ao estresse, segundo o físico da Univesidade de Cornell, James Sethna, nos diz que não devemos nos preocupar com “o que acontece ao nível das células da madeira ou ao nível de pedregulhos na falha sísmica”. Ao inves disso, deveríamos nos preocupar mais com o comportamento desses materiais em larga escala, por exemplo como eles, como um todo, lidam com os estresses na ponta de uma rachadura. O que faz com que uma pequena rachadura se torne uma rachadura de tamanho médio? E como rachaduras médias se transformam em grandes rachaduras?

Ribiero e Alava disseram estar planejando futuros estudos sobre a física universal das rachaduras, o que pode nos ajudar a compreender com perturbar uma área propensa a tremores de terra – quem sabe bombeando água em uma zona de fratura – e os impactos que isso pode ter na atividade sísmica. No entanto predizer exatamente quando e onde vai acontecer um grande terremoto vai continuar sendo cabulosamente difícil. É a mesma coisa que saber quantos gols o artilheiro do campeonato já fez em cada partida e predizer quando ele fará o próximo…


Michael Greshko é um escritor de ciências de Washington, D.C. que já escreveu para NOVA Next, the National Academies e para o NYTimes.com, entre outros. Seu Tweeter é @michaelgreshko.


Nota do Traduor:
1 – O nome correto é Haroldo Ribeiro e não “Ribiero” como grafado no original em inglês. Para sanar dúvidas, siga o link para o estudo.

Uma ruga no tempo divide o mundo quântico da realidade cotidiana

Photobucket

Quarta feira, 17 de junho de 2015
INSIDE SCIENCE NEWS SERVICE
Crédito da Imagem: Alan Cleaver via flickr | http://bit.ly/1G3bRzX
Informação sobre direitos autorais: http://bit.ly/NL51dk

A gravidade estica o tempo e limita os efeitos quânticos em escalas maiores.

Original (em inglês) por: Charles Q. Choi, Contribuidor

(Inside Science) — O mundo se torna um lugar nebuloso e surreal em seus níveis mais elementares, de acordo com a física quântica. Tem sido um mistério o motivo pelo qual os estranhos comportamentos quânticos não são observados nas escalas maiores do cotidiano. Agora pequisadores acreditam que o modo como a Terra distorce o tempo pode explicar essa divisão.

Uma das consequências desconcertantes da física quântica é que átomos e partículas subatômicas podem realmente existir em estados conhecidos como “superposições”, o que, por exemplo, significa que elas podem literalmente estar em dois ou mais lugares ao mesmo tempo, até que sejam “observadas” — ou seja, até que interajam com partículas em seu entorno de alguma forma. Este conceito é frequentemente ilustrado com uma analogia chamada de “Gato de Schrödinger“, no qual um gato está tanto vivo quanto morto, até que se verifique.

As superposições são extremamente frágeis. Uma vez que elas sejam perturbadas de alguma maneira, elas colapsam ou “perdem a coerência” para um único dos estados possíveis. Sendo assim, elas frequentemente envolvem apenas um máximo de umas poucas partículas — quanto maior for um objeto em estados superpostos, mais difícil será mantê-lo sem perturbações. No entanto, em qual escala termina o reino da física quântica e começa o da física clássica, e, mais ainda, por que existe esta fronteira, ainda é um mistério.

Agora pesquisadores sugerem que a teoria de espaço-tempo de Einstein pode ajudar essa mudança de física quântica para clássica, Os cientistas detalharam suas descobertas na edição online de 15 de junho da Nature Physics.

Há um século, a Teoria da Relatividade de Einstein explicou que a graviade decorre da curvatura do espaço-tempo provocada pela massa. Se visualizarmos várias bolas sobre uma folha de borracha, quanto mais massiva for uma bola, mais ela afunda a borracha e puxa as outras bolas para perto.

Uma consequência curiosa da Teoria da Relatividade é a dilatação do tempo, ou seja: o tempo passa mais devagar quanto mais próximo estivermos de um objeto massivo. Embora esse efeito na Terra seja pequeno, ainda é mensurável. “Se você vive no andar de cima de uma casa de dois andares, você vai envelhecer mais rápido que seu vizinho do térreo em cerca de 10 nanosegundos a cada ano”, diz o físico quântico Igor Pikovski do Centro de Astrofísica Harvard-Smithsonian. “Esse minúsculo efeito foi realmente confirmado em várias experiências com relógios muito precisos”.

Pikovski e seus colegas calcularam que, uma vez que os pequenos blocos de construção que compõem objetos maiores – tais como moléculas e, eventualmente, micróbios e partículas de poeira – se agrupem para formar tais objetos maiores, a dilatação do tempo experimentada no campor gravitacional da superfície da Terra pode suprimir as superposições. “Foi muito entusiasmante descobrir que a dilatação do tempo de Einstein pode ter influência”, declarou Pikovski.

A energia de um objeto o faz vibrar. De acordo com as leis da física quântica, quando um objeto está em superposição, todas as partes dele vibram em sincronia. No entando, a dilatação do tempo fará com que partes deste objeto que estejam em altitudes ligeiramente maiores, vibrem em frequências diferentes daqueles em menor altitude, da mesma forma como seu vizinho do andar de baixo vai envelhecer mais devagar que você. Quanto maior for a diferença de altutude entre as partes, maior será a defasagem. Para qualquer objeto suficientemente grande, essa defasagem será capaz de romper todas as superposições.

“Acho encantador ver novas ideias sobre a influência da gravidade em objetos quânticos” declarou o físico experimentar Holger Müller da Universidade da Califórnia em Berkeley, que não participou da pesquisa.

Para provar que este efeito ocorre, os cientistas precisam criar grandes objetos superpostos nos quais tenham suprimido todas as outras possíveis fontes de decoerência, tais como calor. Se a dilatação do tempo pode fazr colapsar as superposições, o limite de tamanho de um objeto superposto na Terra deve ser de cerca de um milímetro.

Müller declarou que a criação de um objeto superposto tão grande é pouqíssimo provável, uma vez que existem várias fontes potenciais para a decoerência, além da dilatação do tempo.

Pikovski foi mais otimístico: “Em princípio, deve ser possível superar essas limitações”, argumentou ele. “É apenas uma questão de tecnologia”. Ele sublinhou o fato de que, graças aos avanços tencológicos na criação de objetos em superposiçãos, os cientistas agora podem criar superposições em objetos do tamanho de milhares de átomos.

Tais descobertas sugerem que, fora do campo gravitacional da Terra, os cientistas sejam capazes de encontrar supeposições em objetos até maiores do que um milímetor, “Até agora, não encontramos nenhuma boa razão para crer que a teoria quântica seja quebrada”, afirma Pikovski.


Charles Q. Choi é um escritor de ciências freelance da cidade de Nova York que já escreveu artigos para The New York Times, Scientific American, Wired, Science, Nature e várias outras publicações. Ele tuíta em @cqchoi.


Nota do Tradutor

Estou “vendendo o peixe pelo preço que comprei”. Em outras palavras, por mais fascinante que a “explicação” proposta seja, eu vejo com muita reserva um efeito de dilatação temporal relativística na escala quântica, já que até o efeito da atração gravitacional é imperceptível nessa escala.

Não! Você não pode flagrar um fóton se comportando ao mesmo tempo como onda e partícula.

Photobucket
Traduzido de: No, You Cannot Catch An Individual Photon Acting Simultaneously As A Pure Particle And Wave

13 de março de 2015 
Por: Ben P. Stein, Diretor do ISNS
 Crédito da Imagem: Fabrizio Carbone, EPFL

Na semana passada, a Internet se acendeu com manchetes dramáticas vindas do mundo da ciência: “Pela Primeira Vez na Física, a Luz é Capturada (agindo como) Partícula e Onda” = notícia da NBC NEWS: In a Physics First, Light is Captured as Both Particle and Wave, “A Luz é Fotografada Como Onda e Partícula Simultaneamente = notícia da SwissInfo: Light Photographed as a Simultaneous Wave and Particle, e “A Dualidade Onda-Partícula da Luz é Imageada Pela Primeira Vaz” = notícia no Wired: Light’s Wave-Particle Duality Imaged For The First Time, só para mencionar algumas.

Estas manchetes soam revolucionárias, surpreendentes e profundas para qualquer um de nós que tenha um conhecimento no mínimo marginal dos conceitos mencionados. A física quântica sugere que todos os objetos existentes no universo tenham uma natureza dupla. Um fóton, a unidade básica da luz, pode se comportar como uma onda semelhante a uma onda d’água, ou como uma partícula do tipo de uma bola de bilhar, dependendo da situação. Quando um fóton atinge um metal, ele age como uma bola de bilhar, esbarrando e expulsando elétrons do metal. Quando ele passa através de uma fenda estreita, ele se espalha como uma onda d’água.

No entanto, até agora pelo menos, só tínhamos observado objetos se comportando de uma forma ou de outra. Mais ou menos do jeito que jamais vemos o Super-Homem e Clark Kent no mesmo lugar ao mesmo tempo. Porém essas manchetes sugerem que os pesquisadores flagraram a luz no ato de ser, ao mesmo tempo, uma partícula e uma onda. Como e de que modo eles viram isto? Quais as implicações que isto teria sobre a natureza dual da matéria em nosso universo?

Tecnicamente, as manchetes não são incorretas. Porém, para mim e outros, elas implicam em algo mais radical do que aquilo que realmente foi observado. Para não me alongar muito, um fóton individual não pode ser observado se comportando simultaneamente como uma partícula e uma onda. Mas, se você juntar um grupo de fótons diferentes, pode observar alguns agindo como partículas e outros como ondas. Muitos dos relatos não deixam esta circunstância clara.

Os pesquisadores que realizaram a experiência, publicada na Nature Communications, estão na mesma frequência desta assertiva.

“Eu também acredito que um monte de pessoas está interpretando de forma exagerada o significado desses dados”, disse em um email o principal autor (do artigo) Fabrizio Carbone do Instituto Federal de Tecnologia da Suíça (EPFL) em Lausanne. Ele realizou o trabalho junto com colaboradores do EPFL, do Trinity College em Hartford, Connecticut, e do Laboratório Nacional Lawrence Livermore em Berkeley, California.

Os pesquisadores aprisionaram uma onda em um “nano-fio” superfino, cuja espessura é medida em nanômetros, ou seja, bilhonésimos de metro. É uma onda estacionária, tal como a vibração de uma corda de guitarra, com picos e vales que ficam sempre na mesma posição.

Para ser preciso, não é estritamente uma onda de luz, como sugerem as manchetes. Na verdade é um híbrido de uma onda de luz que dança dentro do fio e uma onda eletronagnética que desliza pela superfície do fio, produzida pelas partículas carregadas que se movem ao longo do fio. Elas ficam como que unificadas na extremidade. Este objeto composto é conhecido como um plasmon poláriton de superfície e você pode ler mais sobre ele na Wikipedia (Nota do tradutor: se você souber inglês…).

Para simplificar as coisas, vamos considerá-lo com sendo apenas uma onda de luz. Para efeitos desta discussão, não interessa se é feita de fótons ou de algum objeto híbrido. Ele age como uma onda.

Porém, quando os pesquisadores dispararam elétrons de encontro ao nano-fio, os elétrons algumas vezes foram acelerados de forma específica, indicando que eles haviam absorvido fótons indiviuais do nano-fio. Como pode a luz se comportar, ao mesmo tempo, como ondas e partículas?

A resposta é que essa luz é feita de mutios fótons diferentes. Cada um deles se comportou de forma diferente. Os pesquisadores observaram que alguns fótons agiram como partículas e outros agiram como ondas. O imageamento desses dois tipos (de comportamento) ao mesmo tempo é o que foi feito pela primeira vez em sua experiência.

Nada que vá forçar a reescrever os livros-texto de física, mas ainda assim muito legal! Os pesquisadores testemunharam um comportamento importante em nano-fios, que pode servir da base para futuros dispositivos ópticos e eletrônicos em nano-escala. Além disso, eles puderam contar quantos fótons estavam nas ondas estudadas e como os elétrons interagiram com eles. Porém, quando um elétron absorvia um dos fótons, eles não podiam precisar de onde o fóton tinha vindo dentro da onda.

Carbone mencionou um  artigo de 2011 da Science que, segundo ele, foi o que chegou mais perto de capturar a natureza dual dde um fóton. Pesquisadores, liderados por Aephraim Steinberg da Universidade de Toronto mediram uma propriedade tipo partícula de fótons individuais — sua posição média — sem destruir os padrões de interferência tipo ondas que eles criavam após (a medição). A publicação Physics World declarou essa experiência a  “Descoberta do Ano de 2011” bem merecidamente. No entanto, nem essa experiência conseguiu determinar as posições exatas dos fótons individuais, na medida em que eles progrediam para criar os padrões de interferência típicos de ondas de faixas claras e escuras em um detector.

E qual é a razão fundamental para esta limitação? É algo inerente à mecânica quântica, conhecida como o Princípio da Incerteza de Heisenberg. Seu nome vem do físico do século XX, Werner Heisenberg, e diz que não se póde medir duas variáveis complementares, tais como posição e momento, com total precisão. Na hora em que se mede uma delas, a precisão com que se poderia medir a outra é sacrificada.

Assim, se medirmos as propriedades tipo partícula do fóton, estaremos sacrificando suas propriedades tipo onda. Zere na posição de um fóton com grande precisão e ele não vai poder participar mais tarde da criação de um padrão de interferência tipo onda.

É possível medir fracamente algumas propriedades tipo onda e tipo partícula de um fóton ao mesmo tempo, segundo Carbone, conqueanto que as incertezas combinadas não violem o Princípio de Incerteza..

Mas, ao fim e ao cabo, talvez essa “dualidade onda-partícula” seja uma forma artificial de explicar o mundo quântico, me explicou Steinberg em um email.

“Embora eu frequentemente seja culpável por isso, eu mesmo, penso que é um pouco de confusão induzida pelo cantochão dos físicos em salmodear sobre comportamentos ‘tipo onda’ e ‘tipo partícula'”, escreve ele. “Nós temos uma grande teoria matemática que nos diz o que os fótons… fazem na verdade. E aí então temos a tendência humana de traçar analogias e dizer: ‘hmmm… neste caso parece com o que eu esperaria de uma onda d’água’ e ‘mas neste outro caso se parece com o que eu esperaria de uma bola de bilhar’. Mas os fótons não são ondas d’água, nem bolas de bilhar”, complementa ele.

“Temos que ser sempre muito cuidadosos para definir exatamente qual pergunta temos em mente”, prossegue Steinberg. “Se duas marolas se cruzarem em um lago e eu enfiar a mão em concha na água, tirar uma mancheia d’água e lhe perguntar ‘de qual marola vieram estas moléculas d’água?’, não há uma resposta”.

“E não há resposta porque a pergunta foi mal enunciada, não porque haja qualquer profundo mistério na física das ondas d’água”, sublinha Steinberg.

“No fim, a mecância quãntica continua a mesma. Quando se faz perguntas claras, cuidadosamente escolhidas e experimentalmente verificáveis, não há paradoxos”, de acordo com Steinberg.

“O que isso nos ensina é que ainda não conseguimos pensar corretamente sobre a mecânica quântica — não que haja qualquer problema com a teoria em si ou no modo como a usamos para fazer predições”.


Ben P. Stein, é o diretor do “Inside Science”, e vem cobrindo a física como um divulgador de ciência e editor desde 1991; siga-o no Tweetwe em @bensteinscience.

Uma gota de determinismo para a física quântica (mas, será mesmo?…)

Gotas causando ondulaçõess. Cortesia Shutterstock

Gotas causando ondulações.

Imagem cortesia de Shutterstock

Uma das coisas mais abracadabrantes para nós leigos é a tal “dualidade onda-partícula“. Um raio de um elétron parece estar em todos os lugares (na verdade não é mesmo “em todos os lugares”; apenas “em qualquer lugar de um determinado volume de espaço-tempo) enquanto ninguém está olhando, se comportando como uma onda (descrita por equações que definem o tal volume definido de espaço-tempo).

Mas basta você observar (entenda-se: “fazer uma medição”) o tal elétron e ele se comporta como um corpúsculo com carga elétrica, momento, momento angular e tal e coisa… Os budistas sustentam que “tudo é ilusão e impermanente”, mas isso já levar as coisas para o lado do misticismo. Além do que, experimente por sua mão em um fio “vivo” e desencapado que os elétrons vão mostrar para você que são bem reais e dolorosos.

No entanto, eu aprendi em meu curso secundário que esta tal dualidade onda-partícula foi uma ideia sugerida pelo físico francês Louis de Broglie e mais tarde, lendo um livro do próprio de Broglie sobre o assunto, ele meio que assume a paternidade deste abracadabra. Só que não é exatamente verdade que de Broglie julgasse que elétrons e outros “bixos” fossem mesmo ora onda, ora partícula. Ele, na verdade, propunha que as partículas andavam à deriva sobre as ondas do campo correspondente (o que implicava na existência de “variáveis ocultas”), algo assim como escolhos à deriva sobre as ondas do mar (é sempre bom lembrar que as ondas do mar são algo bidimensional e as ondas dos campos das forças fundamentais são tri(tetra)dimensionais).

Ao fim de muita discussão, prevaleceu o que se chama de “Interpretação de Copenhagen”, formulada por Niels Bohr e Werner Heisenberg que, em suma, diz que uma partícula é apenas uma probabilidade até que interaja com outra, quando passa por um “colapso da função de onda”. Essa interpretação levou a algumas críticas fortes – a mais conhecida é o “Gato de Schrödinger”, onde o gato está vivo e morto ao mesmo tempo, enquanto não se abrir a caixa – mas uma suposta “prova”, encontrada por John von Neumann, da impossibilidade de existirem “variáveis ocultas”, foi alegremente aceita, sem maiores exames (mais de 30 anos depois, descobriram que von Neumann estava errado, mas azeite, azar, azia…).

Em 1952 o Físico David Bohm ressuscitou a teoria das ondas-piloto, mas a comunidade da física não recebeu muito bem suas propostas. Afinal, a Equação de Schrödinger funciona muito bem e a Mecânica proposta por Bohm pressupõe que o comportamento das partículas é influenciado, ao fim e ao cabo, por todo o universo (o que parece misticismo e, com efeito, foi alegremente recebido por diversos místicos).

A famosa “dupla-fenda”

Experiência da dupla fenda. Imagem de Wikimedia Commons. (por Lookang com agradecimentos a Fu-Kwun Hwang e o autor do Easy Java Simulation = Francisco Esquembre).

Uma famosa “prova” da dualidade onda-partícula é a “dupla fenda“. Um feixe de elétrons é disparado contra uma antepara onde há duas fendas que permitem que alguns elétrons passem e, depois, se choquem contra uma tela sensível. Imediatamente se forma um padrão de interferência, como se ondas se reforçassem ou anulassem mutuamente. Mas, quando se cria um dispositivo para identificar a fenda por onde os elétrons passaram, o padrão de interferência desaparece.

Bom… A “pegadinha” é que se trata de um feixe de elétrons, não de um elétron isolado. A ideia de que “o elétron interfere com ele próprio” é “licença poética”. As ondas dos lugares geométricos, definidos pela equação de onda do elétron é que interferem entre si. Quando se identifica a fenda por onde passa cada elétron, na verdade você está interceptando o feixe e, é óbvio, não há mais “onda” alguma; há partículas.

O mesmo tipo de experimento funciona com fótons (e isso vai causar um probleminha para a novidade descrita a seguir).

Uma gota “quântica”

Agora, pesquisadores em Paris realizaram uma série de experiências fazendo vibrar uma superfície banhada com óleo de silício e descobriram que, em uma frequência particular, uma gotícula começa a saltar pela superfície do óleo. E que a trajetória dessa gotícula é guiada pelo contorno ondulado do banho, gerado pelas ondas causadas pela própria gotícula: uma interação entre onda e partícula muito semelhante àquilo proposto por de Broglie e suas ondas-piloto.

Na interpretação de de Broglie – Bohm, cada elétron passa através de uma única fenda, carregada por uma onda-piloto que – ela sim – passa pelas duas fendas ao mesmo tempo. Tal como uma série de escolhos levados a uma praia pelas ondas do mar que tivessem que, antes de chegar à praia, passar por uma barreira com duas fendas. Cada um dos objetos flutuantes passaria por apenas uma das fendas e iriam se distribuir, depois delas, segundo o padrão de interferência dessas ondas.

Os resultados finais são os mesmos: a Mecânica de Bohm é tão capaz de prever onde cada elétron vai passar como a Mecânica Quântica “Tradicional” (ou seja: não é capaz). A distribuição dos efeitos é sempre uma função estatística.

As gotículas também parecem capazes de reproduzir o “Efeito de Túnel“, formarem “Partículas Compostas“, em órbitas mutuamente estáveis, e exibir comportamentos análogos ao spin quântico e à atração eletromagnética. Quando confinadas a “currais” (áreas circulares cercadas), formam anéis concêntricos muito semelhantes às ondas estacionárias geradas por elétrons confinados em “currais quânticos”.

A coincidência das ondas estacionárias é surpreendente, não é mesmo?

Eu adorei a ideia de poder imaginar as partículas subatômicas como verdadeiras partículas, surfando sobre as ondas do espaço-tempo causadas pelos campos fundamentais.

Só que me dei conta que, no caso do fóton, a própria onda é a “partícula”. E lá se foram pelo ralo todas as lindas analogias…


Fonte: Fluid Tests Hint at Concrete Quantum Reality, Quanta Magazine; também publicado na Wired com o título Have We Been Interpreting Quantum Mechanics Wrong This Whole Time?

Experiência ALPHA do CERN mede a carga do anti-hidrogênio

Original em inglês porCian O’Luanaigh em 3 Jun 2014: CERN’s ALPHA experiment measures charge of antihydrogen.

Detalhe da experiência ALPHA: Inserção da Armadilha Penning do ALPHA trap no criostato que contém os magnetos confinadores do anti-hidrogênio (Imagem: Niels Madsen)

Em um artigo publicado hoje na Nature Communications, a experiência ALPHA no Desacelerado Antipróton (Antiproton Decelerator = AD) relata a medição da carga elétrica de átomos de anti-hidrogênio, que revelou ser a mesma compatível com zero até a oitava casa decimal. Embora esse resultado não seja surpresa alguma, uma vez que os átomos de hidrogênio são eletricamente neutros, esta é a primeira vez que a carga de um anti-átomo foi medida com uma precisão tão alta.

“Esta foi a primeira vez que fomos capazes de estudas o anti-hidrogênio com alguma precisão”, relata o porta-voz da ALPHA, Jeffrey Hangst. “Estamos otimistas quanto ao fato de que a técnica de confinamento do ALPHA permitirá vários desses vislumbres no futuro. Aguardamos pelo reinício do programa AD em agosto, de forma poder continuar a estudar o anti-hidrogênio com uma precisão cada vez maior”.

As antipartículas deveriam ser idênticas às partículas de matéria, exceto pelo sinal da carga elétrica. Assim é que o átomo de hidrogênio é composto de um próton com carga +1 e um elétron com carga -1, o átomo de anti-hidrogênio consiste de um antipróton com carga -1 e um posítron com carga +1. Entretanto, também sabemos que matéria e antimatéria não opostos exatos – a natureza parece ter uma preferência de 1 contra 10 bilhões pela matéria sobre a antimatéria, o que torna importante medir as propriedades de matéria e antimatéria com grande precisão: o objetivo principal dos experimentos do AD do CERN. O ALPHA consegue isto por meio de um complexo sistema de confinamento de partículas que permite a produção e armazenagem de átomos de anti-hidrogênio por períodos suficientemente longos para estudá-los em detalhe. A compreensão da assimetria entre matéria e antimatéria é um dos maiores desafios da física atual. Qualquer diferença detectável entre matéria e antimatéria poderia ajudar a resolver o mistério e abrir uma janela para uma nova física.

Para medir a carga do  anti-hidrogênio, a experiência ALPHA estudou as trajetórias dos átomos de anti-hidrogênio na presença de um campo elétrico. Se os átomos de anti-hidrogênio tivessem uma carga elétrica, o campo os desviaria, enquanto que átomos neutros não seriam afetados. O resultado, baseado em 386 eventos registrados, dá uma carga elétrica para o anti-hidrogênio de (-1.3±1.1±0.4) × 10-8, sendo os números “±” representativos das incertezas estatísticas e sistemáticas das medições.

Com o reinício da cadeia de aceleradores do CERN a caminho, o programa de pesquisa de antimatéria do laboratório também será reiniciado. Experimentos que incluem o ALPHA-2, uma versão melhorada da experiência ALPHA, vão colher dados, juntamente com as experiências ATRAP e ASACUSA, assim como o “novato” AEGIS que vai medir a influência da gravidade sobre o anti-hidrogênio.

Artigo na Nature Communications: “An experimental limit on the charge of antihydrogen

Matéria escura: até agora, nada!…

Photobucket

Um evento no ATLAS entre dois fótons. Os fótons são denotados pelos rastros de energia na cor verde.

                 Crédito da Imagem:  Experiência ATLAS © 2013 CERN | http://bit.ly/LegAIF

Original (em inglês) por Charles Q. Choi, Contribuidor do ISNS

(ISNS) — A matéria escura é presentemente um dos maiores mistérios do universo. Agora os cientistas revelam que o mais poderoso colisor de partículas do mundo não desencavou qualquer indício dessa forma hipotética de matéria, o que coloca novos limites para aquilo que ela pode ser.

A matéria escura é, hipoteticamente, uma substância invisível e enigmática que – se acredita – deve responder por quase cinco sextos de toda a matéria existente no cosmo. Os astrônomos começaram a suspeitar de sua existência na década de 1930, quando perceberam que o universo parecia possuir mais massa do que aquela das estrelas (e todo o resto de matéria observável). Por exemplo, a velocidade com que as estrelas orbitam o centro da Via Láctea é tão grande que elas já deveriam ter vencido a atração gravitacional do núcleo da galáxia e terem escapado para o vazio intergalático, mas alguma coisa as mantem no lugar, coisa esta que a maioria dos pesquisadores acredita ser a gravidade de um material até hoje não observado: a matéria escura.

Os cientistas já descartaram todas as formas conhecidas de matéria candidatas ao papel de matéria escura. Até o presente o consenso é que a matéria escura seja constituída de uma forma nova e invisível de partículas, as quais só interagiriam muito fracamente com a matéria conhecida.

A matéria escura não pode ser explicada por qualquer uma das partículas do Modelo Padrão da física de partículas, a melhor descrição atual para o mundo na escala subatômica. Desta forma, elas devem aparecer a partir de uma física que vá além do Modelo Padrão. Uma das possibilidades está na ideia conhecida como supersimetria, a qual sugere que todos os tipos de partículas conhecidos do Modelo Padrão têm uma contrapartida, ainda não detectada. Por exemplo, os elétrons teriam suas contrapartidas denominadas selétrons. Outra possibilidade é a existência de partículas conhecidas como áxions, originalmente propostas pelos físicos teóricos para solucionar um dos enigmas relacionados com a força nuclear forte, uma das quatro forças fundamentais do universo, que mantém coesos os prótons e nêutrons do núcleo atômico.

A maior parte das experiências que buscam a matéria escura envolve gigantescos detectores subterrâneos que procuram as raras colisões entre a matéria comum e partículas de matéria escura que passam através da Terra. No entanto, muitas das teorias sugerem que o maior colisor de partículas já construído, o Large Hadron Collider, pode gerar partículas de matéria escura. Embora essas partículas de matéria escura consigam escapar indetectadas pelos sensores da máquina, os cientistas do LHC em Genebra, Suíça, ou aqueles por todo o mundo que fazem a interpretação dos dados das colisões, poderiam inferir sua existência a partir do comportamento de outros produtos dessas colisões. Eles poderiam usar os dados das colisões para inferir detalhes desses pedacinhos de matéria escura, tais como suas massas e suas seções de choque — quer dizer, a probabilidade delas interagirem com outras partículas.

Buscas anteriores pela matéria escura no LHC procuravam por jatos individuais de partículas, formadas quando se estraçalha próton contra próton em níveis de energias sem precedentes. Durante a temporada de 2012 do LHC run, a colaboração ATLAS realizou experiências com colisões mais complexas que geravam não apenas um único jato, como também dois jatos estreitos adicionais.

Estas novas descobertas excluem enfaticamente vários potenciais candidatos a matéria escura e a pesquisa foi detalhada online na Physical Review Letters. Especificamente, o trabalho “coloca interessantes restrições nas tentativas de estender o Modelo Padrão de física de partículas de forma mínima para explicar a matéria escura”, segundo o físico de astropartículas Gianfranco Bertone da Universidade de Amsterdam (que não tomou parte na pesquisa).

Embora estas descobertas excluam alguns possíveis candidatos a matéria escura, “Eu não penso que isso seja realmente um grande problema para as teorias de matéria escura, no momento”, diz o físico de partículas Andreas Hoecker, vice coordenador da Experiência ATLAS no CERN. “A melhor  teoria que temos para a matéria escura, a supersimetria, não fica excluída com estes resultados”.

Os cientistas estão agora fazendo melhorias nos aceleradores do LHC. “Em meados de 2015, o acelerador vai ser novamente ligado e terá uma capacidade de quase o dobro da energia que antes”, diz Hoecker. Isto significa que as futuras experiências “poderiam procurar pela formação de partículas supersimétricas, tais como squarks, gluínos e neutralinos com massas muito maiores do que o permitido nos dados anteriores”. Não se espera que as experiências do LHC detectem áxions, já que estes teoricamente têm seções de choque muito baixa, além das capacidades do acelerador.

Além disto, por volta de 2022, os melhoramentos no LHC devem atingir uma luminosidade 10 vezes maior — ou seja, esmagar 10 vezes mais prótons contra um alvo, a cada seção. Isso pode gerar potenciais partículas de matéria escura em números bem maiores do que antes, talvez em número suficiente para sua detecção, a despeito da raridade de sua interação com outras partículas, acrescenta Hoecker.

Se o LHC não detectar coisa alguma, mesmo a essas energias maiores e maior luminosidade, “ainda fica muito difícil excluir totalmente os modelos de supersimetria, porém os cientistas provavelmente vão perder o interesse”, argumenta Bertone. “Possivelmente os pesquisadores vão ter que procurar em outro lugar”.


Charles Q. Choi é um escritor de ciências freelance com base em Nova York que já escreveu para The New York Times, Scientific American, Wired, Science, Nature, e várias outras publicações

Por que a bateria do seu laptop viciou…


ETH Zurich

Por que as baterias de íon de lítio falham

 IMAGEM: Partículas de um eletrodo de óxido de estanho, passando por mudanças estruturais durante o carregamento (1 a 3) e descarregamento (3 e 4).

Clique aqui para mais informações.

As baterias de íon de lítio estão presentes em nossos telefones celulares, laptops e câmeras digitais. Existem poucos dispositivos eletrônicos portáteis que não dependam dessas fontes de energia. Atualmente, os eletrodos das baterias contém materiais ativos conhecidos como compostos de intercalação. Esses materiais armazenam carga em suas estruturas químicas sem sofrerem uma mudança estrutural substancial. Isto torna essas baterias comparativamente duráveis e seguras. No entanto, esses materiais de intercalação têm uma limitação: a pequena densidade de energia, a quantidade de energia que pode ser armazenada por unidade de volume e massa.

Na procura poe baterias com mais densidade de energia, os cientistas realizaram experiências por mais de 20 anos com materiais capazes de fazerem e desfazerem liga com o lítio repetitivamente. As experiências em escala de laboratório mostraram que baterias feitas com esses materiais possuem densidades de energia muitas vezes superiores às dos materiais de intercalação; no entanto, esses materiais que fazem ligas ainda não são muito empregados pela indústria porque sua duração é limitada. Martin Ebner, estudante de Ph.D. no Laboratório de Nanoeletrônica do Departamento de Tecnologia da Informação e Engenharia Elétrica (D-ITET) explica: “sua capacidade tipicamente se atenua após um par de ciclos carga-descarga”. Isto é atribuído a uma enorme expansão – de até três vezes – do material do eletrodo durante o carregamento. Durante o descarregamento, o material se contrai novamente, mas não volta a seu estado original. As partículas do eletrodo se separam, a estrutura do eletrodo se desintegra e os fragmentos perdem o contato com o restante da célula.

Observando as baterias durante o funcionamento com raios-x

Para compreender melhor a complexa degradação eletroquímica e mecânica do eletrodo, bem como obter novos dados para o desenvolvimento de baterias melhores, Martin Ebner e a Professora Vanessa Wood do ETH, chefe do Laboratório de Nanoeletrônica do D-ITET, perceberam a necessidade de estudar o funcionamento de um eletrodo de bateria com um processo não invasivo. Dessa forma, eles se voltarm para um instrumento de imageamento desenvolvido pelo Professor Marco Stampanoni do ETH. O Professsor Stampanoni, é catedrático no Instituto de Engenharia Biomédica do D-ITET e opera o feixe de raios-x para tomografia microscópica da Fonte de Luz Suíça, a instalação de síncrotron no Instituto Paul Scherrer. A radiação síncrotron de raios-x, de espectro puro e intensa, permite a rápida aquisição de imagens de raios-x de alta definição que podem ser montadas por computação em filmes tridimensionais.

Os pesquisadores observaram o interior da bateria enquanto ela carregava e descarregava ao longo de 15 horas. Com isso conseguiram montar filmes inéditos que registraram os mecanismos de degradação que ocorrem nas baterias e quantificaram os processos que acontecem com cada uma das milhares de partículas dos eletrodos. Os resultados deste estudo serão publicados na Science; uma versão pré-impressão está disponível online na Science Express.

Mudanças estruturais irreversíveis

Os dados mostram que as partículas de óxido de estanho (SnO) se expandem durante o carregamento devido ao influxo de íons de lítio, o que causa um aumento no volume das partículas. Os cientistas demonstram que a litificação acontece em um processo de fora para dentro, que progride da superfície da partícula até seu núcleo. O material que sofre esta reação, se expande linearmente com a carga armazenada. As imagens de raios-x mostram que o carregamento destrói a estrutura da partícula de modo irreversível, formando rachaduras dentro das partículas. “A formação de rachaduras não é aleatória”, enfatiza Ebner. As rachaduras crescem em locais onde a retícula do cristal contém defeitos pré-existentes. Durante o descarregamento, o volume das partículas diminui; entretanto, o material não volta a seu estado original; portanto, o processo não é completamente reversível.

A mudança de volume das partículas individuais acarreta a expansão de todo o eletrodo, de 50 micrômetros até 120 micrômetros. Porém, durante o descarregamento, o eletrodo só se contrai até 80 micrômetros. Esta deformação permanente do eletrodo demonstra que o polímero agregante que une o eletrodo, ainda não está otimizado para materiais de grande expansão volumétrica. Isto é algo crítico para o desempenho de uma bateria, porque a deformação do agregante faz com que as partículas fiquem desconectadas do eletrodo e  bateria perca capacidade.

Além de demonstrar que a microscopia tomográfica por raios-x permite a observação de mudanças morfológicas nas partículas e eletrodos, os pesquisadores demonstraram que esta técnica pode também ser empregada para a obtenção de informações químicas quantitativas e com resolução espacial. Por exemplo, os pesquisadores analisaram a composição química por todo o eletrodo, para procurar por diferenças na dinâmica de litificação ao nível das partículas individuais e comparar isto ao comportamento médio das partículas. Esta abordagem é essencial para a compreensão da influência do tamanho e formato das partículas e a homogeneidade do eletrodo sobre o desempenho da bateria.

Tais vislumbres do funcionamento da bateria não seriam possíveis sem o dispositivo avançado de tomografia com raios-x da Fonte de Luz Suíça. “A visualização das baterias durante o funcionamento era praticamente impossível até os recentes avanços na tomografia por raios-x. Graças às instalações de qualidade mundialmente reconhecidas, desenvolvidas pelo Professor Stampanoni e sua equipe, fomos capazes de observar a bateria funcionando”, acrescenta entusiasticamente Wood.

Alternativas para os materiais cristalinos

Os pesquisadores escolheram o óxido de estanho como material modelo porque ele passa por uma série de transformações complexas, também presentes em outros materiais, o que permite uma compreensão mais profunda do comportamento de vários materiais para baterias. Essas observações fornecem a base para o desenvolvimento de novos materiais para eletrodos e estruturas de eletrodos que sejam tolerantes a expansão volumétrica. Para o Prof. Wood, os resultados de seu trabalho indicam os benefícios do uso de materiais amorfos ou com nano-estrutura, em lugar dos cristalinos. “Na busca por novos materiais, se deve ter em mente que eles só têm interesse para a indústria se puderem ser produzidos em largas quantidades e a baixo custo. Mesmo assim, os materiais amorfos e de nano-estrutura oferecem um campo grande o suficiente para inovações”, enfatiza Wood.

 

###

 

Referencia

Ebner M, Marone F, Stampanoni M, Wood V. Visualization and quantification of electrochemical and mechanical degradation in Lithium ion batteries. Science Express, publicado online em 17 de outubro de 2013.

Grafeno já era!… Conheça o Carbyno


Rice University

Nota do tradutor: o nome “Carbyne” em inglês pode ter vários significados. No caso específico, “carbyne” se refere ao (teoricamente possível) poliacetileno (-C≡C-)n e eu chamei de “carbyno”, fazendo um aportuguesamento do termo em inglês, com “y” e tudo.

O tradutor também deseja enfatizar que observou que este “press-release” é exageradamente bombástico, ao descrever uma substância que, apesar de ser teoricamente possível, ainda não foi sintetizada em quantidades suficientes para testar na prática as qualidades apregoadas, e a “American Chemical Society” é chegada a apregoar “progressos” que acabam não dando em nada…

O novo campeão dos Carbonos

Os teóricos da Universidade Rice calculam que as cadeias de carbyno, com um átomo de espessura, pode ser o material mais forte que pode existir

 IMAGEM: Concepção artística da aparência de uma cadeia de carbyno.

Clique aqui para mais informações.

HOUSTON – (9 de outubro de 2013) – O Carbyno será o mais forte de toda uma nova classe de materiais microscópicos, quando e se alguém puder sintetizá-lo em grande escala.

Se conseguirem, vão descobrir que as nano-hastes ou nano-cordas têm uma pletora de propriedades notáveis e úteis, tal como descreve um novo artigo do físico teórico Boris Yakobson, da Universidade Rice, e seu grupo. O artigo será publicado nesta semana na publicação Nano da American Chemical Society.

O Carbyno é uma cadeia de átomos de carbono ligada por ligações, ou duplas, ou, alternadamente, simples e triplas. Isso o faz um material realmente unidimensional, diferentemente das folhas de grafeno, com um único átomo de espessura, que têm um topo e um fundo, ou nano-tubos ocos que têm um lado de dentro e outro de fora.

De acordo com o retrato traçado pelos cálculos de Yakobson e seu grupo:

  • A resistência à tração – a capacidade de suportar o esticamento – supera “a de qualquer outro material conhecido” e é o dobro da do grafeno. (Os cientistas já calcularam que seria necessário um elefante, se equilibrando em cima de um lápis, para perfurar uma folha de grafeno)
  • Seu módulo de elasticidade (Young) é o dobro do grafeno e dos nano-tubos de carbono, e cerca de três vezes o do diamante.
  • Esticar o carbyno tão pouco como 10%, altera sua banda proibida (electronic band gap) significativamente.
  • Se for dotado de alças moleculares em suas extremidades, também pode ser torcido para alterar sua banda proibida. Com uma rotação de 90 graus, ele se torna um semi-condutor magnético.
  • Cadeias de carbyno podem receber moléculas colaterais, o que pode torná-las capazes de armazenar energia.
  • O material é estável a temperatura ambiente, resistindo bem à reticulação com cadeias próximas.

Isto é um notável conjunto de qualidades para uma simples cadeia de átomos de carono, como diz Yakobson.

“Se pode encará-lo como uma fita de grafeno extremamente fina, reduzida a um único átomo, ou um nano-tubo extremamente fino”, diz Yakobson. Poderia ser útil para sistemas nano-mecânicos, em dispositivos spintrônicos, como sensores, como materiais leves e fortes para aplicações mecânicas, ou para armazenagem de energia.

“Quaisquer que sejam as aplicações”, prossegue ele, “em termos acadêmicos é muito instigante conhecer a mais forte molécula possível”.

Com base nos cálculos, ele declara que o carbyno pode ser o mais alto estado de energia possível para o carbono estável. “Usualmente nos preocupamos em encontrar o “estado fundamental“, a configuração de átomos com a menor energia possível”, explica Yakobson. “No caso do carbono, este seria a grafite, seguida pelo diamante, nano-tubos e, por fim, fulerenos. Porém, ninguém se pergunta sobre a mais alta configuração de energia. Acreditamos que esta possa sê-lo, uma estrutura estável com a maior energia possível”.

As teorias sobre o carbyno começaram a aparecer no século XIX e a primeira tentativa de sintetizá-lo foi feita na URSS em 1960. Desde então, o carbyno tem sido observado em grafite comprimida, foi detectado em poeira interestelar e foi criado em pequenas quantidades pelos cientistas experimentais.

“Eu sempre me interessei pela estabilidade de fios ou qualquer outra coisa extremamente finos, e o quão fina uma haste se pode fazer com uma determinada substância química”, diz Yakobson. “Nós publicamos um artigo, há 10 anos, sobre silício, no qual explorávamos o que acontece com um nano-fio de silício na medida em que fica mais fino. Para mim, isto era apenas parte da mesma pergunta”.

Os pesquisadores da Rice, sob a liderança do estudante de pós-graduação Mingjie Liu e o pesquisador pós-doutorado Vasilii Artyukhov, tinham conhecimento de vários artigos que descreviam uma ou outra propriedade do carbyno. Eles se dispuseram a detalhar o  carbyno com modelos de computação, usando regras de lógica de primeira ordem pra estabelecer as interações energéticas dos átomos, segundo Artyukhov.

 IMAGEM: Nano-cordas ou nano-hastes de carbyno, uma cadeia de átomos de carbono, seriam mais fortes do que o carbeno ou o diamante (se puderem ser manufaturadas).

Clique aqui para mais informações.

“Nossa intenção era reunir tudo, construir um quadro mecânico completo do carbyno como material”, disse Artyukhov. “O fato dele ter sido observado nos diz que ele ao menos é estável sob tensão, senão simplesmente teria sido destruído”.

Yakobson diz que os pesquisadores ficaram surpresos em encontrar uma fixa proibida no carbyno tão sensível à torção. “Ele vai ser útil como um sensor para torção ou campos magnéticos, se conseguirmos um meio de fixá-lo a alguma coisa que o faça se enrolar”, diz ele. “Nós não estávamos procurando especificamente por isto; foi algo que surgiu como um produto colateral”.

“Isso é o que é bom em estudar as coisas cuidadosamente”, acrescenta Artyukhov.

Outra descoberta de grande interesse é a barreira de energia que impede os átomos em cadeias de carbono adjacentes de colapsarem umas sobre as outras. “Quando se fala de material teórico, é sempre bom ser cuidadoso para verificar se ele reage com ele próprio”, diz Artyukhov. “Isto nunca tinha sido realmente investigado para o carbyno”.

A literatura parecia indicar que o carbyno “não era estável e se desfaria em grafite ou fuligem”, diz ele.

Ao contrário, os pesquisadores descobriram que os átomos de carbono em cadeias separadas poderiam sobrepujar a barreira em um ponto, mas a rigidez das hastes iria impedir que elas se juntassem em outro local, ao menos em temperatura ambiente. “Iriam ficar parecidas com asas de borboleta”, disse Artyukhov.

“Novelos poderiam ficar grudados, mas não colapsariam inteiramente”, acrescenta Yakobson. “Isso poderia criar uma rede, altamente porosa e randômica, que poderia ser boa para adsorção”. Artyukhov diz que a área específica do carbyno é cerca de cinco vezes a do grafeno.

[Nota do tradutor: Alerta para hype escandaloso!] Quando o artigo da equipe ficou disponível neste verão nos arXiv, os noticiários científicos e mesmo alguns noticiários populares ficaram tão entusiasmados com os cálculos que começaram a especular sobre o artigo e suas implicações, antes que a equipe o submetesse à revisão por pares. Agora que o artigo inteiro está pronto para a publicação, os pesquisadores dizem que vão levar suas investigações em novas direções.

Eles estão examinando mais rigorosamente a condutividade do carbyno e cogitando também sobre outros elementos. “Conversamos sobre examinarmos diferentes elementos da tabela periódica para ver se alguns deles podem formar cadeias unidimensionais”, disse Yakobson.

 

###

 

O estudante de pós-graduação da Rice, Fangbo Xu e o ex-pesquisador pós-doutorado, Hoonkyung Lee, agora professor da Universidade Konkuk na Coréia do Sul, são os co-autores do artigo.

Extrato do artigo em http://pubs.acs.org/doi/abs/10.1021/nn404177r

O prêmio Nobel de Física de 2013

Photobucket

Foto de Englert: Pnicolet via Wikimedia Commons | Foto de Higgs: G-M Greuel via Wikimedia Commons | Imagem composta por Lalena Lancaster

Comitê do Nobel também menciona os experimentos do Large Hadron Collider como confirmação da partícula de Higgs.

8 de outubro de 2013
Por: 

Ben P. Stein, Diretor do Inside Science

(ISNS) – O Prêmio Nobel de Física de 2013 foi concedido ao cientista belga François Englert e ao cientista britânico Peter W. Higgs “pela descoberta teórica de um mecanismo que contribui para nossa compreensão da origem da massa das partículas subatômicas e que foi recentemente confirmado pela descoberta da partícula fundamental prevista, pelos experimentos ATLAS e CMS do Large Hadron Collider do CERN”.

Em 1964, Englert, em conjunto com um colega já falecido, Robert Brout, e Higgs publicaram, independentemente, artigos que davam uma explicação sobre como algumas partículas subatômicas, tais como elétrons e quarks, adquirem massa. Segundo seu trabalho teórico, essas partículas intergiriam com um campo invisível, existente no universo, agora conhecido como o Mecanismo de Higgs, para adquirirem suas massas. Em 4 de julho de 2012, dois grupos de pesquisas no Large Hadron Collider (LHC), no laboratório do CERN de física de partículas na Europa anunciaram a detecção de uma partícula que, como mais tarde foi confirmado, vem desse campo invisível.

“Ambos [os teóricos] fizeram uma contribuição para a explicação da origem da massa e estas contribuições não podem ser individualizadas. Afinal, o que eles fizeram foi essencial para o Modelo Padrão da Física de Partículas”, declarou Olga Botner, da Universidade de Uppsala na Suécia, ao anunciar o prêmio.

“Não surpresa alguma”, comento Drew Baden, um físico da Universidade de Maryland, em College Park, “e é uma história realmente interessante”.

Há cinquenta anos, os físicos enfrentavam um enorme problema. Eles sabiam que o universo era composto por partículas fundamentais, tais como elétrons, prótons e nêutrons, que serviam como peças para a montagem da matéria. Estas partículas eram governadas por forças, tais como o eletromagnetismo, que as punham em movimento. Entretanto, este Modelo Padrão da física de partículas tinha sérias limitações. Ele não podia explicar porque alguns objetos — tais como os elétrons — tinham massa e outros, tais como os fótons, não tinham. Pelo Modelo Padrão de 1963, nada teria massa e zuniria pelo universo afora na velocidade da luz. Não seria possível a formação de átomos e moléculas e as estrelas, planetas, galáxias e as pessoas não poderiam existir.

É aí que entra em cena um grupo de teóricos — físicos que pretendem descrever a natureza através da matemática — para resolver o problema de porque certas partículas no universo têm massa, enquanto outras não.

A resposta veio com a percepção de que o universo está imerso em campos. Por exemplo, o campo eletromagnético permeia o espaço e faz com que objetos com carga positiva sejam atraídos por outros com carga negativa. As forças eletromagnéticas são exercidas entre os objetos através da troca de fótons.

Na década de 1960, vários teóricos descobriram independentemente que tinham a solução para o enigma das massas para o Modelo Padrão. A solução que eles apresentaram envolvia a existência de outro campo invisível, agora conhecido como Campo de Higgs. Algumas partículas, tais como os fótons, não são afetadas por ele enquanto o atravessam. Outras, tais como os elétrons, experimentam uma resistência a seu movimento, ou inércia, o que lhes confere massa.

“Até a descoberta do Higgs, não havia um fiapo de indício experimental”, comenta Baden, um físico da equipe do CMS no LHC. Em lugar disso, segundo ele, o conceito todo veio de uma solução matemática para um problema, que mostrava como as partículas poderiam adquirir massa.

Vários teóricos descobriram a solução de Higgs. Primeiro, Englert e seu colega Brout, publicaram um artigo que previa esse campo invisível. Peter Higgs, de maneira independente, publicou um artigo que previa que uma partícula, que veio a ser denominada Bóson de Higgs, poderia ser emitida pelo campo, tal como os fótons são emitidos pelo campo eletromagnético. Outro grupo de teóricos, Gerald Guralnik, C. Richard Hagen e Tom Kibble, porteriormente publicaram independentemente um artigo que predizia o mesmo mecanismo.

Baden disse que a premiação simultânea para Englert e Higgs “uma solução de compromisso muito bonita”, assim como o reconhecimento dos experimentais do LHC que detectaram a partícula. Englert e Higgs “puseram a bola em movimento” quanto à ideia da existência de um campo invisível que permeia o espaço.

Ao longo de décadas, o Higgs permaneceu como a peça que faltava no Modelo Padrão. Ele explciava porque algumas partículas fundamentais tinham massa. No entanto, ele era incrivelmente difícil de detectar. Segundo as previsões, o próprio Higgs tinha massa. E ele era muito pesado, muito mais pesado do que qualquer outra partícula fundamental até então detectada. Para extrair uma partícula do campo de Higgs é necessária uma enorme quantidade de energia.

Somente depois da construção pelo CERN do LHC que os físicos puderam extrair de modo confiável as partículas de Higgs desse campo invisível. O LHC começou a funcionar em 2008.

O LHC acelera feixes de 500 trilhões de prótons — as partículas positivamente carregadas do núcleo dos átomos — até 99,99999 % da velocidade da luz, ou seja, uma energia de 4 teraeletron-volts, ou TeV. É o equivalente à energia de um trem em  disparada, concentrada em um raio de prótons subatômicos. O LHC esmaga dois desses feixes, um de encontro ao outro, para criar jorros de partículas. A famosa equação de Einstein, E=mc², diz que a energia pode ser convertida em massa e vice versa. A partir da pura energia dessa colisão, podem emergir novas partículas, totalmente diferentes dos prótons iniciais.

Em 4 de julho de 2012, os físicos das duas colaborações experimentais do LHC, ATLAS e CMS, anunciaram que tinham confirmado a existência de uma partícula parecida com o previsto Higgs. Sua massa aproximada era de 125 gigaelectron volts, ou GeV, muito maior do que qualquer outra partícula fundamental e cerca de 100 vezes mais pesada do que um próton. Durante o último ano, os cientistas confirmaram que  partículas observada era mesmo o Higgs. Dados anteriores, obtidos pelo acelerador Tevatron do Laboratório Nacional Fermi, também confirmavam alguns indícios da existência desta partícula.

Porém, com a confirmação do Higgs, os enigmas do universo estão longe de estarem solucionados. Embora o Higgs possa ser a última peça principal do Modelo Padrão, os físicos entendem que o Modelo Padrão ainda está incompleto. Por exemplo, ele só descreve três das quatro forças fundamentais do universo e deixa de fora a gravidade.

“Em minha opinião, o principal e mais fundamental problema ainda não resolvido, apesar de alguns progressos, é o problema da gravidade quântica, a quantização da gravidade”, declarou Englert, em uma coletiva de imprensa, imediatamente após o anúncio do Prêmio Nobel de 2013.

Englert também lembrou as questões da supersimetria, matéria escura e energia escura, mistérios que ainda estão por resolver.

O Modelo Padrão somente descreve a matéria comum do universo, o que agora se supõe compreender apenas um quinto da matéria existente no universo. Ele não prevê a matéria escura invisível, nem a energia escura, que foram o objeto do Prêmio Nobel de Física em 2011.

Peter Higgs não foi entrevistado quando do anúncio do Nobel por estar em gozo de férias.

Então, os teóricos e experimentalistas continuam com um monte de questões para responder. As soluções para essas questões provavelmente serão objetos dos próximos Prêmios Nobel de Física.


Ben P. Stein, diretor do Inside Science, vem cobrindo a física como escritor de ciências e editor desde 1991.

Sobre ScienceBlogs Brasil | Anuncie com ScienceBlogs Brasil | Política de Privacidade | Termos e Condições | Contato


ScienceBlogs por Seed Media Group. Group. ©2006-2011 Seed Media Group LLC. Todos direitos garantidos.


Páginas da Seed Media Group Seed Media Group | ScienceBlogs | SEEDMAGAZINE.COM