O nascimento de um Buraco Negro

(Traduzido de: Birth of a Black Hole)

Texto original de Marcus Woo

Uma imagem gerada por computação gráfica das distorções da luz criadas por um buraco negro. Para mais informações: HTTP://WWW2.IAP.FR/USERS/RIAZUELO/BH/APOD.PHP
Crédito: Alain Riazuelo, IAP/UPMC/CNRS

Um novo tipo de clarão cósmico pode revelar algo nunca antes visto: o nascimento de um buraco negro.

Quando uma estrela massiva exaure seu combustível, ela colapsa sob sua própria gravidade e gera um buraco negro, um objeto tão denso que nem a luz pode escapar de suas garras gravitacionais. De acordo com uma nova análise feita por um astrofísico do Instituto de Tecnologia da Califórnia (California Institute of Technology = Caltech), logo antes do buraco negro se formar, a estrela agonizante pode gerar um clarão de luz característico que permitirá aos astrônomos testemunhar o nascimento de um novo buraco negro pela primeira vez.

Tony Piro, um doutor da Caltech, descreve essa assinatura luminosa em um artigo, publicado na edição de 1º de maio de Astrophysical Journal Letters. Embora algumas estrelas agonizantes que se tornam buracos negros, explodam como jorros de raios gama – um dos fenômenos de maior energia no universo – esses casos são raros e requerem circunstâncias muito particulares, Como explica Piro: “Não cremos que a maioria dos buracos negros vulgares sejam criados desta maneira”. Na maioria dos casos, segundo uma das hipóteses, uma estrela que morre produz um buraco negro, sem criar uma explosão ou um clarão: a estrela pareceria apenas desaparecer dos céus — um evento batizado de “unnova” (“não-nova”). “Não se vê um clarão”, ele explica. “Você vê um desparecimento”.

No entanto – propõe Piro hipoteticamente – pode não ser este o caso. “Talvez elas não sejam tão maçantes como pensamos”.

De acordo com uma teoria bem estabelecida, quando uma estrela massiva morre, seu núcleo colapsa sob seu próprio peso. Na medida em que o colapso prossegue, os prótons e elétrons que compõem o núcleo se fundem em produzem nêutrons. Por alguns segundos — antes do colapso final em um buraco negro —o núcleo se torna um objeto extremamente denso chamado estrela de nêutrons, algo com a densidade que o Sol teria se fosse espremido em uma esfera com um raio de cerca de 10 km. Esse colapso também cria neutrinos que são partículas que transpassam quase toda a matéria quase na velocidade da luz. Esses neutrinos emitidos pelo núcleo, levam embora um monte de energia — algo em torno de um décimo da massa da estrela-mãe (lembrando que massa e energia são equivalentes: E = mc²).

De acordo com um artigo pouco conhecido, escrito em 1980 por Dmitry Nadezhin do Instituto Alikhanov de Física Teórica e Experimental, na Rússia, esta rápida perda de massa significa que a força gravitacional do núcleo da estrela moribunda cai abruptamente. E, quando isto acontece, as camadas gasosas exteriores –– principalmente hidrogênio — que ainda circundam o núcleo, são lançadas para fora, gerando uma onda de choque que trespassa essas camadas externas a cerca de 1.000 km/s.

Empregando simulações em computador, dois astrônomos da UC em Santa Cruz, Elizabeth Lovegrove e Stan Woosley, descobriram recentemente que, quando a onda de choque golpeia a superfície externa das camadas gasosas, ela aquece o gás na superfície, produzindo um lampejo que vai brilhar por cerca de um ano — um sinal potencialmente promissor do nascimento de um buraco negro. Embora cerca de um milhão de vezes mais brilhante do que o sol, esse brilho seria relativamente tênue em comparação com outras estrelas. “Seria difícil de ver, mesmo em galáxias que estejam relativamente perto de nós”, diz Piro.

Porém agora Piro diz que descobriu um sinal mais promissor. Em seu novo estudo, ele examina mais detalhadamente o que poderia acontecer quando a onda de choque atingisse a superfície da estrela e ele calcula que o impacto causaria um clarão de 10 a 100 vezes mais luminoso do que o previsto por Lovegrove e Woosley. “Esse clarão vai ser muito luminoso e nos dá a melhor chance de realmente observar a ocorrência desse fenômeno”, explica Piro. “E é isso que queremos procurar”.

Um clarão desses seria ainda tênue comparado com a explosão de uma supernova, por exemplo, mas seria luminoso o bastante para ser detectável em galáxias próximas, diz ele. O clarão, que brilharia por 3 a 10 dias antes de abrandar, seria muito claro nos comprimentos de onda da luz visível — e seria ainda mais luminoso nos comprimentos de onda do ultravioleta.

Piro estima que os astrônomos deveriam ser capazes de ver um evento desses a cada ano, em média. Pesquisas que vigiam os céus em busca de clarões de luz tais como os das supernovas — pesquisas assim como a Palomar Transient Factory (PTF), liderada pelo Caltech — são adequados para a descoberta desses eventos sem par, argumenta ele. A intermediate Palomar Transient Factory (iPTF), um aperfeiçoamento da PTF e que começou sua busca em fevereiro, pode ser capaz de achar um par desses eventos por ano.

Nenhuma pesquisa observou um clarão de buraco negro até agora, prossegue Piro, porém isso não exclui sua existência. “Eventualmente poderemos começar a nos preocupar, se não encontrarmos essas coisas”.  Mas, por enquanto, diz ele, suas expectativas são perfeitamente lógicas.

Com a análise de Piro nas mãos, os astrônomos devem ser capazes de projetar e ajustar outras pesquisas adicionais, de forma a maximizar suas chances de observar o nascimento de um buraco negro no futuro próximo. Em 2015, a próxima geração da PTF, chamada de Zwicky Transient Facility (ZTF), deve começar a funcionar; ela será ainda mais sensível, o que aumentará várias vezes as chances de descobrir esses clarões. “O Caltech, dessa forma, tem uma posição privilegiada para procurar por eventos transientes como estes”, diz Piro.

Dentro da próxima década, o Large Synoptic Survey Telescope (LSST) vai começar uma extensa busca por todo o céu noturno. “Se o LSST não encontrar regularmente esse tipo de evento, então isso quer dizer que há alguma coisa errada com o quadro, ou que a formação de buracos negros é muito mais rara do que se pensava”, diz ele.

O artigo na Astrophysical Journal Letters é intitulado “Taking the ‘un’ out of unnovae.” Esta pesquisa foi financiada pela National Science Foundation, NASA, e pela Sherman Fairchild Foundation.

###

Via EurekAlert.

Antimatéria = Antigravidade (???)

University of California – Berkeley

A antimatéria é antigravidade?

Primeira medição direta do peso da antimatéria, comparado ao da matéria normal

 IMAGEM: Físicos da UC Berkeley/LBNL se perguntam se o hidrogênio normal (esquerda) pesa o mesmo que o anti-hidrogênio (direita)

Clique aqui para mais informações.

A antimatéria é um negócio esquisto  Ela tem a carga elétrica oposta à da matéria normal e, quando se encontra com sua contraparte, as duas se aniquilam, gerando um clarão de luz.

Quatro físicos da Universidade da Califórnia em Berkeley estão se perguntando se a matéria e a antimatéria seriam afetadas pela gravidade de maneira diferente. Será que a antimatéria poderia cair para cima  – ou seja, exibir antigravidade – ou cair para baixo com uma aceleração diferente da matéria normal?

Quase todo o mundo, inclusive os físicos, acham que a antimatéria provavelmente vai cair da mesma forma que a matéria normal, mas ninguém até agora deixou antimatéria cair para ver se isso é verdade, argumenta Joel Fajans, professor de física da UC Berkeley. E, embora existam muitos indícios indiretos de que antimatéria e matéria pesem a mesma coisa, todos eles dependem de suposições que podem não ser corretas. Alguns poucos teóricos argumentam que alguns busílis cosmológicos, tais como, por exemplo, por que existe mais matéria do que antimatéria, poderiam ser explicados se a antimatéria caísse para cima.

Em um novo artigo publicado online em 30 de abril na Nature Communications, os físicos da UC Berkeley e seus colegas da experiência ALPHA no CERN em Genebra, relatam a primeira medição direta do efeito da gravidade sobre a antimatéria, especificamente anti-hidrogênio em queda livre. Embora os resultados estejam longe de serem definitivos – a incerteza é cerca de 100 vezes maior do que a medição esperada – a experiência da UC Berkeley aponta na direção de uma resposta definitiva sobre a questão fundamental de se a antimatéria cai para cima ou para baixo.

“Esta é a primeira palavra, não a última”, diz Fajans. “Nós demos os primeiros passos na direção de uma experiência direta de questões que físicos e não-físicos têm matutado por mais de 50 anos. Certamente nós esperamos que a antimatéria caia para baixo, mas pode bem ser que tenhamos uma surpresa”.

Fajans e seu colega físico, professor Jonathan Wurtele, se valeram de dados do Aparato Laser de Física de Anti-hidrogênio (Antihydrogen Laser Physics Apparatus = ALPHA) no CERN. A experiência captura antiprótons e os combina com antielétrons (posítrons) para fabricar átomos de anti-hidrogênio, os quais são armazenados e estudados por uns poucos segundos em uma armadilha magnética. Depois, no entanto, a armadilha é desligada e os átomos caem para fora. Os dois pesquisadores perceberam que, analisando como o anti-hidrogênio cai da armadilha, eles poderiam estabelecer se a gravidade atuava sobre o anti-hidrogênio de maneira diferente da que atua sobre o hidrogênio.

O anti-hidrogênio não se comportou de maneira estranha, de forma que eles calcularam que ele não pode ser mais do que 110 vezes mais pesado do que o hidrogênio. Se a antimatéria for antigravitacional – coisa que eles ainda não podem descartar – ele não acelera para cima a mais de 65 Gs.

“Precisamos fazer melhor e esperamos fazê-lo nos próximos anos”, diz Wurtele. A experiência ALPHA está passando por aperfeiçoamentos e deve fornecer dados mais precisos quando voltar a operar em 2014.

 

###
Fontes:

Uma nova assimetria entre matéria e antimatéria

lhcb

Vista da área subterrânea do LHCb, olhando para cima a partir do fundo do poço.

(Imagem: Anna Pantelia/CERN)


A experiência LHCb (Large Hadron Collider beauty – onde o “beauty” ainda usa o nome antigo para o quark  “bottom”) descobriu mais uma assimetria no decaimento dos Bósons B (mais exatamente no méson B0 – formado por um antiquark “bottom” e um quark “strange”). Esta é a quarta partícula a exibir essa quebra de simetria (e os dados, coletados nas experiências de 2011 têm uma significância maior que 5 Sigma).

Supostamente, no início da existência do universo, foram criadas quantidades simetricamente iguais de matéria e antimatéria, mas, por algum motivo ainda desconhecido, a matéria acabou prevalecendo e o universo atual é feito dela (bem… pelo menos uns quase 5% do atual universo – o resto é matéria escura e energia escura, sejam isso lá o que forem).

É exatamente isso uma das coisas que os cientistas do LHC pesquisam: esse viés do universo pela matéria, em desfavor da antimatéria – ou, em termos mais técnicos, “violação da simetria CP” . E uma das experiências em curso no LHC é a LHCb, que examina o decaimento dos mésons que contêm quarks bottom (genericamente chamados que “mésons B”).

A primeira vez que se observou uma violação da simetria CP foi no decaimento dos Kaons (ou mésons K), pelo Laboratório de Brookhaven, nos EUA, em 1960. Mais 40 anos se passaram e, no Japão e nos EUA, verificaram que o decaimento dos mésons B0 (antiquark bottom e quark up) também apresentava o mesmo comportamento.

Recentemente, tanto a experiência LHCb, como outras “fábricas de Bs”, tinham flagrado essa violação CP no decaimento dos mésons B+ (antiquark bottom + quark up).

Todas essas violações da paridade CP estão perfeitamente de acordo com o Modelo Padrão da Física de Partículas (ou, se você preferir, Física Quântica, ou ainda Física de Altas Energias), mas as discrepâncias observadas ainda são dignas de estudos mais aprofundados. Como declara Pierluigi Campana, porta-voz da colaboração LHCb: “Nós também sabemos que o efeito total induzido pelas violações CP do Modelo Padrão, são muito pequenas para explicar a total predominância da matéria sobre a antimatéria. No entanto, através do estudo dessas violações CP, estamos procurando pelas peças que faltam no quebra-cabeças, realizando testes que comprovam com mais acurácia as previsões da teoria do Modelo Padrão e sondando a possibilidade da existência de uma física além do Modelo Padrão”.

###

Fonte: LHCb experiment observes new matter-antimatter difference.

Artigo submetido ao Physical Review Letters – First observation of CP violation in the decays of Bs mesons.

Uma galáxia queimando tudo


McGill University

Um tipo raro de galáxia é encontrado, queimando furiosamente o combustível gerador de estrelas

 IMAGEM: Este pontinho vermelho (ampliado no destaque) é a galáxia mais eficiente na formação de estrela já observada.

Clique aqui para mais informações.

Os astrônomos descobriram uma galáxia que está convertendo o gás em estrelas com uma eficiência de quase 100%, uma fase raramente vista da evolução das galáxias, a mais extrema observada até hoje. A descoberta é oriunda do interferômetro IRAM no Plateau de Bure nos Alpes Franceses (IRAM =  Institut de radioastronomie millimétrique), do satélite WISE da NASA (Wide-field Infrared Survey Explorer) e do Telescópio Espacial Hubble da NASA.

“As galáxias queimam o gás como o motor de um carro queima a gasolina. A maior parte das galáxias tem motores razoavelmente ineficientes, o que significa que elas formam estrelas a partir de seus “tanques de combustível” muito abaixo da taxa teórica máxima”, explica Jim Geach of  da Universidade McGill, principal autor de um estudo a ser publicado em Astrophysical Journal Letters.

“Já esta galáxia é como um carro esporte totalmente ajustado, que converte o gás em estrelas na taxa mais alta que se crê possível”, prossegue ele.

A galáxia, chamada SDSSJ1506+54, saltou às vistas dos pesquisadores quando eles examinaram is dados oriundos da varredura total do céu em infravermelho do WISE. A luz infravermelha borbota da galáxia, equivalendo a mais de mil bilhões de vezes a energia de nosso Sol.

“Como o WISE varre todo o céu, ele pode detectar galáxias raras como esta que se destaca das demais”, declarou Ned Wright da UCLA, o principal investigador do WISE.

As observações em luz visível do Hubble revelaram que a galáxia é extremamente compacta e a maior parte da luz que emana dela o faz de uma região de poucas centenas de anos-luz de extensão.

“Esta galáxia está formando estrelas a uma taxa centenas de vezes mais rápida do que nossa Via Láctea, porém a vista acurada do Hubble revelou que a maior parte da luz das estrelas da galáxia está sendo emitida por uma região com uns poucos porcento do diâmetro da Via Láctea. Isto é a formação de estrelas em seu ritmo mais extremo”, disse Geach.

A equipe então usou o Interferômetro IRAM no Plateau de Bure para medir a quantidade de gás na galáxia. O telescópio com base em Terra detectou luz na faixa do milímetro, evidenciando o monóxido de carbono, um indicador da presença do gás hidrogênio, o combustível das estrelas. Combinando a taxa de formação de estrelas a partir dos dados do WISE e a massa do gás medida pelo IRAM, os cientistas tiraram uma medida da eficiência da formação de estrelas.

Os resultados revelaram que a eficiência na formação de estrelas dessa galáxia está próxima do máximo teórico, chamado de Limite de Eddington. Nas regiões das galáxias onde estão se formando novas estrelas, partes das nuvens de gás está colapsando devido à gravidade. Quando o gás fica denso o suficiente para espremer os átomos e começar a fusão nuclear, nasce uma estrela. Ao mesmo tempo, os ventos e a radiação das estrelas que acabaram de se formar, podem impedir a formação de novas estrelas, exercendo pressão sobre o gás circunvizinho, abortando o colapso.

O Limite de Eddington é o ponto no qual a força da gravidade que comprime o gás e balanceada pela pressão para o exterior feita pelas estrelas. Acima do Limite de Eddington, as nuvens de gás são dispersadas, o que cessa a formação das estrelas.

“Podemos ver algum gás fluindo para fora desta galáxia a milhões de quilômetros por hora e esse gás pode estar sendo soprado para fora pela poderosa radiação das estrelas recém-formadas”, argumenta Ryan Hickox, um astrofísico do Dartmouth College, Hanover, N.H. e co-autor do estudo.

Por que a SDSSJ1506+54 tão singular? Os astrônomos acreditam que flagraram a galáxia em uma fase de curta duração de sua evolução, possivelmente desencadeada pela fusão de duas galáxias em uma. A formação de estrelas é tão feroz que em poucas dezenas de milhões de anos – um piscar de olhos em termos da vida de uma galáxia – o gás será consumido e a galáxia irá amadurecer em uma maciça galáxia elíptica.

Os cientistas também se valeram de dados do Sloan Digital Sky Survey, do Observatório W.M. Keck no Mauna Kea, Hawaii, e do Observatório MMT no Mount Hopkins, Arizona.

 

###

 

Acesse o artigo original: http://iopscience.iop.org/2041-8205/767/1/L17

Mandando a luz para onde ela deve ir


Harvard University

Os físicos encontraram a solução para a óptica on-chip

Roteador em nano-escala converte e direciona com eficiência sinais ópticos

 IMAGEM: Dois dispositivos de acoplamento baseados no padrão em espinha de peixe: um dispositivo retangular e outro anular.

Clique aqui para mais informações.

Cambridge,  Massachusetts. – 22 de abril de 2013 – Uma equipe de pesquisadores com base em Harvard criou um novo tipo de nano-dispositivo que converte um sinal óptico em ondas que se propagam ao longo de uma superfície de metal. A característica mais significativa deste dispositivo é que ele pode reconhecer tipos específicos de luz polarizada e, segundo essa polarização, enviar o sinal em uma determinada direção.

A descoberta, publicada na edição de 19 de abril da Science, dá uma nova maneira para manipular precisamente a luz na escala abaixo do comprimento de onda, sem danificar um sinal que pode transportar dados. Isto abre as portas para uma nova geração de interconexões ópticas em chips que podem canalizar informações de dispositivos ópticos para dispositivos eletrônicos.

“Se quisermos enviar um sinal de dados para todos os lados de um pequeno chip com vários componentes, precisamos ser capazes de controlar precisamente para onde o sinal vai”, explica Balthasar Müller, principal co-autor do artigo e estudante de pós-graduação na Escola de Engenharia e Ciências Aplicadas (School of Engineering and Applied Sciences = SEAS) em Harvard. “Se o sinal não for bem controlado, a informação se perde. A direcionalidade é um fator extremamente importante”.

O acoplador transforma a luz incidente em um tipo de onda chamado polariton plasmon de superfície, uma ondulação superficial no mar de elétrons que existe nos metais.

 IMAGEM: Uma micrografia eletrônica que exibe as perfurações em nano-escala do acoplador plasmônico.

Clique aqui para mais informações.

Antigamente já era possível controlar a direção dessas ondas, mudando-se o ângulo de incidência da luz sobre o acoplador, porém, como coloca Müller, “Isso era uma grande maçada. Circuitos ópticos são muito difíceis de alinhar, de modo que reajustar os ângulos para rotear o sinal não era uma solução prática”.

Com o novo acoplador, a luz só precisa incidir perpendicularmente e o dispositivo faz o resto. Atuando como um controlador de tráfego, ele lê a polarização da onda de luz incidente – que pode ser linear, circular destrógira, ou circular levógira – e a roteia de acordo com isso. O dispositivo pode até dividir um feixe de luz e enviar partes dele em diferentes direções, permitindo a transmissão da informação em vários canais.

O acoplador consiste de uma fina folha de ouro, salpicada de pequenas perfurações. Porém, é no preciso padrão formado pelas fendas, dispostas como espinhas de peixe, onde reside a genialidade.

“A solução mais empregada até agora era uma série de ranhuras paralelas, conhecidas como gradil, que funciona, mas perde uma grande parte do sinal no processo”, explica o principal pesquisador Federico Capasso, Professor “Robert L. Wallace” de Física Aplicada e Pesquisador Associado Sênior “Vinton Hayes” de Engenharia Elétrica na SEAS de Harvard. “Talvez agora nossa solução seja a mais empregada. Ela torna possível controlar a direção dos sinais de maneira simples e elegante”.

 IMAGEM: Estas imagens, tiradas com um microscópio de escaneamento óptico de campo próximo, mostram as ondas plasmônicas se propagando pela superfície do acoplador.

Clique aqui para mais informações.

Uma vez que a nova estrutura é tão pequena — cada uma das unidades que se repetem é menor do que o comprimento de onda da luz visível — os pesquisadores acreditam que será fácil incorporá-la em novas tecnologias, tais como óptica plana.

Porém Capasso fala animadamente acerca das possibilidades de incorporar o novo acoplador em futuras redes de informação de alta velocidade que podem combinar eletrônica em nano-escala com elementos ópticos e plasmônicos em um único microchip.

“Isto gerou um grande entusiasmo neste campo”, conclui Capasso.

 

###

 

Müller e Capasso tiveram a colaboração do co-autor principal Jiao Lin, um antigo doutor pesquisador da SEAS que agora está no Instituto de Tecnologia de Manufatura de Singapura; e dos co-autores Qian Wang e Guanghui Yuan, da Universidade Tecnológica Nanyang, Singapura; Nicholas Antoniou, Principal Engeneheiro FIB no Centro Harvard de Sistemas em Nano-escala; e Xiao-Cong Yuan, professor do Instituto de Óptica Moderna na Universidade Nankai na China.

 

O que é mesmo “inteligência”?

Photobucket

Físico propõe uma nova abordagem para o conceito de inteligência

Estes diagrama mostram como o software que considera as “forças entrópicas causais”, emula o comportamento inteligente necessário para caminhar ereto ou usar ferramentas.
Crédito da imagem: Cortesia de Alexander Wissner-Gross

Um conceito radical pode causar a revisão das teorias que abordam o comportamento cognitivo

19 de abril de 2013 – 16:30

Por: 

Chris Gorski, ISNS

(ISNS) — Uma simples equação, fundamentada nos princípios básicos da física, pode descrever a inteligência e estimular novas abordagens em campos tão diversos quanto as finanças e a robótica – é o que diz uma nova pesquisa.

Alexander Wissner-Gross, um físico da Universidade Harvard e do Massachusetts Institute of Technology, e Cameron Freer, um matemático da Universidade do Hawaii em Manoa, desenvolveram uma equação que, segundo eles, descreve muitos comportamentos ditos inteligentes ou cognitivos, tais como caminhar ereto e usar ferramentas.
Os pesquisadores sugerem que o comportamento inteligente tem origem no impulso de obter o controle de eventos futuros no ambiente. Isto é exatamente o oposto do clássico cenário de ficção-científica onde os computadores ou robôs se tornam inteligentes e resolvem dominar o mundo.
As descobertas descrevem uma relação matemática que pode “induzir espontaneamente comportamentos notavelmente sofisticados associados ao ‘nicho cognitivo’ humano, o que inclui o uso de ferramentas e a cooperação social, em sistemas físicos simples”, como diz o artigo publicado por eles hoje na Physical Review Letters.
“É um artigo provocativo”, disse Simon DeDeo, um pesquisador do Santa Fe Institute que estuda sistemas biológicos e sociais. “Não é o que costumamos chamar de ciência”.
Wissner-Gross, um físico, disse que a pesquisa era “muito ambiciosa” e citou desenvolvimentos em vários campos como as principais fontes de inspiração.
A matemática por trás da pesquisa vem da teoria sobre como a energia térmica pode realizar trabalho e se dissipar com o tempo – a termodinâmica. Um dos conceitos fundamentais da física é chamado entropia – a tendência que têm os sistemas de evoluir para uma quantidade maior de desordem. A segunda lei da termodinâmica explica como, em qualquer sistema isolado, a quantidade de entropia tende a aumentar. Por exemplo, um espelho pode se despedaçar em vários cacos, mas uma coleção de cacos não vai se reajuntar em um espelho.
Esta nova pesquisa propõe que a entropia é diretamente conectada ao comportamento inteligente.
“[O artigo] é basicamente uma tentativa de descrever a inteligência como um processo fundamentalmente termodinâmico”, declara Wissner-Gross.
Os pesquisadores desenvolveram um software, chamado Entropica, e o alimentaram com modelos de várias situações onde ele pudesse demonstrar comportamentos que se parecessem muito com inteligência. E eles criaram os padrões de muitos desses exercícios com base em clássicos testes de inteligência animal.
Em um dos testes, os pesquisadores apresentaram a Entropica uma situação onde ele poderia usar um item como ferramenta para retirar outro item de dentro de um recipiente; em outro, ele poderia mover um carrinho de modo a balancear uma das rodas suspensa no ar. Governado pelos simples princípios da termodinâmica, o software respondeu exibindo um comportamento similar ao que as pessoas ou animais poderiam fazer, tudo isso sem ter recebido uma meta específica para qualquer um dos cenários.
“Ele realmente auto-determina qual é seu objetivo”, conta Wissner-Gross. “Esta [inteligência artificial] não precisa da especificação explícita de uma meta, diferentemente de qualquer outra [inteligência artificial]”.
O comportamento inteligente do Entropica emerge do “processo físico de tentar capturar tantas histórias futuras quanto possível”, diz Wissner-Gross. As histórias futuras representam todo o conjunto de possíveis resultados que estão disponíveis para um sistema em qualquer dado momento.
Wissner-Gross chama o conceito central da pesquisa de “forças entrópicas causais”. Essas forças são a motivação do comportamento inteligente. Elas encorajam o sistema a preservar tantas histórias futuras quanto for possível. Por exemplo, no exercício do carrinho-e-roda, o Entropica controla o carrinho para manter a roda erguida. Permitir que a roda caísse, diminuiria drasticamente o número de histórias futuras restantes, ou, em outras palavras, reduziria a entropia do sistema carro-e-roda. Manter a roda suspensa no ar, maximiza a entropia. Isto mantem todas as histórias futuras que podem ter início neste estado, inclusive as resultantes de deixar a roda do carrinho cair.
“O universo existe no estado presente que tem agora. Ele pode prosseguir em várias direções diferentes. Minha proposta é que a inteligência é um processo que tenta se assenhorar das histórias futuras”, explicou Wissner-Gross.
A pesquisa pode ter aplicações além das que são tipicamente associadas à inteligência artificial, inclusive estruturas da linguagem e cooperação social.
DeDeo disse que seria interessante aplicar esta nova estrutura para examinar a WikiPedia e pesquisar se ela, enquanto sistema, exibe os mesmos comportamentos descritos no artigo.
“Para mim [esta pesquisa] parece uma tentativa autêntica e honesta de encarar questões realmente grandes”, disse DeDeo.
Uma aplicação potencial dessa pesquisa é o desenvolvimento de robôs autônomos que possam reagir a ambientes mutáveis e escolher seus próprios objetivos.
“Eu estaria muito interessado em aprender mais e compreender melhor o mecanismo com o qual eles estão conseguindo alguns resultados impressionantes, porque isso poderia potencialmente auxiliar nossa busca pela inteligência artificial”, declarou Jeff Clune, um cientista de computação na Universidade do Wyoming.
Clune, que cria simulações de evolução e usa a seleção natural para evoluir inteligência artificial e robôs, expressou algumas reservas quanto à nova pesquisa, que ele sugeriu que pode ser motivada por uma diferença do jargão usado nos diferentes campos. Wissner-Gross deu a entender que ele espera trabalhar em conjunto com pessoas de diferentes campos no futuro, para ajudá-los a compreender como seus respectivos campos deram informações para a nova pesquisa e como as novas perspectivas podem ser úteis nesses campos.
A nova pesquisa foi buscar inspiração em desenvolvimentos de ponta de diversas outras disciplinas. Alguns cosmólogos sugeriram que certas constantes fundamentais na natureza têm os valores que têm, porque senão os homens não seriam capazes de observar o universo¹. Softwares avançados podem atualmente competir com os melhores jogadores humanos no xadrez e no jogo de estratégia Go. Os  pesquisadores até buscaram inspiração no que é conhecido como teoria do nicho cognitivo, que explica como a inteligência pode se tornar um nicho ecológico e, dessa forma, influenciar a seleção natural.
A proposta requer que um sistema seja capaz de processar informação e predizer as histórias futuras muito rapidamente para que possa exibir comportamento inteligente. Wissner-Gross sugeriu que as novas descobertas se encaixam bem em uma argumentação que liga a origem da inteligência à seleção natural e a evolução darwiniana – nada além das leis da natureza é necessário para explicar a inteligência.
Embora se declare confiante nos resultados, Wissner-Gross concede que existe espaço para refinamentos, tais como incorporar princípios de física quântica ao arcabouço. Ao par disto, ele fundou uma  companhia para explorar as aplicações comerciais da pesquisa em áreas como a robótica, a economia e a área de defesa.
“Nós basicamente vemos isto como uma grande teoria unificada da inteligência”, disse Wissner-Gross. “E eu sei que isto soa impossivelmente ambicioso, talvez, no entanto isto realmente unifica várias correntes de vários campos que vão da cosmologia à ciência da computação, comportamento animal e une tudo em um belo quadro termodinâmico”.

Chris Gorski é um editor do Inside Science News Service.

[1] O tradutor acha que esses tais cosmólogos deveriam procurar um psiquiatra urgentemente…

As ondas lentas do sono profundo


Technische Universitaet Muenchen

O ritmo fascinante das ondas lentas do cérebro

Cientistas sondam a fonte de um sinal pulsante em um cérebro adormecido

 IMAGEM: Gerada por uma simulação em computador, esta imagem mostra como um breve pulso de luz dirigido sobre um pequeno grupo de neurônios se propaga por todo o córtex. A experiência é realizada com cérebros vivos de camundongos anestesiados  Clique aqui para mais informações.

Novas descobertas esclarecem como e onde as “ondas lentas” do cérebro se originam. Acredita-se que esses pulsos rítmicos de sinais que se espalham pelo cérebro durante o sono em uma taxa de um ciclo por segundo, exerçam um papel em processos tais como a consolidação das memórias. Pela primeira vez, pesquisadores demonstraram de maneira conclusiva que essas ondas lentas começam no córtex cerebral, a parte do cérebro responsável pelas funções cognitivas. E eles também descobriram que essas ondas podem ser emitidas a partir de um pequeno aglomerado de neurônios.

“O cérebro é uma máquina com ritmos que produz todos os tipos de ritmos o tempo todo”, explica o Prof. Arthur Konnerth da Technische Universitaet Muenchen (TUM). “São como relógios que ajudam a manter várias partes do cérebro em sintonia”. Um desses cronômetros produz o que se chama de ondas lentas do sono profundo, as quais se acredita estejam envolvidas na transformação dos fragmentos da experiência e aprendizado diários em memórias permanentes. Elas podem ser observados nos primeiros estágios do desenvolvimento [do cérebro] e podem ser corrompidas por doenças tais como o Mal de Alzheimer.

Estudos anteriores, feitos principalmente com base em medições elétricas, não eram capazes de proporcionar uma resolução espacial que permitisse mapear o início e a propagação das ondas lentas de maneira precisa. Mas, com o uso da luz, a equipe de Konnerth com base em Munique e em colaboração com pesquisadores em Stanford e na Universidade de Mainz , foi capaz de tanto estimular a emissão das ondas lentas, como de observá-las em detalhes sem precedentes. Um dos principais resultados foi a confirmação de que as ondas lentas têm sua origem apenas no córtex cerebral, o que descarta diversas outras hipóteses há muito discutidas. “A segunda descoberta mais importante”, diz Konnerth, “foi que, dos bilhões de células no cérebro, não é necessário mais do que um aglomerado local de neurônios – de 50 a 100 deles – em uma camada profunda do córtex, chamada camada 5, para criar uma onda que se espalha por todo o cérebro”.

 IMAGE: A nova técnica da optogenética permite que os pesquisadores insiram canais sensíveis à luz em neurônios específicos (representados em verde). Por meio de fibras ópticas tanto é possível emitir estímulos luminosos, como mapear espacialmente as respostas dos neurônios. Clique aqui para mais informações.

Novas luzes sobre um mecanismo neural fundamental 

A despeito do considerável número de investigações acerca das ondas lentas cerebrais, as respostas definitivas acerca dos circuitos cerebrais subjacentes continuavam elusivas. Onde ficava o marca-passo deste ritmo? Onde as ondas começam e onde elas param? Este estudo – com base na sondagem óptica de cérebros intactos de camundongos anestesiados – fornece finalmente as bases para uma visão detalhada e compreensiva.

“Nós implementamos uma abordagem optogenética combinada com a detecção óptica da atividade neuronal para explorar as características causadoras dessas oscilações lentas, ou seja: dessa atividade liga-desliga, que representam o ritmo predominante na rede [de neurônios] durante o sono”, explica o Prof. Albrecht Stroh da Universidade Johannes Gutenberg em Mainz. Optogenética é uma técnica nova que permitiu aos pesquisadores inserir canais sensíveis à luz em tipos específicos de neurônios, tornando-os suscetíveis a estímulos luminosos. Isto permitiu o estímulo seletivo e definido em termos espaciais de pequenos números de neurônios corticais e talâmicos.

O acesso ao cérebro por meio de fibras ópticas permitiu tanto o registro microscópico, quanto o estímulo direto dos neurônios. Flashes de luz perto dos olhos dos camundongos também foram usados para estimular os neurônios do córtex visual. Por meio do acompanhamento do fluxo dos íons de cálcio – um sinal químico que permite uma leitura espacial mais precisa da atividade elétrica – os pesquisadores tornaram as ondas lentas visíveis. E eles também correlacionaram as leituras ópticas com medições elétricas mais convencionais. Como resultado, foi possível observar as frentes de onda individuais se propagarem – como as ondulações causadas por uma pedra atirada em um lago tranquilo – primeiro através do córtex e, daí, através de outras estruturas cerebrais.

Um novo quadro começou a emergir: Não só é possível que um pequeno aglomerado local de neurônios inicie uma onda lenta que irá se propagar até longe, recrutando várias regiões do cérebro a participar de um único evento, como isto parece ser um evento típico. “Em condições espontâneas”, afirma Konnerth, “à medida em que isto acontece comigo e você e todos os demais, todas as noites durante o sono profundo, cada parte do córtex pode ser o local de início”. Além disto, um protocolo de comunicação surpreendentemente simples pode ser visto no ritmo das ondas lentas. Durante cada ciclo de um segundo, um único aglomerado de neurônios envia seu sinal e todos os outros ficam silenciosos, como se estivessem funcionando em turnos para banhar o cérebro com fragmentos de experiências, ou de aprendizado, unidades de construção da memória. Os pesquisadores veem suas descobertas como um passo na direção de uma melhor compreensão do aprendizado e da formação de memórias, um tópico investigado pelo grupo de Konnerth com o financiamento do Conselho Europeu de Pesquisas. Ao par disto, eles também estão investigando como as ondas lentas se comportam no caso de doenças [cerebrais].

 IMAGEM: Estas medições foram feitas com o registro óptico do fluxo de íons de cálcio em neurônios modificados pela optogenética. A sequência de quatro pulsos alternados – os gerados pelo estímulo visual do córtex marcados pelo “sol” e os gerados por fibra óptica, marcados “OG”, evidencia que o estímulo artificialmente lançado sobre um pequeno grupo de neurônios causa uma resposta similar a um estímulo externo sobre todo o córtex visual. Clique aqui para mais informações.

 

###

A pesquisa foi financiada pela Fundação Alemã de Pesquisas (DFG), o Instituto de Estudos Avançados da TUM e o Núcleo de Excelência SyNergy (Núcleo de Munique para Neurologia de Sistemas), a Fundação Friedrich Schiedel Foundation e a Comissão Européia (Projeto Corticonic).

Publicação:

Making Waves: Initiation and Propagation of Corticothalamic Ca2+ Waves In Vivo. Albrecht Stroh, Helmuth Adelsberger, Alexander Groh, Charlotta Ruehlmann, Sebastian Fischer, Anja Schierloh, Karl Deisseroth e Arthur Konnerth.

Neuron 77, 1136-1150, March 20, 2013,

DOI: http://dx.doi.org/10.1016/j.neuron.2013.01.031

Matéria escura! (Será mesmo?…) [2]

Mais uma vez os meios de comunicação começaram a alardear a descoberta de indícios da confirmação da existência da matéria escura. A primeira foi com base em indícios colhidos pelo Telescópio Espacial Fermi da NASA.

Espectrômetro Magnético Alfa

Espectrômetro Magnético Alfa.

Imagem do WikiMedia Commons.

Agora são os resultados preliminares do Espectrômetro Magnético Alfa, um experimento de alto coturno com esse instrumento a bordo da Estação Espacial Internacional. Segundo esses resultados preliminares, foram detectados mais posítrons do que o que seria de se esperar nos “raios cósmicos” (na verdade, não são “raios” – são partículas de altíssima energia que atingem a Terra vindas das profundezas do espaço).

Segundo o press-release do Departamento de Energia dos EUA (o link acima, do EurekAlert):

Esse primeiro resultado relacionado à física vindo do AMS é baseado em 18 meses de operação, durante os quais o AMS mediu 6.800.000 elétrons de raios cósmicos, na faixa de energia de meio bilhão a um trilhão de elétron-Volts, e mais de 400.000 posítrons, o maior número de partículas energéticas de antimatéria jamais diretamente medido no espaço. A importância dessa medição é que ela eventualmente pode indicar a “arma fumegante” [“smoking gun”, no original – equivalente à expressão “a prova do crime” em português] de que certas partículas de matéria escura existem e que as partículas de matéria escura e antipartículas estão se aniquilando entre si no espaço. 

Embora os dados não mostrem uma “arma fumegante” até agora, essa primeira medição de alta precisão (~1% de erro) do espectro possui características interessantes, não observadas até agora, que dados futuros podem ajudar a esclarecer. Com os dados adicionais, nos anos vindouros, o AMS tem o potencial de trazer à luz a matéria escura.

hype (para variar só um pouco…) foi endossado pelo CERN (um dos órgãos envolvidos no experimento AMS), em cujo press-release consta:

Um excesso de antimatéria dentro do fluxo de raios cósmicos foi observado pela primeira vez a cerca de duas décadas. A origem desse excesso, entretanto, permanece inexplicada. Uma das possibilidades, predita pela teoria da supersimetria, é que os posítrons sejam gerados quando duas partículas de matéria escura colidam e se aniquilem. Supondo uma distribuição isotrópica de partículas de matéria escura, essa teoria teria previsto as observações feitas pelo AMS. No entanto, as medições feitas pelo AMS não podem, ainda, excluir a explicação alternativa de que os posítrons tenham origem em pulsares distribuídos em torno do plano da galáxia.

Não sem razão, Peter Woit, em seu blog Not Even Wrong, chama essa notícia de “O hype da semana”.

Os braços das galáxias

Novidades acerca da formação e da duração dos braços das galáxias

 IMAGEM: Poderosas novas simulações em computador permitem aos astrônomos compreender como os braços das galáxias espirais se formam e se mantêm.

Clique aqui para mais informações.

As galáxias em espiral são bastante fotogênicas e nossa própria galáxia, a Via Láctea, é uma galáxia em espiral. Nosso Sol vive em um dos braços desta galáxia (mais exatamente no Braço de Órion), portanto a questão sobre como os braços das galáxias se formam e o quanto duram, é bastante relevante para nós. Infelizmente, os processos de formação desses braços e suas vidas cobrem escalas de tempo literalmente astronômicas (desculpem o trocadilho) e toda a história da raça humana é uma unidade pequena demais para medir isto.

Por muito tempo, os astrônomos e astrofísicos vêm debatendo se esse tipo de estrutura de braços espirais é algo estável, ou se, cessado o motivo que os criou, eles tendem a desaparecer e as galáxias espirais se tornarem simplesmente elípticas.

Como “fazer o tempo correr” rápido o suficiente para que pudéssemos observar esse processo? Uma equipe de pesquisadores, a astrofísica Elena D’Onghia da Universidade de Winsconsin em Madison e seus colegas Mark Vogelsberger e Lars Hernquist do Centro de Astrofísica Harvard-Smithsonian criou um modelo de computador para simular os movimentos de 100 milhões de “partículas estelares”, enquanto a gravidade e outras forças da astrofísica as vão esculpindo no formato de uma galáxia.

D’Onghia declara: “Pela primeira vez somos capazes de demonstrar que os braços espirais estelares não são uma coisa passageira, como se pensou por muitos anos”. E Vogelsberger acrescenta: “Os braços espirais são auto-perpetuantes, persistentes e surpreendentemente longevos”.

Até agora, os astrofísicos debatiam sobre duas teorias predominantes. Uma declarava que os braços se formam e se desmancham ao longo do tempo. A outra, mais aceita, era que o material que forma os braços – estrelas, gás e poeira – é afetado pelos diferentes campos gravitacionais e “engarrafa”, como o trânsito em uma grande cidade, e mantém o formato por longos períodos.

Os novos resultados recaem em um ponto intermediário entre as duas teorias e sugerem que os braços realmente se formam como resultado da influência de nuvens moleculares gigantes – as regiões conhecidas como “berçários de estrelas”, presentes em quase todas as galáxias conhecidas. Quando introduzidas na simulação, essas nuvens atuam como “elemento perturbador” e têm a capacidade de não só criar esses braços, como também de sustentar indefinidamente sua forma.

D’Onghia explica :”Descobrimos que [essas perturbações] vão criando os braços espirais. Pensava-se que, quando essas perturbações fossem removidas, os braços se desfariam, mas pudemos ver que, uma vez formados, os braços se auto-perpetuam, até mesmo quando as perturbações são retiradas. Ou seja, uma vez que os braços se formam sua própria gravidade os mantém, até mesmo quando as nuvens que os criaram desaparecem”.

O modelo usado foi o de um disco galático isolado, aqueles que não são influenciados por uma outra galáxia próxima ou outro objeto. Alguns estudos recentes exploraram a possibilidade da formação dos braços galáticos a partir da influência gravitacional de um vizinho próximo (tal como uma galáxia-anã, por exemplo) sobre o disco da galáxia.

De acordo com Vogelsberger and Hernquist, as novas simulações podem ser empregadas para re-interpretar os dados de observações, obtidos tanto a partir de nuvens estelares de alta densidade, como a partir de “buracos” induzidos pela gravidade no espaço, como os mecanismos que conduzem à formação dos característicos braços das galáxias espirais.

###

Fonte: EurekAlert – 02/04/13. Puzzle of how spiral galaxies set their arms comes into focus (Universidade de Winsconsin em Madison) e New insights on how spiral galaxies get their arms (Harvard-Smithsinian Center for Astrophysics).

A carga magnética do Antipróton

Photo of  researchers examining a tubular structure to measure the magnetic charge of an antiproton.

Na busca por compreender melhor a surpreendente falta de equilíbrio entre matéria e antimatéria no universo, membros da equipe ATRAP usaram um aparelho criogênico de armazenamento para confinar um único antipróton por semanas, enquanto mediam seu campo magnético com uma precisão 680 vezes maior do que tinha sido, até então, possível com outros processos. Da esquerda para a direita Mason Marshall, Kathryn Marable, Gerald Gabrielse e Jack DiSciacca.

Crédito: Katherine Taylor/Harvard Public Affairs (via National Science Foudation)
Link para a imagem original, onde há outro link para download da imagem em alta resolução

A equipe que estuda as propriedades da antimatéria no CERN, Antihydrogen trap research team (equipe de pesquisa por confinamento de anti-hidrogênio), ou, simplesmente, Colaboração ATRAP, manteve um solitário antipróton em uma Armadilha Penning, um dispositivo que mantém as partículas confinadas em campos magnéticos de modo a não interagirem com qualquer parte material do próprio dispositivo (se a partícula o fizesse, imediatamente se aniquilaria ao fazer contato com qualquer próton normal, coisa que aconteceria bem rápido, considerando que a carga elétrica negativa do antipróton seria atraída pela carga elétrica positiva dos prótons).

Com o antipróton confinado, os pesquisadores o bombardearam com sinais de rádio-frequência e, cada vez que a frequência correta era aplicada, o impacto do fóton de RF fazia com que o spin do antripróton fosse para a frente e para trás. A partir daí era só medir a frequência correta: quanto mais alta fosse a frequência,  maior seria o campo magnético do antipróton. O resultado foi então comparado com o conhecidíssimo valor do campo magnético do próton comum.

Segundo o Modelo Padrão da Física de Partículas, o próton e o antipróton deveriam ter um campo magnético exatamente igual em força – apenas diferindo quanto à polaridade em relação a seu spin. E foi exatamente isto que os pesquisadores observaram – só que com uma precisão 680 vezes maior do que a de observações anteriores, conforme artigo publicado na edição de hoje de Physical Review Letters.

Você pode estar se perguntando: “para que então tiveram todo este trabalho, se o resultado foi exatamente o que era de se esperar?”

Armadilha Penning. Imagem de WikiMedia Commons. Link para o original

Exatamente por isso: se o resultado fosse ligeiramente diferente, então haveria algum erro no Modelo Padrão e essa diferença poderia dar uma pista para um dos maiores problemas da Física, da Astrofísica e da Cosmologia: se o Big Bang criou quantidades exatamente iguais de matéria e antimatéria (como se supõe que fez, uma vez que, no universo atual que podemos estudar, sempre as partículas são criadas aos pares partícula-antipartícula), como é que o universo conhecido é composto quase que exclusivamente por matéria?

Gerald Gabrielse, o Professor “Leverett” de Física na Universidade Harvard, líder da equipe de pesquisa, comentou: “Teria sido mais divertido e teríamos mais pistas sobre o desequilíbrio [entre matéria e antimatéria] do universo, se tivéssemos observado que os dois campos magnéticos tivessem valores diferentes”.

Só que não… A precisão da medição cada vez mais confirma o que se esperava: o Modelo Padrão da Física de Partículas está correto – cada vez com mais casas decimais – e ainda não foi desta vez que o mistério do desaparecimento da antimatéria do universo foi desvendado.

###

Fontes: Press-release 13-049 da National Science Foundation e EurekAlert da AAAS

Sobre ScienceBlogs Brasil | Anuncie com ScienceBlogs Brasil | Política de Privacidade | Termos e Condições | Contato


ScienceBlogs por Seed Media Group. Group. ©2006-2011 Seed Media Group LLC. Todos direitos garantidos.


Páginas da Seed Media Group Seed Media Group | ScienceBlogs | SEEDMAGAZINE.COM