Ciclos solares e o clima na Terra

[ Livremente traduzido daqui: Solar Cycle Linked to Global Climate ]

Os Ciclos Solares causam eventos similares a El Niño e La Niña

Image of the sun on the ocean's horizon.

Cientistas descobrem uma ligação entre os ciclos solares e o clima global similares a El Nino e La Nina.

Crédito e imagem ampliada

16 de julho de 2009

Uma pesquisa realizada pelos cientistas do Centro Nacional de Pesquisas Atmos­féricas (National
Center for Atmospheric Research = NCAR) em Boulder, Colo­rado, demonstra haver uma ligação entre os ciclos solares e o clima global, onde os máximos de atividade solar causando efeitos sobre a Terra que se asse­melham aos fenômenos conhecidos como La Niña e El Niño sobre o Oceano Pací­fico tropical. Essa pesquisa pode auxiliar na previsão de temperaturas e padrões de precipitações em determinadas fases desses ciclos que duram aproxi­ma­damente 11 anos.

Jay Fein, diretor de programa da Divisão de Ciências Atmosféricas da Fundação Nacional de Ciências (NSF), declarou: “Esses resultados são surpreendentes, já que apontam para uma série de eventos cientificamente verificáveis que rela­cionam o ciclo solar de 11 anos com o fenômeno El Niño que influencia tão for­temente as variações climáticas por todo o globo. O próximo passo será con­fir­mar ou refutar esses intrigantes resultados do modelo por meio da análise de novos dados de observações específicas”.

Embora a variação da energia total vinda do Sol para a Terra seja de apenas 0,1% ao longo de cada ciclo solar, havia tempo os cientistas pensavam que deveria haver uma ligação entre esses máximos e mínimos e as variações cli­má­ticas, de forma a poder distinguir entre esses efeitos sutis e o padrão mais am­plo das mudanças climáticas provocadas pelas atividades humanas.

A pesquisa, publicada neste mês em uma artigo no Journal of Climate, foi base­ada em trabalhos anteriores, empregando modelos computacionais do clima glo­bal e mais de um século de dados sobre as temperaturas do oceano, e foi con­duzida pelo NCAR, com o patrocínio da NSF e do Departamento de Energia do governo dos EUA.

Diz o cientista, Gerald Meehl do NCAR, autor principal do artigo: “Nós traçamos o arcabouço dos efeitos desse novo mecanismo para entender o que acontece no Pacífico tropical quando há um máximo de atividade solar. Os picos de emissão do Sol têm um efeito abrangente e sutil sobre a precipitação na região tropical e nos sistemas climáticos por todo o mundo”.

O novo artigo mostra como, quando o Sol atinge um máximo de atividade, aque­ce as regiões livres de nuvens no Oceano Pacífico o suficiente para aumentar a eva­po­ração, intensificando as chuvas tropicais e os ventos alisios,e resfriando o Pacífico Leste nos trópicos. O resultado dessa cadeia de eventos é similar a La Niña, embora o aquecimento médio de menos de dois graus seja focalizado mais a Leste e tenha apenas a metade da força de uma La Niña típica.

Nos um ou dois próximos anos, o padrão semelhante a La
Niña, causado pelo má­xi­mo da atividade solar, tende a evoluir para um padrão semelhante a El Niño, na medida em que as lentas correntes substituem as águas frias na su­perfície do Pacífico Leste Tropical com águas mais quente que o usual. Igual­mente, esse efeito tem apenas metade da força do El Niño.

O artigo não analisa os impactos climáticos dos eventos causados pelos ciclos so­la­res, porém Meehl e a co-autora Julie Arblaster, que é tanto do NCAR como do Serviço de Meteorologia da Austrália, descobriram que essa “La Niña” solar tende a causar condições relativamente quentes e secas em partes do Oeste da Amé­rica do Norte. Serão necessárias mais pesquisas para estabelecer os impactos des­ses eventos em escala global. Segundo Meehl: “Aumentar nossa compre­ensão acerca dos ciclos solares pode nos levar a conseguir conectar suas influ­ências com as probabilidades meteorológicas, de forma a alimentar previsões de longo prazo com uma abrangência de uma década”.

Há anos os cientistas sabem que as variações solares de longo prazo afetam cer­tos padrões climáticos, inclusive secas e temperaturas regionais. Porém estabe­lecer uma ligação física entre o ciclo solar de uma década e os padrões climá­ticos, se mostrou uma tarefa difícil. Uma das razões para isso é que só nos últi­mos anos os modelos computadorizados se tornaram capazes de simular de ma­nei­ra realística os processos associados com o aquecimento e resfriamento das águas do Pacífico Tropical associados com El Niño e La Niña. De posse deste novo modelo, os cientistas podem reproduzir o comportamento do Sol no último século e verificar como ele afeta o Pacífico.

Para estressar essas conexões, por vezes sutis, entre o Sol e a Terra,
Meehl e seus colegas analisaram as temperaturas da superfície do mar de 1890 a
2006. Então, usaram dois modelos de computador do NCAR para simular a resposta dos oceanos a essas mudanças na emissão do Sol. Eles descobriram que, quando as emissões do Sol atingem um pico, a pequena quantidade extra de energia solar, ao longo de vários anos, causa um pequeno aumento no aquecimento local da atmosfera, especialmente nas regiões do Pacífico tropical e sub-tropical, onde normalmente a cobertura de nuvens é escassa. O pequeno aumento do calor leva à produção de mais vapor d’água, que é levado pelos ventos alísios para as áreas normalmente chuvosas do Pacífico Tropical Oeste, alimentando chuvas mais pesadas.

Enquanto esse ciclo se intensifica, os ventos alísios se fortalecem, deixando o Pacífico Leste ainda mais frio e seco do que o
usual, produzindo condições seme­lhantes a La Niña.

Embora esse padrão no Pacífico seja produzido pelo máximo solar, os autores descobriram que sua mudança para um estado semelhante a El Niño é possi­velmente ativado pelo mesmo tipo de processo que normalmente leva de La Niña a El Niño. A transição começa quando a força dos ventos alísios produz pulsos lentos, conhecidos como ondas de Rossby, na superfície do oceano, as quais levam cerca de um ano para cobrir a distância de volta ao Oeste através do Pacífico. A energia então é refletida na borda Oeste do Pacífico Tropical e rico­cheteia para o Leste, ao longo do Equador, engrossando a camada superior da água e aquecendo a superfície do Oceano. Como resultado, ocorre um evento semelhante a El Niño, cerca de dois anos após o máximo solar. O evento cessa em cerca de um ano e o sistema volta a um estado neutro.

“El Niño e La Niña parecem ter seus próprios mecanismos distintos”, diz Meehl, “porém o máximo solar pode aparecer e viciar os dados na direção de uma La Niña fraca. Se o sistema já estivesse na direção de La Niña,” ele acrescenta, “presumivelmente será uma mais intensa”.


O Brasil e o combate à AIDS

De vez em quando é bom ver uma notícia que fala bem de alguma política do go­ver­no do Brasil, notadamente quando é veiculada pelo EurekAlert. Esse é o caso desta notícia, divulgada pela Universidade Brown: “Brazil Proves Developing Coun­­tries Can Use Generic Medicines To Fight HIV/AIDS Epidemic”. É isso mes­mo: “O Brasil prova que países em desenvolvimento podem usar medicamentos genéricos para combater a epidemia de HIV/AIDS”.

O Brasil pressionou as companhias farmacêuticas a baixarem seus preços e começou a produzir medicamentos contra a AIDS em fábricas públicas, como nesta linha de produção na Farmanguinhos.

O estudo, que te­ve como autora principal a Dra. Amy Nunn, pro­fes­­sora as­­­sistente de pesquisa em me­­dicina da Es- co­­­­la de Medicina Warren Al­pert  da Uni­ver­sidade Brown, será publicada na edição de julho/agosto de Health Affairs e tem como co-autores Fran­cisco Bastos, da Funda­ção Oswaldo Cruz, Elize da Fonseca, da Univer­sidade de Edinburgo na Escócia, e, como autora sênior, Sofia Gruskin, pro­fessora associada de saúde e direitos humanos na Escola de Saúde Pública da Universidade Harvard em Boston (onde começou a pesquisa).

O estudo enfatiza que o sucesso no combate a AIDS começa pela batalha do governo brasileiro pela produção de medicamentos genéricos, contrariando os interesses da grande indústria farmacêutica internacional, e pelas campanhas de informação do público, especialmente os dos chamados “grupos de risco”.

Segundo a notícia, “O exemplo [do governo brasileiro] motivou vastas mudanças nas políticas de saúde pública globais e de ajuda externa relacionada com a saúde global, tendo as ações do Brasil dado o exemplo de como tornar as políticas [de combate à epidemia] de HIV/AIDS mais eficazes”.

A professora Gruskin disse que “o Brasil também foi ponta de lança para importantes mudanças referentes à saúde global, políticas de comércio e proteção internacional dos direitos humanos referentes a medicamentos, e que o país forçou a haver uma maior transparência nos preços globais dos medi­ca­mentos”.

Como exemplo dessas mudanças: desde 2003, os Estados Unidos e outros países desenvolvidos que tinham se oposto às políticas do Brasil, investiram bilhões de dólares anualmente no fornecimento de medicamentos genéricos contra a AIDS para a população dos países em desenvolvimento.


Melhoramentos para as células solares

[ Traduzido daqui: Nanopillars Promise Cheap, Efficient, Flexible Solar Cells ]

09 de julho de 2009

A partir de substratos de folhas de alumínio de baixo custo, os pesquisadores do Laboratório Berkeley montaram densos arranjos de semi-condutores do tipo negativo em cristal singelo, em um dispositivo em forma de pilares nano­métricos. Quando os nano-pilares são combinados com um semi-condutor trans­parente, do tipo positivo, que serve como janela, isso resulta em uma célula fotovoltáica eficiente, barata e flexível.

Diagrama do arranjo de nano-pilares.

Um substrato de alumínio forma a base para uma floresta de nano-pilares de sulfeto de cádmio e serve também como eletrodo inferior. Quando inserido em telureto de cádmio transparente dotado de um eletrodo superior de cobre e ouro, forma uma célula solar eficiente e barata.

BERKELEY, Califórnia — Pes­qui­sadores do Laboratório Na­cio­nal Lawrence Berkeley do De­partamento de Energia e da Universidade da Califórnia em Berkeley apresentar uma nova maneira de fabricar células so­la­res eficiente a partir de ma­te­riais baratos e flexíveis. Este novo projeto cria semi-condu­tores opticamente ativos em um arranjo de pilares de di­men­sões nanométricas (1 na­nômetro = 1 bilionésimo de me­tro), cada um deles um único cristal.

Ali Javey, cientista da Divisão de Ciência dos Materiais do Laboratório Berkeley e profes­sor de engenharia elétrica da UC Berkeley, diz: “Para podermos aproveitar a abundante energia solar, temos que achar maneiras para produzir em massa elementos fotovoltáicos eficientes. Os semi-condutores de cristal singelo são mui­to promissores, mas as maneiras padrão para produzí-los não são econo­micamente viáveis”.

O trabalho básico de uma célula solar é converter a energia da luz em elétrons e “buracos” (a ausência de um elétron) portadores de carga que fluem através de eletrodos para produzir uma corrente. Diferentemente de uma célula solar plana típica, um arranjo em nano-pilares oferece uma superfície muito maior para coletar a luz. Simulações em computador indicam que, comparados a superfícies planas, os arranjos de semi-condutores em nano-pilares devem ser mais sen­síveis à luz, ter uma maior capacidade de separar os elétrons dos buracos e serem um coletor mais eficiente desses portadores de carga.

“Infelizmente, as tentativas anteriores de fabricar células fotovoltáicas com base em semi-condutores em forma de pilar, criados de baixo para cima, levaram a resultados desapontadores. A eficiência na transformação de luz para eletri­cidade foi de menos do que um a dois porcento”, explica Javey. “O processo de crescimento epitaxial de substratos mono-cristalinos era usado com frequência, mas isso é caro. As dimensões dos nano-pilares não podiam ser controladas, a densidade e o alinhamento dos pilares eram fracos e a qualidade da interface entre os semi-condutores era ruim”.

Javey usou uma nova maneira, controlada, de empregar o processo “vapor-líqui­do-sólido” para fabricar módulos em larga escala de arranjos densos e altamente ordenados de nano-pilares mono-cristalinos. Sua equipe criou, dentro de uma fornalha de quartzo, pilares de sulfeto de cádmio, rico em elétrons, sobre uma folha de alumínio na qual poros geometricamente distribuídos, feitos através de anodização, serviam como gabarito.

Dentro dessa mesma fornalha, eles embeberam os pilares formados em uma fina camada de telureto de cádmio, rico em buracos, que funciona como uma janela para coletar a luz. Os dois materiais em contato formam uma célula solar na qual os elétrons fluem através dos nano-pilares para o contato de alumínio por baixo e os buracos são conduzidos para finos eletrodos de cobre-ouro colocados na superfície da janela por cima.

A primeira célula-piloto testada apresentou um rendimento medido de apenas 6%, inferior aos 10 a 18% das células solares comerciais – mas muito melhor do que as outras células nanométricas feitas até hoje, justamente por seu arranjo em forma de nano-pilares. O fato do contato superior ser feito de cobre-ouro – materiais não transparentes – por si só já tirou uns 50% da eficiência. Outro problema é obter uma maior densidade dos pilares e diminuir a área destes que fica em contato com a janela. Esses problemas parecem ter soluções simples que serão testadas em breve.

A versão flexível do novo tipo de célula solar.

Uma célula solar flexível é obtida pela remoção do substrato de alumínio e sua substituição por um eletrodo inferior de irídio. O dispositivo é, então, envolto em plástico flexível transparente.

Com um olho nas aplica­ções práticas, além do de­sem­penho teórico, os pes­qui­sadores fabricaram uma célula solar flexível com o mesmo projeto, removen­do quim­icamente o subs­trato de alumínio e o subs­tituindo por uma fina ca­ma­da de irídio para criar o eletrodo inferior. Toda a célula solar resultante é recoberta com plástico trans­­parente (polidimetil­siloxano) para criar um dis­positivo dobrável, que pode ser flexionado com um efeito apenas marginal sobre o desempenho – e sem qualquer perda de desempenho após suces­sivas dobragens.

Javey finaliza: “Existem vá­rias maneiras de melho­rar o desempenho dos dispositivos fotovoltáicos tridimensionais em nano-pilares, assim como maneiras de simplificar os processos de fabricação, mas o método já é altamente promissor como forma de diminuir os custos de células solares efi­cientes. Obtivemos a capacidade de criar estruturas mono-cristalinas dire­tamente sobre grandes folhas de alumínio. E a configuração tridimensional sig­nifica que os requisitos de qualidade e pureza dos materiais empregados podem ser relaxados, portanto menos custosos. Os arranjos em nano-pilares são um novo caminho para módulos solares mais versáteis”.

O artigo “Three-dimensional nanopillar-array photovoltaics on low-cost and
flexible substrates
”, por Zhiyong Fan, Haleh Razavi, Jae-won Do, Aimee
Moriwaki, Onur Ergen, Yu-Lun Chueh, Paul W. Leu, Johhny C. Ho,
Toshitake Takahashi, Lothar A. Reichertz, Steven Neale, Kyoungsik Yu,
Ming Wu, Joel W. Ager e Ali Javey, será publicado na edição de agosto de Nature Materials e está disponível online em http://www.nature.com/nmat/journal/vaop/ncurrent/abs/nmat2493.html.


Buraco negro “tamanho médio”

[ Adaptado daqui: XMM-Newton discovers a new class of black holes ]

 
Artist's view of intermediate-mass black hole in its host galaxy
Concepção artística do HLX-1 (a estrela azul à esquerda)

 

1 de julho de 2009

Os astrônomos que estudavam os dados colhidos pelo Observatório Espacial XMM-Newton de Raios-X, vindos de uma galáxia distante, toparam com algo há muito tempo procurado: um buraco negro com uma massa superior a 500 mas­sas solares, um “elo perdido” entre os buracos negros de massa estelar – menos maciços – e o buracos negros super-maciços que costumam ficar nos centros das galáxias. Em outras palavras, um buraco negro de “tamanho médio”.

A descoberta que será publicada amanhã na Nature, foi feita por uma equipe inter­­nacional de pesquisadores que trabalham os dados do XMM-Newton, liderada por Sean Farrell do Centre d’Etude Spatiale des Rayonnements, agora na Universidade de Leicester.

Os astrônomos já conheciam os buracos negros de massa estelar (de cerca de três a cerca de vinte vezes a massa do Sol) e os super-maciços (de vários milhões a vários bilhões de vezes a massa do Sol). O enorme intervalo entre os dois extremos sugeria aos astrônomos a existência de um terceiro tipo de buracos negros, com massas de cem a várias centenas de vezes a do Sol. Porém, até agora, os cientistas não tinham conseguido descobrir um buraco negro que se enquadrasse nessas especificações.

A equipe de Farrell estava analisando dados em arquivo obtidos pelo XMM­Newton, à procura de estrelas de nêutrons e anãs brancas, quando esbarrou em um objeto estranhamente peculiar, observado em 23 de novembro de 2004.

Esse objeto, chamado HLX-1 (Hyper-Luminous X-ray source 1 = Fonte de Rai­os-X Hiper-Luminosa), fica na periferia da galáxia ESO 243-49, a aproxima­damente 290 milhões de anos-luz da Terra. Caso realmente localizado nessa galáxia distante, o HLX-1 seria altamente luminoso na faixa dos raios-X, com uma luminosidade de pico de 260 milhões de vezes a luminosidade do Sol.

Ao analisar a luz vinda do HLX-1, a equipe descobriu que a assinatura em raios-X era inconsistente com qualquer outro objeto que não fosse um buraco negro que está se alimentando da matéria próxima. A luminosidade medida era fraca demais para que o objeto estivesse dentro de nossa própria galáxia, e a ausência de emissões em luz visível e de rádio-frequência da posição do HLX-1, somada à assinatura em raios-X observada, indica que é pouco provável que seja uma galáxia ao fundo.

“O HLX-1 é muito luminoso na faixa dos raios-X; seu pico de luminosidade é de 260 milhões de vezes a luminosidade do Sol”.

Isso tudo quer dizar que a fonte de emissão dos raios-X deve estar dentro da ESO 243-49. Sua localização é muito distante do centro galático para que seja um buraco negro super-maciço e ele é muito brilhante para ser um buraco negro de massa estelar que esteja se alimentando no ritmo mais frenético.

Para se assegurar de que essa coisa era mesmo um único objeto astronômico e não um aglomerado de fontes mais tênues que brilhavam intensamente em conjunto, a equipe usou novamente o XMM-Newton para observá-lo em 28 de novembro de 2008.

Comparando os dados das duas observações, descobriu-se que a assinatura em raios-X variava significativamente no tempo, o que levou à conclusão de que se tratava de um único objeto. E a única explicação possível para sua intensa lumi­nosidade é que se tratava mesmo de um buraco negro maior do que 500 massas solares – nenhuma outra explicação física cabia nos dados das obsevações.

Todos os outros candidatos a buracos negros de massa intermediária desco­bertos até agora, poderiam ser explicados por outras teorias, porém este resistiu à peneira por sem mais brilhante do que todos os candidatos anteriores em mais de 10 vezes. A equipe tinha encontrado a melhor detecção de buracos negros de massa intermediária até hoje.

Embora seja já sabido que buracos negros de massas estelares sejam os rema­nescentes de estrelas enormes, não se sabe ao certo como se formam os buracos negros super-maciços. Uma das possibilidades é que eles sejam gerados pela fusão de buracos negros de massa intermediária, mas, para se provar essa teoria, era necessário provar, antes de mais nada, a existência de buracos negros de massa intermediária. Daí a importância da descoberta.

A equipe planeja agora fazer novas observações do HLX-1 nas faixas de raios-X, ultravioleta, luz visível, infravermelho e rádio-frequência no futuro próximo, a fim de compreender melhor esse objeto sem par e o ambiente que o circunda.


Tema para o mês de julho/2009 do “Roda de Ciência”: Astronomia

Photobucket

Clique no logo para ir ao “Roda de Ciência”

Venho convidar os colegas do ScienceBlogs Brasil, os demais bloguei­ros que acompanham o SBB e, mais importante, o leitor, para colaborar e acompanhar, postando e comentando, a nova discussão mensal do Meta-Blog “Roda de Ciência” (clique no logo ao lado).

O tema para este mês celebra o Ano Internacional da Astronomia e quaisquer matérias relacionadas à astronomia são bem vindas.


Para quem gosta de Física

Photobucket

O banner acima é um link para a nova revista online gerida pelo Thiago M. Gui­ma­rães do site PhysicsAct.

Vale à pena uma visita (não que eu queira fazer propaganda enganosa sobre um dos tradutores-colaboradores…)


O acelerador de partículas da Via Láctea

25 de junho de 2009

[ Traduzido daqui: Milky Way’s super-efficient particle accelerators caught in the act ]

Graças a um inédito “estudo balístico” que combina dados do Telescópio Muito Grande (Very Large Telescope) do Observatório Europeu do Sul (ESO) e do Telescópio Espacial de Raios-X Chandra da NASA, os astrônomos conseguiram solucionar um mistério antigo dos aceleradores de partículas da Via Láctea. Eles mostram, em um artigo publicado hoje em Science Express, que os raios cós­micos de nossa galáxia são acelerados de maneira muito eficiente pelos rema­nescentes de estrelas que explodiram.

ESO PR Photo 23a/09
A borda de RCW 86

Durante os voos das astronaves Apollo os astronautas relataram terem observado estranhos clarões de luz, visíveis até quando estavam de olhos fechados. Desde então aprendemos que a causa disso são os raios cósmicos — partículas extremamente energéticas vin­das de fora do sistema solar e que atingem a Terra, e que estão constantemente bombardeando sua atmos­fera. Quando elas chegam a atingir a Terra, ainda têm energia suficiente para causar defeitos em compo­nentes eletrônicos.

Os raios cósmicos galáticos vêm de fontes dentro de nossa galáxia, a Via Láctea, e consistem principalmente de prótons que se movem quase à velocidade da luz, o “limite máximo de velocidade” do Universo. Esses prótons foram acelerados a energias que excedem, e muito, as energias que mesmo o Grande Colisor de Hadrons (LHC) do CERN será capaz de atingir.

ESO PR Video 23a/09
Vídeo com Zoom-in
de RCW 86

Já se pensava há algum tempo que os super-aceleradores que produziam esses raios cósmicos na Via Láctea fossem as regiões circundantes às estrelas que explodiram, porém nos­sas observações revelam a ‘arma fumegante’ que prova isso”, diz Eveline Helder do Instituto Astronômico da Universidade de Utrecht na Holanda, a primeira autora do novo estudo.

Pode-se dizer mesmo que nós agora confirmamos o calibre da arma usada para acelerar os raios cósmicos a suas tre­mendas energias”, acrescenta o colaborador Jacco Vink, também do Instituto As­tronômico de Utrecht.

Pela primeira vez Helder, Vink e seus colegas conseguiram efetuar uma medição que resolve o persistente dilema sobre se as explosões de estrelas produzem ou não um número de partículas aceleradas que explique a quantidade de raios cós­micos que atingem a atmosfera da Terra. O estudo da equipe indica que elas realmente o fazem e nos diz diretamente quanta energia é tirada do gás impac­tado na explosão estelar e usado para acelerar partículas.

Quando uma estrela explode no que chamamos de supernova, uma grande par­te da energia da explosão é usada para acelerar algumas partículas a energias ex­tre­mamente altas”, diz Helder. “A energia que é usada para acelerar partículas fica às expensas do aquecimento do gás que, portanto, fica muito mais frio do que a teoria prediz”.

ESO PR Photo 23c/09
Imagem DSS

Os pesquisadores procuraram nos remanescentes de uma estrela que explodiu no ano 185, tal como registrado por astrônomos chineses. Os remanescentes, chamados de RCW 86, ficam localizados a cerca de 8200 anos-luz na direção da constelação de Circinus (o Compasso). Este é provavelmente o mais antigo registro de uma explosão de uma estrela.

Usando o VLT, a equipe mediu a temperatura do gás logo atrás da onda de choque criada pela explosão estelar. Eles também mediram a velocidade da onda de choque, usando imagens obtidas pelo Chandra, no intervalo de três anos, e descobriram que ela se movia a uma velocidade entre 10 e 30 milhões de km/h, entre 1
e 3% da velocidade da luz.

A temperatura medida do gás se revelou de 30 milhões de graus Celsius, o que é bem quente em comparação aos padrões cotidianos, mas muito menos do que o esperado, dada a velocidade medida para a onda de choque. Isto deveria ter aquecido o gás até, ao menos, meio bilhão de graus.

A energia que falta é o que impulsiona os raios cósmicos”, conclui Vink.

Mais informações

Esta pequisa foi apresentada em um artigo a ser publicado na Science: Measuring the cosmic ray acceleration efficiency
of a supernova remnant
, por E. A. Helder et al.

A equipe é composta por E.A. Helder, J. Vink e F. Verbunt
(Instituto Astronômico da Universidade de Utrecht, Holanda),
C.G. Bassa e J.A.M. Bleeker (Instituto Holandês de Pesquisas Espaciais), A. Bamba (Departamento de Astrofísica de Altas Energias ISAS/JAXA, Kanagawa, Japão), S. Funk (Instituto Kavli de Astro­física de Partículas e Cosmologia, Stanford, EUA), P. Ghavamian
(Instituto de Ciências do Telescópio Espacial, Baltimore, EUA), K. J. van der
Heyden (Univer­sidade de Cape Town, África do Sul), e R. Yamazaki
(Departamento de Ciência Física, Universidade de Hiroshima, Japão). 


Galáxias atingem a “maioridade”

Chandra X-ray Center

Galáxias chegam à “maioridade” em bolhas cósmicas


IMAGEM:

Imagem composta do campo estudado. Em amarelo, a imagem da radiação Lyman-alfa, do telescópio Subaru. Em branco, a imagem visível de uma galáxia, do Hubble, combinada com uma em infravermelho (em vermelho) do Spitzer. Em azul, o buraco negro visto pelo Spitzer.  

Imagem ampliada e mais informações.

A “maioridade” de galáxias e buracos negros foi identificada, graças aos novos dados do Observatório de Raios-X Chandra da NASA e outros telescópios. Esta descoberta ajuda a compreender a verdadeira natureza das gigan­tescas bolhas de gás observadas em torno de galáxias muito jovens.

Cerca de uma década atrás, os astrônomos descobriram imensos reservatórios de hidro­gênio – que eles batizaram de “bolhas” – ao explorarem jovens galáxias distantes. As bo­lhas brilham luminosas no espectro visível, po­rém a fonte da imensa energia necessária para esse brilho e a natureza desses objetos não es­­tavam claras.

Uma longa observação do Chandra identificou, pela primeira vez, a fonte dessa energia. Os dados de raios-X mostram que uma fonte significativa de energia dentro dessas estru­turas colossais vem de buracos negros super-maciços que ficam parcialmente obscurecidos por densas camadas de poeira e gás. A piro­tecnia da formação de estrelas também parece desempenhar um importante papel – dizem o Telescópio Espacial Spitzer e obser­vações feitas do solo.

“Por dez anos os segredos das bolhas ficou escondido das vistas, mas agora des­cobrimos sua fonte de energia”, declarou James Geach da Universidade Durham University do Reino Unido que chefiou o estudo. “Agora podemos con­cluir algumas importantes discussões acerca do papel que elas desempenham na construção original das galáxias e buracos negros”.


IMAGEM:
Concepção artística de uma galáxia dentro da bolha, vista de perto. As seguidas explosões de supernovas e a ejeção de massa por estrelas em fim de vida geram um poderoso vento que aquece e ilumina as nuvens de gás. 

Acredita-se que as galáxias se formam quando o gás flui para dentro sob a ação da gravidade e resfria pela emissão de radiação. Esse pro­cesso deveria terminar quando o gás fosse aquecido pela radiação e escapasse das galá­xias e seus buracos negros. As bolhas pode­riam ser um sinal desse primeiro estágio, ou do segundo.

Com base nos novos dados e em argumentos teóricos, Geach e seus colegas mostram que o aquecimento do gás pelos buracos negros su­per-maciços e as emissões das estrelas em formação, em lugar de resfriar o gás, mais provavelmente energiza as bolhas. Isso implica em que as bolhas representam um estágio on­de as galáxias e os buracos negros estão ape­nas começando a desligar seu rápido cres­ci­mento por causa desses processos de aqueci­mento. Este é um estágio crucial da evolução de galáxias e buracos negros – conhecido como “feedback” – e um que os astrônomos faz tempo tentam compreender.

“Nós estamos vendo sinais de que as galáxias e buracos negros dentro dessas bolhas que es­tão atingindo a maioridade e agora estão empurrando o gás para fora para impedir um futuro crescimento”, diz o co-autor Bret Lehmer, também de Durham. “As galá­xias maciças têm que passar por um estágio assim, ou elas formariam estrelas de­mais e acabariam ficando ridiculamente grandes nos dias atuais”.

O Chandra e uma coleção de outros telescópios, inclusive o Spitzer, observaram 29
bolhas em um grande campo nos céus, batizado de “SSA22.” Essas bolhas, que medem centenas de milhares de anos-luz, são vistas como eram quando o Universo tinha apenas cerca de dois bilhões de anos, ou seja: aproximadamente 15% de sua idade atual.


IMAGEM:
Outra concepção artística de uma galáxia dentro da bolha. Os braços espirais da galáxia aparecem em amarelo e branco. Em amarelo vivo, as emissões do buraco negro gigante o centro da mesma.

Em cinco dessas bolhas, os dados do Chandra revelaram a assinatura de buracos negros su­per-maciços em desenvolvimento – uma fonte puntual que brilha fortemente na faixa dos raios-X. Acredita-se que existam esses buracos negros gigantes nos centros da maio­ria das galáxias, inclusive a nossa. Outras três bolhas nesse campo mostram prováveis indí­cios desses buracos negros. Com base em outras observações, inclusive do Spitzer, a equi­pe de pesquisadores foi capaz de esta­belecer que várias dessas galáxias também são dominadas por notáveis níveis de forma­ção de estrelas.

De acordo com os cálculos, a radiação e os poderosos fluxos vindos desses buracos ne­gros e estrelas em formação são suficiente­mente energéticos para causar o brilho do gás de hidrogênio nas bolhas onde residem. Nos casos onde as assinaturas desses buracos ne­gros não foram detectadas, as bolhas são, em geral, menos luminosas. Os autores mostram que buracos negros com energia suficiente para “iluminar” essas bolhas ainda seriam muito fra­cos para serem detectados, dada a exten­são das observações feitas pelo Chandra.

Além de explicar a fonte de energia dessas bolhas, esses resultados ajudam a explicar seu futuro. Dentro do cenário de aquecimento, o gás nessas bolhas não se resfriaria para formar estrelas e iria se somar ao gás aquecido que se en­contra nos espaços intergaláticos. A própria SSA22 pode evoluir para um maciço aglomerado galático.

Segundo Geach: “No início, as bolhas devem ter alimentado suas galáxias, mas o que vemos agora parecem mais ser sobras. Isso quer dizer que teremos que procurar ainda mais atrás no tempo para flagrar as galáxias e buracos negros no ato de formarem bolhas”.

###

Esses resultados serão publicados na edição de 10 de julho da Astrophysical Journal. O Centro de Voo Espacial Marshall da NASA, em Huntsville, Alabama, gerencia o programa Chandra para a Diretoria de Missões Científicas da NASA em Washington.
O Smithsonian Astrophysical Observatory controla as opera­ções científicas e de voo do Chandra desde Cambridge, Massachusets.


Uma torrente de areia se comporta como água






[ Traduzido daqui: Stream of Sand Behaves Like Water ]

Pesquisas abrem um novo território para experimentos

High-speed photograph of fluidized dry granular particles.

Baixos níveis de tensão superficial causam a formação de gotículas semelhantes às de água em fluxos de materiais granulares secos.
Crédito e imagem ampliada

24 de junho de 2009

Assista a um video em alta velocidade de um fluxo de material granular em que­da livre.

Pesquisadores da Universidade de Chicago demonstraram recentemente que materiais secos granulares, tais como areias, sementes e grãos, têm proprie­dades similares às dos líquidos, formando gotículas semelhantes às da água quando derramados de algum recipiente. A descoberta pode ser importante para uma vasta gama de indústrias que usam partículas secas “fluidizadas” para o refino de petróleo, manufatura de plásticos e produção farmacêutica.

Os pesquisadores até então pensavam que partículas secas não tinham tensão su­perficial suficiente para formar gotas como os líquidos. Porém, em uma rea­lização inédita, físicos do Centro de Pesquisas e Engenharia de Materiais da Universidade de Chicago, chefiados pelo Professor Heinrich M. Jaeger, usaram fo­to­grafia de alta velocidade para medir os diminutos níveis de tensão super­ficial e detectar a formação de gotas em fluxos de materiais secos granulares.

A revista de ciências Nature
relata a descoberta na edição de 25 de junho. O centro de pesquisas de materiais da Universidade de Chicago é apoiado pela Fundação Nacional de Ciências (NSF).

Até recentemente, os estudos das assim chamadas “torrentes granulares em que­da livre” rastreava as mudanças de forma em fluxos de materiais secos, mas não eram capazes de observar a formação de gotas ou os mecanismos de aglo­meração envolvidos.

“Os estudos anteriores das torrentes granulares conseguiram detectar a aglome­ração com a realização de experiências no vácuo e foram capazes de esta­belecer que a aglomeração não era causada pelo atrito com o ar ambiente”, ex­plica Jaeger. “No entanto, a causa da aglomeração permanecia um mistério”.

Porém, nessa nova experiência, os pesquisadores mediram as forças em nano­escala que causam a formação de gotas, usando um dispositivo especial co­móvel projetado para uma câmera de alta velocidade, de US 80,000, que captura imagens de uma forma bem parecida ao jeito com que um paraquedista faz para fotografar um colega em queda livre.

Eles observaram micro-esferad de vidro com 100 micrômetros de diâmetro em queda livre, ou areia em fluxo, e descobriram que forças até 100.000 vezes me­nores do que aquelas que produzem a tensão superficial em líquidos comuns pode causar a formação de gotas em torrentes granulares e fazem com que es­sas torrentes secas se comportem como um líquido de tensão superficial ultra-baixa.

John Royer, o estudante de pós-graduação em física da Universidade de Chi­cago que desenvolveu o dispositivo, e seus colegas também mediram direta­mente as interações grão a grão com um microscópio de força atômica.

“A princípio nós pensávamos que interações entre grãos seriam fracas demais para influenciar o fluxo da torrente granular”, diz Royer. “A microscopia de força atômica nos surpreendem, demonstrano que pequenas mudanças nessas interações poderiam levar a um grande impacto no fracionamento da torrente, mostrando de maneira conclusiva que essas interações controlavam a formação de gotas”.

Os pesquisadores dizem que a compreensão sobre como os materiais secos coalescem pode levar a uma maior eficiência em seu transporte e manipulação. A produção farmacêutica de pílulas, por exemplo, pode se beneficiar com o der­ramamento de quantidades iguais de remédios em uma cápsula sempre, o que re­duziria grandemente as perdas.

“Estimativas mostram que perdemos 60% da capacidade de produção de muitas instalações industriais devido a problemas relacionados com o transporte desses materiais”, diz said Jaeger. “Assim, mesmo uma pequena melhoria em nossa com­preensão sobre como meios granulares se comportam, deve ter um profundo impacto para a indústria”.

Os pesquisadores dizem em seu relatório que esses “resultados experimentais abrem um novo território para o qual ainda não há arcabouço teórico”.

“Nossas experiências fazem duas perguntas para as quais ainda não há uma res­posta aceita”, diz Jaeger. “Ambas dizem respeito a como um líquido se separa. Como se dá a separação no limite de tensão superficial ultra-baixa e o que acontece no limite de temperaturas ultra-baixas quando as partículas deixam de se mover com relação às outras?”

“É particularmente notável que uma torrente granular composta de partículas macroscópicas forneça um modelo para explorar o assunto”.

-NSF-


Mudanças climáticas: a natureza dá alertas antecipados






[ Traduzido daqui: Sudden Collapse in Ancient Biodiversity: Was Global Warming the Culprit? ]

Cientistas descobrem sinais de alerta antecipado emitidos por ecos­sistemas em risco

Photo of ancient fossil leaves.

Antigas folhas fósseis contam uma história sobre uma súbita perda de biodiversidade que pode acontecer novamente.
Crédito e imagem ampliada

18 de junho de 2009

Os cientistas desenterraram um contundente indício da ocorrência de um súbito colapso da biodiversidade entre as plantas na antiguidade. O achado de folhas fossilizadas com 200 milhões de anos de idade no Leste da Goenlândia conta essa saga, trazendo sua mensagem através dos tempos até o dia de hoje.

Os resultados da pesquisa aparecem na edição desta semana da Science.

Os pesquisadores ficaram surpresos em descobrir que um provável suspeito de ser o responsável pela perda de vida vegetal, era um pequeno aumento do gás de efeito estufa dióxido de carbono que fez com que a temperatura da Terra subisse.

O aquecimento global vem sendo por muito tempo considerado como o culpado por extinções – a surpresa reside em que muito menos dióxido de carbono na atmosfera pode ser necessário para levar um ecossistema além do ponto sem retorno do que se pensava antes.

“Os registros da história climática da antiguidade da Terra têm produzido des­cobertas espantosas que abalam as fundações de nossos conhecimento e com­preensão das mudanças climáticas nos tempos modernos”, diz H. Richard Lane, diretor de
programa na Divisão de Ciências da Terra da Fundação Nacional de Ciências (NSF), que financiou parcialmente a pesquisa.

Jennifer
McElwain do University College Dublin, autora principal do artigo, alerta que o dióxido de enxofre emitido por extensas erupções vulcânicas, pode ter tido também um papel na extinção das plantas.

“Nós não temos meios, atualmente, para detectar mudanças no dióxido de en­xofre no passado, de forma que é difícil avaliar se o dióxido de enxofre, além da elevação do dióxido de carbono, influenciou ou não esse padrão de extinção”, diz ela.

O intervalo de tempo em estudo, no limite entre os períodos Triássico e Jurás­sico, é conhecido há tempos pelas extinções de plantas e animais.

Até esta pesquisa, pensava-se que o ritmo das extinções tinha sido gradual, ocorrendo ao longo de milhões da anos.

Segundo os cientistas, tem sido notoriamente difícil esclarecer os detalhes acer­ca do ritmo da extinção através dos fósseis, porque os fósseis só podem dar ima­gens instantâneas ou vislumbres de organismos que uma vez existiram.

Cientistas recolhem fósseis na Groenlândia

Cientistas recolhem fósseis na Groenlândia
Crédito e imagem ampliada

Empregando uma técnica desenvolvida pelo cientista Peter Wagner do Museus de História Natural de Washington da Smithsonian
Institution
, os pesquisadores puderam detectar, pela primeira vez, sinais muito anteriores de que esses antigos ecossistemas já estavam se deteriorando – antes das plantas come­çarem a se extinguir.

O método revela os sinais de alerta antecipado de que um ecossistema está com problemas, em termos de risco de extinção.

Wagner explica: “As diferenças de abundâncias de espécies nos primeiros 20 me­tros dos penhascos [no Leste da Groenlândia] onde os fósseis foram cole­tados, são do tipo esperado. Mas os 10 metros finais apresentam perdas de di­versidade dramáticas que excedem em muito o que poderíamos atribuir a um erro na coleta: os ecossistemas tinham cada vez menos espécies”.

Acredita-se que, por volta de 2100, o nível do dióxido de carbono na atmosfera do planeta possa chegar até duas e meia vezes o nível atual.

McElwain diz: “Esse é o cenário da pior hipótese, mas é exatamente esse o nível [900 partes por milhão] em que detectamos a falência da biodiversidade na anti­guidade”.

“Precisamos prestar atenção aos sinais de alerta antecipado da deterioração dos ecossistemas atuais. Nós aprendemos com o passado que altos níveis de extinção de espécies – até 80% delas – podem ocorrer muito de repente, mas eles são precedidos por um longo intervalo de mudanças ecológicas”.

A maior parte dos ecossistemas modernos ainda não chegou ao ponto sem re­tor­no em resposta às mudanças climáticas, segundo os cientistas. Porém muitos já entraram em um período de mudança ecológica prolongada.

“Os sinais de aleta antecipado são ofuscantemente óbvios”, declara McElwain. “As maiores ameaças à manutenção dos atuais níveis de biodiversidade são as mudanças no uso da terra, tais como o desflorstamento. Porém até mudanças relativamente pequenas no dióxido de carbono e na temperatura podem ter consequências inesperadamente severas sobre a saúde dos ecossistemas”.

O artigo, “Fossil
Plant Relative Abundances Indicate Sudden Loss of Late Triassic
Biodiversity in East Greenland”, 
tem como co-autores McElwain, Wagner
e Stephen Hesselbo da Universidade de Oxford.


Sobre ScienceBlogs Brasil | Anuncie com ScienceBlogs Brasil | Política de Privacidade | Termos e Condições | Contato


ScienceBlogs por Seed Media Group. Group. ©2006-2011 Seed Media Group LLC. Todos direitos garantidos.


Páginas da Seed Media Group Seed Media Group | ScienceBlogs | SEEDMAGAZINE.COM