Physics News Update nº 874

POR DENTRO DA PESQUISA CIENTÍFICA ― ATUALIZAÇÃO DAS NOTÍCIAS DE FÍSICA

PHYSICS NEWS UPDATE

O Boletim de Notícias de Pesquisas do Instituto Americano de Física, n° 874 de 7 de outubro de 2008.

E O PRÊMIO NOBEL DE FÍSICA DE 2008 VAI PARA
Yoichiro Nambu da Universidade de Chicago (EUA), Makoto Kobayashi da Organização de Pesqsuisa do Acelerador de Altas Energias (Japão) e Toshihide Maskawa da Universidade de Kyoto por seu trabalho sobre a quebra de simetria.  Nambu receberá metade do prêmio por seu trabalho sobre o mecanismo geral da quebra espontânea de simetria, enquanto Kobayashi e Maskawa recebem a outra por seu trabalho teórico que associa a quebra de simetria à existência de três famílias de quarks.
A simetria tem um papel importante na física. Os três laureados em física estudaram como as simetrias são preservadas ou violadas de diversas formas.
E o que vem a ser simetria? A simetria geométrica entre os dois lados da face de uma pessoa é um exemplo de que algo pode ser igual ou equivalente. Gire um floco de neve sextavado em um sexto de um círculo e ele parercerá o mesmo. Em física, a simetria é um conceito mais abrangente e se aplica à idéia de que uma situação física permanecerá a mesma se certas transformações acontecerem. Três das simetrias mais fundamentais têm os nomes de invariância de reversão no tempo (simbolizada pela letra T), invariância da conjugação de cargas ( C) e invariância da paridade (P).
Visualize a interação microscópica de várias partículas, como se elas fossem bolas de bilhar. A invariância temporal é a proposição de que, se assistirmos um filme da interação, ele se pareceria muito com o que veríamos se o filme fosse rodado de trás para a frente. Ou seja, a interação é invariante, ou a mesma, mesmo que o sentido do tempo seja invertido. A conjugação de cargas se refere à hipotética substiuição de todas as partículas por suas contrapartes de antimatéria.
Os físicos acreditavam que, ao fazer esse tipo de transformação, a física das interações básicas permaneceria intacta. A invariância de paridade é a proposição de que se projetássemos todas as partículas interagentes em um hipotético espelho tridimensional (substituindo todas as suas coordenadas espaciais (x, y, z) pelos valores opostos (-x, -y, -z)) a física pareceria a mesma de novo. O universo era, pensavam os físicos, invariante com respeito a todas essas três operações.Porém a natureza é complexa. Aparentemente, a maior parte das simetrias foram feitas para serem quebradas, e é aí que o trabalho em novas teorias de Nambu, Kobayahsi e Maskawa entra em cena.
Como essas assimetrias se tornaram aparentes? Nos anos 1950, os cientistas descobriram que a paridade não era invariante, ao menos com respeito à Força (Nuclear) Fraca. Isto é, a força fraca causava um tipo particular de decaimento nuclear no qual a paridade não era conservada. Em 1964, James Cronin e Val Fitch descobriram que o decaimento dos mésons K também violava a simetria de C e P, ou CP. Essas experiências causaram uma grande surpresa e os teóricos tiveram que lutar para explicar por que a natureza não era tão simétrica quanto se pensava. Os três atuais laureados com o Nobel contribuíram com artigos chave para este assunto.  Eles apresentaram a idéia de que a violação de CP poderia explicar o fato de que, em nosso universo observável, a matéria parece predominar sobre a antimatéria.
A teroria, porposta em 1972, por Kobayashi e Maskawa auxiliava a explicar essa assimetria. Além disso, outro corolário de seu trabalho era a predição da existência de novos tipos de quarks (uma das categorias de “tijolos” básicos para a construção da matéria) além daqueles já conhecidos. Esses quarks foram posteriormente descobertos em experiências.
Uma versão mais longa desta descrição estará disponível ainda hoje no website do Inside Science News Service, http://www.aip.org/isns/
AS MATÉRIAS DO PHYSICS NEWS UPDATE relacionadas com o atual prêmio já publicadas são [nota do tradutor: todas essas matérias são anteriores a minha seqüência de traduções do PNU]:
-CP violation in B mesons, http://www.aip.org/pnu/2001/split/525-1.html
-charge symmetry breaking, http://www.aip.org/pnu/2003/split/633-2.html
-direct CP violation, http://www.aip.org/pnu/1999/split/pnu420-1.htm
-earlier hint of CP violation in B mesons, http://www.aip.org/pnu/1999/split/pnu405-1.htm
-neutrinos and CP violation, http://www.aip.org/pnu/2002/split/614-3.html
-CP experiments, http://www.aip.org/pnu/2002/split/600-1.html
-electric dipole moment, http://www.aip.org/pnu/2001/split/529-1.html
-arrow of time, http://www.aip.org/pnu/1998/split/pnu402-2.htm
-invariance tests, http://www.aip.org/pnu/2002/split/578-2.html
-Lorentz noninvariance? http://www.aip.org/pnu/2003/split/623-2.html
-earlier Nobel to Veltman and t’Hooft for Higgs idea, http://www.aip.org/pnu/1999/split/pnu452-1.htm
ARTIGOS EM REVISTAS relacionados com as pesquisas que levaram ao Nobel deste ano:
-Physics Today, Feb 2003, matter-antimatter asymmetry
-Physics Today, Nov 1988, experiments in the 1950s
-Physics Today, Jan 1968, field theory and Nambu theory
-Physics Today, Oct 1996, review of Nambu papers
-Physics Today, Feb 1999, direct time non-invariance
-Physics Today, May 1999, direct CP violation
-Physics Today, May 2001, experiments at KEK and SLAC
-Scientific Amer, Nov 1976, Nambu
-Scientific Amer, Feb 1988, CP violation
-Scientific Amer, Oct 1998, matter/antimatter asymmetry
-Scientific Amer, Aug 2001, antimatter
-Scientific Amer, Jun 1986, supersymmetry
-Scientific Amer, Apr 1985, standard model
WEBSITES
– Do Prêmio Nobel: http://nobelprize.org/
– Página da Wikipedia (em inglês) sobre “quebra de simetria”, http://en.wikipedia.org/wiki/Symmetry_breaking

***********

PHYSICS NEWS UPDATE é um apanhado de notícias vindas de congressos de física, publicações diversas de física e outras fontes de notícias. É distribuído de graça como um meio de disseminar informações sobre a física e os físicos. Por isso sua divulgação é livre, desde que devidamente concedido o crédito à Associação Americana de Física. Physics News Update é publicado mais ou menos uma vez por semana.

**************

Como divulgado no numero anterior, este boletim é traduzido por um curioso, com um domínio apenas razoável de inglês e menos ainda de física. Correções são bem-vindas.

Bio-baterias

Via EurekAlert:
National Institute of Standards and Technology (NIST)

Modelos de células de poraquês sugerem possibilidades “eletrizantes”



Anatomia do poraquê: O primeiro detalhe mostra as pilhas de eletrócitos, células ligadas em série (para aumentar a voltagem) e em paralelo (para aumentar a corrente).O segundo detalhe mostra uma célula individual com canais e “bombas” percolando a membrana. O modelo Yale/NIST representa o comportamento de várias dessas células. O último detalhe mostra um canal de íons uma das peças de montagem do modelo. (Crédito da ilustração: Daniel Zukowski, Yale University)


Os engenheiros sabem há muito tempo que grandes idéias podem ser tiradas de Mamãe Natureza, mas um novo artigo* preparado por pesquisadores da Universidade Yale e do Instituto Nacional de Padrões e Tecnologia (National Institute of Standards and Technology = NIST) levam a coisa ao nível celular. Com a aplicação de modernas ferramentas de projeto a uma das unidades básicas da vida, eles argumentam que podem ser produzidas células artificiais que não só reproduzem, como de fato melhoram o desempenho das células elétricas dos poraquês. Versões artificiais das células que geram a eletricidade no poraquê podem ser desenvolvidas para se tornarem fontes de energia para implantes médicos e outros dispositivos pequenos, é o que eles dizem.
O artigo, de acordo com o engenheiro do NIST David LaVan, é um exemplo do relativamente novo campo da biologia de sistemas. “Será que entendemos como uma célula produz eletricidade bem o suficiente para projetar uma — e aperfeiçoar o projeto?”, pergunta ele.
Os poraquês canalizam a energia gerada por milhares de células especializadas, chamadas eletrócitos, até gerar potenciais elétricos da ordem de 600 Volts, de acordo com os biólogos. O mecanismo é similar ao das células dos nervos. A chegada de um sinal químico dispara a abertura de canais altamente seletivos na membrana de um célula, fazendo com que íons de sódio fluam para dentro e íons de potássio fluam para fora. A troca de íons aumenta a voltagem ao longo da membrana, o que causa a abertura de mais canais ainda. A partir de um certo ponto, o processo passa a ser auto-alimentado, resultando em um pulso elétrico que atravessa a célula. Os canais então se fecham e passagens alternativas se abrem para “bombear” os íons de volta a suas concentrações iniciais, durante o estado de “repouso”.
No total, de acordo com LaVan, existem ao menos sete diferentes tipos de canais, cada um com várias possíveis variáveis para manipular, tais como sua densidade na membrana. Células de nervos, que transportam informação em lugar de energia, podem disparar rapidamente mas com uma energia relativamente pequena. Os electrócitos têm um ciclo mais lento, mas liberam mais energia por períodos maiores. LaVan e seu companheiro Jian Xu desenvolveram um complexo modelo numérico para representar a conversão da concentração de íons em impulsos elétricos e o testaram comparando com dados anteriormente publicados sobre eletrócitos e células de nervos para verificar sua precisão. A partir disso, consideraram como otimizar o sistema para maximizar a vazão de energia, através da modificação geral dos tipos de canais.
Seus cálculos mostram que são possíveis melhoramentos substanciais. Um projeto de célula artificial pode gerar mais do que 40% de energia a mais, em um único pulso, do que um eletrócito natural. Outro, poderia produzir valores de pico mais do que 28% maiores. Em princípio, dizem os autores, camadas empilhadas de células artificiais em um cubo ligeiramente maior do que 4 mm de aresta são capazes de produzir um fluxo de corrente contínuo de cerca de 300 microWatts para ativar pequenos dispositivos implantados. As fabricações dos componentes individuais de tais células artificiais — inclusive um par de membranas artificiais separados por uma camada isolante e canais de íons, que podem ser criados pela engenharia sobre proteínas  — já foram demonstrados por outros pesquisadores. Tal como em sua contraparte natural, a fonte de energia para as células seria do trifosfato de adenosina (ATP), sintetizado a partir dos açúcares e gorduras do corpo, com o uso de bactérias ou mitocôndrias específicas.

###

* J. Xu e D.A. LaVan. “Designing artificial cells to harness the biological ion concentration gradient”. Nature Nanotechnology, publicado online em 21 de setembro de 2008.

“Pergunte a um físico”

O Everton (o popular “Tom” da Comunidade “Física” do Orkut) resolveu ressuscitar uma antiga iniciativa da USP: “Pergunte a um físico”. Para isso, ele se valeu do Grupo de Discussão do Google “Brasil Ciência” onde se encontram muitos deles (e todos os moderadores da Comunidade do Orkut).
Para maiores informações sobre como perguntar a um físico, visite esta página do “Ars Physica“.
Só recomendo um cuidado aos interessados: vocês podem acabar se apaixonando pelo assunto e se tornarem cabotinos como yours truly — quem sabe até se tonando um Blogueiro de Ciências?… 😉

Ensurdecendo as baleias

Via EurekAlert, cheguei a este release do Monterey Bay Aquarium Research Institute(MBARI):

MBARI News Release:
29 de Setembro de 2008

Elevando o volume — O Som chega mais longe debaixo d’água à medida em que os oceanos do mundo se tornam mais ácidos

É de conhecimento geral que os oceanos e a atmosfera do mundo estão se aquecendo, na medida em que a espécie humana libera mais e mais dióxido de carbono na atmosfera da Terra. No entanto, menos pessoas compreendem que a composição química dos oceanos também está mudando — a água  do mar está se tornando mais ácida no mesmo passo em que mais dióxido de carbono da atmosfera se dissolve nos oceanos. De acordo com um artigo a ser publicado nesta semana pelos químicos marinhos do Insituto de Pesquisa do Aquário da Baía de Montery (Monterey Bay Aquarium Research Institute), essas mudanças na temepratura e na composição química do oceano terão um efeito colateral inesperado — os sons vão chegar mais longe debaixo d’água.


Esta ilustração mostra como o aumento do dióxido de carbono na atmosfera leva a um aumento da acidificação da água do mar, que, por sua vez, permite que os sons (tais como os emitidos por baleias) cheguem mais longe debaixo d’água.
Imagem:©2008 MBARI
(Imagem original: cortesia de David Fierstein)

Projeções conservadoras feitas pelo Painel Intergovernamental sobre Mudanças Climáticas (Intergovernmental Panel on Climate Change = IPCC) sugeriam que a composição química da água do mar pudesse ser modificada em até 0,3 unidades de pH nas alturas de 2050 (vida abaixo informação adicional sobre o pH  e a acidificação dos oceanos). Em na edição de 1 de outubro de 2008 de Geophysical Research Letters, Keith Hester e os coautores calculam que essa mudança na acidez dos oceanos permitirá que os sons cheguem até 70% mais longe debaixo d’água. Isto vai elevar o ruído de fundo nos oceanos e pode afetar o comportamento dos mamíferos marinhos.

Os químicos oceânicos sabem, há décadas, que a absorção do som pela água muda com a própria composição química da água. Quando o som se propaga através da água do mar, faz com que grupos de átomos vibrem, absorvendo os sons em freqüências específicas. Isso envolve várias interações químicas que não são inteiramente compreendidas. No entanto, o efeito em geral é fortemente controlado pela acidez da água do mar. A linha de base é que, quanto mais ácida a água do mar, menos sons de baixa e média freqüência ela vai absorver.

Desta forma, à medida em que os oceanos se tornam mais ácidos, os sons chegarão mais longe debaixo d’água. De acordo com os cálculos de Hester, uma mudança assim na composição química terá maior efeito nos sons abaixo de cerca de 3.000 ciclos por segundo (duas oitavas e meias acima do “dó” do meio do teclado em um piano).

Esta faixa de freqüências de som inclui a maior parte dos sons de “baixa freqüência” usados pelos mamíferos marinhos para procurar alimento e para acasalamento. Também inclui muitos dos sons subaquáticos gerados por atividades industriais e militares, bem como por barcos e navios. Este ruído gerado pela atividade humana aumentou dramaticamente nos últimos 50 anos, na proporção em que as atividades humanas no oceano aumentaram.

Os pesquisadores do MBARI afirmam que o som pode já estar chegando 10% mais longe do que o fazia a poucas centenas de anos atrás. Entretanto, eles predizem que, por volta de 2050, mesmo com as projeções conservadoras sobre a acidificação do oceano, os sons chegarão até 70% mais longe em algumas áreas oceânicas (particularmente no Oceano Atlantico). Isso pode aumentar muito a capacidade dos mamíferos marinhos em se comunicar a longas distâncias. E pode, igualmente, aumentar o ruído de fundo com o qual eles têm que conviver.

Não existem registros de longo-prazo sobre a absorção de sons em grandes áreas oceâncias. Não obstante, so pesquisadores citam um estudo feito ao largo da costa da Califórnia que mostrou um aumento no ruído oceânico entre 1960 e 2000 que não pode ser diretamente atribuído a fatores tais como ventos oceânicos ou navios.

A pesquisa de Hester mostra, mais uma vez, como as atividades hjumanas estão afetando a Terra de maneiras inesperadas e de longo alcance. Com dizem os pesquisadores em seu artigo: “As águas na superfície do oceano estão passando agora por uma transição extraordinária em seu estado químico fundamental, em um passo que não é visto na Terra há milhões de anos, e os efeitos estão sendo sentidos não só em impactos biológicos, mas, também, nas propriedades geofísicas, inclusive na acústica dos oceanos”.

Esta pesquisa foi financiada pela Fundação David e Lucile Packard.
Acidificação dos oceanos — informações complementares

No século passado, carros, usinas de energia e várias atividades humanas liberaram centenas de bilhões de toneladas de dióxido de carbono (CO2) na atmosfera da Terra. Ao analisar os efeitos dessa experiência química de escala planetária, os cientistas descobriram que cerca de metade deste CO2 foi absorvido pelos oceanos do mundo. Nos últimos cinco a dez anos, químicos oceanográficos chegaram à conclusão que a adição de dióxido de carbono aos oceanos os tornou mais ácidos, tal como a adição de dióxido de carbono à água gaseificada a faz se tornar mais ácida.

Os químicos medem a acidez em unidades de pH, em uma escala que vai de 0 (o mais ácido) a 14 (o menos ácido, ou seja, mais alcalínico). A água neutra da bica (lá nos EUA), por exemplo, tem um pH de cerca de 7. Em termos de comparação, o suco de limão tem um pH de cerca de 2 e o ácido da bateria do seu carro pode ter um pH de 0,8. A água do mar, por outro lado, usualmente é levemente alaclina, com um pH de cerca de 8,1.

Químicos marinhos (inclusive Peter Brewer do MBARI) estimam que o pH dos oceanos do mundo já caiu eem cerca de 0,1 unidades de pH desde o início da Revolução Industrial, há cerca de 250 anos. Eles estimam, ainda, que o pH do oceano possa cair outras 0,2 unidades de pH (para 7,9) por volta do ano 2050. Isto pode parecer uma mudança não muito grande, porém pode ter um impacto significativo nos corais e outros organismos marinhos cuja química corporal é adapatada a milhões de anos de condições químicas relativamente constantes.

Para mais informações sobre esta notícia, por favor entre em contato com:
Kim Fulton-Bennett (Monterey Bay Aquarium Research Institute)
(831) 775-1835, kfb@mbari.org
ou
Peter Weiss (American Geophysical Union)
202-777-7507 pweiss@agu.org


Artigo com a pesquisa:
K. C. Hester, E. T. Peltzer, W. J. Kirkwood, e P. G. Brewer, “Unanticipated consequences of ocean acidification: A noisier ocean at lower pH”. 2008. Geophysical Research Letters, Vol. 35 nº31 (1 de outubro de 2008).
Links relacionados (em inglês):

Traduzido e publicado com a expressa (e gentil) autorização de:

Kim Fulton-Bennett
—————————-
Communications Associate
Monterey Bay Aquarium Research Institute (MBARI)

Physics News Update nº 873

POR DENTRO DA PESQUISA CIENTÍFICA ― ATUALIZAÇÃO DAS NOTÍCIAS DE FÍSICA

PHYSICS NEWS UPDATE

O Boletim de Notícias de Pesquisas do Instituto Americano de Física, n° 873 de 25 de setembro de 2008, por Philip F. Schewe, James Dawson e Jason S. Bardi

A MAIS DISTANTE COISA VISÍVEL.

Pela primeira vez na história você poderia ter visto até a metade do caminho da origem do universo a olho nu. Na noite de 19 de março de 2008 um telescópio montado no espaço observou um clarão vindo de um jato de raios gama, um objeto celeste extremamente explosivo, que estabeleceu diversos recordes. Primeiro, se você estivesse olhando naquela direção, você teria sido capaz de ver, com seus próprios olhos somente, algo a uma distância maior do que sete bilhões de anos-luz — mais longe do que qualquer ser humano já enxergou em toda a história.  Segundo, uma vez que olhar para o espaço é equivalente a olhar para trás no tempo (o tempo que leva para a luz vir desses objetos até a Terra é de muitos anos), você estaria testemunhando a coisa mais velha visível a olho nu.

Um novo relatório descreve as observações da explosão, feitas por um telescópio orbital chamado Swift e por alguns telescópios com base em Terra que entraram em ação assim que foram avisados pelo Swift. O Swift tem três detectores a bordo que observam, não a luz visível comum, mas a luz muito mais energética na forma de raios-x e raios gama. Uma das características da missão Swift é que, assim que ele vê qualquer coisa interessante, ele alerta controladores no solo, de forma que outros telescópios possam ser apontados naquela direção. Dessa forma a explosão, cujo nome oficial é GRB 080319B, pode ser seguida por telescópios sensíveis ao outros tipos de luz, tais como infravermelho e até ondas de rádio.

O evento de 19 de março é um exemplo de um jato de raios gama. Isto acontece quando certas velhas estrelas massivas esgotaram seu combustível interno. Quando uma estrela fica sem combustível, a força da gravidade faz com ela se contraia. Se este processo for suficientemente violento, a estrela pode explodir como uma supernova.  Em alguns casos especiais, o que resta é um buraco negro e ondas de choque que se propagam para fora e, quando se entrecruzam, podem criar um brilhante clarão de luz. Por algum tempo, essa luz é mais poderosa do que a proveniente de toda uma galáxia de estrelas. (sic)

O cone de energia que se espalha a partir da explosão pode ser bastante estreito, e forma que, para ser observado tão distante, como esse objeto foi, ele tem que estar exatamente alinhado de forma que o Swift possa vê-lo. Este jato de raios gama não foi o mais distante já observado com um telescópio, mas foi o mais brilhante em termos de energia liberada. Tão brilhante que, de fato, pode ser visto a olho nu em certas áreas das Américas do Norte e do Sul na noite de 19 de março, mesmo que por apenas cerca de 40 segundos. O clarão de luz que chegou á posição do Swift em sua órbita foi tal que dois dos três detectores do Swift ficaram temporariamente ofuscados.

Por sorte, diversos telescópios foram rapidamente colocado em posição e puderam estudar a explosão estelar se desenrolar. A essas alturas, o raios gama, a parte mais energética da explosão de luz, já tinham sumido. Mas outros tipos de luz continuaram a ser emitidos do local. De acordo com a cientista da Swift, Judith Racusin, uma astrônoma na Universidade Penn State, este se tornou o jato de raios gama melhor estudado e as observações já modificaram nosso modo de pensar acerca de como esses jatos funcionam.

Quando se olha para o céu noturno, cerca de 3.000 estrelas são visíveis. Tudo o que se pode ver à noite é um planeta de nosso Sistema Solar ou uma dessas estrelas, todas elas localizadas em nossa própria galáxia, a Via Láctea. A coisa mais distante que pode ser normalmente vista a olho nu — e com alguma dificuldade — é a galáxia de Andrômeda, que fica a cerca de 2,5 milhões de anos luz distante. Somente uma vez, em média, a cada século, uma supernova de outra galáxia mais distante fica visível. E, recentemente, já havia 400 anos desde que uma dessas tinha sido vista.

Isso torna o evento GRB 080319B mais impressionante ainda. Ele quebra o recorde do evento-mais-distante-observável-a-olho-nu por um fator de mil. Localizado na Constelação de Bootes (o Boiadeiro), o jato de raios gama fica a uma distância de 7 bilhões de anos-luz, o que significa que levou 7 bilhões de anos para a luz da explosão chegar à Terra. Isso significa que uma pessoa que tenha observado a parte visível da explosão, viu algo com metade da idade do universo, desde o “Big Bang”, quando, de acordo com a moderna cosmologia, começou o universo. Quando a explosão aconteceu, o Sol não tinha aparecido, ainda, muito menos a Terra, menos ainda a espécie humana. (Os resultados apareceram na revista Nature de 11 de setembro de 2008.)

PREDIZENDO (BEM… QUASE…) O RESULTADO DAS ELEIÇÕES PRESIDENCIAIS.

Dois matemáticos bolaram o que eles dizem ser um processo “surpreendentemente eficaz” para predizer o resultado da eleição presidencial dos EUA, usando estatística de medianas com base nas pesquisas eleitorais.

Em um artigo no periódico Mathematical and Computer Modeling, Wes Colley, da Universidade do Alabama, Huntsville, e J. Richard Gott III, da Universidade de Princeton, disseram ter desenvolvido um sistema que usa as margens de vitória de cada candidato em cada uma das várias pesquisas realizadas durante o último mês. Essas margens são classificadas da maior para a menor, e o número do meio, ou mediana, é usado como o escore do candidato para cada estado em particular.  Colley é nacionalmente conhecido por seu sistema de modelagem em computador usado para estabelecer os rankings do futebol americano (universitário) pela NCAA, e seu novo sistema apresenta Barack Obama  na frente de John McCain.

“John McCain precisa mudar o resultado em vários estados para abrir seu caminho, enquanto que Obama pode se dar ao luxo de perder um ou dois e ainda ganhar as eleições”, declarou Colley. Antes que os partidários de Obama comecem a estourar o champanhe, entretanto, eles devem tomar conhecimento de novas pesquisas feitas pelo Instituto para Pesquisa de Operações e as Ciências de Administração (Institute for Operations Research and the Management Sciences = INFORMS), com sede em Maryland, a maior sociedade do mundo para profissionais de pesquisas de operações.

Usando uma metodologia que “aplica um modelo matemático aos dados das pesquisas estaduais, usando um algoritmo de programação dinâmico para predizer os resultados da eleição”, INFORMS diz que McCain está á frente por 27 votos no Colégio Eleitoral (282.8 votos para McCain, 255.2 para Obama). E aí aparece o fundador do Centro de Pesquisas da Universidade de New Hampshire e antigo editor-gerente do Instituto Gallup, David Moore, que revela em um novo livro que “pesquisas feitas pela mídia não são usadas para descobrir as vontades ou opiniões do público, mas, ao contrário, servem para fabricar uma ‘opinião pública’ que capture a atenção dos jornalistas e possa ser usada para ‘tampar buracos’ nos noticiários”. A metodologia usada pelas maiores pesquisas nacionais, diz ele, “dão falsas leituras sobre os candidatos preferidos pelos votantes e sobre o que o público quer”.

[Comentário do tradutor: o nosso velho “Barão de Itararé” já dizia que “existe a opinião pública e a opinião que se publica”]

ANÚNCIOS MULTILÍNGÜES.

No mundo, cada vez mais competitivo, do marketing global, como uma companhia multinacional, com base nos EUA, Bélgica ou Japão, deve decidir qual linguagem deve ser usada para anúncios na televisão para vender produtos na Índia?  Será melhor anunciar em Hindi, a linguagem nativa da Índia, ou inglês, a linguagem que a maior parte da população urbana da Índia também fala e compreende?

Pesquisadores das Universidades de Minnesota e Michigan descobriram que a resposta depende um bocado do produto que se quer vender. Produtos de luxo, tais como chocolates finos, vendem melhor em países bilíngües se usarem o inglês, mas produtos de primeira necessidade, tais como detergente, vendem melhor se anunciados na linguagem nativa, foi o que os pesquisadores descobriram. Porém a melhor escolha pode ser uma mistura das linguagens. “A questão dos consumidores bilíngües é cada vez mais crucial para as corporações multinacionais”, diz Rohini Ahluwalia, um pesquisador de marketing na Carlson School of Management de Minnesota. “Para alguém na Espanha, um anúncio de um item de luxo de uma firma estrangeira pode ter um maior impacto se for falado em inglês ou ‘espanglês’, do que se for falado em espanhol somente”, diz Ahluwalia.  “Ao contrário, se o produto anunciado for um item de primeira necessidade, a linguagem nativa é mais persuasiva”. Um estudo de Ahluwalia e o pesquisador de marketing da Universidade de Michigan, Aradhna Krishna, realizado na Índia revelou que a escolha da linguagem é carregada de simbolismo e escolher o que funciona é difícil. A linguagem Hindi foi associada com “familiaridade”, enquanto o inglês foi associado com “sofisticação”, dizem os pesquisadores. As implicações para os orçamentos multimilionários de propaganda podem ser sérias. Anúncios de companhias estrangeiras somente em inglês funcionam melhor do que anúncios na linguagem local que “podem sair pela culatra, causando ceticismo no consumidor”, declarou Ahluwalia. Porém, “o mais seguro é usar anúncios com linguagens misturadas”.

**************

Como divulgado no numero anterior, este boletim é traduzido por um curioso, com um domínio apenas razoável de inglês e menos ainda de física. Correções são bem-vindas.

[E que mal pergunte este mero tradutor: que raios publicidade tem a ver com física????]

Balão mágico

Via EurekAlert:
Cornell University Communications

Cientistas da Uinversidade Cornell criam o menor balão do mundo — apenas um átomo de espessura

Usando apenas um pouco de grafite, um pedaço de fita adesiva e um wafer de silício, os  pesquisadores da Cornell criaram uma membrana em forma de balão que tem apenas um átomo de espessura — mas é forte o bastante para conter gases sob várias atmosferas de pressão sem estourar.

E, ao contrário de seu balão de aniversário comum — ou mesmo de um recipiente grosso e resistente de vidro — a membrana é ultra-forte, a prova de vazamentos e impermeável até para os elusivos átomos de hélio.

A pesquisa, realizada pelos antigo estudante de pós-graduação de Cornell, Scott Bunch, (agora um professor  assistente na Universidade do Colorado), o professor de física da  Cornell,  Paul McEuen  e colegas da  Cornell, pode levar a várias outras tecnologias — desde novas maneiras de imagear materiais biológicos dentro de soluções, até técnicas para estudar os movimentos dos átomos ou íons através de orifícios microscópicos.

O trabalho foi realizado pelo Centro de Pesquisas de Materiais da Cornell, apoiado pela Fundação Nacional de Ciências e publicado em uma recente edição de Nano Letters.

Grafeno, uma forma de átomos de carbono em um plano com a espessura de um átomo, é o material mais forte do mundo, com estreitas ligações covalentes em duas dimensões que o mantém unido como a membrana mais estreita possível. Ele também é um semimetal, o que quer dizer que ele conduz eletricidade com mudanças em seu ambiente eletrostático.

Os cientistas descobriram. há vários anos, que isolar películas de grafeno é simples: basta colar fita adesiva a grafite pura, descascar e re-grudar a um wafer de dióxido de silício. Ao ser descascada novamente do wafer, a fita deixa um resíduo de grafite com uma espessura que varia e uma a uma dúzia de camadas — e, a partir daí, os pesquisadores podem identificar facilmente as áreas de grafeno com uma camada apenas de espessura.

Para testar a elasticidade do material, a equipe de Cornell depositou  grafeno em um wafer entalhado com buracos, encerrando gás dentro das micro-câmeras seladas com grafeno. Então, eles criaram um diferencial de pressão entre o gás dentro e fora da microcâmera. Com um microscópio  de medição de força atômica, que mede o grau de deflexão que um pequeno cantilever experimenta enquanto varre alguns nanômetros da superfície da membrana, os pesquisadores observaram o grafeno, enquanto ele defletia para dentro ou para fora, em resposta às mudanças de pressão — de até várias atmosferas — sem romper.

Eles também transformaram a membrana em um pequeno tambor,  medindo sua freqüência de oscilação em diferentes pressões. Eles descobriram que o hélio, o segundo menor elemento  (e o menor gás testável, já que o hidrogênio gasoso faz moléculas aos pares), permanece aprisionado por uma parede de grafeno — mais uma vez, mesmo sob pressões de várias atmosferas.

“Quando se faz os cálculos, é de se esperar que nada possa atravessar, de forma que não é uma surpresa científica”, disse McEuen. “Mas a experiência com efeito comprova que a membrana está perfeita”  — uma vez que até mesmo um buraco do tamanho de um átomo permitiria que o hélio escapasse com facilidade.

Uma membrana assim pode ter todo o tipo de emprego, acrescenta ele.  Ela pode formar uma barreira em um dispositivo tipo aquário, por exemplo, permitindo aos cientistas imagear materiais biológicos em soluções, através de uma parede praticamente invisível, sem sujeitar o microscópio ao ambiente úmido.  Ou os pesquisadores poderiam perfurar buracos do tamanho de átomos na membrana e usar o sistema para estudar como átomos isolados ou íons passam através da abertura.

“Isso poderia servir como um tipo de sucedâneo artificial para um canal iônico para a biologia”, disse  McEuen — ou como um meio de medir as propriedades de um átomo, observando seu efeito sobre a membrana.

“O que se está fazendo é ligar um sistema macroscópico às propriedades de um único átomo” , ele declarou, “e isso fornece oportunidades para todos os tipos de sensores para átomos isolados”.

###

Os co-autores da publicação são os estudantes de pós-graduação em física da Cornell,  Arend van der Zande e Jonathan Alden; o pesquisador pós-doutorado Scott Verbridge; e os professores Jeevak Parpia  e Harold Craighead.

Por Lauren Gold

Caçando a Energia Escura

Via EurekAlert:
DOE/Lawrence Berkeley National Laboratory
BOSS: The Baryon Oscillation Spectroscopic Survey (Pesquisa Espectrocópica de Oscilação de Bárions)
Uma maneira original para medir a energia escura com galáxias e quasares



O telescópio Sloan Digital Sky Survey’s de 2,5m no Observatóroio de Apache Point, Novo Mexico.
Crédito: Sloan Digital Sky Survey, Astrophysical Research Consortium


A Pesquisa Sloan Digital do Céu (Sloan Digital Sky Survey = SDSS) usa um telescópio de 2,5m com um campo de visão mais largo do que qualquer outro grande telescópio, localizado no topo de uma montanha no Novo México chamada Apache Point e inteiramente devotado a mapear o universo. Agora sabemos que uns três quartos do universo são constituídos de energia escura, cuja própria existência era totalmente insuspeita quando foi iniciada a construção do telescópio em 1994 e ainda era controversa quando a primeira pesquisa Sloan começou em 2000.
A investigação da energia escura, desde então, se tornou uma das  tarefas mais cruciais do SDSS. O programa de mapeamento SDSS-III, o terceiro maior deles, começou no verão de 2008, sendo o maior de seus componentes uma sonda de energia escura chamada BOSS, acrônimo de Baryon Oscillation Spectroscopic Survey.
O astrofísico David Schlegel, membro da Divisão de Física do Laboratório Nacional Lawrence Livermore do Departamento de Energia dos EUA, desde 2004,  é o investigador principal do BOSS; anteriormente da Universidade Princeton, Schlegel faz parte da equipe do SDSS desde seu início.
“Para dizer a verdade, na primeira vez que eu ouvi falar de energia escura, eu fiquei cético”, disse Schlegel.
Os indícios vieram de estudos, cujo pioneiro foi o Supernova Cosmology Project com base no Laboratório Berkeley, comparando o brilho e o desvio para o vermelho (redshift) de distantes supernovas do Tipo Ia.  Os resultados mostraram que a expansão do universo estava se acelerando, impulsionada por alguma coisa que, por ser desconhecida, logo foi rotulada como energia escura.
Schlegel logo mudou seu ponto de vista e imediatamente percebeu que o telescópio Sloan, “que tem um campo de visão enorme”, poderia ser usado para um tipo diferente de medição de energia escura, um totalmente independente do estudo das supernovas. A oscilação acústica dos bárions é um nome de fantasia para a maneira pela qual as galáxias se distribuem; sua densidade varia de modo regular, com elas se agrupando aproximadamente a cada 500 milhões de anos-luz, o que fornece uma “régua graduada” natural para medir o quanto o universo se expandiu desde o início de sua história.
No entanto,  para usar uma régua de 500 milhões de anos-luz, se deve ter ao menos alguns bilhões de anos-luz para medir. O telescópio Sloan foi especialmente projetado para observar um enorme volume de espaço como esse.



As anisotropias no fundo cósmico de microondas, originadas quando o universo tinha menos de 400.000 anos de idade, são diretamente relacionadas com as variações nas densidades das galáxias que observamos hoje.
Crédito: NERSC, Berkeley Cosmology Group


A distribuição da massa visível no universo

“Bárion” (o que significa prótons e nêutrons e outras partículas relativamente massivas) é uma “abreviatura” para “matéria comum”. Durante quase todos os primeiros 400.000 anos, o universo era tão denso que as partículas de matéria ficavam completamente entrelaçadas com partículas de luz (fótons), tornando o todo uma espécie de enorme e trêmula bolha, onde as variações de densidade causavam ondas de som (ondas de pressão) que se moviam esfericamente para fora a uma velocidade de metade da velocidade da luz.
De repente, o universo em expansão se resfriou o suficiente para que a luz e a matéria se “desacoplassem”. Os fótons partiram através do universo transparente, sem nada que os detivesse; a velocidade do som despencou. O que tinham sido variações de densidade no universo líquido deixou dois tipos de marcas no céu, agora transparente.
As variações na temperatura da radiação que preenchia o universo jovem, nos aparecem hoje como as anisotropias do Fundo Cósmico de Microondas (cosmic microwave background  = CMB). As variações  na densidade da matéria persistem nas formas dos aglomerados de galáxias, como oscilações acústicas dos bárions (baryon acoustic oscillations  = BAO). As duas escalas, a anisotropia de aproximadamente um grau do CMB e o agrupamento de 500 milhões de anos-luz da BAO, são intimamente ligados; a “régua padrão” para o universo medida pela BAO pode ser aferida a partir do CMB para qualquer estágio posterior ao desacoplamento.
Schlegel e seu colega Nikhil Padmanabhan, que veio para o Laboratório Berkeley de Princeton no fim de 2006, usaram inicialmente o telescópio SDSS para completar o maior mapa tridimensional do universo até então: 8.000 graus quadrados de céu, até uma distância de 5,6 bilhões de anos-luz, estabelecendo a aglomeração de 60.000 galáxias vermelhas luminosas. Esse programa, parte do SDSS-II, mediu as distâncias galáticas até um redshift de z = 0,35 e detectou a escala de 500 milhões de anos-luz para a BAO.
“Nós ficamos particularmente excitados pelo fato de podermos fazer essa medição”, declara Schlegel. “Nós provamos que existe uma “régua” que podemos usar”.
“Com o BOSS, nós vamos passar de ter uma medição qualquer, para ter uma medição muito mais precisa que podemos usar para estabelecer os limites da energia escura”, declara Padmanabhan.
O BOSS vai dobrar o volume de espaço no qual as galáxias luminosas vermelhas serão estudadas, observando 10.000 graus quadrados de céu, até redshifts de z = 0,7; a amostra de galáxias vai subir de 60.000 para 1,5 milhões. O BOSS também vai incluir um novo tipo de objeto, medindo até 200.000 quasares em redshifts mais extremos de z = 2 ou mais.



David Schlegel, principal investigador do BOSS, exibe uma das várias placas que serrão usadas para mapear e selecionar centenas de galáxias a cada exposição. A luz de cada galáxia entra por um orifício na placa e é levada por uma fibra óptica individual para a câmera CCD.
Crédito: Roy Kaltschmidt, Lawrence Berkeley National Laboratory


“A época dos quasares mais comuns fica entre os redshifts 2 a 3″, diz Schlege, “Exatamente o suficiente para que ainda possamos vê-los nas faixas ópticas do azul e ultravioleta; nesse respeito, a natureza foi gentil conosco. O BOSS vai procurar primeiro a energia escura nesses redshifts. Só umas poucas supernovas do tipo Ia foram encontradas além do redshift 1″.
Galáxias e quasares dão diferentes meios de medir a expansão do universo usando a oscilação acústica de bárions. O ângulo de separação entre as galáxias pelo céu e a distância de sua separação ao longo da linha de visada (em diferentes redshifts) mostram o quanto a régua cósmica da BAO mudou desde que os bárions e os fótons se desacoplaram.
“No momento do desacoplamento, as oscilações dos bárions se congelaram”, diz Padmanabhan. “Um teste de geometria realmente simples nos mostra o quanto a escala se expandiu – e acelerou – desde que as oscilações foram congeladas”.
Os quasares permitem a visão de um tipo de oscilação de bárions, diferente da distribuição das galáxias, o da densidade variável do gás no universo, que pode ser sondada em centenas de pontos ao longo da linha de visada de cada quasar.
O espectro medido de um quasar individual é condicionado pela absorção de sua luz pelas nuvens de hidrogênio, entre o quasar e o observador. “Se o universo estivesse vazio, o espectro não teria quaisquer características”, diz  Schlegel. “Nós estamos usando os quasares como uma luz de fundo para medir a absorção pelo hidrogênio”.
E porque o CMB trava com precisão o valor da BAO no momento do desacoplamento – equivalente  a um redshift z = 1,089 – ele amplifica grandemente a precisão das oscilações acústicas de bárions em épocas mais recentes e com menores redshifts. Padmanabham diz que ” O BOSS vai ficar dentro de um fator de 2 do melhor mapeamento possível da BAO no universo”.
Schlegel acrescenta, “Ninguém vai repetir essa experiência”.
O que será necessário

Mesmo sendo o telescópio Sloan tão bom, o BOSS vai precisar de alguns melhoramentos importantes nos instrumentos, que serão realizados sob a direção da física do Laboratório Berkeley Natalie Roe. A primeira tarefa é aumentar o número de objetos que podem ser medidos a cada exposição.
Os objetos a serem incluídos na pesquisa (galáxias ou quasares) são inicialmente escolhidos e localizados a partir de fotos anteriores. Então se faz uma perfuração em uma placa, uma máscara para reduzir a luz ambiente. Em cada perfuração é ligada uma fibra óptica para levar a luz do objeto diretamente para as CCDs. O diâmetro, separação e outras características das fibras impõem um limite no número de quantas podem ser utilizadas ao mesmo tempo. No presente, este limite é de 640; o BOSS vai aumentar esse número para 1.000 fibras com meios ópticos melhores, permitindo ver mais objetos e menos “ruído” dos céus a cada exposição.
Maiores redshifts requerem CCDs com maior sensibilidade ao espectro na faixa do vermelho e infravermenlho próximo. O CCD de alta resistência do Laboratório Berkeley Lab, descendente dos detectores de silício usados na física de altas energias, é particularmente adequado a esse propósito e também será usado no proposto satélite SuperNova/Acceleration Probe (SNAP) do Laboratório, que inspirou e é o principal contendor para a Missão Conjunta da NASA/DOE Joint Dark Energy Mission (JDEM). O SNAP vai estudar tanto as supernovas como o “lenseamento fraco” (uma terceira abordagem para a medição da energia escura). O BOSS utilizará os mesmos CCDs de grande rusticidade e altamente sensíveis ao vermelho para estudar as galáxias vermelhas luminosas.
BAO  e as supernovas são duas abordagens altamente complementares às questões em aberto quanto à  energia escura  – por exemplo, se a energia escura tem um valor constante ou variável ao longo do tempo, ou mesmo se ela pode ser uma mera ilusão, sendo seu efeito mais óbvio, a aceleração da expansão do universo, o resultado de alguma falha despercebida da Teoria da Relatividade Geral de Einstein. Embora os estudos da BAO e das supernovas serem ambos puramente geométricos, eles são independentes.
Para estudar a expansão usando as distantes supernovas Tipo Ia, os cientistas têm que estabelecer seu brilho, comparado com outras Tipo Ias “nas proximidades”. O estudo da oscilação dos bárions fazem quase que o contrário, medindo a expansão do universo mediante a calibragem da “régua cósmica” da BAO, visível em objetos relativamente próximos, comparando com a escala que foi congelada quando o universo tinha menos de 400.000 anos de idade. O BOSS será capaz de estabelecer a BAO com uma precisão de 1%, uma das medições mais precisas o possível da expansão do universo.

###

Além dos cientistas do Laboratório Berkeley,  Schlegel, Padmanabhan, Roe e o pesquisador Martin White do Lawrence Berkeley National Laboratory e da Universidade da Califórnia em Berkeley, a equipe do BOSS inclui Daniel Eisenstein da Universidade do Arizona e Daniel Weinberg da Universidade do Estado de Ohio.
O BOSS é apoiado pela Fundação Sloan Foundation, e por mais de 20 instituições que são membros participantes da Sloan Digital Sky Survey, gerenciada pelo Astrophysical Research Consortium e pelos U.S. Department of Energy e National Science Foundation.
O Laboratório Berkeley é um laboiratório nacional do U.S. Department of Energy, localizado em Berkeley, Califórnia. Ele realiza pesquisas científicas não sigilosas e é gerenciado pela Universidade da Califórnia. Visite o website em http://www.lbl.gov.

O “Elo Perdido” dos Buracos Negros

Via EurekAlert:
Durham University

Cientistas encontram o “elo perdido” dos buracos negros



Representação artística de material caindo em um buraco negro super-massivo, juntamente com o formato aproximado do sinal periódico de raios-x vindo da galáxia REJ1034+396.
Crédito: Aurore Simonnet, Sonoma State University


Os cientistas da Universidade Durham encontraram o “elo perdido“ entre  os buracos negros pequenos e os super-massivos.
Pela primeira vez os pesquisadores descobriram que um forte pulso de raios-x está sendo emitido por um buraco negro gigante em uma galáxia a 500 milhões de anos luz da Terra.
O pulso é criado por gás que está sendo sugado pela gravidade do buraco negro no centro da galáxia REJ1034+396.
Pulsos de raios-x são comuns entre os buracos negros menores, porém a pesquisa da Durham foi a primeira a identificar esta atividade em um buraco negro super-massivo. A maior parte das galáxias, inclusive a Via Láctea,  provavelmente contém buracos negros super-massivos em seus centros.
Os pesquisadores que publicaram suas descobertas na prestigiosa publicação científica Nature hoje (quinta-feira, 18 de setembro), dizem que sua descoberta vai auxiliar a compreensão sobre como o gás se comporta antes de cair para dentro de um buraco negro, enquanto este último “se alimenta” e cresce.
Os astrônomos vêm estudando buracos negros por décadas e são capazes de “vê-los” devido ao fato de que os gases ficam extremamente quentes e emitem raios-x, antes de serem engolidos totalmente e perdidos para sempre.
Usando o poderoso satélite de raios-x europeu, XMM-Newton, eles descobriram que os raios-x  são emitidos na forma de um sinal regular a partir do buraco negro super-massivo. A freqüência do pulso guarda correlação com o tamanho do buraco negro.
O Dr Marek Gierlinski, do Departamento de Física da Universidade Durham, declarou: “Tais sinais são uma característica bem conhecida dos buracos negros menores em nossa galáxia, quando o gás é arrancado de uma estrela vizinha.”
“A coisa realmente interessante é que agora conseguimos estabelecer uma ligação entre esses buracos negros “peso-leve” e aqueles com milhões de vezes a massa de nosso Sol”.
“Os cientistas têm estado à procura deste comportamento nos últimos 20 anos e nossa descoberta nos auxilia a começar a compreender mais sobre a atividade em torno de tais buracos negros, enquanto eles crescem”.
Os cientistas da Durham’s esperam que pesquisas futuras revelem por que alguns buracos negros super-massivos se comportam dessa maneira, enquanto outros, não.

###

A pesquisa foi financiada pelo Conselho de Instalações de Ciência e Tecnologia, pela Agência Espacial Européia e pelo Ministério da Ciência e Educação Superior da Polônia.

Physics News Update nº 872

POR DENTRO DA PESQUISA CIENTÍFICA ― ATUALIZAÇÃO DAS NOTÍCIAS DE FÍSICA

PHYSICS NEWS UPDATE

O Boletim de Notícias de Pesquisas do Instituto Americano de Física, n° 872 de 17 de setembro de 2008, por Philip F. Schewe, James Dawson e Jason S. Bardi

AS ÁRVORES DA CALIFÓRNIA NÃO ESTÃO MAIS ABRSORVENDO TANTO CO2

As florestas não estão mais absorvendo tanto dióxido de carbono como no passado e a culpa pode ser do combate a incêndios. O combate a incêndios florestais encoraja o crescimento de árvores menores e, como resultado, reduz significativamente a capacidade geral da floresta de armazenar carbono, de acordo com um novo estudo feito pelos cientistas da Universidade da Califórnia em Irvine.

Os pesquisadores, que estudaram as florestas da Califórnia, descobriram que, embora o número de árvores por acre tenha aumentado no período de sessenta anos, entre 1930 e 1990, a armazenagem de carbono diminuiu em cerca de 26%. Esta mudança na natureza das florestas, com um maior número de árvores menores, em detrimento das árvores maiores, parece ter sido causada pela assídua supressão de incêndios pela intervenção humana, disseram os pesquisadores. Usando de registros detalhados, os cientistas compararam as florestas tais como eram na década de 1930, com as florestas dos anos 1990, e descobriram que a “densidade dos caules” das florestas aumentou, o que poderia parecer que aumentaria a capacidade de uma floresta em armazenar carbono.

Na verdade, o fator “árvores menores” pesa mais do que o de “floresta mais densa” porque uma grande árvore retém uma quantidade de carbono desproporcionadamente maior, concluiram o pesquisadores. Mudanças climáticas ou, ao menos, o vasto aumento na quantidade de dióxido de carbono lançado na atmosfera pela queima de combustíveis fósseis, durante a era industrial, mudou o foco de atenção dos cientistas para a capacidade das plantas, especialmente das árvores, em capturar e armazenar o excesso de CO2. As árvores não são os únicos reservatórios de carbono (os oceanos armazenam enormes quantidades de CO2), mas são freqüentemente citadas como um indicador chave na luta para estabilizar os gases de efeito estufa na atmosfera.

Esse estudo, publicado na edição do mês passado de Geophysical Research Letters, se refere somente à Califórnia, porém Aaron Fellows, um dos autores do estudo, acredita que o mesmo se aplica a qualquer outro tipo de floresta de coníferas secas (“evergreen”) da região Oeste dos EUA.
OCEANOS MAIS QUENTES, FURACÕES MAIS FORTES.

Uma das mais antigas previsões das pesquisas acerca do aquecimento global é que eventos climáticos extremos se tornarão cada vez mais freqüentes. Porém, em um sistema complexo como o clima da Terra, é difícil ligar eventos individuais em temdências e ligar essas tendências ao aquecimento global.  Um dos debates mais intensos na comunidade científica tem sido a toria que o aquecimento global tem contribuido para causar eventos climáticos mais fortes, tais como furacões e ciclones.

Uma nova pesquisa da Universidade do Estado da Flórida  reforça  a argumentação de que os piores ciclones tropicais estão ganhando força e estabelece uma ligação entre este fato e um oceano aquecido pelo aquecimento global.  A pesquisa, ralizada por uma equipe liderada pelo geógrafo  da FSU James Elsner,  é baseada em uma teoria de “motor-calórico” apresentada pelo cientista  do MIT, Kerry Emanuel, em 2005. Essa teoria, em sua forma mais simples, diz que, a medida em que os mares ficam mais quentes, o oceano tem mais energia que pode ser convertida em ventos de ciclone tropical, o que torna os furacões mais fortes.  (Emanuel, em uma recente publicação, modificou muito de seu trabalho que predizia que as máquinas calóricas dariam azo a mais furacões, porém observou que o aquecimento global ainda pode ter um papel no aumento da intensidade dos furacões, o que é o foco da pesquisa de Elsner).

Elsner e sua equipe observaram os 30 anos de dados e se focalizaram nas tempestades que chegaram mais perto da intensidade máxima, ou foram tão fortes quanto podiam ser nas condições ambientais dadas. Eles descobriram que os ciclones tropicais estão ficando mais fortes, particularmente os sobre os Oceanos Atlântico Norte e Índico. As velocidades dos ventos nas tempestades mais fortes aumentaram de uma média de 140 milhas por hora (cerca de 226 km/h) para 156 mph (cerca de 252 km/h) em 2006.   Durante esse período, a temperatura do oceano, na média global da região onde se formam os ciclones tropicais, aumentou de 82,7 para 83,3  graus Fahrenheit (de 28,17 ºC para 28,5ºC).  “Observando somente os cilcones tropicais mais fortes, onde a relação entre tempestades e clima é mais proeminente, somos capazes de observar as tendências de aumento das intensidades das tempestades que tanto a teoria como os modelos previram que estariam lá”. disse Elsner. A pesquisa foi publicada em uma recente edição de Nature.

MAIS BICICLETAS, MENOS ACIDENTES COM BICICLETAS.

Em um estudo que parece, a primeira vista, contraintuitivo, pesquisadores da Universidade de New South Wales, em Sydney, Austrália, revisaram estudos de segurnça de 17 países e 68 cidades da  Califórnia,  e descobriram que, quanto mais pessoas usam bicicletas em uma comunidade, menos há colisões com motoristas de outros veículos.  “Parece que os motoristas ajustam seu comportamento na prsença de númeors crescentes de pessoas andando de bicicleta porque eles esperam ou têm experiências com  mais pessoas pedalando”, diz Julie Hatfield, uma expert em ferimentos da universidade.  Com um  número menor de acidentes, as pessoas passam a perceber as bicicletas como veículos mais seguros, de modo que mais pessoas passam a andar de bicicleta, o que, por sua vez, torna isso mais seguro”, diz ela.  “Aumentar o número de ciclistas significa que mais motoristas podem se tornar ciclistas e, desta forma, se tornarem mais conscienciosos e mais simpatizantes para com os ciclistas” disse ela. Experts em segurança  afirmaram que a diminuição de acidentes que surge com o aumento do número de ciclistas é independente de melhorias na legislação de proteção aos ciclistas e de melhorias na infraestrutura, tais como ciclovias.

Os estudos de segurança revisados vieram da Austrália, Dinamarca, Holanda, 14 outros países europeus e 68 cidades na Califórnia. Embora a revisão tenha se focalizado no ciclismo, parece que a regra de “quanto mais, mais seguro” se aplica igualmente a pedestres, diz Hatfield.
***********

PHYSICS NEWS UPDATE é um resumo de notícias sobre física que aparecem em convenções de física, publicações de física e outras fontes de notícias. É fornecida de graça, como um meio de disseminar informações acerca da física e dos físicos. Por isso, sinta-se à vontade para publicá-la, se quiser, onde outros possam ler, desde que conceda o crédito ao AIP (American Institute of Physics = Instituto Americano de Física). O boletim Physics News Update é publicado, mais ou menos, uma vez por semana.

**************

Como divulgado no numero anterior, este boletim é traduzido por um curioso, com um domínio apenas razoável de inglês e menos ainda de física. Correções são bem-vindas.

Existe um “limite superior” para Buracos Negros?

Pescado no EurekAlert:
Yale University

Astrônomo de Yale descobre um limite superior de massa para Buracos Negros

Parece haver um limite superior para o quão grandes os maiores Buracos Negros do universo podem chegar a ser, de acordo com uma nova pesquisa realizada por um astrofísico da Universidade Yale.

Antigamente considerados como objetos raros e exóticos, sabe-se agora que os Buracos Negros exitem por todo o universo, sendo os maiores e com maior massa aqueles encontrados no centro das maiores galáxias. A massa desses buracos negros “ultra-massivos” já foi demonstrada ser de até um bilhão de vezes a massa de nosso Sol. Agora, Priyamvada Natarajan, um professor associado de de astronomia e física na Universidade Yale e membro do Radcliffe Institute for Advanced Study, demonstrou que mesmo o maior desses monstros gravitacionais não pode continuar crescendo para sempre. Ao contrário, eles próprios parecem limitar seu crescimento quando atingem cerca de 10 bilhões de massas solares.

Esses buracos negros ultra-massivos, encontrados nos centros de galáxias elípticas gigantes em enormes aglomerados de galáxias, são os maiores do universo conhecido. Mesmo o grande buraco negro no centro de nossa Via Láctea é milhares de vezes menos massivo do que esses behemoths. Porém esses buracos negros gigantescos, que acumulam massa sugando a matéria de gases, poeira e estrelas próximas, parecem ser incapazes de crescer além desse limite, não importa onde ou quando eles aparecem no universo. “Não acontece somente hoje”, declarou Natarajan. “Eles param de crescer em todas as épocas no universo”.

O estudo, a ser publicado no Monthly Notices of the Royal Astronomical Society (MNRAS), representa a primeira vez que se deduz uma massa limite para buracos negros. Natarajan usou dados ópticos e de raios-x existentes sobre esses buracos negros ultra-massivos para demonstrar que, para que essas várias observações sejam consistentes, os buracos negros devem “entrar de regime” em algum ponto de sua evolução.

Uma possível explicação oferecida por Natarajan é que os buracos negros eventualmente chegam a um ponto onde irradiam tanta energia quanto são capazes de absorver de sua circunvizinhança, e, assim, acabam interferindo com o próprio fluxo de gás que os alimenta, o que pode interromper a formação de estrelas no entorno. As novas descobertas têm implicações para o futuro estudo da formação de galáxias, uma vez que as maiores galáxias no universo parecem co-evoluir com os buracos negros em seus centros.

“Existem indícios crescentes de que os buracos negros têm um papel chave no processo de formação das galáxias”, diz Natarajan. “Porém agora parece que eles se assemelham às prima-donnas dessa ópera espacial”.

###

Os autores do artigo são Priyamvada Natarajan (Yale University e Radcliffe Institute for Advanced Study) e Ezequiel Treister (European Southern Observatory, Chile e University of Hawaii).

**************

Comentário farsesco do tradutor:

E ainda há gente que desdenha do Intelligent Design… Não só é “intelligent” como respeita os ditames da moda… Talvez tenhamos que mudar o nome dos “buracos negros” para algo mais feminino… só que não me ocorre nenhuma coisa que não seja extremamente grosseira…

Sobre ScienceBlogs Brasil | Anuncie com ScienceBlogs Brasil | Política de Privacidade | Termos e Condições | Contato


ScienceBlogs por Seed Media Group. Group. ©2006-2011 Seed Media Group LLC. Todos direitos garantidos.


Páginas da Seed Media Group Seed Media Group | ScienceBlogs | SEEDMAGAZINE.COM