domingo, 1 de abril de 2012

Artigo: Sorte do Brasil

Artigo de Joaquim Francisco de Carvalho, pesquisador associado ao Instituto de Energia e Eletrotécnica da USP, e Emico Okuno Joaquim de Carvalho, professora do Instituto de Física da USP. Texto publicado no jornal O Globo de ontem (29). O estudo mais completo sobre a segurança dos reatures nucleares foi feito para a Comissão de Energia Atômica dos Estados Unidos, por um grupo dirigido pelo professor Norman Rasmussen, do Instituto de Tecnologia de Massachusetts (Relatório Wash 1400, de 1.975). Nesse estudo, calculou-se que a probabilidade de falha em central nuclear é tão reduzida, que um acidente grave só poderia ocorrer a cada 35 mil anos. Os acidentes de Three Mile Island (1.979), Chernobyl (1.986) e Fukushima (2.011) mostraram que acidentes graves podem sequenciar-se em poucos anos. Diante disso, o governo alemão resolveu desativar imediatamente as usinas mais antigas em operação no país - e abandonar definitivamente a energia nuclear em 2022. E o governo da França decidiu adotar normas de segurança mais rigorosas, o que encarecerá em cerca de 20% o custo da eletricidade. Usinas nucleares são importantes para países que não disponham de melhor alternativa. Entretanto, considerando a probabilidade de acidentes, medidas preventivas devem ser tomadas, começando pela inclusão, nos currículos escolares, de cursos destinados a informar a população sobre a natureza das radiações ionizantes. Isto deve ser feito em linguagem acessível ao não especialista em Física das radiações. Radiações são úteis na medicina, mas também podem causar mortes. Acidentes nucleares são muito mais graves do que outros acidentes. Esconder ou banalizar as consequências desses acidentes é algo inaceitável numa democracia. Após um acidente nuclear, átomos instáveis podem ser colocados no ambiente, contaminando o ar, o solo, os vegetais, etc. Normalmente, respiramos ar, bebemos água e ingerimos alimentos levemente radioativos, porque carregam radônio e rádio, e isótopos instáveis de potássio, carbono, etc. O problema surge quando os isótopos instáveis aparecem em concentrações acima da encontrada normalmente na natureza. Esses isótopos se desintegram, emitindo radiações de alta energia (raios X e raios gama) além de partículas carregadas ou não (partículas alfa e beta, pósitrons, nêutrons, etc.) que são ionizantes, isto é, deslocam elétrons de átomos que formam moléculas de tecidos constituintes do corpo humano. Dependendo do nível e do tempo de exposição, estas radiações podem causar lesões que vão de problemas no sistema sanguíneo - como diminuição do número de glóbulos vermelhos e brancos e leucemia - até, em longo prazo, câncer de diversos órgãos. Acidentes nucleares apenas começam no local e no momento em que ocorrem, depois vão se propagando sobre regiões inteiras, ao longo de muitas décadas. Em Chernobyl, por exemplo, oito meses após o acidente havia 35 mortes, entre bombeiros e técnicos. Segundo estudos muito conservadores, podem chegar a 105 mil as fatalidades causadas pelas radiações ionizantes na população diretamente exposta - incluindo os 600 mil "liquidadores" que trabalharam na descontaminação. Para áreas mais extensas, as estimativas são polêmicas, porque o acidente contaminou diversas regiões da Europa, em diferentes níveis. fonte: http://www.jornaldaciencia.org.br/Detalhe.jsp?id=81802 O Brasil tem a sorte de não precisar de usinas nucleares.

quarta-feira, 21 de março de 2012

Fracasso da geoengenharia: gases que salvaram camada de ozônio agora ameaçam o clima

O Protocolo de Montreal entrou em vigor em 1989, e ficou famoso por banir os CFCs (clorofluorocarbonetos) e os HCFCs (hidroclorofluorocarbonos), que destroem a camada de ozônio. Esses gases foram então substituídos pelos HFCs (hidrofluorocarbonetos), que se acreditava serem benéficos ou, no mínimo, inertes em relação à camada de ozônio em particular e ao meio ambiente em geral. Contudo, demonstrando os riscos a que o planeta está sujeito com ex perimentos de geoengenharia, agora os próprios cientistas estão pedindo um controle sobre o uso também dos HFCs. De certa forma, a substituição dos CFCs pelos HCFCs foi o primeiro experimento de geoengenharia em larga escala. E os resultados não foram bons. Ativos e duradouros Já havia sido demonstrado que os HFCs podem provocar chuva ácida. Agora ficou demonstrado também, ao que contrário do que se demonstrara na época, que os hidrofluorocarbonetos são climaticamente muito ativos e extremamente persistentes no ambiente. Os hidrofluorocarbonetos são muito semelhantes aos clorofluorocarbonetos, com a diferença de não usaram cloro e não destruírem o ozônio estratosférico. Ambos são usados em geladeiras e ar-condicionados, em latas de aerossol e como solventes na fabricação de espuma. O que não se sabia então era que esses HFCs são gases de efeito estufa muito potentes. O HFC-134a, também conhecido como R-134a, por exemplo, usado nos aparelhos de ar-condicionados de automóveis, é 1.430 vezes mais ativo do que o hoje quase odiado CO2 (dióxido de carbono). O dióxido de carbono bem poderia rivalizar com o oxigênio como o "gás da vida", dada sua importância no ciclo biológico da Terra. Hoje, porém, ele é mais conhecido como um gás de efeito estufa - o mesmo efeito que permite a vida na Terra, mas que, levado ao exagero, pode colocar essa mesma vida em dificuldades. Bibliografia: Preserving Montreal Protocol Climate Benefits by Limiting HFCs Guus J. M. Velders, A. R. Ravishankara, Melanie K. Miller, Mario J. Molina, Joseph Alcamo, John S. Daniel, David W. Fahey, Stephen A. Montzka, Stefan Reimann Science Vol.: 335 no. 6071 pp. 922-923

domingo, 26 de fevereiro de 2012

Acelerador de partículas é reativado em busca da origem da matéria

O Grande Colisor de Hádrons (LHC), acelerador de partículas do Centro Europeu de Pesquisas Nucleares (Cern), voltou a ser acionado, após mais de dois meses de parada técnica. Com a reativação, mais de 5 mil cientistas darão início à etapa decisiva na busca do "Bóson de Higgs", uma partícula elementar que explicaria a origem da matéria. "Os aceleradores estão sendo reativados, mas os primeiros feixes de prótons não serão injetados no LHC até meados de março e as colisões continuarão até o fim deste mês", confirmou nesta sexta-feira (24) o porta-voz do Cern, James Gillies. A injeção de prótons será feita em um primeiro acelerador menor e mais antigo. Lá as partículas vão adquirir energia e ganhar velocidade para passar a um acelerador maior, tudo antes de chegar com toda potência (mais de 99,9% da velocidade da luz) ao LHC, explicou um dos responsáveis do centro de controle do grande acelerador, Mirko Pojer.
24/02/2012 11h20 - Atualizado em 24/02/2012 18h20 Acelerador de partículas é reativado em busca da origem da matéria Operações do LHC são retomadas após parada técnida de dois meses. Ano de 2012 será decisivo na busca pelo 'bóson de Higgs'. Da EFE 30 comentários O Grande Colisor de Hádrons (LHC), acelerador de partículas do Centro Europeu de Pesquisas Nucleares (Cern), voltou a ser acionado, após mais de dois meses de parada técnica. Com a reativação, mais de 5 mil cientistas darão início à etapa decisiva na busca do "Bóson de Higgs", uma partícula elementar que explicaria a origem da matéria. "Os aceleradores estão sendo reativados, mas os primeiros feixes de prótons não serão injetados no LHC até meados de março e as colisões continuarão até o fim deste mês", confirmou nesta sexta-feira (24) o porta-voz do Cern, James Gillies. A injeção de prótons será feita em um primeiro acelerador menor e mais antigo. Lá as partículas vão adquirir energia e ganhar velocidade para passar a um acelerador maior, tudo antes de chegar com toda potência (mais de 99,9% da velocidade da luz) ao LHC, explicou um dos responsáveis do centro de controle do grande acelerador, Mirko Pojer. Uma das instalações do Grande Colisor de Hádrons (LHC), megatúnel para colidir partículas (Foto: Andrew Strickland / cortesia Cern 7-8-2010)Instalações do Grande Colisor de Hádrons (LHC), megatúnel para colidir partículas (Foto: Andrew Strickland) Uma vez que os prótons chegarem ao LHC, a metade deles fará sua trajetória em uma direção e os demais seguirão no sentido oposto para começarem a colidir no fim de março. Para isso acontecer, os ímãs supracondutores do LHC deverão ser esfriados a uma temperatura de 271 graus Celsius negativos -- a temperatura mais baixa conhecida no Universo é de cerca de 273 graus Celsius negativos. No total, serão injetados 2,8 mil pacotes de partículas no LHC, com conteúdo de 115 bilhões de prótons cada, que circularão a uma energia de 4 TeV (teraeletronvolts), 0,5 TeV a mais do que estava previsto. "A energia da colisão dos prótons equivale ao choque de um grande avião na velocidade de aterrissagem, ou seja, cerca de 150 km/h", comparou Pojer. No entanto, dado o reduzido tamanho dos prótons, a probabilidade de choque é pequena, o que explica a necessidade de injetar no acelerador grandes quantidades de partículas. Os milhares de físicos que trabalham no Cern esperam que as colisões entre prótons a energias tão elevadas façam surgir novas partículas cuja existência está apenas na teoria. É o caso do Bóson de Higgs, sobre a qual repousam as bases do modelo padrão da física e que é, por enquanto, a única hipótese disponível sobre uma questão tão fundamental como a origem da matéria. Os responsáveis pelo Cern garantiram que neste ano terão resultados conclusivos sobre a existência ou não de "Higgs". Os pesquisadores do centro de pesquisas europeu acreditam ter visto sinais da partícula durante as medições e análises de dados realizados durante 2011. O LHC, um anel de 27 quilômetros de circunferência localizado entre 50 e 150 metros abaixo da terra, conta com quatro detectores. Desses, dois -- conhecidos como Atlas e CMS -- estão dedicados a buscar novas partículas como a de Higgs ao mesmo tempo, mas de maneira independente. Nos próximos meses, nenhuma nova descoberta será anunciada até que uma dessas experiências alcance um grau de comprovação quase absoluta ou equivalente a uma possibilidade em 1 milhão que possa ter algum erro, disse o físico Steven Goldfarb, coordenador de divulgação e educação do detector Atlas. Se isso ocorre, o outro detector servirá para contrastar o resultado e corroborar os dados obtidos. Goldfarb lembrou que entre 1999 e 2000, em uma experiência conhecida como "Aleph", os cientistas pensaram ter encontrado a partícula de Higgs, mas outros três experimentos que eram desenvolvidos paralelamente descartaram a descoberta. "Isto é como tirar dados. Pode ocorrer que o mesmo número saia seis vezes seguidas e seria emocionante, mas existe uma probabilidade estatística que isto ocorra, e ali mora a armadilha", comentou. A cientista espanhola Silva Goy, que trabalha no detector CMS, tem a mesma opinião. Ela disse queo observado até agora pode ser uma "oscilação estatística" e que o desafio é chegar a um nível de probabilidade que permita eliminar esse risco. Com o valor de energia que será utilizada neste ano, o volume de dados obtidos chegará aos "15 femtobarn inverso (Fv-1)", considerada suficiente para alcançar um resultado final. Espera-se que até a próxima grande conferência de física, no início de julho na Austrália, os cientistas do Cern já tenham reunido mais dados do que em todo o ano de 2011 sobre o experimento para apresentá-los à comunidade científica.

quarta-feira, 22 de fevereiro de 2012

Hidrogênio, energia solar e água

Para Jailson de Andrade, professor do Instituto de Química da Universidade Federal da Bahia, a energia, os alimentos e a água serão os principais desafios para a humanidade no século 21, com impacto nas questões do meio ambiente, da pobreza, da população, das doenças, da educação e da democracia. "No desafio energético, a alternativa nuclear tem grandes limitações: além de ser inviável para aplicação nos transportes, há o problema complexo do manejo dos resíduos. Quanto à célula combustível a hidrogênio - embora resolva o problema dos resíduos -, apresenta um grande obstáculo tecnológico relacionado à geração, estocagem e transporte de hidrogênio. "O custo, além disso, é elevado. A energia solar é uma alternativa que precisa ser mais explorada. O desafio é que as células fotovoltaicas convertem no máximo 30% da luz solar em eletricidade e a captação em grande escala é complexa", disse. A questão da água, segundo Andrade, se relaciona principalmente à disponibilidade, já que 97% da água do planeta é salgada e só 1% está acessível. De acordo com ele, existem 1 bilhão de pessoas hoje sem acesso à água de qualidade. Quanto aos alimentos, o problema é que 4 bilhões de pessoas vivem em cidades e não produzem comida, apenas consomem. "A química terá um papel importante na solução desses problemas. Será preciso aprimorar a captura de energia solar e as baterias recarregáveis, melhorar a célula combustível a hidrogênio e criar catalisadores para que o carvão seja usado de forma mais limpa. O uso da biomassa para energia precisará avançar", afirmou. Para manter o nível de gases de efeito estufa estabilizado em 550 partes por milhão até 2050 - meta necessária para que a temperatura não suba mais que 2º C, causando mudanças irreversíveis no planeta -, será preciso produzir 20 terawatts a mais de energia sem carbono, segundo Andrade. "Isso é mais que todo o consumo atual de energia. Acredito que só a energia solar poderá prover essa quantidade de energia limpa", afirmou.

Balanço de nitrogênio

Segundo Arnaldo Alves Cardoso, professor da Unesp de Araraquara (SP), o papel da química na questão das fontes alternativas de energia e das mudanças climáticas tem relação com o grave problema do balanço de nitrogênio no planeta. Os fertilizantes baseados em nitrogênio foram um avanço que permitiu a revolução verde, que garantiu a sobrevivência de bilhões de pessoas. Mas isso alterou o balanço de nitrogênio na Terra. "Em 1990, o homem já produzia tanto nitrogênio quanto a própria natureza. Com o uso dos fertilizantes, grande parte desse nitrogênio acaba no meio ambiente", disse. Na cana-de-açúcar, base do etanol, que é a principal alternativa de combustível limpo no Brasil - com um papel importante na mitigação das mudanças climáticas -, o uso de fertilizantes é pequeno, segundo Cardoso. "Mas, no caso do etanol, o nitrogênio volta praticamente em sua totalidade ao meio ambiente. Depois, a combustão ainda gera muito mais nitrogênio. Os biocombustíveis são aparentemente corretos do ponto de vista ambiental, mas sua produção gasta água e gera um excesso de nitrogênio que vai acabar nos oceanos e nas águas interiores, podendo provocar excesso de algas e, consequentemente, morte de peixes, perda de biodiversidade e emissões de aerossóis", disse. De acordo com Cardoso, a química terá muitos problemas para resolver no contexto das mudanças climáticas. Os combustíveis fósseis geram gases de efeito estufa, enquanto os biocombustíveis dependem de terra, água e fertilizantes. O tratamento dos esgotos também gera nitrogênio reativo. "Será preciso buscar inovações para minimizar o enxofre nos combustíveis fósseis e produzir fertilizantes inteligentes. No caso dos biocombustíveis, a química terá a missão de obter alternativas produzidas por biomassa vegetal, a partir de plantas que usam menos terra, água e fertilizante. Será importante também desenvolver algas para consumir o nitrogênio reativo, além de melhorar a eficiência de catalisadores dos automóveis", afirmou.

terça-feira, 21 de fevereiro de 2012

Adesivo inspirado nos pés das lagartixas torna-se realidade

Pelas paredes Depois de anos de pesquisas, a promessa de um super adesivo inspirado nos pés das lagartixas parece ter finalmente se cumprido. O produto foi batizado de GeckSkin, uma união dos termos gecko (lagartixa) e skin (pele). O protótipo do material é capaz de sustentar mais de 300 quilogramas em um vidro liso, pode ser retirado com um puxão na direção adequada, sem deixar qualquer vestígio, e pode ser reaplicado inúmeras vezes. Adesivo seco reversível A alta capacidade, a reversibilidade e o fato de operar inteiramente a seco, transformam o super adesivo em uma opção para a fixação de aparelhos de TV ou monitores de computador nas paredes, afirmam os pesquisadores, de olho em um nicho de mercado. Mas a verdade é que o adesivo seco e super forte poderá ser utilizado em uma gama virtualmente inumerável de situações. "Nosso protótipo da Geckskin tem cerca de dez centímetros quadrados e conseguiu manter até 317 quilogramas presos a uma superfície de vidro liso," disse Alfred Crosby, membro da equipe. A capacidade do adesivo medida no experimento foi de (29.5 N cm-2). Outra vantagem incomparável do novo adesivo é que ele pode ser retirado com um leve puxão, e ser reaplicado e retirado tantas vezes quantas sejam necessárias, sem deixar nenhum resíduo - exatamente como os pés das lagartixas. Adesivo seco e reversível inspirado nos pés das lagartixas O adesivo seco e reversível foi fabricado inteiramente com materiais disponíveis no mercado. [Imagem: Bartlett et al./Advanced Materials] Complexidade de lagartixa Tentativas anteriores de reproduzir artificialmente a enorme capacidade adesiva dos pés das lagartixas baseavam-se nos pêlos microscópicos, que grudam com base nas forças de van der Waals. Mas ninguém teve sucesso até agora em reproduzir essas estruturas em larga escala. Crosby e seus colegas afirmam que os pêlos não são necessários para explicar o poder de adesão dos pés das lagartixas. Segundo eles, é necessário levar em conta a complexidade do pé inteiro da lagartixa, o que inclui tendões, ossos e pele, que trabalham em conjunto para gerar a adesão reversível. "É um conceito que não foi levado em conta em outras pesquisas e estratégias de projeto, um conceito que vai abrir novas avenidas de pesquisa na adesão reversível," disse Crosby. Biomimetismo O protótipo consiste em um adesivo integrado com uma espécie de almofada, simulando a parte mole do pé da lagartixa, tudo sobre um tecido firme, que permite que o adesivo seja forçado sobre a superfície, para maximizar o contato. Além disso, como no pé do animal, essa pele artificial de lagartixa é tecida em um tendão sintético, "um desenho que desempenha um papel crucial na manutenção da firmeza e da liberdade rotacional," escrevem os cientistas.

terça-feira, 14 de fevereiro de 2012

Eletricidade ecológica

Eletricidade ecológica A empresa emergente Ecotricity, do Reino Unido, divulgou o projeto de um novo mecanismo para gerar eletricidade a partir das ondas do mar. O Searaser foi projetado para minimizar a variação na produção de energia, algo típico das fontes renováveis, e o custo na fabricação do gerador. "Ele tem um projeto simples e nós acreditamos que ele irá produzir eletricidade mais barata do que qualquer outra tecnologia alimentada pelas ondas, ou mesmo mais barata do que qualquer outra energia renovável," prevê Alvin Smith, idealizador do aparelho. Como a água salgada é altamente corrosiva, fabricar geradores elétricos para funcionar submersos no mar sai muito caro. Além disso, água e eletricidade não se dão bem, o que exige um aparato de isolamento que encarece a estrutura e a operação. Ao projetar um equipamento de pequeno porte, para ser instalado próximo à costa, em águas rasas, os projetistas esperam reduzir custos de material e de manutenção. Além disso, o Searaser não gera eletricidade na água. Ele simplesmente usa o movimento das ondas para bombear água do mar para uma turbina em terra. Este conceito já havia sido explorado pela chamada hidroelétrica marinha, mas o projeto do Searaser é mais simples e voltado para instalações menores. Energia das ondas do mar O principal elemento do gerador é um pistão, colocado entre duas boias. Uma delas flutua ao sabor das ondas, enquanto a outra fica ancorada no fundo do oceano. Conforme as ondas passam, as boias movem-se para cima e para baixo, movimentando o pistão, que envia água sob pressão para uma instalação em terra. Na usina, o fluxo de água movimenta uma turbina, responsável pela geração da eletricidade. O primeiro protótipo, que deverá entrar em testes em 2014, terá 1 metro de diâmetro e 12 metros de altura. O principal limitador da tecnologia é que ela é adequada apenas para locais rasos, próximos à costa, o que a coloca em competição com áreas de lazer e pesca e sujeita a entraves de natureza ambiental. Fonte: http://www.blogger.com/blogger.g?blogID=300594852713315016#editor

segunda-feira, 30 de janeiro de 2012

Moléculas na atmosfera terrestre podem resfriar o planeta e balancear o aquecimento global

D
Os cientistas descobrem que uma molécula da atmosfera da Terra tem o potencial de desempenhar um papel importante no arrefecimento do planeta. Pesquisadores da Universidade de Manchester, da The University of Bristol e dos Laboratórios Nacionais Sandia revelam que intermediários químicos invisíveis presentes na atmosfera da Terra são oxidantes poderosos de poluentes como o dióxido de azoto e dióxido de enxofre, produzidos por combustão, e pode naturalmente limpar a atmosfera. Legenda foto: Pesquisadores descobriram que algumas moléculas reagem mais rapidamente do que se pensava e aceleram a formação de sulfatos e nitratos na atmosfera. Estes compostos levarão a formação de aerossóis e, finalmente, a formação de nuvens com potencial para esfriar o planeta A detecção deste novo tipo de molécula e medição do quão rápido ela reage foi possível graças a um aparelho único, desenhado por pesquisadores para usar a luz intensa, sintonizável no sincrotron, permitindo aos pesquisadores distinguir a formação e remoção de espécies diferentes isoméricas - moléculas que contêm os mesmos átomos, mas dispostos em diferentes combinações. Este tipo de reação atmosférica foi postulado pela primeira vez por Rudolf Criegee na década de 1950. No entanto, apesar da sua importância, não foi possível estudar diretamente essas espécies importantes no laboratório. Nos últimos cem anos, a temperatura média da superfície da Terra aumentou 0,8°C. A maioria dos países concorda que cortes drásticos nas emissões de gases de efeito estufa são necessários. Dr. Carl Percival, Químico da Atmosfera da Universidade de Manchester acredita que poderia haver possibilidades de investigações significativas decorrentes da descoberta do ‘biradicals Criegee’. "Nossos resultados terão um impacto significativo em nossa compreensão da capacidade oxidante da atmosfera e têm amplas implicações para a poluição e a mudança climática”. O Professor de Química da Dudley Shallcross, na Universidade de Bristol, acrescentou que: "Os ingredientes importantes necessários para a produção dessas ‘biradicals Criegee’ vem de substâncias químicas liberadas naturalmente pelas plantas, ecossistemas naturais estão atuando de forma importante contra o aquecimento global”

Metais mais raros da Terra entram para "lista de risco"

Elementos de risco O Serviço Geológico Britânico divulgou uma lista de "elementos ameaçados de fornecimento". Não é uma lista de elementos raros ou "ameaçados de esgotamento", mas daqueles elementos mais importantes economicamente com risco de sofrerem quebra na cadeia de fornecimento global. "A lista dá uma indicação do risco relativo para o fornecimento dos elementos químicos ou grupos de elementos que precisamos para manter nossa economia e nosso estilo de vida," afirma o órgão britânico, em tom pouco diplomático. A posição de cada elemento na lista é determinada por fatores que podem impactar sua oferta, incluindo a abundância de cada elemento na crosta terrestre, a localização da produção e das reservas atuais, e a estabilidade política desses locais. Minerais tecnológicos Os dados destacam a importância da China na mineração mundial, sobretudo nesta área dos chamados "minerais tecnológicos". O Brasil está presente entre os elementos com sinal vermelho, graças ao nióbio - o país fornece quase a totalidade do nióbio do mundo, um elemento importante na indústria do aço, eletrônica, supercondutores e até dos experimentos com a fusão nuclear. A lista é encabeçada por minerais como as terras raras, grupo da platina, o nióbio e o tungstênio. Segundo os organizadores da lista, não há nenhum risco de esgotamento das reservas de nenhum dos minerais listados, sendo que os maiores riscos ao fornecimento são "fatores de risco humanos" - geopolítica e nacionalismo - e acidentes.