sexta-feira, 1 de março de 2013

10 tecnologias que podem salvar a economia mundial

Revolução Industrial 2.0 O Fórum Econômico Mundial anunciou sua lista das 10 principais tendências tecnológicas que prometem decolar e levar junto a quase paralisada economia mundial. Segundo a entidade, essas tecnologias poderão ajudar a alcançar um crescimento econômico sustentável nas próximas décadas, conforme continuam a crescer a população global e, por decorrência, as demandas materiais sobre o meio ambiente. A seleção das tecnologias levou em conta a possibilidade de avanços no desenvolvimento industrial e econômico, e a possibilidade de implantação industrial a curto e médio prazo. Veículos Elétricos Online (OLEV)Tecnologias de eletricidade sem fio já conseguem fornecer eletricidade para veículos em movimento. Na próxima geração de carros elétricos, conjuntos de bobinas de captação sob o assoalho do veículo vão receber a energia remotamente através de um campo eletromagnético de transmissão gerado por cabos instalados sob a estrada. A corrente elétrica sem fios também recarrega uma bateria utilizada para alimentar o veículo quando ele está fora das redes de suprimento ou circulando por vias que ainda não contam com a infraestrutura. Como a eletricidade é fornecida externamente, esses veículos precisam de uma bateria com apenas um quinto da capacidade da bateria de um carro elétrico atual. Os sistemas de eletricidade sem fios já podem alcançar uma eficiência de transmissão de mais de 80%. Veículos online elétricos já estão em testes de estrada em Seul, na Coreia do Sul. Impressão 3-D e fabricação remota A impressão tridimensional permite a criação de estruturas sólidas a partir de um arquivo CAD de computador, potencialmente revolucionando a economia industrial se os objetos puderem ser impressos remotamente. O processo envolve camadas de material que são depositadas umas sobre as outras para criar virtualmente qualquer tipo de objeto. Projetos assistidos por computador são "fatiados" em modelos de impressão, permitindo que objetos criados virtualmente sejam usados como modelos para reproduções reais feitas de plástico, ligas metálicas ou outros materiais. O recurso de impressão 3-D de objetos também é conhecido como fabricação aditiva, tendo nascido para a criação de protótipos, mas está rapidamente se transformando em uma técnica de fabricação em larga escala. Materiais com autocura Uma das características básicas dos organismos vivos é a sua capacidade inerente para reparar danos físicos - cicatrizar-se e curar-se de ferimentos, por exemplo. Uma tendência crescente no biomimetismo é a criação de materiais estruturais não-vivos que também têm a capacidade de curar-se quando cortados, rasgados ou quebrados. Materiais que se consertam sozinhos podem reparar danos sem intervenção humana externa, o que poderá dar vida mais longa aos bens manufaturados e reduzir a demanda por matérias-primas. Outro potencial é o de melhorar a segurança inerente dos materiais utilizados na construção civil ou carros e aviões. Purificação de água energeticamente eficiente A escassez de água é um problema ecológico crescente em muitas partes do mundo, devido principalmente a demandas concorrentes da agricultura, das cidades e outros usos humanos. Enquanto os sistemas de água doce estão sobre-utilizados ou exauridos, a dessalinização da água do mar oferece uma fonte quase ilimitada de água. Mas hoje isso tem um custo considerável de energia - principalmente de combustíveis fósseis - para alimentar os sistemas de evaporação ou osmose reversa. Tecnologias emergentes oferecem o potencial para a dessalinização e a purificação de águas residuais significativamente mais eficientes em termos de energia, potencialmente reduzindo o consumo de energia em 50% ou mais. Técnicas como a osmose reversa também podem ter sua eficiência melhorada pela utilização de calor residual de termelétricas ou calor renovável, produzido por energia termossolar ou geotérmica. Conversão e uso de dióxido de carbono (CO2) As longamente esperadas tecnologias para a captura e sequestro de dióxido de carbono ainda estão por demonstrar-se comercialmente viáveis, mesmo na escala de uma única estação geradora de energia. Novas tecnologias que convertem o CO2 indesejável em produtos vendáveis podem potencialmente resolver tanto as deficiências econômicas quanto energéticas das estratégias convencionais de captura e sequestro de dióxido de carbono. Uma das abordagens mais promissoras usa bactérias fotossintéticas geneticamente modificadas para transformar resíduos de CO2 em combustíveis líquidos ou produtos químicos de baixo custo usando sistemas conversores modulares alimentados por energia solar. Sistemas individuais desse tipo prometem cobrir centenas de hectares nos próximos dois anos. Sendo de 10 a 100 vezes mais produtivos por unidade de área de terra, estes sistemas resolvem uma das principais limitações ambientais dos biocombustíveis gerados a partir de matérias-primas agrícolas ou de algas, e poderão fornecer combustíveis de baixo teor de carbono para automóveis, aviões ou outros grandes usuários de combustíveis líquidos. Nutrição saudável em nível molecular Mesmo em países desenvolvidos, milhões de pessoas sofrem de desnutrição, devido à deficiência de nutrientes em suas dietas. Técnicas genômicas modernas podem determinar ao nível de sequência genética a grande variedade de proteínas naturais que são importantes para a dieta humana. As proteínas identificadas podem ter vantagens sobre os suplementos proteicos tradicionais na medida que podem fornecer uma maior percentagem de aminoácidos essenciais, e têm melhor solubilidade, sabor, textura e características nutricionais. A produção em larga escala de proteínas alimentares puras para o ser humano, com base na aplicação da biotecnologia para nutrição molecular, pode oferecer benefícios à saúde, como melhor desenvolvimento muscular, gestão do diabetes ou redução da obesidade. Sensoriamento remoto O uso cada vez mais generalizado de sensores que permitem respostas passivas a estímulos externos vai continuar a mudar a nossa forma de responder ao ambiente, em especial na área da saúde. Exemplos incluem sensores que monitoram continuamente a função corporal - como frequência cardíaca, oxigenação do sangue e níveis de açúcar no sangue - e, se necessário, desencadear uma resposta médica, como o fornecimento de insulina. Os avanços dependem da comunicação sem fio entre dispositivos - nós das redes de sensores -, tecnologias de sensoriamento com baixo consumo de energia e, eventualmente captação ativa de energia, através dos chamados nanogeradores. Outro exemplo inclui a comunicação veículo-a-veículo para melhorar a segurança nas ruas e estradas. Aplicação precisa de medicamentos por engenharia em nanoescala Fármacos que podem ser aplicados com precisão em nível molecular no interior ou em torno de uma célula doente oferecem oportunidades sem precedentes para tratamentos mais eficazes, ao mesmo tempo reduzindo os efeitos colaterais indesejados. Nanopartículas funcionalizadas, que aderem ao tecido doente, permitem a aplicação em microescala de potentes compostos terapêuticos. Isso minimizando o impacto do remédio sobre os tecidos saudáveis. Essas nanopartículas funcionais estão começando a avançar rumos aos testes clínicos. Depois de quase uma década de pesquisa, estas novas abordagens estão finalmente mostrando sinais de utilidade clínica. Eletrônica e fotovoltaicos orgânicos A eletrônica orgânica baseia-se na utilização de materiais orgânicos, tais como polímeros, para criar circuitos e dispositivos eletrônicos. Esses circuitos eletrônicos orgânicos podem ser fabricados por impressão e normalmente são finos, flexíveis e até transparentes. Em contraste com os semicondutores tradicionais à base de silício, que são fabricados com técnicas caras de fotolitografia, a eletrônica orgânica pode ser impressa usando processos de baixo custo, similares à impressão a jato de tinta. Isso torna os produtos extremamente baratos em comparação com os dispositivos eletrônicos tradicionais, tanto em termos de custo por aparelho, quanto do capital necessário para produzi-los. Embora atualmente a eletrônica orgânica não se encontre em condições de competir com o silício em termos de velocidade e densidade, ela tem o potencial para proporcionar uma vantagem significativa em termos de custo e versatilidade. Coletores solares fotovoltaicos impressos, por exemplo, custando muito menos do que as células solares de silício, podem acelerar a transição para as energias renováveis. Quarta geração de reatores nucleares e reciclagem de resíduos Os reatores nucleares atuais usam apenas 1% da energia potencial disponível no urânio, deixando o resto radioativamente contaminado como lixo nuclear. O desafio de lidar com os resíduos nucleares limita seriamente o apelo desta tecnologia de geração de energia. A reciclagem do urânio-238 em um novo material físsil caracteriza o que está sendo chamado de Nuclear 2.0. A promessa é de estender em séculos a vida útil dos recursos de urânio já minerados, ao mesmo tempo reduzindo drasticamente o volume e a toxicidade do lixo nuclear, cuja radioatividade vai cair abaixo do nível do minério de urânio original em uma escala de tempo de séculos, e não mais de milênios, como é hoje. Tecnologias de quarta geração, incluindo reatores rápidos resfriados por metal líquido, estão sendo implantados em vários países e já são oferecidos por empresas fabricantes de equipamentos de engenharia nuclear.

quarta-feira, 27 de fevereiro de 2013

Outdoor transforma ar do deserto em água potável no Peru

No Peru, um outdoor instalado estrategicamente em uma das estradas que circundam a capital Lima é capaz de transformar o ar do deserto em água potável e abastecer muitas casas da região. As informações são da NBC News. A campanha foi criada pela agência de publicidade Mayo DraftFCB para ajudar a Universidade de Engenharia e Tecnologia do país a conquistar novos alunos. Mas, como Lima está localizada no meio do deserto e acumula menos de 30 mm de chuva por ano, a proposta do outdoor que transforma o ar em água tem ajudado muitas pessoas. Matéria completa: http://canaltech.com.br/noticia/curiosidades/Outdoor-transforma-ar-do-deserto-em-agua-potavel-no-Peru/#ixzz2M9558qSQ O conteúdo do Canaltech é protegido sob a licença Creative Commons (CC BY-NC-ND). Você pode reproduzi-lo, desde que insira créditos COM O LINK para o conteúdo original e não faça uso comercial de nossa produção. O outdoor armazena geradores que são responsáveis por captar a umidade do ar e enviá-la através de um sistema de osmose reversa (processo que separa um solvente de um soluto, lembra das aulas de química?) que irá gerar a água. O líquido produzido é tratado, filtrado e armazenado em galões localizados na base do outdoor, gerando aproximadamente 90 litros de água por dia e abastecendo as casas de centenas de famílias. Matéria completa: http://canaltech.com.br/noticia/curiosidades/Outdoor-transforma-ar-do-deserto-em-agua-potavel-no-Peru/#ixzz2M95yf9xK O conteúdo do Canaltech é protegido sob a licença Creative Commons (CC BY-NC-ND). Você pode reproduzi-lo, desde que insira créditos COM O LINK para o conteúdo original e não faça uso comercial de nossa produção.

quinta-feira, 21 de fevereiro de 2013

Poluição por nitrogênio no solo sobe 60% em 20 anos na China, diz estudo

O nitrogênio depositado no solo da China cresceu cerca de 60% em duas décadas, como consequência do uso de adubos agrícolas e de poluição emitida por indústrias, aponta um estudo publicado no site da renomada revista "Nature", nesta quarta-feira (20). De acordo com os cientistas, a deposição anual de nitrogênio no solo chinês subiu de 13,2 kg por 10 mil m², em 1980, para 21,1 kg por 10 mil m² em 2000. O nitrogênio depositado provém na maior parte de emissões na atmosfera, que cresceram muito com a atividade industrial crescente da China, apontam os pesquisadores. O estudo foi elaborado por cientistas da Universidade Stanford, nos EUA, da Universidade de Hohenheim, na Alemanha, da Universidade Vrije de Amsterdã, na Holanda, e da Universidade de Agricultura da China, entre outras instituições. A presença excessiva de nitrogênio tem consequências nocivas para o ambiente e a saúde das pessoas. Em níveis elevados, a substância pode causar acidificação do solo, reduzir o crescimento das plantas, levar à perda de biodiversidade e poluir águas de rios e lagos. "O rápido crescimento econômico da China levou a altos níveis de emissão de nitrogênio ao longo das últimas décadas", disse o pesquisador Zhang Fusuo, co-autor do estudo. "A China e outras economias estão enfrentando um desafio contínuo de reduzir as emissões de nitrogênio, a deposição de nitrogênio, e seus efeitos negativos", afirma o texto da pesquisa publicada pela "Nature". O crescimento anual de deposição foi de 0,41 kg de nitrogênio para cada 10 mil m² de solo desde 1980 até 2010, segundo os pesquisadores. "Informações sobre a magnitude, o alcance e as consequências reais [da poluição por nitrogênio] ainda são desconhecidas", afirma o estudo dos cientistas.

quinta-feira, 7 de fevereiro de 2013

Amazônia está mais resistente a mudanças climáticas, aponta estudo

Estimulo ao crescimento propiciado por CO2 supera efeitos nocivos. Pesquisa foi publicada na revista 'Nature' na quarta-feira.
A floresta amazônica não é tão vulnerável como se acreditava ao aquecimento global, porque o dióxido de carbono (CO2) também funciona como fertilizante, aponta estudo publicado na revista “Nature” na quarta-feira (6). De acordo com os pesquisadores, o estímulo ao crescimento propiciado pelo CO2 provavelmente irá superar os efeitos nocivos da mudança climática previstos para este século. "Não estou mais tão preocupado com uma extinção catastrófica por causa da mudança climática provocada pelo CO2. Nesse sentido, é uma boa notícia", disse o autor Peter Cox, da Universidade de Exeter, na Inglaterra. Cox também havia sido o autor principal de um estudo que teve grande repercussão em 2000, prevendo que a Amazônia poderia secar a partir de 2050 e morrer por causa do aquecimento. Outros sugeriram que as queimadas poderiam transformar a selva em cerrado. “Felizmente, a liberação de carbono no ambiente é balançeada pelos efeitos positivos da fertilização pelo CO2, que vai superar o efeito negativo sobre a mudança climática, de modo que as florestas globais devem continuar a acumular carbono ao longo do século 21", disse Cox. As plantas absorvem dióxido de carbono da atmosfera e o usam como ingrediente para desenvolver folhas, galhos e raízes. O carbono armazenado é devolvido à atmosfera quando a planta queima ou apodrece. Um recuo da cobertura florestal amazônica, com a consequente liberação de uma vasta quantidade de carbono, poderia portanto agravar o aquecimento global, um fenômeno que pode provocar mais inundações, tempestades violentas e elevação do nível dos mares, por causa do degelo nas calotas polares. Variação de CO2 Os cientistas disseram que o estudo foi importante porque usou modelos comparativos do crescimento florestal em relação às variações nos níveis de CO2 atmosférico. A equipe estudou como essas variações anuais na concentração de dióxido de carbono estão relacionadas às mudanças de longo prazo no montante de carbono armazenado nas florestas tropicais. Eles chegaram à conclusão de que os efeitos nocivos da mudança climática podem levar à liberação de 50 bilhões de carbono acumulados em terras tropicais, principalmente na Amazônia, a cada grau Celsius a mais na temperatura média do planeta. Porém, a fertilização pelo CO2 supera as perdas na maioria dos cenários, podendo chegar a um aumento líquido de até 319 bilhões de toneladas de carbono armazenado até o fim do século. Atualmente, estima-se que haja de 500 bilhões a 1 trilhão de toneladas de carbono armazenados nos trópicos. O estudo diz ainda que a mudança climática pode ser mais nociva para a Amazônia se outros gases do efeito estufa, como o ozônio e o metano, sem efeito fertilizante, assumirem um papel maior. Os pesquisadores, no entanto, estão certos de que as florestas tropicais vão sofrer com as alterações climáticas se o dióxido de carbono não fertilizar a vegetação tão fortemente como sugerem os modelos climáticos. "A saúde das florestas tropicais a longo prazo vai depender da sua capacidade de resistir às múltiplas pressões provocadas pelas mudanças climáticas e pelo desmatamento. Nossa pesquisa lança luz sobre o aquecimento, mas o desmatamento permanece sendo uma fonte significativa de pressão para o ecossistema", afirmou o co-autor do estudo, Chris Jones. Para ler mais notícias do Globo Natureza, clique em g1.globo.com/natureza. Siga também o Globo Natureza no Twitter.

domingo, 3 de fevereiro de 2013

Arsênio é o elemento mais crítico para tecnologia moderna

Minerais tecnológicos Em tempos de preocupações com minerais de terras raras e metais ameaçados de extinção, você se arriscaria a apostar no elemento mais crítico para a moderna tecnologia? Lítio, silício, germânio, platina são os mais conhecidos do público. Mas estará entre eles aquele cuja falta mais ameaçaria a aparentemente tão autossuficiente era da tecnologia? Definitivamente não, afirma uma eq uipe de pesquisadores da Universidade de Yale, nos Estados Unidos. E a resposta está no arsênio, o As da tabela periódica, com seu número atômico 33 e massa atômica 75 - um elemento altamente tóxico para o ser humano. Mas por quê? V. Ex.a, GaAs Nedal Nassar e seus colegas respondem que é por causa do papel crítico que o arsênio desempenha na fabricação dos processadores de computador, mais especificamente, da tecnologia dos semicondutores à base de arseneto de gálio - uma liga do arsênio com o gálio, ou GaAs. O grupo explica que os cinco finalistas nesse jogo das ameaças à tecnologia são ouro, prata, arsênio, selênio e telúrio, a maioria deles explorado como subprodutos da mineração do cobre. O cobre é bem tradicional, e é usado para transportar eletricidade. Mas o transporte de eletricidade com a precisão e a eficiência necessária aos circuitos eletrônicos integrados é feito pela prata e pelo ouro, como acontece nos contatos das memórias de computador. Os fabricantes de painéis solares, por sua vez, precisam de selênio e telúrio, enquanto, finalmente, os fabricantes de chips para computadores dependem muito do arsênio. O grupo salienta que, ainda que um problema de suprimento de qualquer um desses metais afete um grande número de indústrias de alta tecnologia, o arsênio é o mais crítico de todos.
Tente, por exemplo, voltar na cadeia produtiva, da mais alta tecnologia para a menos intensiva em tecnologia, retirando os computadores de qualquer atividade humana, e se poderá pesar adequadamente sua importância. Na verdade, o composto GaAs é importante também para a fabricação de raios laser, LEDs e diversos circuitos para transmissão de dados, além de alguns tipos de células solares. Criticalidade Não existe um padrão para avaliação do risco de suprimento de minerais e metais, que inclua a disponibilidade de reservas, fatores ambientais, fatores políticos, vulnerabilidades da cadeia de suprimentos etc. Por isso a equipe usou o critério da "criticalidade", um conceito que leva em conta o risco da escassez futura e dos potenciais danos à economia gerados por essa escassez. O arsênio teve a maior criticalidade, seguido de perto pela prata e pelo selênio. A equipe afirma que seu ranking é dinâmico, e terá que ser avaliado ao longo do tempo, certamente apresentando mudanças conforme variem tanto a oferta quanto a demanda, assim como o desenvolvimento de substitutos e a criação de tecnologias alternativas.

Geoengenharia pode destruir azul do céu

Céu branco Além dos efeitos não previstos, a ideia de injetar aerossóis na alta atmosfera da Terra para minimizar os efeitos do aquecimento global pode ter um efeito bem visível: destruir o azul do céu. Há mais críticos do que adeptos às propostas de manipular deliberadamente o clima terrestre, que é a proposta básica da geoengenharia. Recentemente, um experimento para testar a ideia de aspergir água do mar a uma altitude de 1 km na atmosfera, proposto por cientistas do Reino Unido, foi proibid o pelas autoridades. Vários cientistas já haviam alertado que a aspersão dos aerossóis poderia ter como efeito esbranquiçar o céu. Mas agora o efeito foi quantificado. Vermelho vence o azul Ben Kravitz e seus colegas da Instituição Carnegie para a Ciência, nos Estados Unidos, demonstraram que as partículas de sulfato que alguns propõem lançar no ar causariam um maior espalhamento da luz solar na atmosfera. Isto reduziria em cerca de 20% a quantidade de luz que viria diretamente para o solo, tornando o brilho do Sol mais difuso, mais "apagado", dando um tom esbranquiçado ao céu. O azul do céu vem da luz sendo refletida pelas moléculas no ar. Esse espalhamento da luz é muito mais forte para os comprimentos de onda mais curtos - na faixa do azul - do que nos comprimentos de onda mais longos - na faixa do vermelho. As partículas de aerossol que alguns cientistas planejam jogar na atmosfera, contudo, são muito maiores do que as moléculas do ar. Com isso, elas causariam uma difusão muito mais forte da luz vermelha, "lavando" o azul produzido pelas moléculas menores. Isto tornaria o céu mais brilhante e virtualmente branco. Segundo os pesquisadores, o efeito gerado seria similar ao que ocorre depois de grandes erupções vulcânicas. Efeitos imprevisíveis Os efeitos iriam além da simples aparência do céu, que ficaria de 3 a 5 vezes menos azul. Segundo os pesquisadores, os efeitos afetariam diretamente a geração de energia solar, uma vez que uma quantidade de luz muito menor chegaria até os painéis solares. Um outro estudo também já havia demonstrado que o "sombreamento" artificial da Terra pode desacelerar ciclo global da água. Mas as autoridades que proibiram os primeiros experimentos de geoengenharia, assim como os próprios cientistas que criticam essas propostas, baseiam-se sobretudo em que é virtualmente impossível calcular todos os efeitos gerados por uma manipulação do clima em escala planetária. "Esses resultados dão às pessoas uma coisa a mais para considerar antes de decidirem se nós realmente queremos seguir por esse caminho," disse Kravitz. "Embora nosso estudo não tenha tratado sobre os possíveis impactos psicológicos sobre essas mudanças no céu, eles também devem ser considerados." "Eu espero que nós nunca cheguemos ao ponto em que as pessoas considerem a necessidade de aspergir aerossóis no céu para combater o aquecimento global. Este é o tipo de estudo que eu não gostaria de ver comprovado na prática por uma camada estratosférica de aerossóis no mundo real," disse Ken Caldeira, coautor do estudo.

Nova Lei Seca: Mudanças endurecem fiscalização no trânsito

Problemas do trânsito
A presidente Dilma Rousseff (PT) sancionou em 20 de dezembro a lei que torna mais rígida a punição para motoristas que dirigem alcoolizados. A nova Lei Seca corrige uma brecha da anterior, permitindo que sejam utilizados outros meios, além do bafômetro, para comprovar a embriaguez ao volante. Direto ao ponto: Ficha-resumo Popularmente conhecida como “lei seca”, a Lei 11.705, que modifica o Código de Trânsito Brasileiro, foi aprovada em 19 de junho de 2008. Ela penaliza com multa, suspensão da carteira de habilitação e até detenção, motoristas que trafeguem sob o efeito do consumo de bebidas alcoólicas. Essa mudança na legislação fazia parte de um conjunto de medidas preventivas – como obrigatoriedade do uso de cinto de segurança em carros e de capacetes em motocicletas – adotado pelo governo para diminuir o número de vítimas de acidentes de trânsito no país. Segundo a OMS (Organização Mundial da Saúde), o Brasil ocupa o quinto lugar no ranking de nações recordistas em acidentes, atrás da Índia, China, Estados Unidos e Rússia. O último levantamento feito pelo Ministério da Saúde, em 2010, registrou 42,8 mil vítimas fatais no trânsito brasileiro. Entre os jovens, essa é a segunda maior causa de mortes, perdendo apenas para os homicídios. Os números correspondem a uma taxa de 22,4 óbitos para cada grupo de 100 mil habitantes, quase o dobro de países desenvolvidos. Porém, não há pesquisas abrangentes que apontem quantos desses casos envolveram acidentes provocados pela combinação de álcool e volante. Estima-se que podem chegar até a metade. Um estudo da Faculdade de Medicina da USP, realizado com base em dados de 2005, concluiu que 44% de motoristas mortos em acidentes no Estado de São Paulo haviam ingerido bebida alcoólica antes de dirigir. Bafômetros No primeiro mês de aplicação da Lei Seca, os bares registraram queda de movimento e a procura por serviços de táxi aumentou, de acordo com os sindicatos das categorias. Alguns bares passaram a oferecer serviços de “caronas” para os clientes. Mas isso não durou muito tempo. Logo, a lei perdeu seu impacto, em razão da precariedade na fiscalização. Quando entrou em vigor, há três anos, só havia 900 bafômetros no país, 500 deles pertencentes à Polícia Rodoviária Federal, que só fiscaliza estradas. Sobravam, então, apenas 400 aparelhos para atender mais de cinco mil cidades. O maior problema, no entanto, dizia respeito à própria legislação. Em março deste ano, o Superior Tribunal de Justiça (STJ) determinou que a punição de motoristas embriagados só poderia ser feita, de acordo com a lei, por meio de teste de bafômetro ou exame de sangue, para comprovar a dosagem de álcool igual ou superior ao permitido (dois decigramas por litro de sangue, o equivalente a um chope). A aplicação de multa ou detenção do motorista depende do nível de embriaguez. A partir de seis decigramas por litro de sangue (equivalente a dois chopes), a punição é acrescida de prisão, afiançável. Só que o condutor do veículo não era obrigado a fazer o teste, pois a Constituição diz que ninguém é obrigado a produzir provas contra si mesmo. Assim, ele simplesmente se recusava a fazer o teste do bafômetro, restringindo as penalidades à aplicação de multa e apreensão da Carteira Nacional de Habilitação (CNH) por, em média, cinco dias. Multas Com a alteração, aprovada no Congresso, em caráter de urgência, qualquer outro meio pode ser usado para comprovar a embriaguez do motorista, incluindo o testemunho de policiais, fotos, vídeos e relatos de testemunhas e testes clínicos. Caso o condutor não concorde com o resultado da análise, considerando-a subjetiva, pode pedir o exame de sangue ou de bafômetro. Essas mudanças permitem, agora, que a lei seja aplicada em sua totalidade. As primeiras blitz foram realizadas nas festas de final de ano. Outra mudança foi o aumento nos valores das multas, que passam de R$ 957,70 para R$ 1.915, 40. Se o infrator for reincidente, em menos de um ano, a multa dobra, chegando a R$ 3.830,80, e a carteira de habilitação é suspensa pelo prazo de um ano. Já a detenção de seis meses a três anos permaneceu inalterada. Uma crítica a essas alterações na lei é justamente quanto ao teor subjetivo da constatação de embriaguez, que substitui o bafômetro. O motorista indiciado pode ser beneficiado na Justiça, por conta de diferentes interpretações de seu estado psicomotor ao ser detido. Ainda assim, a Lei Seca brasileira é considerada uma das mais rigorosas do mundo. Segundo um levantamento do International Center for Alcohol Policies (Icap), o Brasil está entre os 20 países com legislação mais severa, em uma lista com 82 nações pesquisadas. Na América Latina, somente a Colômbia, onde o limite de ingestão alcoólica é zero, é mais intolerante nesse aspecto. FIQUE LIGADO Por trás da aprovação da nova Lei Seca, há outras questões que vale a pena conhecer. Em primeiro lugar, o poder Legislativo, responsável pela elaboração das leis, bem como a organização da legislação brasileira. Em segundo lugar, uma distorção no exercício do poder de criar leis, com a criação de normas absurdas sob o ponto de vista prático. Não se deve perder de vista, porém, que o abuso de álcool no volante não é o único problema do trânsito brasileiro. Poder Legislativo Legislação Leis absurdas

domingo, 1 de abril de 2012

Artigo: Sorte do Brasil

Artigo de Joaquim Francisco de Carvalho, pesquisador associado ao Instituto de Energia e Eletrotécnica da USP, e Emico Okuno Joaquim de Carvalho, professora do Instituto de Física da USP. Texto publicado no jornal O Globo de ontem (29). O estudo mais completo sobre a segurança dos reatures nucleares foi feito para a Comissão de Energia Atômica dos Estados Unidos, por um grupo dirigido pelo professor Norman Rasmussen, do Instituto de Tecnologia de Massachusetts (Relatório Wash 1400, de 1.975). Nesse estudo, calculou-se que a probabilidade de falha em central nuclear é tão reduzida, que um acidente grave só poderia ocorrer a cada 35 mil anos. Os acidentes de Three Mile Island (1.979), Chernobyl (1.986) e Fukushima (2.011) mostraram que acidentes graves podem sequenciar-se em poucos anos. Diante disso, o governo alemão resolveu desativar imediatamente as usinas mais antigas em operação no país - e abandonar definitivamente a energia nuclear em 2022. E o governo da França decidiu adotar normas de segurança mais rigorosas, o que encarecerá em cerca de 20% o custo da eletricidade. Usinas nucleares são importantes para países que não disponham de melhor alternativa. Entretanto, considerando a probabilidade de acidentes, medidas preventivas devem ser tomadas, começando pela inclusão, nos currículos escolares, de cursos destinados a informar a população sobre a natureza das radiações ionizantes. Isto deve ser feito em linguagem acessível ao não especialista em Física das radiações. Radiações são úteis na medicina, mas também podem causar mortes. Acidentes nucleares são muito mais graves do que outros acidentes. Esconder ou banalizar as consequências desses acidentes é algo inaceitável numa democracia. Após um acidente nuclear, átomos instáveis podem ser colocados no ambiente, contaminando o ar, o solo, os vegetais, etc. Normalmente, respiramos ar, bebemos água e ingerimos alimentos levemente radioativos, porque carregam radônio e rádio, e isótopos instáveis de potássio, carbono, etc. O problema surge quando os isótopos instáveis aparecem em concentrações acima da encontrada normalmente na natureza. Esses isótopos se desintegram, emitindo radiações de alta energia (raios X e raios gama) além de partículas carregadas ou não (partículas alfa e beta, pósitrons, nêutrons, etc.) que são ionizantes, isto é, deslocam elétrons de átomos que formam moléculas de tecidos constituintes do corpo humano. Dependendo do nível e do tempo de exposição, estas radiações podem causar lesões que vão de problemas no sistema sanguíneo - como diminuição do número de glóbulos vermelhos e brancos e leucemia - até, em longo prazo, câncer de diversos órgãos. Acidentes nucleares apenas começam no local e no momento em que ocorrem, depois vão se propagando sobre regiões inteiras, ao longo de muitas décadas. Em Chernobyl, por exemplo, oito meses após o acidente havia 35 mortes, entre bombeiros e técnicos. Segundo estudos muito conservadores, podem chegar a 105 mil as fatalidades causadas pelas radiações ionizantes na população diretamente exposta - incluindo os 600 mil "liquidadores" que trabalharam na descontaminação. Para áreas mais extensas, as estimativas são polêmicas, porque o acidente contaminou diversas regiões da Europa, em diferentes níveis. fonte: http://www.jornaldaciencia.org.br/Detalhe.jsp?id=81802 O Brasil tem a sorte de não precisar de usinas nucleares.

quarta-feira, 21 de março de 2012

Fracasso da geoengenharia: gases que salvaram camada de ozônio agora ameaçam o clima

O Protocolo de Montreal entrou em vigor em 1989, e ficou famoso por banir os CFCs (clorofluorocarbonetos) e os HCFCs (hidroclorofluorocarbonos), que destroem a camada de ozônio. Esses gases foram então substituídos pelos HFCs (hidrofluorocarbonetos), que se acreditava serem benéficos ou, no mínimo, inertes em relação à camada de ozônio em particular e ao meio ambiente em geral. Contudo, demonstrando os riscos a que o planeta está sujeito com ex perimentos de geoengenharia, agora os próprios cientistas estão pedindo um controle sobre o uso também dos HFCs. De certa forma, a substituição dos CFCs pelos HCFCs foi o primeiro experimento de geoengenharia em larga escala. E os resultados não foram bons. Ativos e duradouros Já havia sido demonstrado que os HFCs podem provocar chuva ácida. Agora ficou demonstrado também, ao que contrário do que se demonstrara na época, que os hidrofluorocarbonetos são climaticamente muito ativos e extremamente persistentes no ambiente. Os hidrofluorocarbonetos são muito semelhantes aos clorofluorocarbonetos, com a diferença de não usaram cloro e não destruírem o ozônio estratosférico. Ambos são usados em geladeiras e ar-condicionados, em latas de aerossol e como solventes na fabricação de espuma. O que não se sabia então era que esses HFCs são gases de efeito estufa muito potentes. O HFC-134a, também conhecido como R-134a, por exemplo, usado nos aparelhos de ar-condicionados de automóveis, é 1.430 vezes mais ativo do que o hoje quase odiado CO2 (dióxido de carbono). O dióxido de carbono bem poderia rivalizar com o oxigênio como o "gás da vida", dada sua importância no ciclo biológico da Terra. Hoje, porém, ele é mais conhecido como um gás de efeito estufa - o mesmo efeito que permite a vida na Terra, mas que, levado ao exagero, pode colocar essa mesma vida em dificuldades. Bibliografia: Preserving Montreal Protocol Climate Benefits by Limiting HFCs Guus J. M. Velders, A. R. Ravishankara, Melanie K. Miller, Mario J. Molina, Joseph Alcamo, John S. Daniel, David W. Fahey, Stephen A. Montzka, Stefan Reimann Science Vol.: 335 no. 6071 pp. 922-923

domingo, 26 de fevereiro de 2012

Acelerador de partículas é reativado em busca da origem da matéria

O Grande Colisor de Hádrons (LHC), acelerador de partículas do Centro Europeu de Pesquisas Nucleares (Cern), voltou a ser acionado, após mais de dois meses de parada técnica. Com a reativação, mais de 5 mil cientistas darão início à etapa decisiva na busca do "Bóson de Higgs", uma partícula elementar que explicaria a origem da matéria. "Os aceleradores estão sendo reativados, mas os primeiros feixes de prótons não serão injetados no LHC até meados de março e as colisões continuarão até o fim deste mês", confirmou nesta sexta-feira (24) o porta-voz do Cern, James Gillies. A injeção de prótons será feita em um primeiro acelerador menor e mais antigo. Lá as partículas vão adquirir energia e ganhar velocidade para passar a um acelerador maior, tudo antes de chegar com toda potência (mais de 99,9% da velocidade da luz) ao LHC, explicou um dos responsáveis do centro de controle do grande acelerador, Mirko Pojer.
24/02/2012 11h20 - Atualizado em 24/02/2012 18h20 Acelerador de partículas é reativado em busca da origem da matéria Operações do LHC são retomadas após parada técnida de dois meses. Ano de 2012 será decisivo na busca pelo 'bóson de Higgs'. Da EFE 30 comentários O Grande Colisor de Hádrons (LHC), acelerador de partículas do Centro Europeu de Pesquisas Nucleares (Cern), voltou a ser acionado, após mais de dois meses de parada técnica. Com a reativação, mais de 5 mil cientistas darão início à etapa decisiva na busca do "Bóson de Higgs", uma partícula elementar que explicaria a origem da matéria. "Os aceleradores estão sendo reativados, mas os primeiros feixes de prótons não serão injetados no LHC até meados de março e as colisões continuarão até o fim deste mês", confirmou nesta sexta-feira (24) o porta-voz do Cern, James Gillies. A injeção de prótons será feita em um primeiro acelerador menor e mais antigo. Lá as partículas vão adquirir energia e ganhar velocidade para passar a um acelerador maior, tudo antes de chegar com toda potência (mais de 99,9% da velocidade da luz) ao LHC, explicou um dos responsáveis do centro de controle do grande acelerador, Mirko Pojer. Uma das instalações do Grande Colisor de Hádrons (LHC), megatúnel para colidir partículas (Foto: Andrew Strickland / cortesia Cern 7-8-2010)Instalações do Grande Colisor de Hádrons (LHC), megatúnel para colidir partículas (Foto: Andrew Strickland) Uma vez que os prótons chegarem ao LHC, a metade deles fará sua trajetória em uma direção e os demais seguirão no sentido oposto para começarem a colidir no fim de março. Para isso acontecer, os ímãs supracondutores do LHC deverão ser esfriados a uma temperatura de 271 graus Celsius negativos -- a temperatura mais baixa conhecida no Universo é de cerca de 273 graus Celsius negativos. No total, serão injetados 2,8 mil pacotes de partículas no LHC, com conteúdo de 115 bilhões de prótons cada, que circularão a uma energia de 4 TeV (teraeletronvolts), 0,5 TeV a mais do que estava previsto. "A energia da colisão dos prótons equivale ao choque de um grande avião na velocidade de aterrissagem, ou seja, cerca de 150 km/h", comparou Pojer. No entanto, dado o reduzido tamanho dos prótons, a probabilidade de choque é pequena, o que explica a necessidade de injetar no acelerador grandes quantidades de partículas. Os milhares de físicos que trabalham no Cern esperam que as colisões entre prótons a energias tão elevadas façam surgir novas partículas cuja existência está apenas na teoria. É o caso do Bóson de Higgs, sobre a qual repousam as bases do modelo padrão da física e que é, por enquanto, a única hipótese disponível sobre uma questão tão fundamental como a origem da matéria. Os responsáveis pelo Cern garantiram que neste ano terão resultados conclusivos sobre a existência ou não de "Higgs". Os pesquisadores do centro de pesquisas europeu acreditam ter visto sinais da partícula durante as medições e análises de dados realizados durante 2011. O LHC, um anel de 27 quilômetros de circunferência localizado entre 50 e 150 metros abaixo da terra, conta com quatro detectores. Desses, dois -- conhecidos como Atlas e CMS -- estão dedicados a buscar novas partículas como a de Higgs ao mesmo tempo, mas de maneira independente. Nos próximos meses, nenhuma nova descoberta será anunciada até que uma dessas experiências alcance um grau de comprovação quase absoluta ou equivalente a uma possibilidade em 1 milhão que possa ter algum erro, disse o físico Steven Goldfarb, coordenador de divulgação e educação do detector Atlas. Se isso ocorre, o outro detector servirá para contrastar o resultado e corroborar os dados obtidos. Goldfarb lembrou que entre 1999 e 2000, em uma experiência conhecida como "Aleph", os cientistas pensaram ter encontrado a partícula de Higgs, mas outros três experimentos que eram desenvolvidos paralelamente descartaram a descoberta. "Isto é como tirar dados. Pode ocorrer que o mesmo número saia seis vezes seguidas e seria emocionante, mas existe uma probabilidade estatística que isto ocorra, e ali mora a armadilha", comentou. A cientista espanhola Silva Goy, que trabalha no detector CMS, tem a mesma opinião. Ela disse queo observado até agora pode ser uma "oscilação estatística" e que o desafio é chegar a um nível de probabilidade que permita eliminar esse risco. Com o valor de energia que será utilizada neste ano, o volume de dados obtidos chegará aos "15 femtobarn inverso (Fv-1)", considerada suficiente para alcançar um resultado final. Espera-se que até a próxima grande conferência de física, no início de julho na Austrália, os cientistas do Cern já tenham reunido mais dados do que em todo o ano de 2011 sobre o experimento para apresentá-los à comunidade científica.

quarta-feira, 22 de fevereiro de 2012

Hidrogênio, energia solar e água

Para Jailson de Andrade, professor do Instituto de Química da Universidade Federal da Bahia, a energia, os alimentos e a água serão os principais desafios para a humanidade no século 21, com impacto nas questões do meio ambiente, da pobreza, da população, das doenças, da educação e da democracia. "No desafio energético, a alternativa nuclear tem grandes limitações: além de ser inviável para aplicação nos transportes, há o problema complexo do manejo dos resíduos. Quanto à célula combustível a hidrogênio - embora resolva o problema dos resíduos -, apresenta um grande obstáculo tecnológico relacionado à geração, estocagem e transporte de hidrogênio. "O custo, além disso, é elevado. A energia solar é uma alternativa que precisa ser mais explorada. O desafio é que as células fotovoltaicas convertem no máximo 30% da luz solar em eletricidade e a captação em grande escala é complexa", disse. A questão da água, segundo Andrade, se relaciona principalmente à disponibilidade, já que 97% da água do planeta é salgada e só 1% está acessível. De acordo com ele, existem 1 bilhão de pessoas hoje sem acesso à água de qualidade. Quanto aos alimentos, o problema é que 4 bilhões de pessoas vivem em cidades e não produzem comida, apenas consomem. "A química terá um papel importante na solução desses problemas. Será preciso aprimorar a captura de energia solar e as baterias recarregáveis, melhorar a célula combustível a hidrogênio e criar catalisadores para que o carvão seja usado de forma mais limpa. O uso da biomassa para energia precisará avançar", afirmou. Para manter o nível de gases de efeito estufa estabilizado em 550 partes por milhão até 2050 - meta necessária para que a temperatura não suba mais que 2º C, causando mudanças irreversíveis no planeta -, será preciso produzir 20 terawatts a mais de energia sem carbono, segundo Andrade. "Isso é mais que todo o consumo atual de energia. Acredito que só a energia solar poderá prover essa quantidade de energia limpa", afirmou.

Balanço de nitrogênio

Segundo Arnaldo Alves Cardoso, professor da Unesp de Araraquara (SP), o papel da química na questão das fontes alternativas de energia e das mudanças climáticas tem relação com o grave problema do balanço de nitrogênio no planeta. Os fertilizantes baseados em nitrogênio foram um avanço que permitiu a revolução verde, que garantiu a sobrevivência de bilhões de pessoas. Mas isso alterou o balanço de nitrogênio na Terra. "Em 1990, o homem já produzia tanto nitrogênio quanto a própria natureza. Com o uso dos fertilizantes, grande parte desse nitrogênio acaba no meio ambiente", disse. Na cana-de-açúcar, base do etanol, que é a principal alternativa de combustível limpo no Brasil - com um papel importante na mitigação das mudanças climáticas -, o uso de fertilizantes é pequeno, segundo Cardoso. "Mas, no caso do etanol, o nitrogênio volta praticamente em sua totalidade ao meio ambiente. Depois, a combustão ainda gera muito mais nitrogênio. Os biocombustíveis são aparentemente corretos do ponto de vista ambiental, mas sua produção gasta água e gera um excesso de nitrogênio que vai acabar nos oceanos e nas águas interiores, podendo provocar excesso de algas e, consequentemente, morte de peixes, perda de biodiversidade e emissões de aerossóis", disse. De acordo com Cardoso, a química terá muitos problemas para resolver no contexto das mudanças climáticas. Os combustíveis fósseis geram gases de efeito estufa, enquanto os biocombustíveis dependem de terra, água e fertilizantes. O tratamento dos esgotos também gera nitrogênio reativo. "Será preciso buscar inovações para minimizar o enxofre nos combustíveis fósseis e produzir fertilizantes inteligentes. No caso dos biocombustíveis, a química terá a missão de obter alternativas produzidas por biomassa vegetal, a partir de plantas que usam menos terra, água e fertilizante. Será importante também desenvolver algas para consumir o nitrogênio reativo, além de melhorar a eficiência de catalisadores dos automóveis", afirmou.

terça-feira, 21 de fevereiro de 2012

Adesivo inspirado nos pés das lagartixas torna-se realidade

Pelas paredes Depois de anos de pesquisas, a promessa de um super adesivo inspirado nos pés das lagartixas parece ter finalmente se cumprido. O produto foi batizado de GeckSkin, uma união dos termos gecko (lagartixa) e skin (pele). O protótipo do material é capaz de sustentar mais de 300 quilogramas em um vidro liso, pode ser retirado com um puxão na direção adequada, sem deixar qualquer vestígio, e pode ser reaplicado inúmeras vezes. Adesivo seco reversível A alta capacidade, a reversibilidade e o fato de operar inteiramente a seco, transformam o super adesivo em uma opção para a fixação de aparelhos de TV ou monitores de computador nas paredes, afirmam os pesquisadores, de olho em um nicho de mercado. Mas a verdade é que o adesivo seco e super forte poderá ser utilizado em uma gama virtualmente inumerável de situações. "Nosso protótipo da Geckskin tem cerca de dez centímetros quadrados e conseguiu manter até 317 quilogramas presos a uma superfície de vidro liso," disse Alfred Crosby, membro da equipe. A capacidade do adesivo medida no experimento foi de (29.5 N cm-2). Outra vantagem incomparável do novo adesivo é que ele pode ser retirado com um leve puxão, e ser reaplicado e retirado tantas vezes quantas sejam necessárias, sem deixar nenhum resíduo - exatamente como os pés das lagartixas. Adesivo seco e reversível inspirado nos pés das lagartixas O adesivo seco e reversível foi fabricado inteiramente com materiais disponíveis no mercado. [Imagem: Bartlett et al./Advanced Materials] Complexidade de lagartixa Tentativas anteriores de reproduzir artificialmente a enorme capacidade adesiva dos pés das lagartixas baseavam-se nos pêlos microscópicos, que grudam com base nas forças de van der Waals. Mas ninguém teve sucesso até agora em reproduzir essas estruturas em larga escala. Crosby e seus colegas afirmam que os pêlos não são necessários para explicar o poder de adesão dos pés das lagartixas. Segundo eles, é necessário levar em conta a complexidade do pé inteiro da lagartixa, o que inclui tendões, ossos e pele, que trabalham em conjunto para gerar a adesão reversível. "É um conceito que não foi levado em conta em outras pesquisas e estratégias de projeto, um conceito que vai abrir novas avenidas de pesquisa na adesão reversível," disse Crosby. Biomimetismo O protótipo consiste em um adesivo integrado com uma espécie de almofada, simulando a parte mole do pé da lagartixa, tudo sobre um tecido firme, que permite que o adesivo seja forçado sobre a superfície, para maximizar o contato. Além disso, como no pé do animal, essa pele artificial de lagartixa é tecida em um tendão sintético, "um desenho que desempenha um papel crucial na manutenção da firmeza e da liberdade rotacional," escrevem os cientistas.

terça-feira, 14 de fevereiro de 2012

Eletricidade ecológica

Eletricidade ecológica A empresa emergente Ecotricity, do Reino Unido, divulgou o projeto de um novo mecanismo para gerar eletricidade a partir das ondas do mar. O Searaser foi projetado para minimizar a variação na produção de energia, algo típico das fontes renováveis, e o custo na fabricação do gerador. "Ele tem um projeto simples e nós acreditamos que ele irá produzir eletricidade mais barata do que qualquer outra tecnologia alimentada pelas ondas, ou mesmo mais barata do que qualquer outra energia renovável," prevê Alvin Smith, idealizador do aparelho. Como a água salgada é altamente corrosiva, fabricar geradores elétricos para funcionar submersos no mar sai muito caro. Além disso, água e eletricidade não se dão bem, o que exige um aparato de isolamento que encarece a estrutura e a operação. Ao projetar um equipamento de pequeno porte, para ser instalado próximo à costa, em águas rasas, os projetistas esperam reduzir custos de material e de manutenção. Além disso, o Searaser não gera eletricidade na água. Ele simplesmente usa o movimento das ondas para bombear água do mar para uma turbina em terra. Este conceito já havia sido explorado pela chamada hidroelétrica marinha, mas o projeto do Searaser é mais simples e voltado para instalações menores. Energia das ondas do mar O principal elemento do gerador é um pistão, colocado entre duas boias. Uma delas flutua ao sabor das ondas, enquanto a outra fica ancorada no fundo do oceano. Conforme as ondas passam, as boias movem-se para cima e para baixo, movimentando o pistão, que envia água sob pressão para uma instalação em terra. Na usina, o fluxo de água movimenta uma turbina, responsável pela geração da eletricidade. O primeiro protótipo, que deverá entrar em testes em 2014, terá 1 metro de diâmetro e 12 metros de altura. O principal limitador da tecnologia é que ela é adequada apenas para locais rasos, próximos à costa, o que a coloca em competição com áreas de lazer e pesca e sujeita a entraves de natureza ambiental. Fonte: http://www.blogger.com/blogger.g?blogID=300594852713315016#editor

segunda-feira, 30 de janeiro de 2012

Moléculas na atmosfera terrestre podem resfriar o planeta e balancear o aquecimento global

D
Os cientistas descobrem que uma molécula da atmosfera da Terra tem o potencial de desempenhar um papel importante no arrefecimento do planeta. Pesquisadores da Universidade de Manchester, da The University of Bristol e dos Laboratórios Nacionais Sandia revelam que intermediários químicos invisíveis presentes na atmosfera da Terra são oxidantes poderosos de poluentes como o dióxido de azoto e dióxido de enxofre, produzidos por combustão, e pode naturalmente limpar a atmosfera. Legenda foto: Pesquisadores descobriram que algumas moléculas reagem mais rapidamente do que se pensava e aceleram a formação de sulfatos e nitratos na atmosfera. Estes compostos levarão a formação de aerossóis e, finalmente, a formação de nuvens com potencial para esfriar o planeta A detecção deste novo tipo de molécula e medição do quão rápido ela reage foi possível graças a um aparelho único, desenhado por pesquisadores para usar a luz intensa, sintonizável no sincrotron, permitindo aos pesquisadores distinguir a formação e remoção de espécies diferentes isoméricas - moléculas que contêm os mesmos átomos, mas dispostos em diferentes combinações. Este tipo de reação atmosférica foi postulado pela primeira vez por Rudolf Criegee na década de 1950. No entanto, apesar da sua importância, não foi possível estudar diretamente essas espécies importantes no laboratório. Nos últimos cem anos, a temperatura média da superfície da Terra aumentou 0,8°C. A maioria dos países concorda que cortes drásticos nas emissões de gases de efeito estufa são necessários. Dr. Carl Percival, Químico da Atmosfera da Universidade de Manchester acredita que poderia haver possibilidades de investigações significativas decorrentes da descoberta do ‘biradicals Criegee’. "Nossos resultados terão um impacto significativo em nossa compreensão da capacidade oxidante da atmosfera e têm amplas implicações para a poluição e a mudança climática”. O Professor de Química da Dudley Shallcross, na Universidade de Bristol, acrescentou que: "Os ingredientes importantes necessários para a produção dessas ‘biradicals Criegee’ vem de substâncias químicas liberadas naturalmente pelas plantas, ecossistemas naturais estão atuando de forma importante contra o aquecimento global”

Metais mais raros da Terra entram para "lista de risco"

Elementos de risco O Serviço Geológico Britânico divulgou uma lista de "elementos ameaçados de fornecimento". Não é uma lista de elementos raros ou "ameaçados de esgotamento", mas daqueles elementos mais importantes economicamente com risco de sofrerem quebra na cadeia de fornecimento global. "A lista dá uma indicação do risco relativo para o fornecimento dos elementos químicos ou grupos de elementos que precisamos para manter nossa economia e nosso estilo de vida," afirma o órgão britânico, em tom pouco diplomático. A posição de cada elemento na lista é determinada por fatores que podem impactar sua oferta, incluindo a abundância de cada elemento na crosta terrestre, a localização da produção e das reservas atuais, e a estabilidade política desses locais. Minerais tecnológicos Os dados destacam a importância da China na mineração mundial, sobretudo nesta área dos chamados "minerais tecnológicos". O Brasil está presente entre os elementos com sinal vermelho, graças ao nióbio - o país fornece quase a totalidade do nióbio do mundo, um elemento importante na indústria do aço, eletrônica, supercondutores e até dos experimentos com a fusão nuclear. A lista é encabeçada por minerais como as terras raras, grupo da platina, o nióbio e o tungstênio. Segundo os organizadores da lista, não há nenhum risco de esgotamento das reservas de nenhum dos minerais listados, sendo que os maiores riscos ao fornecimento são "fatores de risco humanos" - geopolítica e nacionalismo - e acidentes.

segunda-feira, 10 de outubro de 2011

Ponte solar vai gerar quase 1 MW de energia


Ponte solar

Começou a ser construída em Londres, no Reino Unido, a maior ponte solar do mundo.

A ponte vitoriana sobre o rio Tâmisa, construída em 1886, será transformada na fundação da estação Blackfriars.

Sobre ela, a empresa japonesa Sanyo está instalando 4.400 painéis solares fotovoltaicos, criando uma usina solar capaz de gerar 1,1 MW de energia.

Os painéis estão sendo instalados na forma de um teto de 6.000 metros quadrados.

Usina solar

Em média, os engenheiros calculam que a ponte solar deverá gerar 900.000 kWh de energia, suprindo 50% do consumo da estação e reduzindo as emissões de carbono em 511 toneladas por ano.

Outras técnicas ambientalmente corretas que estão sendo instaladas na estação incluem um sistema de coleta de água da chuva, para uso nos banheiros e na limpeza, e "tubos solares", para captar a luz do Sol e direcioná-la para a iluminação interna.

UE só assinará novo Protocolo de Kyoto se EUA e China aderirem


Ministros de Meio Ambiente de países que pertencem à União Europeia sinalizaram nesta segunda-feira que seus governos pretendem assinar um segundo Protocolo de Kyoto se as nações mais poluentes também o fizerem --no caso, os Estados Unidos, a China e a Índia.

Entenda importância do Protocolo de Kyoto contra o efeito estufa

A linha de ação que será adotada pela UE na próxima conferência mundial sobre mudanças climáticas --marcada para novembro em Durban, na África do Sul-- foi acordada em uma reunião que acontece nesta semana em Luxemburgo.

"Qual a razão de se manter algo vivo se você está lá sozinho?", disse à agência de notícias Reuters o comissário de Ambiente da UE, Connie Hedegaard.

Ele comentou que deve haver maior colaboração dos países mais poluentes, que respondem por 89% das emissões, contra os 11% dos países da UE.

O Protocolo de Kyoto em vigor, que prevê medidas de combate contra o aquecimento global, vai expirar em 2012 e até o momento não possui nenhum novo texto formulado.

Os EUA são um dos países poluentes que assinaram o Protocolo de Kyoto, mas nunca ratificaram sua participação, motivo pelo qual é criticado mundialmente. As nações em desenvolvimento também foram excluídas do pacto original de 1997, mas hoje se enquadram entre os poluentes.

Na metade deste ano, representantes de 180 países se reuniram para tratar de Kyoto, mas
não houve avanços nas duas semanas de conversações e o assunto mais uma vez foi postergado sem solução.

terça-feira, 28 de junho de 2011

Entenda a polêmica envolvendo o novo Código Florestal


A polêmica em torno do projeto de lei que estabelece o novo Código Florestal emperra sua votação na Câmara dos Deputados. De um lado, os ruralistas defendem as mudanças propostas pelo governo. Do outro, os ambientalistas apontam riscos do crescimento de florestas desmatadas e de prejuízos ao meio ambiente. A votação foi suspensa no último dia 12 de maio, sem prazo para voltar à pauta.

O Código Florestal, em vigor desde 1965, reúne um conjunto de leis que visam à preservação das florestas. Porém, ele não foi seguido pela maioria dos produtores rurais. Estima-se que 90% estejam em condições irregulares. O principal objetivo das mudanças é regularizar a situação desses produtores.

Os três principais pontos em discussão são:

APPs (Áreas de Preservação Permanente): são áreas de vegetação nativa nas margens de rios e encostas de morros que devem ser preservadas. O projeto prevê uma diminuição da faixa mínima a ser mantida pelos produtores rurais e a permissão de determinadas culturas em morros.

RL (Reserva Legal): são trechos de vegetação nativa localizados dentro de propriedades rurais. As mudanças na lei beneficiam pequenos proprietários, que ficarão isentos de reflorestar áreas desmatadas.

Anistia: o novo Código propõe suspender a multa e sanções aplicadas a proprietários rurais até 22 de julho de 2008 - data em que entrou em vigor o decreto regulamentando a Lei de Crimes Ambientais.

O acidente nuclear do Japão


Existem hoje cerca de 450 reatores nucleares, que produzem aproximadamente 15% da energia elétrica mundial. A maioria deles está nos Estados Unidos, na França, no Japão e nos países da ex-União Soviética. Somente no Japão há 55 deles.

A "idade de ouro" da energia nuclear foi a década de 1970, em que cerca de 30 reatores novos eram postos em funcionamento por ano. A partir da década de 1980, a energia nuclear estagnou após os acidentes nucleares de Three Mile Island, nos Estados Unidos, em 1979, e de Chernobyl, na Ucrânia, em 1986. Uma das razões para essa estagnação foi o aumento do custo dos reatores, provocado pela necessidade de melhorar a sua segurança. Com a queda do custo dos combustíveis fósseis na década de 1980, eles ficaram ainda menos competitivos. O custo da instalação de um reator nuclear triplicou entre 1985 e 1990.

Temos agora o terceiro grande acidente nuclear, desta vez no Japão, que certamente vai levar a uma reavaliação das vantagens e desvantagens de utilizar reatores nucleares.

Vejamos quais são os fatos, as causas e consequências do acidente nuclear japonês.

Os fatos são bastante claros: o sistema de resfriamento deixou de funcionar após os terremotos e o núcleo do reator onde se encontra o urânio começou a fundir, produzindo uma nuvem de materiais radioativos que escapou do edifício do reator, contaminando a região em torno dele. Além disso, o calor do reator decompôs a água em hidrogênio e oxigênio, o que provocou uma explosão do hidrogênio que derrubou parte do edifício. A quantidade de radioatividade liberada ainda não é conhecida, mas poderia ser muito grande (como em Chernobyl) se o reator não fosse protegido por um envoltório protetor de aço. O reator de Chernobyl não tinha essa proteção.

As causas do acidente são menos claras: a primeira explicação foi a de que, com o "apagão" causado pelo terremoto, os sistemas de emergência (geradores usando óleo diesel), que deveriam entrar em funcionamento e garantir que o sistema de resfriamento do reator continuasse a funcionar, falharam. A temperatura subiu muito e o núcleo do reator começou a fundir, como aconteceu no reator de Three Mile Island, nos Estados Unidos. Essa explicação provavelmente é incompleta; é bem provável que parte da tubulação de resfriamento tenha sido danificada, impedindo a circulação da água.

O que se aprende com essa sucessão de eventos é que sistemas complexos como reatores nucleares são vulneráveis e é impossível prever toda e qualquer espécie de acidente. Em Three Mile Island não houve nem terremoto nem tsunami, e nem por isso o sistema de refrigeração deixou de falhar.

A principal consequência do acidente nuclear no Japão é o abalo da convicção apregoada pelos entusiastas da energia nuclear de que ela é totalmente segura. Tal convicção é agora objeto de reavaliação em vários países e certamente também o será no Brasil.

Essa reavaliação envolve três componentes.

Em primeiro lugar, considerações econômicas: a competitividade da energia elétrica produzida em reatores nucleares comparada com eletricidade produzida a partir de carvão ou gás é desfavorável a ela. Ainda assim, ela se justificaria porque o uso de carvão ou gás para geração de eletricidade resulta na emissão de gases responsáveis pelo aquecimento da Terra, principalmente o dióxido de carbono. Em funcionamento normal, reatores não emitem esse gás. A competitividade da energia nuclear poderia melhorar se a emissão de carbono fosse taxada.

Em segundo lugar, considerações de segurança no suprimento de energia. A produção de eletricidade em reatores nucleares torna certos países menos dependentes de importações de carvão ou de gás natural - caso do Japão e da França -, mas, em contrapartida, torna-os dependentes da produção de urânio enriquecido ou da sua importação.

Em terceiro lugar, riscos de natureza ambiental e de proteção à vida humana resultantes da radioatividade. Este parece ser o "calcanhar de aquiles" da energia nuclear. Outras formas de produção de eletricidade também oferecem riscos, que vão desde a mineração do carvão até usinas hidrelétricas que, ao se romperem, podem acarretar mortes e outros problemas, como o deslocamento de populações. No entanto, a radioatividade que é liberada em acidentes nucleares causa não só mortes imediatas (como aconteceu em Chernobyl), mas também doenças - inclusive o câncer - que só se manifestam anos após as pessoas terem recebido doses altas de radioatividade.

Escolher a fonte de energia mais adequada depende, pois, de uma comparação entre os benefícios, os custos e riscos que ela provoca e envolve.

Diferentes países têm feito escolhas diferentes e vários deles, na Europa, decidiram no passado excluir a energia nuclear do seu sistema, como a Itália, a Suécia e outros. Já outros, como o Japão e a França, fizeram a opção oposta.

Após 25 anos sem acidentes nucleares de grande vulto, a confiança na segurança de reatores aumentou e houve um esforço para estimular um "renascimento nuclear" com apoio governamental, principalmente nos Estados Unidos.

O acidente nuclear do Japão destruiu essa credibilidade e reviveu todos os problemas já esquecidos que reatores nucleares podem trazer. E também provocou uma reanálise de interesse em expandir a energia nuclear como solução na Europa e nos Estados Unidos.

Essa reavaliação é particularmente importante para os países em desenvolvimento, como o Brasil, que tem outras opções - melhores sob todos os pontos de vista - além da energia nuclear para a produção de eletricidade, que são as energias renováveis, como a hidrelétrica, a eólica e a energia de biomassa.

PROFESSOR DA UNIVERSIDADE DE SÃO PAULO (USP)