lunes, 18 de abril de 2011

El mapa del hambre según la ONU.

Se basa en datos del Programa Mundial de Alimentos. Haití, República Dominicana y Bolivia registran los índices más altos de desnutrición en América Latina.

Los datos del Programa Mundial de Alimentos (PMA) contabilizan más de 1.000 millones de personas desnutridas en todo el mundo, "una cifra equivalente a la suma de la población de América del Norte y de Europa", según los datos relevados en esta infografía. La investigación establece seis categorías para clasificar la desnutrición mundial. Por colores, el celeste representa a las naciones con un 5% -o menos- de población desnutrida. En esta categoría aparecen, entre otros, los países europeos, Rusia, los Estados Unidos, Japón y Canadá; pero también se ubican países latinoamericanos como México, Costa Rica, Chile, Uruguay y Argentina. Con menos del 5% de su población desnutrida, además, se registran algunos países africanos y árabes como Marruecos Argelia, Libia, Egipto, Siria, Arabia Saudita y el persa Irán. Del África subsahariana sólo aparecen Sudáfrica y Gabón. El hambre, para las naciones en desarrollo, representa un costo de más 450 mil millones de dólares al año. En este punto es donde entra en acción el PMA: "Durante las emergencias llevamos alimentos a donde más se necesite para salvar las vidas de las víctimas de desastres naturales, de las guerras o conflictos civiles. Una vez que las emergencias han pasado, usamos los alimentos para ayudar a las comunidades a reconstruir sus vidas destrozadas". Según detalla el PMA en su sitio web, una de cada seis personas en el mundo no tiene alimentos suficientes para estar saludable y llevar una vida activa. "El hambre y la desnutrición son consideradas a nivel mundial el principal riesgo a la salud, más que el SIDA, la malaria y la tuberculosis juntas". La mayoría de los países latinoamericanos están calificados en las primeras tres categorías de este mapa. El caso más preocupante es el de Haití que registra una desnutrición "muy alta", mayor al 35 por ciento. República Dominicana y Bolivia, tienen una tasa "moderadamente alta", entre un 20 y un 34 por ciento. Honduras, Nicaragua, Panamá, Colombia, Ecuador, Perú y Paraguay entraron en la categoría "moderadamente baja", con niveles de desnutrición de entre el 10 y el 19 por ciento. Y finalmente Brasil, aparece pintada en amarillo con una tasa de entre el 5 y el 9 por ciento. El PMA detalla que entre las principales causas del hambre están los desastres naturales, los conflictos, la pobreza, la falta de infraestructura agrícola y la sobre-explotación del medioambiente. Recientemente, el número de personas con hambre se incrementó debido a las crisis financieras y económicas. El programa de Naciones Unidas, además explica que existe otro tipo de hambre, el oculto "producto de la deficiencia de micronutrientes y hace a las personas más susceptibles a las enfermedades infecciosas, perjudica el desarrollo físico y mental, reduce la productividad laboral y aumenta el riesgo de una sufrir una muerte prematura". Los cinco objetivos estratégicos del PMA son: Salvar vidas y proteger los medios de subsistencia en emergencias. Prevenir el hambre aguda e invertir en medidas de preparación para casos de catástrofe y de mitigación de sus efectos. Reconstruir las comunidades y restablecer los medios de subsistencia después de un conflicto o una catástrofe o en situaciones de transición. Reducir el hambre crónica y la desnutrición. Fortalecer la capacidad de los países para reducir el hambre. Esta iniciativa se financia con aportes voluntarios. En su sitio online se especifica que con sólo 25 centavos de dólar se garantiza "una taza de alimentos que contengan todos los nutrientes necesarios para un día". El eslogan es "llena la taza", con un dólar aportado, se llenan cuatro.

Fuente: DiarioDeCuyo.com.ar

martes, 12 de abril de 2011

El cambio climático amenaza al 58% de las especies protegidas en Europa.

Hacia el año 2080, el 58% de las especies de vertebrados terrestres y de plantas presentes en Europa podría perder las condiciones climáticas para subsistir en las áreas protegidas de cada país. Así lo asegura un estudio del Consejo Superior de Investigaciones Científicas (CSIC) publicado 'Ecology Letters'.

Los autores, liderados por Miguel Araújo, han analizado la eficacia de las políticas de conservación en el 75% de los vertebrados terrestres y el 10% de las plantas del continente. De su análisis también se desprende que estos cambios afectan a más de la mitad de las especies que se incluyen dentro de la red de conservación europea 'Nature 2000', hasta a un 63% de ellas.

Las áreas montañosas, los valles encerrados y las líneas de agua desempeñan un papel fundamental en la adaptación de la biodiversidad al cambio climático. Al proporcionar gradientes de temperatura y humedad acentuados, señala el estudio, facilitan la adaptación de las especies mediante movimientos de corta distancia que son más factibles y menos arriesgados que las migraciones continentales.

La red Natura 2000 abarca 27.661 zonas, lo que se traduce en un total de 117 millones de hectáreas que constituyen el 17% de la superficie de los 27 países que integran la Unión Europea. El objetivo de la red es asegurar la supervivencia de la biodiversidad a largo plazo. Además, cada país designa sus propias áreas protegidas. Todo ello convierte a Europa en la región con la mayor red de conservación del mundo.

Modelos climáticos

Los investigadores han empleado varios modelos climáticos para estudiar la potencial distribución de 1.883 especies, 585 vertebrados terrestres y 1.298 plantas de Europa.

Según explica Miguel Araujo, del Museo Nacional de Ciencias Naturales de Madrid, "hemos observado que las áreas protegidas conservan mejor las especies frente a los efectos del cambio climático, pero la red Natura 2000 es más vulnerable y podría perder más especies".

Las zonas de conservación designadas por cada país son más eficaces porque suelen situarse en zonas montañosas, que actúan como 'refugios climáticos'. En la red Natura 2000, las especies son más vulnerables porque viven en llanuras, donde los efectos causados por el clima se intensifican. La investigación confirma que los mayores impactos los sufrirá el sur de Europa, mientras que las zonas altas de montañas europeas se verán menos afectadas.

Las conclusiones apuntan a la necesidad de designar nuevas áreas de protección tras un proceso de revisión y reclasificación de las ya existentes. Además, los autores sugieren mejorar los sistemas de gestión del paisaje para facilitar el desplazamiento de las especies entre las áreas de conservación.

"Hasta ahora se ha pensado que el éxito en las estrategias de conservación implicaba aislar las áreas protegidas de posibles amenazas. No obstante, para que sean efectivas, deben mitigar los impactos del cambio climático, además de conseguir una gestión sostenible de los hábitats y ecosistemas", destaca Araujo.

Fuente: ElMundo.es

domingo, 10 de abril de 2011

Detectan una destrucción récord del ozono en el Polo Norte.


La capa de ozono en el Polo Norte sufre un nivel de destrucción sin precedentes a causa de excepcionales condiciones meteorológicas, según informa hoy el organismo francés Centro Nacional de Investigaciones Científicas (CNRS).

A finales del pasado mes, la disminución de la capa que protege a la Tierra de los rayos ultravioleta fue del 40% y se registró en una "zona extensa", un fenómeno nunca antes observado, señala el CNRS en un comunicado.

El motivo de esta degradación se encuentra en "un invierno estratosférico muy fío y persistente" que ha conducido a una destrucción de ozono "importante" y "prolongada excepcionalmente hasta la primavera".

La Agencia Espacial Europea (ESA) detalla que este récord en la capa de ozono se debe a los fuertes vientos conocidos cómo 'vórtice polar'. Este fenómeno aísla la masa atmosférica sobre el Polo Norte e impide que se mezcle con el aire procedente de latitudes medias. Como resultado, la situación -de frías temperaturas- se asemejó mucho a la que se da cada invierno en la Antártida. El satélite Enviasat, de la ESA, ha proporcionado datos para medir los niveles de ozono.
Gases perjudiciales

La destrucción de la capa de ozono está ligada a la presencia en la atmósfera de diversos gases, emitidos por los aerosoles.

A 80ºC bajo cero esos gases se convierten en nocivos para el ozono, un fenómeno "recurrente" en la Antártida, donde las temperaturas son extremadamente bajas" cada invierno, pero menos común en el Polo Norte, donde la temperatura es más elevada y las condiciones meteorológicas más variables.

"No siempre se reúnen las circunstancias para que se produzca una disminución importante del ozono" en esa región, indicó el CNRS, que señaló que "las condiciones meteorológicas extremas son responsables del récord alcanzado" este año.

Los científicos franceses, apoyados en los datos que envían las estaciones de observación destacadas sobre el terreno, tratan ahora de determinar el impacto que este fenómeno tendrá cuando las masas de aire pobre en ozono se desplacen una vez que suban las temperaturas con el avance de la primavera.
Lenta recuperación

El CNRS advirtió de que el deterioro de la capa de ozono hubiera sido mayor si en 1987 no se hubiera firmado el Protocolo de Montreal, que limita el uso de aerosoles.

Estos productos, que emiten gases ricos en cloro y bromo, permanecen durante años en la atmósfera, por lo que los científicos franceses no descartan que una destrucción de la capa de ozono similar a la de este año se repita si vuelve a haber inviernos excepcionalmente fríos.

Según el último informe de evaluación de la capa de ozono, este gas no recuperará su nivel de 1980 hasta los años 2045-2060 en el Polo Sur y una o dos décadas antes en el Norte.

Fuente: ElMundo.es

miércoles, 6 de abril de 2011

La radiactividad amenaza la pesca mundial.

El agua utilizada para refrigerar desde el exterior los reactores dañados por el accidente se ha convertido en un residuo nuclear más en Fukushima. Hasta ahora, la compañía que opera la central (Tepco) la ha estado almacenando en un tanque del circuito de condensación para evitar que fuese a parar al mar de forma incontrolada. Eso en el mejor de los casos, porque la planta atómica aún tiene grietas por las que el agua contaminada está llegando al mar sin control. Los técnicos de la central llevan días tratando de encontrar las vías de agua por donde se filtra, pero aún no han dado con ellas.

En las últimas jornadas, la filtración de agua altamente contaminada hasta los edificios de turbinas de la planta ha obligado a verter 11.500 toneladas de agua radiactiva al océano. Se trata de un agua de radiación baja que Tepco llevará al mar para dejar espacio en el tanque de condensación y poder albergar el agua presente en los edificios de turbinas, que contiene 1.000 veces más radiactividad de la que debe recibir una persona en un año. Los técnicos aún no saben de dónde procede el líquido que ha ido a parar a las turbinas.

Sin embargo, aunque sea un agua de radiactividad baja puede tener un efecto grave sobre los ecosistemas marinos y sobre los productos pesqueros. Los cálculos de Tepco indican que el impacto sobre un adulto que comiera pescado procedente del agua contaminada sería de 0,6 milisieverts al año, el 25% de la dosis anual de radiación a la que la población está expuesta en la naturaleza. Quizá no suponga un problema a corto plazo, pero puede convertirse en una amenaza en los próximos años, según los expertos.

Se acumula en los depredadores marinos

"El mayor problema es que las corrientes oceánicas transportan las partículas radiactivas por todo el mundo. Ya se han detectado en la costa de Estados Unidos niveles de radiactividad que no son tan mínimos", asegura Eduardo Rodríguez-Farré, profesor de investigación del CSIC y miembro del Comité Científico de la UE sobre riesgos para la salud. "Estas partículas entran en la cadena trófica y se van acumulando en los organismos".

Pero el problema está en la acumulación de las partículas de vidas largas. Y no sólo para los consumidores del pescado japonés. Algunos expertos señalan que la presencia de cesio es una amenaza para la pesca mundial a largo plazo. La mayor parte de las partículas radiactivas vertidas al mar son de yodo-131 y no preocupan mucho a las autoridades debido a que se vuelven inocuas en 40 días. Sin embargo, también se ha detectado la presencia de cesio-137, cuya vida media es de 30 años y tarda 150 en volverse inofensivo.

La radiactividad es acumulativa, o que supone un problema grave en las partes altas de la cadena alimenticia. Los depredadores -como el atún o el pez espada- retienen las partículas radiactivas que contienen las presas que se comen durante toda su vida. La radiactividad va aumentando en ellos de forma constante. "Habría que hacer controles rutinarios en el pescado, no de todos los productos, pero sí de una muestra de ellos, por precaución", asegura Rodríguez-Farré.

Fuente: ElMundo.es

lunes, 4 de abril de 2011

La gravedad terrestre en forma de 'patata'.

Modelo de Geoide -

ver video

Después de sólo dos años en órbita, el satélite GOCE de la Agencia Espacial Europea (ESA) ha recopilado suficientes datos como para crear un mapa de la gravedad de la Tierra con una precisión sin precedentes. Los científicos tienen ahora acceso al modelo más preciso jamás producido del geoide para mejorar nuestra comprensión de cómo funciona la Tierra.

El modelo sirve para ilustrar las diferencias de gravedad en diferentes puntos del planeta. Así, las zonas de la recreación en color amarillo son aquellas donde la gravedad es mayor, mientras que en las azules el nivel es menor.

El nuevo geoide, que recuerda a una patata, se dio a conocer este jueves en el Cuarto Taller Internacional para Usuarios de GOCE organizado en la Universidad Técnica de Múnich, en Alemania.

El geoide es la superficie de un océano global en ausencia de mareas y corrientes, en forma única por efecto de la gravedad. Es una referencia fundamental para medir la circulación de los océanos, el cambio del nivel del mar y la dinámica del hielo, todos ellos procesos afectados por el cambio climático.

El profesor Reiner Rummel, ex jefe del Instituto de Astronomía y Geodesia Física en la Universidad Técnica de Múnich, explicó: "GOCE nos dará la topografía dinámica y patrones de circulación de los océanos con una calidad y resolución sin precedentes. Confío en que estos resultados ayudarán a mejorar nuestra comprensión de la dinámica de los océanos del mundo."

También servirá para terremotos como el de Japón

Además, los datos de gravedad de GOCE están ayudando a desarrollar un conocimiento más profundo de los procesos que provocan terremotos, como el caso de que recientemente devastada Japón.

Dado que este terremoto fue causado por el movimiento de las placas tectónicas bajo el océano, el movimiento no puede ser observado directamente desde el espacio. Sin embargo, los terremotos crean firmas en los datos de gravedad, lo que podría utilizarse para comprender los procesos que conducen a estos desastres naturales y en última instancia, ayudar a predecirlos.

Un satélite europeo

El satélite GOCE fue lanzado en marzo de 2009 y lleva doce meses recogiendo datos de gravedad.

Volker Liebig, Director de Programas de Observación de la Tierra de la ESA, dijo que, beneficiado de un período de excepcional baja actividad solar, GOCE ha sido capaz de permanecer en órbita baja y lograr una cobertura de todo el planeta seis semanas antes de lo previsto.

"Esto también significa que todavía tenemos combustible para continuar midiendo la gravedad hasta final de 2012, duplicando así la vida de la misión, y agregar aún más precisión al geoide GOCE".

GOCE ha logrado muchas novedades en la observación de la Tierra, gracias a su gradiómetro, su órbita de menor altitud pese a su tonelada de peso, y su innovador motor de iones que genera fuerzas pequeñas para compensar la resistencia del satélite.



Fuente: ElMundo.es

sábado, 2 de abril de 2011

Algunos materiales radiactivos de Fukushima durarán miles de años.

Se han cumplido 23 días desde que comenzó el accidente de la central nuclear japonesa de Fukushima. Desde que el tsunami dejó sin suministro eléctrico a la planta y se produjo la primera explosión de hidrógeno, los elementos radiactivos que se han liberado a la naturaleza se cuentan por decenas. Pero no todos suponen el mismo riesgo para la salud ni perduran en la naturaleza el mismo tiempo. Sin duda, el plutonio recién detectado en la planta atómica es uno de los que tiene una actividad mayor y supone un riesgo muy elevado para la salud.

Las partículas que salen con mayor facilidad acompañando al vapor de agua que se deja salir de los reactores para evitar que aumente la presión en el interior y se produzcan explosiones son las más ligeras y que tienen una mayor volatilidad. Se trata de elementos como el yodo o el cesio, de los que ya se ha oído hablar, pero también de algunos otros de volatilidad intermedia como el rutenio o el estroncio.

El periodo de semidesintegración -el tiempo que tardan en perder la mayor parte su radiactividad- de cada uno de ellos oscila desde días hasta varios años.

Materiales ligeros y volátiles

El yodo-131, por ejemplo, uno de los elementos que más ha liberado la central de Fukushima, tiene un periodo de semidesintegración de 8 días. Pero los riesgos que supone para la salud son muy elevados. De hecho, es el material responsable de que la población cercana a la central haya tenido que bloquearse la glándula tiroides con pastillas de yoduro de potasio para evitar el riesgo de padecer cáncer de tiroides.

El cesio-134 tarda dos años en perder la mayor parte de su actividad. Y el cesio-137, otro de los elementos que ha salido en grandes cantidades de los reactores de Fukushima, no reduce su radiactividad hasta 30 años después de producirse. El mayor riesgo que supone el cesio para la salud o el medio ambiente está en que se absorbe muy fácilmente a través de la comida o el agua, o también si se inhala en forma de polvo. El cesio, de hecho, supuso uno de los mayores peligros tras el accidente de Chernobil debido a que se ingirió de forma masiva en los productos alimenticios.

En cuanto a los elementos de volatilidad media, el rutenio tiene dos isótopos comunes, el 103 y el 106, con una semidesintegración de 39 días y de un año, respectivamente. El estroncio-90 perdura en la naturaleza durante cerca de 30 años.

Los elementos más pesados y menos volátiles son más peligrosos, pero también es más complicado que se liberen debido a su elevada masa atómica. Sin embargo, ya se ha detectado plutonio en Fukushima.

Materiales pesados y poco volátiles

El plutonio, concretamente el plutonio-239, tiene un periodo de semidesintegración de 24.100 años. El plutonio no está de forma natural en el medio ambiente. Pero se podría hacer una comparación muy sencilla para hacerse una idea del enorme periodo que supone su vida media: si se hubiese liberado plutonio en algún lugar de la Tierra cuando se extinguieron los neandertales, hace 24.000 años, aún seguiría siendo muy radiactivo. En cambio, el plutonio-238, también encontrado en la planta japonesa tiene una vida de 40 años.

Emite radiación de tipo alfa, que puede ser detenida por la ropa o por un simple papel. El mayor riesgo es que entre en contacto con el cuerpo, ya que puede provocar cáncer o alteraciones celulares.

El plutonio es un metal muy pesado y con una volatilidad casi nula. Esto dificulta mucho su transporte por el viento. Cuando se libera en tierra, lo más probable es que se pegue al suelo y permanezca allí hasta que sea limpiado. Sin embargo, si se libera en el mar el plutonio podría diluirse y dispersarse por el océano. en este caso las consecuencias serían imprevisibles.

Por último, otro de los elementos pesados que puede liberarse en un accidente nuclear es el uranio. El isótopo 234, uno de los tres que se puede encontrar de forma natural, tiene un periodo de semidesintegración de 247.000 años. Pero sus formas 238 y 235, las que se utilizan como combustible en la mayoría de los reactores del mundo, tienen una duración de 4.500 millones de años y de 710 millones de años, respectivamente.


Fuente: ElMundo.es

jueves, 31 de marzo de 2011

La sequía en el Amazonas, visible desde el espacio.

Un nuevo estudio financiado por la NASA ha revelado una reducción generalizada en el verdor de los bosques de la vasta cuenca del Amazonas en América del Sur, causada por la sequía récord de 2010.

"Los niveles de verdor de la vegetación amazónica -una medida de su salud- disminuyeron drásticamente en una superficie de más de tres veces y media el tamaño de Texas y no se recuperaron a los niveles normales incluso después de que la sequía terminase a finales de octubre de 2010", dijo Liang Xu, autor principal del estudio de la Universidad de Boston.

El futuro del bosque amazónico

Superficie verde en Sudamérica. | NASA

Superficie verde en Sudamérica. | NASA

La sensibilidad a la sequía de la selva amazónica es un tema de intenso estudio. Los científicos están preocupados porque los modelos informáticos predicen que en un clima cambiante, con temperaturas más cálidas y alteración de los patrones de lluvia, la tensión de la humedad resultante podría causar que parte de los bosques fuesen reemplazados por pastizales o sabanas leñosas. Esto haría que el carbono almacenado en la madera podrida se liberase en la atmósfera, lo que podría acelerar el calentamiento global.

El Panel Intergubernamental de las Naciones Unidas sobre el Cambio Climático (IPCC) ha advertido de que sequías similares podrían ser más frecuentes en la región amazónica en el futuro.

El estudio completo ha sido elaborado por un equipo internacional de científicos que han estudiado durante más de una década los datos de los satélites MODIS y TRMM de la NASA.

El análisis de estos datos ha permitido elaborar mapas detallados que muestran la disminución de vegetación verde por la sequía de 2010. El estudio ha sido aceptado para su publicación en la revista 'Geophysical Research Letters', una revista de la American Geophysical Union.

Consecuencias del año más seco

Los autores desarrollaron por primera vez mapas de las zonas afectadas por la sequía mediante umbrales de precipitación por debajo del promedio. Los mapas muestran que la sequía de 2010 redujo el verdor en aproximadamente 1,5 millones de kilómetros cuadrados de vegetación en la Amazonia, más de cuatro veces el área afectada por la última sequía severa en 2005.

"Los datos del espectrómetro del satélite MODIS sobre vegetación verde sugieren un impacto más generalizado, grave y de larga duración en la vegetación amazónica de lo que puede deducirse basándonos únicamente en datos de lluvia", dijo Arindam Samanta, coautor e investigador de Atnopsheric and Enviromental Research.

La gravedad de la sequía de 2010 también se observó en los registros de los niveles de agua en los ríos en la cuenca del Amazonas. Los niveles de agua comenzaron a caer en agosto de 2010, alcanzando niveles sin precedentes a fines de octubre. Los niveles de agua sólo comenzaron a aumentar con la llegada de las lluvias después del invierno.

"El año pasado fue el año más seco sobre la base de 109 años de datos en el Río Negro, a la altura del puerto de Manaos. En comparación, el nivel menor durante la sequía de 2005 fue solo el octavo más bajo ", dijo Marcos Costa, coautor de la Universidad Federal de Viçosa, Brasil.


Fuente: ElMundo.es

viernes, 25 de marzo de 2011

La NASA prueba un traje espacial para Marte en la Antártida Argentina.

Un equipo de la NASA, la agencia espacial estadounidense, puso a prueba un traje espacial en una base argentina en la Antártida, un ambiente de condiciones extremas parecidas a aquellas que se pueden encontrar en Marte, apuntando a una posible visita al planeta rojo.

El traje espacial NDX-1, diseñado por el ingeniero aeroespacial argentino Pablo de León, soportó temperaturas heladas y vientos de más de 75 kilómetros por hora mientras los investigadores probaron técnicas para recolectar muestras terrestres en Marte.

"Esta fue la primera vez que probamos el traje en un ambiente tan extremo y aislado, de tal manera de que si algo salía mal no era posible ir a una tienda cercana" y comprar un 'kit' de reparación, dijo De León a Reuters recientemente tras regresar de una expedición de una semana.

El traje prototipo de 100.000 dólares, creado con fondos de la NASA, está elaborado con más de 350 materiales, incluyendo Kevlar y fibras de carbono para reducir el peso sin perder resistencia.

Misión en la Atlántida

Durante la misión 'Marte en Marambio', nombrada así por la base militar y científica argentina, un equipo de científicos de la NASA simularon caminatas espaciales, realizaron ejercicios y recolectaron muestras mientras usaron el traje.

De León también usó el traje presurizado y dijo que puede generar claustrofobia en cualquier persona por su casco y su micrófono interno para comunicarse con el mundo exterior.

Los investigadores eligieron la base Marambio porque, comparada con otras bases antárticas, tenía un mejor acceso a tierra que permanece congelada gran parte del año.

De León, quien lidera el laboratorio de trajes espaciales en la Universidad de Dakota del Norte en Estados Unidos, dijo que la Antártida es ideal para recolectar muestras dado que es uno de los lugares con menor contaminación en la Tierra y dará pistas sobre el impacto sobre el traje.

"Marte es una mezcla de muchos ambientes diferentes: desiertos y temperaturas y vientos como en la Antártida", dijo De León. "Entonces tratamos de tomar pequeños pedazos de lugares distintos y ver si nuestros sistemas pueden soportar los rigores de Marte en caso de que vayamos", agregó.

Futuro viaje a Marte

El presidente de Estados Unidos, Barack Obama, dijo el año pasado que para mediados de la década de 2030 sería posible mandar astronautas a orbitar Marte y regresarlos a salvo a la Tierra. Luego llegaría el aterrizaje sobre Marte, dijo.

Pero una misión humana al planeta más parecido a la Tierra dentro del sistema solar podría ser aún más distante por la reducción del presupuesto de la NASA.

El Consejo de Investigación Nacional de Estados Unidos recomendó este mes que las misiones robóticas a Marte y a la luna de Júpiter Europa deberían ser prioridad en la lista de quehaceres de exploración planetaria de la agencia para la próxima década.

A pesar de esto, De León mantiene las esperanzas de que su traje espacial o tal vez una parte de éste, será usado por astronautas cuando den sus primeros pasos sobre Marte.

"Aunque un tornillo de nuestro traje espacial o un pequeño pedazo de nuestro diseño llega a Marte, seré más que feliz", dijo.


Fuente: ElMundo.es

miércoles, 23 de marzo de 2011

Dos millones de toneladas de basura acaban cada día en los ríos.


Día Mundial del Agua

La falta de tratamiento de las aguas residuales en los países emergentes ha contribuido a la contaminación de los recursos hídricos subterráneos y superficiales. De hecho, se calcula que cada día llegan dos millones de toneladas de desperdicios a los ríos del mundo.

Según datos del programa "Aguas y Ciudades" de Naciones Unidas, alrededor de 800 millones de personas residen cerca de ríos contaminados, muchos de ellos en infraviviendas, sin servicios básicos ni saneamiento adecuados, expuestos a altos índices de contaminación por productos químicos y riesgo de enfermedades contagiosas.

Por estos motivos y bajo el lema "Agua para las ciudades: respondiendo al desafío urbano", la ONU celebra hoy el Día Mundial del Agua 2011 con el objetivo de informar sobre el impacto del crecimiento de la población, la necesidad de saneamiento en las zonas urbanas, el aumento de la contaminación por los vertidos industriales y la sobreexplotación de los recursos hídricos.

Actualmente, según datos de la ONU, 1.100 millones de personas carecen de instalaciones necesarias para abastecerse de agua y 2.400 millones no tienen acceso a sistemas de saneamiento.

El problema del agua en las ciudades


Según la ONU, la mitad de la humanidad vive en la actualidad en ciudades y las previsiones indican que hacia 2030 casi el 60% de la población mundial habitará en núcleos urbanos. Este crecimiento urbano es mayor en los países en desarrollo, donde la población de las ciudades aumenta en 5 millones de habitantes más al mes aproximadamente.

Para Naciones Unidas, los principales desafíos hidrológicos que acechan a los asentamientos urbanos son dos: la falta de acceso a agua potable y a saneamientos y los desastres naturales relacionados con el agua (inundaciones y sequías).

La falta de servicios adecuados de suministro de agua y saneamientos conduce a enfermedades como diarrea o brotes de malaria y de cólera. Según un informe de ONU-Hábitat La mitad de la población urbana de África, Asia y Latinoamérica sufre una o más enfermedades relacionadas este problema. Además, se estima que sólo de diarrea al año mueren 1,6 millones de niños, la gran mayoría por problemas de higiene y acceso deficiente a las infraestructuras de acceso al agua y saneamiento.

No obstante, hay datos positivos. Entre 1990 y 2008, 1.052 millones de ciudadanos mejoraron su acceso a fuentes de agua potable y 813 millones, a saneamientos. Sin embargo, en el mismo período de tiempo la población urbana creció cerca de 1.089 millones de personas. El crecimiento de las ciudades es tan rápido que la ONU estima que aumenta al ritmo de 2 habitantes más por segundo.

Por otra parte, la mala protección de los recursos hidrológicos y la contaminación del agua tienen un precio más allá de la degradación medioambiental. En 2010, el Banco Mundial cifró el coste económico de esta situación en más del 1,4% del PIB de Banlgadesh, el 1% del PIB colombiano o el 0,6 del PIB de Túnez.


Fuente: ElMundo.es

jueves, 17 de marzo de 2011

Claves para conocer las características del accidente nuclear de Fukushima.

Fukushima está en alerta nuclear. En tres de sus seis reactores se teme que el núcleo con el combustible se esté fundiendo y se piensa que la vasija de contención de dos de ellos está dañada. Además, el combustible gastado que estaba en las piscinas del almacenaje está fuera de control o desaparecido. Damos algunas claves para entender cómo se ha llegado a esta situación y lo que puede suponer que continúe.

¿Qué tipo de combustible se usa?

De los seis reactores, cinco utilizan óxido de uranio. El reactor número 3, sin embargo, emplea una mezcla de uranio y plutonio conocida como MOX. Este reactor preocupa a los técnicos porque es un material más letal y que se funde más fácilmente.

¿Cómo funciona la planta?

La central usa una tecnología llamada reactor de agua en ebullición o BWR (Boiling Water Reactor), que es la misma de las centrales españolas de Garoña y Cofrentes. Garoña es un modelo idéntico al reactor 1 de Fukushima. Los construyó General Electric y abrieron en 1971. El combustible o núcleo del reactor se calienta dentro de una vasija llena de agua y protegida por una estructura llamada de contención. El combustible alcanza hasta 2.000 grados y hace hervir el agua. El vapor es conducido por tuberías hasta una turbina que genera electricidad.

¿Cómo se mantiene el sistema?

El mecanismo es como una olla. Para que el proceso sea estable hay que controlar la presión, el vapor y la temperatura. El combustible debe estar tapado por agua para que no se sobrecaliente.

¿Cómo empezó todo?

Los edificios resistieron al seísmo y al tsunami, pero se dañó el abastecimiento eléctrico del exterior. La central activó entonces el sistema de emergencia autónomo, pero la inundación lo estropeó. Sin electricidad, fallaron los sistemas de refrigeración y los núcleos empezaron a sobrecalentarse. Se recurrió a agua del mar para evitarlo, pero no bastó.

¿Qué ocurre cuando el núcleo empieza a calentarse?

El sistema se desestabiliza. En el núcleo hay muchos materiales. Está el combustible de uranio o plutonio y las vainas de metal de circonio que lo protegen. También están las barras de control, hechas de yoduro de boro, un material que frena las reacciones atómicas. Además, hay acero y cemento. Cuando sube la temperatura, todos esos materiales reaccionan sin control. A altas temperaturas el vapor oxida los metales con rapidez. Las vainas se deterioran y el combustible libera partículas radiactivas volátiles. Además, el proceso de oxidación libera hidrógeno, que es explosivo.

¿Qué ha pasado en los núcleos?

En los reactores 1, 2 y 3 ha habido explosiones de hidrógeno y escapes de vapor con esas partículas volátiles. También se han hecho liberaciones controladas de gases para disminuir la presión.

¿Cuál es el parte de daños?

En las vasijas 1, 2 y 3 el combustible está expuesto al aire y el agua sólo cubre hasta la mitad. Esto hace que el proceso de calentamiento del combustible avance. Puede llegar a alcanzar 3.000 grados. El núcleo se convierte en una amalgama de materiales. El uranio o el plutonio, a miles de grados, quedan revestidos de acero y cemento. Como una brasa atómica, es muy difícil enfriarlo. Además, aumenta el riesgo de que la estructura de contención, que es la barrera clave de protección, no aguante y se abra liberando el contenido. De hecho, en los reactores 1 y 2 se cree que esa estructura de contención ha sido dañada y puede tener fugas. Por encima de la estructura de contención está el edificio en sí de la central. Están muy dañados los del 1,3 y 4 y bastante tocado el del 2.

¿Puede haber un Chernobil?

Al parecer no. La diferencia con Chernobil es que aquel reactor no tenía estructura de contención. Cuando el núcleo se descontroló saltó por los aires y destrozó el edificio exterior liberando casi todo el contenido. Esto incluía materiales volátiles y las partículas pesadas del combustible. La nube alcanzó miles de metros lo que ayudó a su dispersión a larga distancia. En Fukushima, la presencia de estructuras de contención es clave. Si resisten, se evitará el mal mayor al estilo Chernobil. Sin embargo, los técnicos creen que quedan todavía muchos días de lucha para evitar la fusión completa del material radiactivo. Y que seguirá habiendo fugas.

¿Qué pasa con las piscinas?

Es un gran problema extra. El combustible gastado durante años se guardaba en la central de Fukushima en piscinas situadas en la parte alta del edificio del reactor. El combustible gastado mantiene un calor residual de cientos de grados y debe estar tapado con agua para enfriarlo. Tiene una altísima radiactividad. En el reactor 4 la piscina está sin agua y el combustible ha empezado a calentarse. Lo mismo ocurre en la piscina 3. Y se ignora el estado de las piscinas del reactor 1 del 2.

¿Qué sustancias se han emitido?

Han salido las partículas más ligeras. Gases nobles como el kriptón y el radón y elementos como el yodo, el cesio, el estroncio, el rutenio y el tritio. La radiación ha alcanzado en algunos instantes 400 milisieverts / hora, 400 veces más de la dosis anual recomendada.


Fuente: ElMundo.es

sábado, 12 de marzo de 2011

Aseguran que el terremoto de Japón pudo haber movido el eje de la Tierra.


Los expertos internacionales coinciden en que el terremoto debe haberlo desplazado unos 10 a 15 cm

Al igual que ocurrió el 27 de febrero de 2010, cuando un terremoto en Chile con una magnitud de 8,8 en la escala de Richter desplazó unos 8 centímetros el eje de rotación de la Tierra, acortando el día terrestre unos imperceptibles 1,26 microsegundos, el feroz terremoto que ayer sacudió la costa este de la isla japonesa de Honshu habría tenido un efecto similar sobre el eje de rotación de nuestro planeta.

Este sería el resultado de la redistribución de la masa de la Tierra resultante del terremoto de por lo menos 8,9 en la escala de Richter (ayer, expertos del Servicio Geológico de Estados Unidos especulaban que la magnitud habría sido en realidad de 9, o incluso mayor), una intensidad que lo convirtió en el más salvaje de todos los fenómenos geológicos que sacudieron a Japón, y uno de los cinco más potentes de los que se tiene registro.

Expertos sismólogos italianos dijeron que la energía liberada durante el terremoto -que se estima fue 100 veces mayor que la liberada por el terremoto de Haití, el 12 de enero de 2010- habría desplazado unos 10 centímetros el eje de rotación de la Tierra.

"Nuestra estimación no se deriva de mediciones directas, que requerirán mucho más tiempo, sino de cálculos teóricos", dijo a LA NACION Antonio Piersanti, director del investigación del Instituto Nacional de Geofísica y Vulcanología de Italia, que afirmó que el desplazamiento del eje habría acortado unos pocos microsegundos la duración del día terrestre.

"No debería haber ningún impacto de este cambio en la rotación sobre la vida diaria", comentó por su parte Richard Gross, investigador del Grupo de Geodinámicas y Geodesia Espacial del Laboratorio de Propulsión a Chorro de la NASA. Fue Gross quien el año pasado calculó el desplazamiento del eje terrestre causado por el terremoto chileno.

"Aunque todavía no hemos evaluado las mediciones de la rotación de la Tierra, mis cálculos indican que el cambio de la distribución de la masa terrestre causado por el terremoto japonés puede haber hecho que la Tierra rote un poco más rápido, acortando la duración del día unos 1,6 microsegundos", dijo Gross a LA NACION, y agregó que estima que el eje de la Tierra se ha desplazado en esta ocasión unos 15 centímetros, notablemente más que con el terremoto de Chile.

"Este cambio en la posición del eje de rotación hará que la Tierra se bambolee un poco distinto a medida que rota, pero no cambiará su eje en el espacio -aclaró Gross-. Sólo fuerzas externas como la atracción gravitacional del Sol, la Luna y los planetas pueden hacer eso."

El devastador terremoto y su consecuente tsunami, que ayer se desplegaba a una velocidad de 700 kilómetros por hora a través del océano Pacífico, fueron el resultado de la energía liberada por el reacomodamiento de las placas tectónicas del Pacífico, Eurasia y Norteamérica.

"En la latitud de este terremoto, la placa del Pacífico se mueve en dirección oeste a una velocidad de 8,3 cm al año, con respecto de la placa norteamericana. La placa del Pacífico se inserta debajo de Japón y continúa su movimiento hacia el Oeste, por debajo de la placa euroasiática", explica el Resumen tectónico, del Servicio Geológico de Estados Unidos, y agrega: "La localización, profundidad y mecanismo focal del terremoto del 11 de marzo son consistentes con un terremoto producido en una falla con movimiento inverso" a la inserción de la placa Pacífica por debajo de la placa euroasiática.

El resultado no fue otro que un violento empuje hacia arriba del lecho marino, debajo del cual se encontraba el epicentro del terremoto, que ha sido localizado 125 kilómetros al este de la ciudad de Sendai y 380 kilómetros al nordeste de Tokio.

La fosa de Japón no es un área virgen de eventos sísmicos: "Se han producido nueve eventos de magnitud igual o mayor que 7 desde 1973. El mayor fue el terremoto de diciembre de 1994, de magnitud 7,8, 260 kilómetros al norte del epicentro del terremoto de ayer", recordó el citado Servicio Geológico.

Pero esta vez hubo un preaviso del desastre. El terremoto más poderoso de la historia de Japón fue precedido por varios movimientos de menor envergadura que se sucedieron en el transcurso de los dos días previos. De éstos, el más violento -con una magnitud de 7,8- se produjo el 9 de marzo, a sólo 40 kilómetros del epicentro del terremoto de ayer.


Fuente: LaNacion.com.ar

jueves, 10 de marzo de 2011

La superpoblada Shanghai prepara su particular 'política de perro único'.


800.000 perros viven en la ciudad.

La ciudad de Shanghai, con sus 23 millones de personas, sus cerca de 6.000 rascacielos y sus calles de planta colonial europea, que soportan la densidad de tráfico y población de una metrópoli china del siglo XXI, tendrá que aplicar, desde esta primavera, su particular "política de un solo perro".

Si en 1979 el Gobierno chino tuvo que poner en marcha su "política de hijo único" para evitar un crecimiento demográfico insostenible, a pesar de lo cual el país cuenta ya con más de 1.300 millones de habitantes, algunas urbes como Cantón, Chengdu y ahora Shanghai han acabado adoptando medidas similares para sus mascotas.

El Gobierno shanghainés acaba de aprobar una ley, llamada por la prensa local, ingeniosamente, "de perro único", que entrará en vigor el próximo 15 de mayo y que prohibirá que los habitantes de la metrópolis puedan tener más de un perro registrado por unidad familiar censada, salvo quienes ya los tuvieran con anterioridad.

Perros 'sin papeles'

De la misma manera que se estima que hay unos cuatro millones de inmigrantes de otras provincias chinas que viven ilegalmente en Shanghai (de unos 23 millones de habitantes, hay censados 19,3 millones, 14,9 millones de ellos en el centro urbano), se calcula que hay en la ciudad 800.000 perros, pero sólo 200.000 registrados.

De hecho, en 2009, año más reciente del que se tienen cifras, la policía local recibió casi 140.000 denuncias de mordeduras de perros no registrados, una cifra en aumento desde que se alcanzaron los 100.000 casos de este tipo en 2006.

El Gobierno local ha reaccionado prohibiendo los perros grandes y los considerados de caza o de ataque, y ha congelado la solicitud de licencias hasta el próximo 15 de mayo, cuando entrará en vigor la nueva normativa y se prevé que las fuerzas policiales tendrán que adoptar y gestionar la reubicación de miles de canes.

"Llegará un momento en que se acumularán muchas solicitudes de licencia, y por supuesto, la policía tendrá que adoptar un montón de perros", admitió un agente policial de la ciudad, Sun Weihua, al diario oficial 'Shanghai Daily', que anunció multas de hasta 1.000 yuanes para quienes no cumplan la ley (108 euros, 152 dólares).

Requisitos para tener perro

Según las autoridades, el principal motivo de que haya 600.000 perros no registrados en Shanghai se debe a los precios de los permisos y las vacunas anuales necesarias, que rondan los 2.000 yuanes (216 euros, 304 dólares), algo más del doble del salario mínimo mensual de la ciudad.

Según el agente Sun, a partir de ahora todos los costes anuales de tener un perro en la capital económica del gigante asiático no superarán los 1.000 yuanes, o descenderán incluso a la mitad si las mascotas están castradas o esterilizadas.

De esta manera, se espera controlar mejor a partir de mayo la población canina de la ciudad, para lo que se lanzará una campaña para registrar a las mascotas casa por casa y se crearán más centros de vacunación, de manera que los perros sin licencia tendrán que ser donados a amigos, familiares u organismos de adopción de mascotas.

Símbolo de poder

Mucho han cambiado los tiempos desde principios del siglo XX, cuando, según una la leyenda urbana que creen muchos shanghaineses, había un cartel en el Jardín Público de la ciudad (hoy Parque de Huangpu, al norte del emblemático paseo fluvial del Bund) en el que se prohibía el paso "a los chinos y a los perros".

En realidad los carteles de la época que se conservan no lo decían de manera tan directa y contundente, pero sí eran ciertas ambas prohibiciones, junto a otras como entrar en bicicleta, y la norma se quedó grabada en la mente de los shanghaineses como un símbolo de la ocupación europea.

Un siglo después, muchos habitantes de la ciudad más rica y acomodada del gigante asiático ven a sus perros como un avance más en su calidad de vida, cuando no casi un símbolo de su posición económica.

"Según aumentan los ingresos, más gente quiere tener mascotas", resumió al diario Shaun Rein, director del Grupo de Estudios de Mercado de China, con sede en la metrópoli shanghainesa, y eso poco a poco "se está convirtiendo en un tema serio, con cada vez más perros por todas partes, defecando y causando desorden".


Fuente: ElMundo.es

jueves, 3 de marzo de 2011

Características geológicas y geomorfológicas del Valle de Tulúm (San Juan, Argentina)

El valle de Tulúm es una depresión tectónica intermontana con características de semibolsón y disposición meridional que abarca una superficie de 323000 hectáreas, ubicada en el centro sur de la provincia de San Juan. Posee forma alargada en sentido norte sur con 100 Km. aproximados de extensión y un ancho que varía entre 5 y 30 Km. El valle se encuentra a un altura media de 600 msnm.
El valle posee basamento pampeano cubierto por secuencias sedimentarias paleozoicos, terciarios y cuaternarios (Rosales Fritz, 2000) con grandes fallas en sentido NNE-SSO con bloques fallados y basculados. Los sedimentos más nuevos y que recubren la superficie del valle son de edad cuaternaria originados por procesos fluviales y aluviales del río San Juan y por derrubios coluviales de las estructuras que lo circundan como así también favorecidos por procesos eólicos en cuya litología se presentan materiales de textura gruesa a fina a medida que la llanura aluvial, de igual modo el abanico aluvial, se extienden hacia el sureste. Los depósitos cuaternarios del valle están representados por gravas, gravillas, arcillas, arenas y limos.
Los límites del valle, están señalados por distintas unidades fisiográficas estructurales. Estos son al norte el Alto Estructural de Mogna, integrado por lomadas plegadas y falladas por la orogenia terciaria y fuertemente erosionados por el agente erosivo hídrico dando lugar a bad lands. Estas lomadas se identifican con la toponimia de loma de Las Tapias y El Salado; también conforma el límite norte la sierra de Villicúm que forma parte de la Precordillera. (Rosales Fritz, 2000)
Al oeste conforman el límite macizos antiguos de edad paleozoica que conforman la morfoestructura de la Precordillera de La Rioja, San Juan y Mendoza formada por rocas sedimentarias marinas dolomíticas calcáreas y clásticas del paleozoico y rocas sedimentarias del neógeno afectada por la orogenia terciaria. Conforman el límite occidental las Sierras Chica de Zonda y de Marquezado. (Rosales Fritz, 2000)
El límite este está conformado por el flanco occidental de las sierras pampeanas, macizos antiguos cristalinos de edad precámbrica cuya litología está representada por rocas metamórficas y graníticas del proterozoico superior y paleozoico inferior con bloques fallados y basculados, erosionados en el mesozoico y sobre elevados por la orogenia terciaria. La unidad fisiográfica que lo representa es la sierra de Pie de Palo.
En el valle la presencia precámbrica se localiza en la parte central y centro-occidental por los cerros de Barboza y Valdivia respectivamente. Este cerro alcanza una altura de 776 msnm y 10 Km. de largo por 2,5 Km. de ancho en su parte central, está constituido por rocas metamórficas y cataclásticas (deformadas). Al igual que el Pie de Palo, es un bloque fracturado y fallado de basamento cristalino con fracturas orogénicas inversas. Está fallado en el lado occidental y con extensión a una falla de rumbo NNE-SSO posiblemente coincidente con el curso del río San Juan (Rosales Fritz, 2000).
El límite sur está conformado por la zona de coalescencia de las llanuras aluviales de los ríos San Juan y Mendoza cuya expresión morfológica más importante es el nivel de base de dichos ríos dados por las lagunas del Rosario y Huanacache.
La llanura aluvial del valle de Tulúm es una formación hídrica de escasa pendiente como consecuencia de la acción de transporte y deposición del río San Juan que alcanza un desarrollo de 100 Km. aproximadamente con rumbo sureste y de mayor amplitud al sur del valle que al norte del mismo. Está conformada por depósitos sedimentarios en particular cuaternarios aportados por la acción de proceso aluviales-fluviales y cuyo espesor varía, pero en lugares como Sarmiento alcanza un grosor de alrededor de 1000 metros antes de alcanzar el terciario (Acosta, 2003). Los sedimentos son más finos a medida que se avanza hacia el sudeste y están conformados por gravas, gravillas, arcillas, arenas y limos. No solo el río interviene en su génesis, sino también los macizos que rodean el valle aportan derrubios coluviales favorecida por la acción eólica que forma dunas en particular al sudeste de la planicie aluvial.
Las geoformas de origen eólico son acumulaciones de materiales provenientes de procesos aluviales y coluviales por acción del viento, los que predominan de cuadrante sudeste y forman dunas transversales de dirección este-oeste y en ciertas zonas no tienen forma definida. Algunas dunas o médanos están sujetos por vegetación, por lo que son fijos, en especial cerca del cerro Barboza. Poseen una altura de 2.5 metros y una distancia entre crestas de 5 metros, están conformadas por arenas de textura fina seleccionada. Las dunas están disectadas y junto a los valles entre dunas conforman zonas bajas salinizadas, posiblemente por la deforestación (Rosales Fritz 2000).
Sobre la llanura aluvial encauza su caudal el río San Juan en la parte distal de su curso inferior, en éste río desaguan los arroyos Los Tapones y Agua Negra que son afluentes colectores de la descarga natural producida por el abanico aluvial. En la planicie aluvial los cursos hídricos tienen cauces meandriformes hasta que el río alcanza su nivel de base en las lagunas del Rosario y Huanacache conformando parte de la cuenca exorreica del Desaguadero-Colorado, aunque no siempre es un río exorreico por la acción de embalsar su caudal (69 m3/s).
Otra unidad fisiográfica que conforma el valle de Tulúm asociada a la acción hídrica del río San Juan, es el abanico aluvial. El río ingresa al valle por la quebrada de Ullúm conformando en las cercanías del dique De La Roza el punto apical y área natural de recarga del abanico y de los acuíferos del valle con material de textura gruesa como gravas y gravillas. Con una extensión de 25 Km. el cono se ensancha hacia el sudeste hasta alcanzar su parte distal y área natural de descarga con materiales finos como arenas, arcillas y limos. En la zona de coalescencia del abanico con la llanura aluvial es donde se halla el área de estudio, aunque ya en ambiente de planicie.
Sobre el abanico aluvial y en segundo lugar sobre la llanura aluvial es donde se asienta el mayor porcentaje de población y actividad económica sanjuanina.
En el pasado el río tenía su entrada al valle por la quebrada de zonda, conformando así también otro abanico aluvial con las mismas características del actual; el viejo abanico se encuentra emplazado algo más al sur, pero el nuevo se halla sobreimpuesto a él.
Por ultimo conforman el valle los piedemontes de la precordillera y de las sierras pampeanas, se presentan como fajas de desarrollo desigual. Los materiales que los conforman son rocas de distintas edades geológicas, con labios de fallas activas y altamente erosionados. El límite entre el piedemeonte y el abanico o la llanura aluvial es imperceptible.


Fuente: García Ruiz, Juan Pablo (2005) "Recuperación de Suelos en el Sudeste del Departamento Rawson" FFHA-UNSJ, Tesis de grado. (Fragmento)

sábado, 26 de febrero de 2011

Así se produce el temblor que precede una erupción volcánica.


El estudio podría ayudar a predecir fuertes erupciones.
  • Es una de las principales señales de alerta para detectar la erupción
  • Un grupo de vulcanólogos logra explicar cómo se producen estas sacudidas

Las erupciones volcánicas son uno de los fenómenos más impredecibles de la naturaleza. Sin embargo, casi todas ellas tienen algo en común. No importa el tipo de volcán o su localización. En la mayoría de los casos, la erupción es precedida por temblores similares que se producen minutos, días o semanas antes de que el volcán se despierte.

Esta característica común sigue siendo un enigma para los vulcanólogos que estudian las señales que estos gigantes de la naturaleza emiten antes de una erupción explosiva. Ahora, un grupo de científicos de las universidades de Yale (EEUU) y British Columbia (Canadá) acaba de aportar algo de luz sobre este extraño fenómeno al explicar mediante un modelo matemático cómo se producen estos temblores.

Su investigación, publicada esta semana en la revista 'Nature', podría ayudar a predecir en el futuro fuertes erupciones y salvar vidas, ya que se podría evacuar con antelación a los habitantes de las localidades más amenazadas.

Un temblor ligero pero medible

Antes de que el volcán comience a expulsar lava y cenizas a la atmósfera, que pueden llegar a decenas de kilómetros de distancia, se produce un temblor ligero pero que los vulcanólogos son capaces de detectar y medir. Este temblor es una de las principales señales que alertan de que la erupción puede ser inminente.

Los científicos han calculado que los temblores que se producen en casi todos los volcanes (minutos o semanas antes de la erupción) se mantienen en una banda de frecuencias estrecha, que oscila entre los 0,5 Hertzios y los 2 Hz. Justo antes de la erupción y durante ésta, la frecuencia llega a su pico más alto, en un rango que va de los 0,5 Hz. a los 7 Hz.

David Bercovici, profesor de Geología y Geofísica de la Universidad de Yale y coautor de este estudio, señala que la sacudida sigue siendo un misterio, sobre todo porque su frecuencia es muy parecida en todas las erupciones explosivas, "tanto si se producen en Alaska, en el Caribe, Nueva Zelanda o Centroamérica". "El hecho de que sea tan universal resulta muy extraño ya que los volcanes son muy diferentes, tanto en su tamaño como en su comportamiento. Es como si cinco instrumentos de viento distintos emitieran la misma música", compara el investigador.

Diferencias entre volcanes

Y es que cada volcán se diferencia de los otros en su estructura, la composición de su magma o su contenido de gas. El modelo matemático descrito esta semana en 'Nature' sugiere que la similitud de los temblores puede ser explicada por lo que los investigadores denominan 'magma wagging' (algo así como el 'meneo del magma'). Es decir, la vibración que se produce cuando el magma que sube entra en contacto con el gas que lo rodea. Los factores que controlan esta vibración apenas varían entre volcanes, lo que explicaría, según este estudio, por qué un temblor similar se da en casi todos ellos.

Los investigadores añaden que, debido a que las erupciones explosivas son uno de los fenómenos más destructivos y espectaculares de la naturaleza, el temblor inicial se convierte tanto en una señal de alarma como en una pista vital para averiguar qué va a ocurrir en el "vientre de la bestia". Su modelo matemático, aseguran, aporta un nuevo marco para comprender la física de los temblores y poder ayudar a predecir erupciones destructivas.


Fuente: ElMundo.es


miércoles, 23 de febrero de 2011

Crónica del fin de un imperio.

Ejecución del emperador Atahualpa en 1533, vista por el artista nativo del s.XVI Poma de Ayala.

Ejecución del emperador Atahualpa en 1533, vista por el artista nativo del s.XVI Poma de Ayala.

  • El antropólogo Kim MacQuarrie novela el fin de la próspera civilización inca
  • 'Los últimos días de los incas' ha sido publicado por La Esfera de los Libros

La caída del imperio de los incas tras la conquista de los colonizadores españoles en el s. XVI sigue siendo un capítulo lleno de interrogantes para los historiadores. Los libros los escriben los vencedores así que como en tantas otras ocasiones, el relato que nos ha llegado es, en el mejor de los casos, sesgado. Lo comprobó el antropólogo y explorador Kim MacQuarrie durante el periodo en que convivió con una tribu peruana del Amazonas recientemente descubierta.

Portada. | Ed. La Esfera de los libros.

Portada. | Ed. La Esfera de los libros.

Tras investigar la conquista de este próspero imperio, que se extendió a lo largo del territorio que hoy ocupa Perú, MacQuarrie decidió escribir un relato novelado sobre este sangriento episodio histórico y sobre las luchas por el poder entre los propios indígenas. 'Los últimos días de los incas', publicado por La Esfera de los Libros, saldrá a la venta el lunes 21 de febrero.

Y es que la muerte en 1528 del emperador inca, Huayna Cápac, que contrajo la viruela que los europeos habían introducido en América, desató una devastadora guerra civil en la que se enfrentaron dos de sus hijos. Atahualpa no dudó en asesinar a su hermano Huáscar para convertirse en emperador. En los años siguientes, miles de indígenas murieron a manos de los conquistadores liderados por Francisco Pizarro, al que se unió más tarde Diego de Almagro.

Inventores de la guerra de guerrillas

'Los incas casi lograron dar la vuelta a la conquista. Estuvieron muy, muy cerca [de vencer a los españoles]

"Los miembros de esta tribu me contaron historias sobre los contactos que habían tenido sus antepasados con los incas hace 500 años. Sin embargo, no sabían por qué había desaparecido su civilización", explica el autor a ELMUNDO.es. Solían intercambiar bienes -como monos, loros y carne de tapir (un mamífero del tamaño de un jabalí)- a cambio de ropa y herramientas de metal de los incas. "Más tarde, recorrí el camino hacia la antigua ciudad de Vilcabamba, en la que el joven emperador Manco Inca dirigió una guerra de guerrillas contra los españoles. A medida que iba averiguando más datos sobre esta rebelión, más me fascinaba la historia. Los incas casi lograron dar la vuelta a la conquista. Estuvieron muy, muy cerca [de vencer a los españoles]", asegura.

Pizarro aparece retratado como un líder militar analfabeto, estratega, diplomático, empresario, terrorista y profundamente religioso

Animado por el éxito de Hernán Cortes que, en 1521, se hizo con el control del imperio azteca en México -la otra gran civilización americana de la época-, Francisco Pizarro se lanzó a la conquista de los incas.

En el libro, aparece retratado como un líder militar analfabeto, estratega, diplomático, ambicioso empresario, terrorista y, tras la captura del emperador inca, Atahualpa, como raptor. "Pizarro era también un cristiano de gran devoción. A sus 54 años, creía firmemente en la Divina Providencia...La propia captura de Atahualpa [después del primer enfrentamiento con los incas] y el hecho de que hubieran muerto tantos incas a manos de tan pocos españoles era prueba de ello. Después de todo, el emperador indígena y sus súbditos eran 'infieles' cuya alma estaba destinada a arder en el infierno si no se convertían. A pesar del derramamiento de sangre, Pizarro estaba convencido de que, al final, él y sus conquistadores conducirían a la gran masa de infieles hacia el sagrado redil del Señor, aunque fuera con las espadas ensangrentadas".

Soldados nativos contra españoles.

Soldados nativos contra españoles.

En el libro se relatan las estrategias que pusieron en marcha ambas partes. A la hora de negociar con Atahualpa, "Pizarro jugó con la baza de que éste ignoraba las sangrientas atrocidades cometidas por los españoles en el Caribe, en México o en Centroamérica, y que tampoco había oído hablar de Colón, de la trata de esclavos, ni del asesinato de Moctezuma, el emperador azteca".

Según MacQuarrie, la parte de la conquista menos conocida es "la enorme rebelión que ocurrió tres años después de que Pizarro capturara a Atahualpa, un movimiento que continuó durante los 37 años que siguieron a la conquista y que casi logró expulsar a los conquistadores. Los incas, que previamente habían dejado las armas, desarrollaron y pusieron en práctica una guerra de guerrillas muy sofisticada, la primera que conocemos en América Latina a gran escala. Ellos la inventaron", explica el autor, que en la actualidad se encuentra en Bolivia siguiendo los pasos del Che Guevara, el protagonista de su próximo libro.

La búsqueda de un retiro cómodo

Según se narra en el libro, "en cierto sentido, la conquista del Nuevo Mundo fue la historia de un grupo de hombres que intentaron zafarse de uno de los principios básicos en la vida de cualquier ser humano, la necesidad de trabajar para vivir. Al ir a Perú, o a cualquier parte de las Américas, los españoles no buscaban tierras fértiles para cultivar, sino dejar de tener que realizar trabajo físico. Para ello, debían encontrar comunidades lo suficientemente grandes a las que obligar a ejercer las laboriosas tareas para proveerse de todo lo esencial para vivir: alimentos, refugio, ropa y, a poder ser, riqueza efectiva. En aquel momento la conquista tenía poco que ver con la aventura, y era un asunto de gente que haría cualquier cosa por evitar trabajar para vivir. Si se reduce a lo esencial, podría decirse que la conquista de Perú fue la búsqueda de un retiro cómodo".

Desde el punto de vista armamentístico, los incas eran muy inferiores. Sus armas no tenían comparación con las de los españoles, que disponían además de caballos y de la experiencia acumulada durante 30 años sometiendo a pueblos indígenas. La plaga de lo que seguramente fue viruela europea se convirtió en otra arma poderosa en el arsenal de los conquistadores.

Magistral capacidad de organización

El final del emperador inca Tupac Amaru, trasladado fuera de Vilcabamba.

El final del emperador inca Tupac Amaru, trasladado fuera de Vilcabamba.

Y es que, al igual que los romanos, el talento de los incas estaba en su magistral capacidad de organización. Una etnia que nunca llegó a superar las cien mil armas logró regular la actividad de diez millones de personas que hablaban 700 lenguas distintas y estaban repartidas en una extensión de 4.000 kilómetros en uno de los territorios más accidentados del planeta.

Durante su investigación, lo que más impresionó a MacQuarrie fue la manera en la que la civilización inca sintetizó miles de años de evolución cultural: "Los incas, como los romanos, tomaban lo mejor de las culturas que conquistaban y sintetizaban sus conocimientos para crear finalmente el imperio nativo más grande que había existido en América. Así, aprendieron de los pueblos conquistados la artesanía para pulir piedras, la construcción de carreteras, la formación de ejércitos, la planificación de las ciudades o la recaudación de impuestos. Eran muy, muy sofisticados y maestros en los Andes, una de las zonas geográficamente más escarpadas de la Tierra. ¿Quién sabe de qué manera habría evolucionado si los europeos no hubieran llegado?".


Fuente: ElMundo.es