viernes, 6 de mayo de 2016

Los terremotos destructivos y las grandes fallas de la corteza terrestre.

El terremoto destructivo que afectó el pasado día 16 de abril a Ecuador ha conmovido a la opinión pública, como ocurre cada vez que se produce uno de estos eventos, y ha puesto en evidencia la necesidad de prevenir este tipo de catástrofe natural y de estar preparados para paliar los daños y proteger a la población. Actualmente no es posible predecir, con suficiente grado de certeza cuándo se va a producir un terremoto. Por ello, para controlar el riesgo sísmico se trabaja en abordar la prevención, caracterizando los terremotos esperables en una zona en términos de localización, máximas magnitudes y periodos de recurrencia. Para lograr esos datos es necesario no sólo disponer de los registros instrumentales de los terremotos sino también el conocimiento científico de los factores geológicos de las fuentes de los terremotos.Ecuador es un país sometido a una alta sismicidad porque se encuentra localizado al lado de la zona de contacto entre dos placas de la litosfera, la placa de Sudamérica y una de las placas del Pacífico, la Placa de Nazca. Ambas convergen en esta zona a una tasa de unos 61 milímetros al año, de forma que la segunda se introduce hacia el interior por debajo de la placa de Sudamérica en un fenómeno denominado subducción. El foco de este terremoto se ha situado a 19,2 kilómetros de profundidad, en la superficie de contacto entre ambas placas, que es un plano inclinado unos 16 grados hacia al Este. Se trata por lo tanto de un terremoto interplaca de subducción en el que ha roto un área que alcanza unos 160 kilómetros de longitud.Las zonas de subducción similares a la de Ecuador han producido muchos de los mayores terremotos registrados, como el de Valdivia (Chile), de 1960 y magnitud 9.5; el de Tohoku (Japón), de 2011 y magnitud 9.0, y el de Sumatra, de 2004 y magnitud 9.1. La magnitud del terremoto de Tohoku, que provocó la crisis de la central nuclear de Fukushima, fue mucho mayor que la de terremoto de Ecuador, porque rompió un área de 400 x 200 kilómetros.Pero gran parte de los terremotos superficiales, con el foco a menos de 60 kilómetros de profundidad, se generan por deslizamientos bruscos a lo largo de fallas que rompen la relativamente fría corteza terrestre. El modelo de movimiento en fallas y la generación de terremotos fue desarrollado para explicar el terremoto de San Francisco de 1906. Aquel terremoto, de magnitud 7.9, se produjo al romper a lo largo de más de 432 kilómetros la falla activa de San Andrés, que separa las placas Pacífica y de Norteamérica. La rotura en grandes fallas activas ha producido en las últimas décadas importantes terremotos destructivos: el de Izmit (Turquía), de 1999 y de magnitud 7.4, se produjo por un deslizamiento en la falla de Anatolia; el de Katmandú (Nepal), en 2015, fue debido a una falla situada en la base del Himalaya. Más próximo a nosotros el terremoto de Lorca de 2011, de magnitud 5.1, se produjo en la falla de Alhama de Murcia, causando sorprendentemente importantes daños.Una serie de nuevas especialidades de la geología, como la tectónica activa y la paleosismología, están cambiando nuestra percepción de las relaciones entre fallas y terremotos. Las fallas activas se investigan mediante la excavación de zanjas en las que se observa cómo estas estructuras rompen suelos y sedimentos, se detectan sismos prehistóricos y se calcula su cinemática, los periodos de recurrencia de paleosismos y su magnitud. Nuevas metodologías, como la interferometría de radar, las medidas de las deformaciones del suelo mediante observaciones con GPS, la geomorfología tectónica y la arqueosismología, dan datos muy precisos y valiosos.En nuestro país hay registro de grandes terremotos históricos destructivos y la inmensa mayoría son debidos a fallas activas, salvo alguno de foco profundo. Dada la importancia del cálculo de la peligrosidad sísmica de las fallas activas en la Península Ibérica, han progresado en los últimos quince años los estudios de tectónica activa y de paleosismología, y en varias universidades e instituciones existen grupos de investigación especializados que han aportado, en varios congresos con el título Iberfault, sus conclusiones sobre la paleosismicidad y las fallas activas de la península. Un resultado de estos trabajos ha sido la creación y gestión de una base pública de datos de las fallas ya estudiadas, denominada Base de datos de fallas activas cuaternarias de Iberia (QAFI), que ha sido promovida y que gestiona el Instituto Geológico y Minero de España. Todos estos nuevos conocimientos científicos se están aplicando ya en los estudios de riesgo sísmico en varias comunidades autónomas y en el nuevo Mapa de peligrosidad sísmica realizado en 2012 por el Instituto Geográfico Nacional.

Fuente: Ramón Capote (Catedrático Universidad Complutense de Madrid) - ElMundo.es

sábado, 9 de abril de 2016

El volcán Chimborazo le quita un récord al Everest.

Una medición con GPS confirma que el volcán ecuatoriano es el punto más alejado del centro terrestre

Una tercera misión geodésica francesa cumple su periplo por Las tierras del ecuador. Así se conocía al Ecuador del siglo XVIII, al que llegaron los científicos de la primera misión geodésica que ayudó a determinar la forma achatada de la Tierra. Ahora que se cumplen 280 años del trabajo de los franceses Charles-Marie de La Condamine, Louis Godin y Paul Bouguer, junto a los españoles Jorge Juan y Antonio de Ulloa, que fueron enviados por el rey de España Felipe V, sus herederos científicos se han propuesto medir al centímetro el punto más alejado del centro de la Tierra, el volcán Chimborazo, de 6.268 metros de altitud, y que se encuentra a 6.384 kilómetros de distancia del centro terrestre, dos más que la cima del globo, el Everest, debido a las diferencias del diámetro del planeta en estas dos localizaciones continentales.
“Por la herencia que nos dejaron sabemos que los puntos que quedan cerca de la línea ecuatorial están más alejados del centro de la tierra, pero faltaba un valor, medir la distancia más grande desde el centro”, explica Jean Mathieu Nocquet, del Instituto Francés de Investigación para el Desarrollo (IRD). Con este objetivo en mente, un grupo de expedicionarios franceses y ecuatorianos subieron al volcán Chimborazo (6.268 metros sobre el nivel del mar), la montaña más alta de Ecuador, en febrero pasado, y colocaron en la cumbre un sistema de posicionamiento global (GPS) de alta precisión, que a través de una antena de 60 centímetros de largo recibe la señal de 15 satélites de diferentes países. “Para obtener datos precisos dejamos el GPS durante dos horas y luego procesamos la información que se almacenó en ese lapso de tiempo”, explica Mathiew Perrault, del Instituto Geofísico (IG).
Los resultados que arrojó la medición se acaban de conocer y concluyen que la cumbre del volcán está a 6.384.415,98 metros del centro de la Tierra. Este nuevo cálculo confirma que el Chimborazo es el punto más distante del centro de la Tierra, y por lo tanto más cercano al Sol, y está 40 metros por delante en esta clasificación de la cima del nevado Huascarán, en Perú, que sería el segundo punto más alejado.
Tras 280 años

La utilización de GPS, que tiene un margen de error de más o menos 10 centímetros, hizo ganar en 2001 tres metros a la montaña más alta de Europa, el Mont Blanc, que pasó de medir 4.807 a 4.810,4 metros según este sistema. El Everest, en Nepal, también ha sido medido con el sistema GPS. Oficialmente cuenta 8.848 metros, aunque según este otro proceso es un poco más bajo, 8.846,4 metros. Sin embargo, el Everest, que es la montaña más alta del planeta, está dos kilómetros por detrás del Chimborazo en cuanto a la distancia del centro terrestre (6.382). La Tierra tiene mayor radio en el ecuador que en los polos, lo que juega a favor del Chimborazo en su disputa honorífica con el Everest.

La celebración de los 280 años de la primera misión geodésica ha sido un pretexto para recordar la historia común de Ecuador y Francia. La expedición al Chimborazo fue un primer paso, pero la embajada de Francia en el país andino ha planificado actos conmemorativos hasta julio. Habrá coloquios científicos, jornadas pedagógicas en escuelas y exposiciones sobre la reconstrucción sociocultural y científica de las misiones francesas a territorio ecuatoriano. Una de las actividades más curiosas será una cena de época en la que se servirán los platos que posiblemente degustaron los científicos que llegaron al país en 1736.

Fuente: ElPais.com

miércoles, 10 de febrero de 2016

Lago Poopó: La Agencia Espacial Europea revela la desaparición de un lago en Bolivia.

Un satélite de la ESA ha confirmado la evaporación completa del lago Poopó, el segundo más extenso del país.
El minisatélite de la Agencia Espacial Europea (ESA) Proba-V, encargado de controlar la superficie de la Tierra diariamente, ha revelado la desaparición del segundo lago más extenso de Bolivia. La ESA confirma así la evaporación completa del lago Poopó.

El lago salado Poopó ocupaba una depresión de la cordillera del Altiplano y cubría una superficie de 3.000 kilómetros cuadrados

Las tres imágenes de Proba-V, que acompañan a esta noticia, fueron tomadas el 27 de abril de 2014, el 20 de julio de 2015 y el 22 de enero de 2016, respectivamente. El lago salado Poopó ocupaba una depresión de la cordillera del Altiplano y cubría una superficie de 3.000 kilómetros cuadrados, superior a la Isla Reunión.

Sin embargo, la naturaleza superficial del lago, que poseía una profundidad media de solo tres metros, unida al entorno árido montañoso, provocaban que fuese muy sensible a las fluctuaciones en el clima. Su evaporación oficial se declaró en diciembre. Aunque no es la primera vez que el lago Poopó se evapora (la última fue en 1994), existe el temor de que esta vez tarde muchos años en rellenarse, en caso de que llegara a hacerlo.

Mientras tanto, los pescadores locales se han quedado sin sustento y el ecosistema del lago se muestra enormemente vulnerable. El Lago Poopó está reconocido como humedal conservado bajo la Convención internacional Ramsar. La evaporación se ha relacionado con varias causas, entre ellas las extracciones de las fuentes de agua de lago para minería y agricultura, la constante sequía provocada por el calentamiento del océano Pacífico a causa del El Niño y el cambio climático.
Proba-V, lanzado el 7 de mayo de 2013 es un satélite en miniatura de la ESA que desempeña una tarea a gran escala: cartografiar la cubierta terrestre y el crecimiento de la vegetación en todo el planeta cada dos días. El ancho de barrido transcontinental de 2.250 kilómetros que posee su cámara principal recoge la luz en las bandas de frecuencia azul, rojo, infrarrojo cercano e infrarrojo medio a 300 metros de resolución y hasta 100 metros de resolución en su campo de visión central.

El lago salado Poopó ocupaba una depresión de la cordillera del Altiplano y cubría una superficie de 3.000 kilómetros cuadrados.

La evaporación se relaciona con varias causas, entre ellas las extracciones de fuentes de agua y la sequía provocada por el calentamiento del Pacífico.

Fuente: ElPais.com

La pérdida de suelo agrícola y el avance edilicio en Rawson *

Un estudio de especialistas refleja el gran cambio producido entre 2004 y 2015. Hay sectores que perdieron el 46% de sus tierras fértiles. La 'rururbanización'. Cifras que sorprenden.


El avance intensivo y continuo de la construcción edilicia, por sobre la agricultura, en todo el mundo es un tema preocupante. Tanto en las grandes capitales, como en las ciudades más pequeñas, año tras año, se pierden hectáreas de buenos suelos agrícolas, en pos de la civilización. Desde Suplemento Verde de DIARIO DE CUYO, ha venido publicando notas desde hace un tiempo, con la intención de reflejar esta realidad en nuestra provincia. 



En esta oportunidad, se trata de un trabajo realizado como estudio de investigación, por Melisa Alejandra Luna Vargas y María Araceli Molina Aguilera, de la Facultad de Filosofía Humanidades y Artes, y que fuera presentado en el IV Encuentro Nacional de Jóvenes Investigadores, y refleja la Expansión urbana sobre los suelos agrícolas en el sector noroeste del departamento Rawson. Y en particular, hacen un análisis espacial a través de procesamiento de datos geográficos. 



Ellas participan en el equipo conformado por los profesores Guillermo Nicolás Vera, Nicolás Guillen y Belén Valiente y los alumnos avanzados de la carrera Profesorado y Licenciatura en Geografía, Enzo Maza y Gabriel Pereyra Guzmán.



Se puede ver que el departamento Rawson se encuentra en la denominada AGSJ definida por el Indec (2001) como la continuidad de espacio edificado que queda limitado por una serie de arterias que marcan el paso hacia una zona de transición urbano-rural.



Se intensificó el crecimiento urbano del AGSJ, localizándose en áreas periurbanas, definida como espacio continuo de dominio urbano, con una zona de transición que ofrece una amplia gama de usos dispares, como grandes equipamientos, parques metropolitanos, polígonos industriales, ciudades dormitorio y urbanizaciones de baja densidad de edificación con espacios de agricultura residual (Valenzuela Rubio, 1986).



Las áreas periurbanas se desarrollan sobre suelos con buena aptitud para producción primaria. Los tipos de suelo, se denominan urbanizado: extensión del AGSJ. Y Complejo El Salado: Que son suelos entisoles torrifluvientes de zonas áridas, de textura variadas, no se encuentra afectado por problemas de freática y tiene una infiltración moderada. Características que lo hacen aptos para el cultivo de hortalizas, vides y olivo.



El grave problema es la pérdida de suelo agrícola. En la zona NE aparece un área compacta urbanizada, el resto va presentando rasgos urbanos. Suelos escasos en la provincia por la poca capacidad de regadío y el relieve.



Mutación territorial, las zonas rurales van perdiendo sus componentes agrícolas en provecho de características urbanas. Lo que genera grandes riesgos territoriales. Este proceso, se llama Rururbanización (según PROST, 1991).



Si vemos un análisis espacial, los geógrafos se preguntan cuáles son los factores que controlan los modelos de distribución y el modo en que estos modelos pueden modificarse para hacer que las distribuciones sean más eficaces o más equitativas. Entonces en el estudio, se utilizaron imágenes de Google Earth 2004-2015 y se delimito los sectores arbitrariamente por las calles principales lindantes.



El mapa en estudio incluye la calle República del Líbano, al Norte; la calle Chacabuco, al Este; la calle Vidart al Oeste y la calle Agustín Gómez, al Sur.



Se marcaron 7 sectores y se indica con circulo u ovalo rojo la zona crítica. En la página 5 se pueden ver claramente los sitios en conflicto.



Sector 1: No hay cambios.



Sector 2: Hay una pérdida grave, del 35 % de las tierras aptas para la agricultura.



Sector 3: Es bajo, sólo el 2 %.



Sector 4: No hay cambios en el periodo de tiempo analizado ya que la pérdida total de suelo apto para el cultivo de esta zona sucedido mucho antes.



Sector 5: Uno de los más graves, perdió el 38 % de sus tierras fértiles.



Sector 6: El más perjudicado, 46%, junto con el sector 5 son una muestra clarísima de un gran porcentaje perdido de suelo productivo, en manos de la industria de la construcción.



Sector 7: Baja al 25 %. Pero continúan los barrios allí creciendo.



Conclusiones:



Lamentablemente la gran expansión hacia los bordes de la ciudad de San Juan, ha generado cambios irreversibles en el uso del suelo, transformando el espacio de uso rural agrícola a uso urbano residencial.



Esta tendencia de expansión urbana produce la pérdida de suelos destinados a la actividad agrícola. Para el área de estudio está perdida se estimó en 255 hectáreas entre los años 2004 - 2015, lo que genera una disminución de materia prima de origen provincial en mercados locales y nacionales. Un ejemplo es la producción de ajos blancos para exportación, y también ajos morados tempranos y cebollas para el mercado interno. Asimismo, vides y olivos.




* Nota de La Geografía: Rawson es un Departamento de la Provincia de San Juan, República Argentina ubicado al sur de dicha provincia y según el Censo 2010 el más poblado de la misma.

Fuente: DiarioDeCuyo.com.ar

sábado, 6 de febrero de 2016

2.000 años de historia de Sudamérica escritos en el hielo.

El hielo se obtuvo del Nevado Illimani, un glaciar situado a 6438 metros de altura, que domina el altiplano boliviano. / PATRICK GINOT
El análisis de partículas en un glaciar muestra el auge y caída de las ciudades preincaicas, el Imperio inca, el periodo colonial español y la llegada de la gasolina con plomo

Buena parte de la historia de América del Sur está escrita en el hielo. El análisis de un glaciar milenario del altiplano boliviano muestra una correlación entre la presencia de plomo en el agua helada y el auge y caída de las civilizaciones preincaicas, del propio Imperio inca y la llegada de los españoles. Este material da pistas de la fiebre de la plata que afectó a todos esos pueblos.

Situado a casi 6.500 metros de altura, el Nevado Illimani, cercano a La Paz, domina todo el altiplano boliviano. A esa altura, recibe precipitaciones tanto de aguas procedentes del lejano Atlántico como del Pacífico. Aguas que, en su camino, capturan el polvo en suspensión de las zonas que atraviesan. En 1999, una expedición científica francosuiza extrajo dos tubos de casi 139 metros del hielo acumulado en el glaciar durante milenios. Cortado en segmentos de unos 70 centímetros, cada bloque es como una porción congelada del tiempo.

Ahora, un equipo también helvético ha analizado la presencia de distintas partículas en uno de los tubos. Usando la técnica llamada de espectrometría de masas, pudieron medir con gran exactitud la presencia relativa de elementos químicos, detectando incluso las distintas variaciones (isótopos) de un mismo elemento. Su objetivo principal era el plomo. Este material altamente tóxico es un metal pesado que se encuentra en bajas cantidades en el aire en suspensión. Y si aparece en mayor proporción es que está la mano del hombre detrás.

"Las muestras de hielo son grandes archivos para estudiar la historia del clima, las emisiones de gases de efecto invernadero, incendios forestales, erupciones volcánicas y la emisión de un sinfín de contaminantes del aire", dice la investigadora del Instituto Paul Scherrer y coautora del estudio Anja Eichler. Con la técnica usada podían además diferenciar entre el plomo de origen natural presente en el polvo atmosférico y el antropogénico y, dentro de este, el provocado por la metalurgia de la plata o el procedente de la combustión de los motores a gasolina.
Partiendo de un nivel reducido y más o menos estable de plomo en el hielo de hace 2.000 años, los climatólogos se metieron a historiadores. Vieron que a lo largo de la historia, se han producido tres grandes picos de acumulación de este metal. Así, comprobaron como, alrededor del año 450, aparecían los primeros registros de origen antropogénico de plomo y la proporción se mantenía elevada durante unos 500 años, hasta el 950.

Durante ese lapso se produjo la aparición y auge de dos civilizaciones preincaicas. Por un lado, en el altiplano boliviano se desarrolló la civilización liderada por la ciudad de Tiahuanaco, a unos 100 kilómetros del glaciar Illimani. Más al este, en la parte occidental de lo que hoy es Perú, apareció la ciudad de Huari, a unos 700 kilómetros del Nevado. A pesar de la distancia, el paso de ambas civilizaciones por la historia quedó en el hielo.

Como los imperios posteriores, estos pueblos deseaban la plata. Extraída de las minas en forma de mineral combinado con otros metales, como el plomo o el cobre, los tiahuanaco lo fundían y dejaban oxidar en un proceso llamado copelación. La mayor parte del plomo se evaporaba, dejando la plata aislada. Es ese plomo el que aparece atrapado en el hielo.
Sin embargo, tal y como publican en la revista Science Advance, los niveles de este metal vuelven a reducirse a mediados del siglo X, fecha en el que tanto la cultura tiahuanaco como la huari empiezan a languidecer. Los historiadores han postulado varias teorías sobre la caída de estas civilizaciones preincaicas. Que si un enfrentamiento entre ellas, que si revueltas en el interior, una larga sequía... o una combinación de ambas.

"Hemos encontrado una polución por plomo antropogénico provocado por la metalurgia de la plata durante el periodo tiahuanaco. La caída de los niveles de plomo después de esa fecha tiene conexión con la fuerte subida de las concentraciones de polvo, de cerio por ejemplo. Estas concentraciones de polvo entre 1000 y 1400 son las mayores del registro de los últimos 2.000 años, lo que indica que fue una época muy seca", explica Eichler. Así que el hielo confirmaría la idea de que una sequía de siglos pudo influir en el destino de Tiahuanaco y Huari.

Incas, españoles y el Cerro Rico de Potosí
Hubo que esperar al Imperio Inca para que los niveles de plomo en el hielo de Illimani volvieran a subir. Los incas usaban un sistema de hornos (huayra) para fundir el mineral aprovechando el viento del altiplano para facilitar la fundición. Con la llegada de los españoles, las cosas no cambiaron en un principio. Ni siquiera cuando los conquistadores descubrieron el Cerro Rico de Potosí, la que sería la mayor mina de plata del mundo. Los europeos, además de usar a los americanos para explotar la mina, copiaron el sistema de huayras.

Sin embargo, a partir de 1570, los niveles de plomo en el hielo volvieron a descender hasta niveles casi naturales. ¿Qué pasó? Pues que los españoles empezaron a usar mercurio para separar la plata del resto de metales y este es un proceso en frío, por lo que la emisión de plomo a la atmósfera se redujo al mínimo. En el Potosí se llegaron a usar 45.000 toneladas de mercurio. Solo el aumento del precio de este material o la apertura de otras minas en la zona explicarían algunos picos puntuales de acumulación de plomo en los siguientes siglos.
Es a finales del siglo XIX cuando el hielo vuelve a llenarse de plomo. Los registros coinciden con el proceso industrializador que vive toda la zona andina. Pero, en Bolivia en particular, se inicia el auge de la extración de estaño, metal del que la nación boliviana sería el principal exportador y, aún hoy, uno de sus tres mayores productores. Como sucede con la plata, el estaño, obtenido de minerales como la casiterita, se presenta con otros metales, entre ellos el plomo.

Pero el mayor aumento de concentración de plomo en el Nevado Illimani, unas tres veces más que en épocas pasadas, se produce a partir de los años 60 del siglo pasado. Es la era de la explotación del cobre pero, sobre todo, la del automóvil y su gasolina con plomo. Es interesante comprobar como estos altos niveles fluctúan en función de la prohibición paulatina de este combustible en favor de gasolinas sin plomo en los distintos países.

Brasil fue el primer país de la zona en apostar por gasolinas limpias, con una transición que culminó en 1991. Y esto se nota en un progresivo descenso del plomo y otros materiales de combustión en el registro del hielo. Pero, como fue en 1999 cuando le arrancaron el trozo al glaciar, no hay datos de la última década, cuando Perú, Chile o Bolivia también dejaron de usar la gasolina sin plomo.

Fuente: ElPais.com

viernes, 29 de enero de 2016

Un dibujo de Humboldt de hace 200 años prueba el cambio climático.

El 'Tableau physique' original muestra todas las características físicas, climáticas y ecológicas del volcán Chimborazo. / A. HUMBOLDT Y A. BONPLAND
Las plantas catalogadas por el naturalista en los Andes en 1802 se han movido de sitio
Crecen ahora a mayor altitud por el calentamiento global.

En su viaje de cinco años y 10.000 kilómetros por tierras de la entonces América hispana, el naturalista alemán Alexander von Humboldt llegó hasta el volcán Chimborazo en el verano de 1802. Con sus 6.268 metros, la imponente mole, situada en los Andes ecuatorianos, era la montaña más alta del mundo conocido por la ciencia occidental de entonces. Con su tradicional meticulosidad, Humboldt anotó las especies vegetales que había a cada altura mientras lo escalaba. 200 años después, una expedición científica ha seguido los pasos del científico prusiano para comprobar que el cambio climático está cambiando las plantas de sitio.

El calentamiento global está adelantando la primavera y modificando la distribución espacial de especies animales y vegetales. Con las temperaturas más suaves, cada vez se las ve más al norte. El fenómeno se ha constatado especialmente en las zonas templadas del planeta. Pero, en cuanto a las especies ecuatoriales, en particular las de montaña, apenas hay estudios. En parte se debe a que no existen registros históricos con los que comparar. Con la excepción del sacerdote y botánico español José Celestino Mutis y Humboldt (ambos se encontrarían en América), muy pocos naturalistas habían estudiado la distribución de las plantas en los trópicos y ninguno las cartografió como el alemán.

Por eso el Tableau physique es tan especial. Dibujado por Humboldt para su Ensayo sobre la geografía de las plantas es para algunos una obra maestra de la infografía siglos antes de que esta disciplina existiera. El dibujo muestra de un vistazo toda la información que el naturalista prusiano reunió sobre el Chimborazo. Con su grado de detalle, con sus 16 columnas dedicadas a la temperatura, humedad, la presión atmosférica... con una sección del volcán donde detalla qué especies de plantas había a cada altura, hasta donde llegan los cultivos de patatas o dónde pastan las llamas y el límite inferior del glaciar, es la mejor ventana a la biodiversidad del pasado y una fuente única para ver cuánto la han cambiado los humanos.

"En el 2010 salió una nueva traducción en inglés del Ensayo sobre geografía de plantas, recuerda la investigadora hispano-danesa Naia Morueta-Holme. "Mi director de tesis en la Universidad de Aarhus (Dinamarca), el profesor Jens-Christian Svenning, pensó que sería una buena idea volver al Chimborazo y revisitar la montaña. Al principio me pareció una locura, pero no tardé en convencerme de que era una idea muy original, sobre todo después de leer el ensayo completo y aprender más sobre Humboldt. Viendo lo escrupuloso que fue en sus anotaciones, me convencí de que, además de una aventura, sería posible", añade una Morueta-Holme que ahora trabaja en la Universidad de California, Berkeley.
Con el dibujo de Humboldt, la investigadora española y colegas daneses y ecuatorianos fueron al Chimborazo en el verano de 2012, exactamente 210 años después de que lo hiciera el naturalista germano. Lo escalaron por las caras sur y este, como hiciera Humboldt. Con la ventaja de dos siglos de tecnología (cámaras, ordenadores, GPS...) analizaron la flora en tramos de 100 metros, llegando hasta los 5.200, límite superior de la expansión vegetal.

La ilustración recrea el estilo del 'Tableau physique' de Humboldt para mostrar la situación del Chimborazo en 1802 y 2012. / MORUETA-HOLME ET AL
Los investigadores vieron que, salvo algún error provocado por la instrumentación de la época para determinar la altura, las anotaciones de Humboldt eran casi perfectas. "Él es de la época de los exploradores, del comienzo del interés por los patrones de la naturaleza y los factores que los determinan. Eso le fascinaba y ha resultado muy útil, no solo por sus ideas, sino porque pudimos usar sus datos para ver qué cambios ha habido desde su viaje", explica Morueta-Holme.

"Lo que hemos visto es que el límite de crecimiento de las plantas ha subido más de 500 metros, desde los 4.600 hasta los 5.185 metros", comenta la investigadora hispano-danesa. Además, tal y como explican en la revista científica PNAS, los distintos tipos de vegetación definidos por Humboldt se han desplazado hacia arriba, hasta zonas donde antes no podían proliferar. Así, plantas de la familia de las gencianas, de los géneros Espeletia y Chuquiraga que Humboldt situó a una altura entre los 2.000 y 4.100 metros, ahora aparecen hasta los 4.600. En cuanto al pasto conocido como pajonal, ha escalado de los 4.600 metros a los casi 5.100.

Aunque el estudio se centra en la distribución altitudinal de la flora entre los 3.800 y los 5.200 metros, los investigadores también aprovecharon las anotaciones de Humboldt para ver los cambios que se han producido por debajo y por encima. "Los campos de cultivo se han extendido bastante desde los tiempos de Humboldt (también anotó eso, no se le escapaba nada). Como la población humana ha crecido, también vemos que hay más pajonal en las zonas bajas, porque siguen segando paja para los animales de crianza", comenta Morueta-Holme. En cuanto al límite superior, el naturalista alemán situó el inicio del glaciar a los 4.814 metros de altitud. Hoy, hay que subir hasta los 5.270 para encontrar hielo.
Para los investigadores, los humanos están detrás de tantos cambios. Por un lado la alteración del paisaje en las cotas bajas del Chimborazo, con la introducción de cultivos cada vez a mayor altura. Pero esa introducción no sería posible sin un agente más global y también de origen humano: el cambio climático. No hay datos históricos de temperaturas en el Chimborazo, pero los registros oficiales de la República de Ecuador (disponibles desde 1866) muestran una elevación de la temperatura de unos 1,46 grados hasta hoy. A esa cifra se podría sumar el casi medio grado que aumentó la temperatura media global entre 1802 y 1866. En total el calentamiento en el Chimborazo podría estimarse en 2º de media.

Los investigadores, partiendo de una ratio de cambio de la temperatura en función de la altitud de 6º por cada 1.000 metros, avalada por otros estudios de climas de montaña, pudieron calcular la elevación del rango máximo de crecimiento de las plantas en unos 410 metros desde que Humboldt visitara el volcán. La cifra es algo inferior a la que ellos han observado, pero aún así creen evidente la relación entre cambio climático y el movimiento de las plantas de las zonas tropicales.
"Nuestros resultados demuestran que los efectos sinérgicos del calentamiento global y el uso regional del suelo tienen fuertes consecuencias sobre la naturaleza, y no solo en las zonas templadas, donde se han hecho muchos estudios, sino también en el trópico, donde está la mayor parte de la biodiversidad", recuerda la investigadora hispano-danesa.

Hasta ahora, entre los investigadores no había unanimidad sobre la traslación vegetal de las especies tropicales como se ha demostrado que ya están haciendo las de las zonas templadas. "Nuestro estudio demuestra que sí, que ya ha habido grandes cambios a pesar de que el aumento de temperatura haya sido menor del que se espera para el resto de este siglo. Así que podemos esperar cambios aún mayores en el futuro", concluye Morueta-Holme.

Fuente: ElPais.com

jueves, 28 de enero de 2016

Yo soy geógrafo.

Si, así es: soy geógrafo y a mucha honra. Y no, no es lo que seguro está pensando. No me dedico a saberme de memoria ni los ríos ni los pueblos, ni tampoco las capitales o el nombre de la montaña más alta de Madagascar. Hago mucho más. La Geografía es 'esa ciencia, gran desconocida, que estudia y describe la superficie de la Tierra en su aspecto físico, actual y natural y habitado o no por la humanidad, sin olvidar su evolución histórica y las relaciones que en ese espacio haya'. También puede ser descrita como 'la ciencia que estudia el paisaje o incluso esa bella rama del saber que sólo los que se adentran en ella saben exactamente lo que es'.

Un geógrafo puede dedicarse a diversos campos: la ordenación territorial, el urbanismo, el desarrollo local, los planes de impacto ambiental, la demografía, el medio ambiente, la agricultura, la política, la climatología, la biogeografía, la cartografía, el turismo, el peritaje judicial... y además con una gran ventaja: la transversalidad que esta disciplina tiene con respecto a otras.

Ya que, mientras algunos sólo estudian "la atmósfera", el geógrafo sabe comprenderla, analizarla, ver los efectos que tiene en el territorio, las ventajas y riesgos para los ciudadanos... una serie de circunstancias que quedan infravaloradas cuando los recién licenciados salen al mundo exterior, ya que la pregunta generalizada que les hacen es "¿te sabes las capitales de todo el mundo?".

Quizá sorprenda saber que algunos geógrafos han sido históricos: Herodoto, Eratóstenes, Estrabón, Ptolomeo, el gran Alexander Von Humboldt, o el naturalista Alfred Russel Wallace sin el que Darwin no hubiera publicado su Teoría de la Evolución.

También hay geógrafos famosos como el baloncestista Michael Jordan, la cantante Amy MacDonald, el dictador Pinochet (no sabía si era buena idea citarle), Fran Hervías, Secretario de organización de Ciudadanos y varios presentadores del tiempo en televisión: Jacob Petrus (TVE), Lluís Obiols (La Sexta), Joanna Ivars (Cuatro)...

Pese a todo ello, el debate interno en la Geografía ha saltado con el nuevo año. El Instituto Nacional de Estadística publicaba que esta disciplina es la decimotercera peor para encontrar empleo, y no se equivoca. Desde el año 2012 en que yo mismo acabé la carrera se ha visto como pasa desapercibida esta titulación y el problema que tiene para los jóvenes, autónomos: conseguir proyectos o puestos a los que optar. Esto pasa por el desconocimiento de la sociedad en general.

Lo triste es que se siga viendo cómo son los propios geógrafos los que están perdiendo la esperanza y cada vez opinen peor de algo que verdaderamente gusta. Yo mismo llevo siendo Vocal Estatal del Colegio de Geógrafos de España casi tres años y he tenido que decir a compañeros de profesión que el geógrafo no hace sólo mapas, hace lo que quiera hacer si se ve capacitado para ello.

He visto cómo grandes catedráticos de Geografía en universidades públicas han preferido contratar y apostar por un Licenciado en Ambientales o en Biología para hacer mapas o explicar una asignatura de Geografía Industrial (¿ni nosotros mismos nos defendemos?), también me han dicho que los geógrafos no tienen por qué dedicarse a estudios de impacto por petroleras, que eso es de otros (cuando decenas de empresas de geógrafos lo hacen día a día). Por no hablar del problema de la desunión profesional que ni las distintas asociaciones ni el propio Colegio ha sido capaz de solventar.

La Geografía se está perdiendo y los siglos de antigüedad de esta disciplina están quedando en el olvido. Sólo pido a los que sean geógrafos que lo digan sin miedo y a los que lo sean y sigan creyendo desde sus acomodadas sillas que todo va bien, que revisen si los planes de estudio, la lucha profesional o la imagen pública de esta ciencia están bien establecidas.

Yo lo digo sin miedo: soy geógrafo.

Fuente:  Jonathan Gómez Cantero

Seguir a Jonathan Gómez Cantero en Twitter: www.twitter.com/JG_Cantero

Imagen tomada de nodulo.org

domingo, 24 de enero de 2016

Alerta mundial por la contaminación en las ciudades de todo el planeta.

La OMS advierte que la mala calidad del aire mata a millones de personasTambién afirma que está colapsando los sistemas sanitarios

La contaminación en las ciudades se ha convertido en el gran enemigo global. La Organización Mundial de la Salud (OMS) ha lanzado una alerta por la pobre calidad del aire en las zonas urbanas de todo el planeta que "está matando a millones y colapsando los sistemas sanitarios". La "emergencia de salud pública", adelantada por The Guardian, se produce a la luz de los datos analizados en 2.000 ciudades y que corroboran el grave deterioro de la calidad del aire en la mayoría de las zonas urbanas del planeta desde el 2014, principalmente como resultado de las emisiones del tráfico y de las centrales térmicas de combustibles fósiles (con el polvo de las construcciones y la madera quemada en las casas como factores también decisivos en los países emergentes). Según datos de la ONU, la contaminación en las ciudades contribuye a casi 3,4 millones de muertes prematuras en todo el mundo y es un factor decisivo en las enfermedades respiratorias y cardiovasculares, así como en los ictus cerebrales. La mayoría de las muertes se producen en los núcleos urbanos de China (1,4 millones), seguidos de la India (645.000) y Pakistán (100.000). En Pekín, la doble alerta roja obligó a tomar medidas draconianas a finales del 2015, como el cierre de los colegios y guarderías. En Delhi, con nueve millones de coches en circulación, se ha impuesto este año la restricción alternativa de matrículas pares e impares para combatir unos niveles contaminación hasta el 50% superiores a los de la capital china.432.000 muertes prematurasEl problema afecta también gravemente a las ciudades europeas, donde se estima que se producen 432.000 muertes prematuras al año por la contaminación (más un coste calculado en 1,4 billones de euros para los sistemas sanitarios). En España, las estimaciones rondan las 27,000 muertes anuales, mientras que el Reino Unido superan las 29.000. La contaminación causa al año más muertes que el sida y la malaria, según un reciente estudio de la Universidad de California. El número de víctimas directas o indirectas del aire contaminado puede duplicarse de aquí al 2050, conforme aumenta la población urbana y seguimos quemando carbón y madera para producir calor y energía, y petróleo para seguir moviéndonos Unas 9.000 muertes atribuibles a la mala calidad del aire se registraron el último año en Londres, que ha superado en una sola semana los límites aconsejables de contaminación recomendados por la Unión Europea (UE) en todo un año. La estación de medición de Putney Street, al sur del Támesis, rebasó 19 veces el máximo de emisiones por hora. En Oxford Street, el límite se superó más de 1.000 veces a lo largo del año 2015, convirtiéndola posiblemente en la calle más contaminada de Europa (gracias al desfile incesantes de los anticuados black cabs que siguen funcionando con diesel). La situación es también crítica en ciudades como Glasgow, Manchester o Birmingham, hasta el punto que la organización ClientEarth, que el año pasado llevó hasta el Tribunal Supremo al Departamento de Medio Ambiente para reclamar planes que combatan las emisiones de dióxido de nitrógeno (NO2) en las ciudades, ha amenazado con una nueva demanda contra el Gobierno en marzo para reclamar "la reducción de la peligrosa contaminación urbana". En Madrid, el nitrogenazo (causado sobre todo por las altas concentraciones de NO2 de los tubos de escape de los vehículos diésel) se convirtió en el pan de cada día en 2015, como ha vuelto a denunciar estos días Ecologistas en Acción, que en 2014 denunciaron a la entonces alcaldesa, Ana Botella, por falta de acción ante los altos niveles de contaminación en la capital. "Tenemos una situación de emergencia de salud pública en muchos países por la contaminación", declaró a The Guardian la española María Neira, al frente del Departamento de Salud Pública y Medio Ambiente de la OMS, a la luz de los nuevos datos que serán hechos públicos el mes próximo. "La mala calidad del aire es uno de los grandes problemas que afrontamos globalmente, con unos terribles costes en el futuro para la sociedad". "La contaminación del aire provoca enfermedades crónicas que requieren espacio en los hospitales", advierte Neira. "Antes pensábamos que la contaminación era responsable de enfermedades como el asma y la neumonía. Ahora sabemos que puede provocar enfermedades cardiovasculares y que puede contribuir incluso a la demencia. Estamos almacenando problemas. Estamos hablando de enfermedades crónicas que requieren camas en los hospitales; los costes serán enormes". "Estamos ante el mayor riesgo ambiental para la salud, responsable del 5% de la mortalidad en el Reino Unido", advierte por su parte Sotiris Vardoulakis, al frente de del Departamento de Salud Pública local. "Si tomamos medidas para reducir la contaminación, los beneficios para la salud serán múltiples y contribuirán a unas ciudades más saludables y también a una reducción de los gases invernadero". Los organizaciones ecologistas, centradas en los últimos meses en la acción ante el cambio climático, han decidido el otro coste oculto de los combustibles fósiles. El CO2, al fin y al cabo es un gas incoloro, inodoro e inocuo (salvo cuando se acumula en exceso en la atmósfera y causa un "efecto invernadero"). Las altas concentraciones de óxidos de nitrógeno, óxidos de azufre y partículas en suspensión convierten, sin embargo, el aire de las ciudades en un cóctel tóxico al que no escapan ni los propios conductores dentro de sus coches.

Fuente: ElMundo.es

lunes, 11 de enero de 2016

¿Cuál es el origen del agua del canal de Panamá?

Si el canal une dos océanos, podemos plantearnos que el agua procederá de uno de ellos, o de ambos. Pero la realidad es más compleja

Si recordamos la clase de geografía en la que el profesor explicó el tema del canal de Panamá y su importancia económica o la ecológica, casi nadie se pregunta sobre el origen del agua que hay en el seno del canal.

Un planteamiento muy simplista puede llevar a pensar que, si el canal une dos océanos, lo lógico debe de ser que el agua proceda de uno de ellos, o de ambos. Sobre esto hay que hacer una consideración: debido a diferencias de densidad del agua de mar y a otros factores oceanográficos el nivel del océano Pacífico está unos 20 centímetros por encima del nivel del Atlántico. A esto hay que añadir que las mareas en el Pacífico llegan a los 5 y 6 metros de altura mientras que en el Caribe son de tan solo unos 30 centímetros. Si tal como era la primera idea de Ferdinand de Lesseps, el primero que inició las obras del canal, se hubieran unido directamente ambos océanos mediante un canal estrecho de 80 kilómetros de longitud es posible que dentro del cauce se generaran intensas corrientes acuáticas en distintos sentidos y olas de marea.

La realidad es bien distinta. El canal de Panamá tiene 84 kilómetros. Podemos considerar que su trayecto está dividido por dos sectores, el oriental y el occidental, unidos ambos por el lago Gatún. El agua del canal de Panamá es dulce ya que procede del gran reservorio que es el lago Gatún, un lago artificial de 435 kilómetros cuadrados que almacena el agua del río Chagres y de su cuenca.

Gatún comunica con los océanos mediante dos canales, uno que se dirige hacia el Norte, desembocando en mar Caribe, cerca de la ciudad de Colón, y el otro que se dirige hacia el Sureste, llegando al Pacífico, cerca de la ciudad de Panamá. El lago suministra el agua que fluye por ellos.
Entre la superficie del lago Gatún y la de los canales existe una diferencia de altura de 26 metros. Para superarla en ambos lados son necesarios tres juegos de esclusas que se llenan o vacían según se quiera hacer ascender o descender a los barcos. Se construyeron dos juegos de esclusas en Miraflores y uno en Pedro Miguel, en la vertiente del Pacífico y tres esclusas en el lago Gatún, cerca del Atlántico. Cada esclusa permite un salto o cambio de nivel de unos 8 metros.

Cruzando zonas llanas
El canal de Panamá se proyectó cruzando zonas llanas, situadas prácticamente a nivel del mar, pero en una parte de su recorrido tenia que superar el gran obstáculo que suponía la Sierra de Culebra, un relieve orográfico que tiene una elevación de unos 110 metros en su punto más bajo. Esto supuso tener que excavar la montaña para efectuar un corte profundo en forma de valle, de 12,6 kilómetros de longitud y de 540 metros de anchura en la parte superior. Esta zona es conocida como corte Culebra o corte Gaillard. El lecho de esta parte del canal quedó situado a 12 metros sobre el nivel del mar y la superficie del agua está a 26 metros.

La solución de dejar que la superficie del agua del canal estuviera a nivel del mar era totalmente inviable. Por tanto se optó por construir las esclusas que actúan como ascensores de barcos.

Con esta solución se mantiene una barrera que impide que las aguas de ambos océanos entren en contacto entre sí y se evita el gravísimo impacto ecológico que esto podría suponer. No obstante sobre el lago Gatún y los bosques que rodean el canal se ciernen muchas amenazas ecológicas como son la deforestación, la contaminación por hidrocarburos o la presencia de especies invasoras. Además hay el riesgo del aumento de salinidad debido al paso de agua del mar hacia el interior del canal y del lago. Si esto se produjera afectaría a todo el rico ecosistema de la zona y a la disponibilidad de agua dulce de las poblaciones circundantes, con las ciudades de Panamá y Colón incluidas.

Además es inevitable que, como ocurre en muchos otros lugares del mundo, el agua del lastre de los barcos contribuya a la aparición de especies marinas invasoras procedentes de otros puntos del planeta.
Para interpretar correctamente los mapas hay que tener en cuenta que en todo el continente americano, el océano Atlántico se encuentra al Este y el Pacífico al Oeste, excepto en una parte de Panamá en la que se incluye la capital. En la ciudad de Panamá los océanos están situados al revés, es decir, el Pacífico al Este y el Atlántico al Oeste, lo cual suele desorientar a los europeos cuando viajan por primera vez a esta ciudad. Este cambio se debe a la forma de S que tiene el istmo que une América del Norte y del Sur.

Fuente: ElPais.com

El cambio climático amenaza la generación de electricidad.

La disminución del agua disponible y su mayor temperatura reducirá la capacidad de las centrales térmicas e hidroeléctricas hasta en un 30%
España ha perdido el 20% de su agua en los últimos 25 años.

A medida que avance el siglo, los ríos del planeta llevarán menor cantidad de un agua que será más caliente. Ambos fenómenos no le vienen bien a la generación de electricidad. Un estudio con más de 25.000 centrales térmicas e hidroeléctricas muestra que su dependencia del agua para mover sus turbinas las hace vulnerables al calentamiento global. Para cuando acabe la centuria más de tres cuartas partes de las centrales estudiadas sufrirán mermas en su capacidad de producir vatios-hora que podrían superar el 30%.

Aunque la aportación de las energías eólica y fotovoltaica no deja de crecer, el 98% de la electricidad generada en el planeta en 2012 (últimos datos disponibles) la produjeron centrales hidroeléctricas (17%) o termoeléctricas (81%). En total, una producción eléctrica de 21.532 megavatios-hora (MWh), según las autoridades energéticas de EE UU. Las primeras aprovechan los saltos de agua para mover una turbina como en el pasado movían molinos. En las segundas, por diferente que sea el combustible que usen, todas tienen algo en común: necesitan agua que calentar con la que mover la turbina. De ahí que la gran mayoría de las centrales, y no solo las hidráulicas, estén a la ribera de un río o el mar.

Todos los escenarios dibujados por los informes de la ONU sobre el cambio climático sostienen que esa agua se va a volver cada vez más escasa, irregular y caliente. Sobre esa base, un grupo de investigadores ha estudiado cómo afectará el calentamiento global a la producción de energía eléctrica que depende del agua. Para ello, contaron con los datos de ubicación, capacidad, potencia o tecnología usada de 24.515 centrales hidroeléctricas y otras 1.427 termoeléctricas, que tienen el 78% y el 28% respectivamente de la capacidad instalada en el mundo.
"Las centrales hidroeléctricas y las termoeléctricas, donde están tanto las nucleares como las que usan combustibles fósiles o biomasa, necesitan del agua de los ríos y corrientes", recuerda la investigadora del Instituto Internacional para el Análisis de Sistemas Aplicados (IIASA) y coautora del estudio, Michelle Van Vliet. "Estas tecnologías de generación eléctrica dependen fuertemente de la disponibilidad de agua y la temperatura del agua para refrigeración también desempeña un papel clave en la producción de energía termoeléctrica", añade en una nota.

Sobre los mapas mundiales con las centrales eléctricas, los investigadores corrieron un modelo climático con los distintos escenarios previstos para 2030, 2050 y 2080. En particular tuvieron en cuenta la afectación de los recursos hídricos y la variación de la temperatura del agua.

Las centrales ubicadas en las latitudes más altas, como las de Canadá y el norte de EE UU y las de la Europa del norte verán aumentar el caudal de los ríos de los que dependen. En el centro de África y el sur de Asia, tampoco se reducirá el aporte de agua. Por el contrario, en el resto de EE UU, Europa central, la cuenca mediterránea y grandes zonas del sur de América Latina, África y el superpoblado sudeste asiático, el aporte neto de agua a los caudales será menor y su aportación a lo largo del año más irregular.
En términos absolutos, habrá más agua disponible en los sistemas hídricos del 25% de la superficie terrestre del planeta y menos en apenas un 8% del área global. Parece un buen balance, pero el problema es que el 74% de las centrales hidroeléctricas se encuentran en las zonas donde el agua que necesitan será más escasa. Con las termoeléctricas la cosa empeora, el estudio, publicado en Nature Climate Change, estima que el 86% de las centrales analizadas verá reducida su disponibilidad de agua y, por tanto, su capacidad de generación.

Teniendo en cuenta la variación por zonas geográficas y estacional, el estudio sostiene que en todos los escenarios dibujados por los expertos climáticos, las centrales hidroeléctricas perderán de media hasta un 24% de su capacidad de generación eléctrica. En cuanto a las termoeléctricas, tres cuartas partes de ellas sufrirán una merma de más del 30% en su capacidad para 2050.

Sin embargo, con un poco de voluntad y un mucho de tecnología, los autores creen que se pueden mitigar las amenazas a la producción de electricidad. Entre las medidas que sugieren están la mejora de la eficiencia de las centrales ya en funcionamiento, la sustitución del carbón por gas en las centrales térmicas convencionales o el uso de agua de mar o aire para la refrigeración. Pero, como escriben en sus conclusiones, "el cambio tecnológico en el sector energético se caracteriza en general por la inercia debido a la gran duración de las infraestructuras energéticas".
El mapa muestra las zonas con aumento (azul) o reducción (rojo) del cauce de los ríos. /MICHELLEVAN VLIET ET AL./NATURE


Fuente: ElPais.com

domingo, 13 de diciembre de 2015

La deriva continental cumple 100 años.

Pese a precedentes más antiguos, la hipótesis que Alfred Wegener publicó en 1915 es el origen de la moderna tectónica de placas.

La moderna tectónica de placas supuso un salto conceptual en la geología comparable al átomo de Bohr en la física, o al código genético en la biología.
Wegener demostró que no solo la forma de las líneas de costa a los dos lados del Atlántico, sino también las estructuras geológicas del oriente americano y el occidente africano, sus tipos de fósiles y las secuencias de sus estratos, presentaban unas similitudes asombrosas.
Nuevos datos sobre paleomagnetismo y sedimentos marinos, junto a la observación de las cordilleras suboceánicas –por donde emerge de las entrañas de la Tierra el nuevo suelo que va desplazando los continentes actuales—, reivindicaron la hipótesis de la deriva continental.


Cuando Alfred Wegener murió –en 1930, durante la última de sus expediciones a Groenlandia—, la gran idea de su vida había sido descartada, olvidada y vilipendiada. La idea era la deriva continental, y habrían de pasar aún 30 años para que se sacara del cajón, se demostrara correcta y se convirtiera en el fundamento de la gran revolución de la geología, la moderna tectónica de placas, un salto conceptual comparable al átomo de Bohr en la física, o al código genético en la biología. Así son las revoluciones de la ciencia, que no solo devoran a sus hijos, sino también a sus padres.
La chispa que encendió la hipótesis de la deriva continental es la misma que habrán observado miles de niños al echar un vistazo al mapamundi colgado de la pared del aula: el desconcertante parecido entre las líneas de costa de Sudamérica y África, a los dos lados del Atlántico. Y no fue Wegener el primero en reparar en ello. El filósofo británico Francis Bacon ya mencionó el parecido de las líneas de costa en su Novum Organum de 1620, y también lo hizo el conde de Buffon, un naturalista francés del siglo XVIII, y el alemán Alexander von Humboldt hacia el final de esa misma centuria. Von Humboldt llegó a sugerir que aquellas dos costas habían estado juntas en el pasado.
Pero Wegener fue mucho más allá de esas meras impresiones visuales. No solo era explorador, sino también meteorólogo y geofísico, y ello le permitió reunir un cuerpo de evidencia multidisciplinario y que, en retrospectiva, se puede considerar más bien aplastante. Wegener demostró que no solo la forma de las líneas de costa a los dos lados del Atlántico, sino también las estructuras geológicas del oriente americano y el occidente africano, sus tipos de fósiles y las secuencias de sus estratos, presentaban unas similitudes asombrosas.

Como él mismo señaló en su publicación de 1915 –de la que celebramos el centenario—, si reuniéramos esos dos continentes, todas las estructuras “casarían como las líneas de texto en un periódico roto”, en la eficaz metáfora citada en Science por los geólogos Marco Romano, de la Universidad de Roma, y Richard Cifelli, del Museo Sam Noble de Norman, en Oklahoma. Wegener también conjeturó que los continentes representaban placas enormes de una roca más ligera que flotaban sobre rocas oceánicas más densas, una idea que, aunque no del todo correcta, prefigura la tectónica de placas moderna.
Pero, como tal vez habría cabido esperar, una hipótesis tan rompedora con la geología de comienzos del siglo XX, y por muy bien que estuviera fundamentada, solo podía desatar tormentas con gran aparato eléctrico en los estamentos académicos de la época. Aunque la deriva continental suscitó en 1915 algunos apoyos, como el de los geólogos Émile Argand y Alexander du Toit, fueron muchos más los científicos que optaron por quemar al hereje. “La hipótesis de la deriva”, escriben Romano y Cifelli, “era tan iconoclasta que se ganó el vitriolo, el ridículo y el desprecio de los especialistas, cuyos propios trabajos publicados partían de la premisa de una corteza terrestre horizontalmente inmóvil”.

El punto débil de la hipótesis era que Wegener no pudo encontrar un mecanismo convincente para alimentar todos esos movimientos de continentes. Avanzó tímidamente un par de ideas basadas en la rotación de la Tierra y algún otro fenómeno, pero eran tan obviamente incorrectas o insuficientes que solo sirvieron para ponérselo más fácil a sus atacantes del ramo de la geofísica. Pasado el revuelo inicial, la gran idea de Wegener fue olvidada en un cajón humillante de la historia.
Y allí se quedó hasta tres décadas después de morir Wegener, cuando nuevos datos sobre paleomagnetismo y sedimentos marinos, junto a la observación de las cordilleras suboceánicas –por donde emerge de las entrañas de la Tierra el nuevo suelo que va desplazando los continentes actuales—, reivindicaron la hipótesis de la deriva continental y desarrollaron alrededor de ella una nueva síntesis de la geología, la tectónica de placas que fundamenta esa ciencia en la actualidad.

Wegener no pudo saberlo, pero la Tierra le dio la razón.


Fuente: ElPais.com


lunes, 16 de noviembre de 2015

¿Qué es un huracán y cómo se forma?

¿Qué es un huracán?
Los huracanes son las tormentas más grandes y violentas de la Tierra. La gente llama a estas tormentas con distintos nombres como tifones o ciclones según el lugar donde se producen. El término científico para todas estas tormentas es ciclón tropical. Sólo los ciclones tropicales que se forman sobre el Océano Atlántico y el Océano Pacífico oriental, como el Patricia, se llaman huracanes.

Sea como fuere, todos los ciclones tropicales se forman de la misma manera.

¿Cómo se forma un ciclón tropical?
Los ciclones tropicales son como motores gigantes que usan el aire cálido y húmedo como combustible. Por eso se forman sólo sobre océanos de agua templada, cerca del Ecuador.

El aire cálido y húmedo sobre los océanos se eleva desde cerca de la superficie. Como el aire se mueve hacia arriba y se aleja de la superficie, queda menos aire cerca de la superficie. Dicho de otra forma más científica: el aire cálido se eleva causando un área de menor presión de aire cerca del océano.
El aire con mayor presión que está en las áreas circundantes llena el área de baja presión. Luego, este "nuevo" aire se torna cálido y también se eleva. En la medida en que el aire cálido continúa subiendo, el aire circundante gira para ocupar su lugar. Cuando el aire cálido y húmedo se eleva y se enfría, el agua que va subiendo en forma de vapor forma nubes. Todo el sistema de nubes y aire gira y crece, alimentado por el calor del océano y el agua que se evapora de la superficie.

Y depende de dónde se formen estas tormentas, girarán en una dirección u otra: Las tormentas que se forman al norte del ecuador giran en sentido contrario a las manecillas del reloj; las tormentas al sur, giran en el sentido de las manecillas del reloj.

¿Por qué giran de distinta manera?
Al girar el sistema de tormenta cada vez más rápido, se forma un ojo en el centro. En el ojo todo es muy tranquilo y claro, con una presión de aire muy baja.

¿Todas las tormentas que se producen así se consideran ciclones tropicales?
No. Cuando los vientos en la tormenta giratoria alcanzan los 60 km/h, la tormenta se denomina "tormenta tropical”. Y cuando alcanzan 120 km/h, se consideran oficialmente "ciclón tropical", o huracán.

¿Y qué pasa cuando llegan a la Tierra?
Se debilitan cuando tocan tierra, porque ya no se pueden alimentar de la energía proveniente de los océanos templados. Sin embargo, a menudo avanzan bastante tierra adentro causando mucho daño por la lluvia y el viento antes de desaparecer por completo.

¿Cuál ha sido el huracán más devastador de la historia?
No hay quien se ponga de acuerdo con el peor huracán de la historia. Los más fuertes no tienen por qué ser los más rápidos y, por tanto, el impacto que tienen en el medio ambiente y en los lugares por donde pasan es distinto.

Si atendemos a las cifras de fallecidos, El Gran Huracán de 1780 –también conocido como el huracán San Calixto–, es probablemente el que más muertes ha causado desde que se tienen registros: 22.000 personas perdieron la vida cuando impactó en varias islas del Mar Caribe, como Martinica y Barbados, entre otras.

Por otra parte, el más grande fue el famoso huracán Sandy, que en 2012 batió el récord al llegar hasta los 1.520 kilómetros de diámetro. El anterior en ostentarlo, el huracán Igor, llegó a tener 1.480 kilómetros de diámetro.

Pero ni el Gran Huracán ni el huracán Sandy fueron los más rápidos. Fue El Gran Huracán de Nueva Inglaterra de 1938 el que consiguió avanzar a la increíble velocidad de 110 km/h. Ningún otro huracán ha vuelto a superarlo. El que tenía los vientos más veloces, sin embargo, fue el huracán Camille, que tocó tierra con vientos sostenidos de 305 km/h.

El más duradero de todos los huracanes fue el de San Ciriaco (1899): 28 días aguantó como tormenta tropical fuerte.

Finalmente, el que más daños económicos ha causado fue, sin duda, el huracán Katrina, debido sobre todo a la fuerza con la que impactó en la ciudad de Nueva Orleans. Se cuantificaron 108.000 millones de dólares en daños materiales y más de 1.800 víctimas mortales.

¿Qué significa que un huracán sea de categoría 5, como 'Patricia'?
Se diferencia del resto porque en este punto ya se puede proceder a pedir la evacuación masiva de ciertas zonas residenciales. Como el huracán Patricia, este tipo de fenómenos alcanzan y superan los 220 km/hora.

¿Cuáles podrían ser las consecuencias de un huracán 5?
Las inundaciones pueden llegar a las plantas bajas de los edificios cercanos a la costa, y puede ser requerida la evacuación masiva de áreas residenciales. Además, se pude producir la destrucción completa de tejados en algunos edificios.

Fuente: ElPais.com

domingo, 18 de octubre de 2015

El cambio climático adelanta cada año más la primavera.

La desnudez de los árboles de hoja caduca es cada vez más breve. Un estudio de los bosques húmedos de Europa muestra que el cambio climático está adelantando la primavera un poco más cada año. En los últimos 30 años, la salida de las hojas se ha adelantado una media de 3,4 días por cada grado que ha subido la temperatura. Sin embargo, este adelantamiento se ha ralentizado en la última década y, por paradójico que parezca, el calentamiento global también parece tener la culpa.

En una de las estrategias más fascinantes de la flora, los árboles de las zonas de climas templados y húmedos, pierden sus hojas al llegar el otoño. La menor duración del día, con el descenso de radiación solar (fotoperiodo), el descenso de las temperaturas y, la ocasional congelación del suelo, hacen que mantener las hojas sea un desperdicio de energía. Las hayas, robles, tilos, castaños, fresnos... volverán a reverdecer con la primavera y sus días cada vez más largos y cálidos. Esta relación directa entre temperatura y brote de las hojas de las especies caducifolias ha llevado a muchos científicos a plantear que el calentamiento global está adelantando la primavera.

Para poner cifras a esos vaticinios, un grupo de investigadores de varios países, entre ellos España, han estudiado este fenómeno en los bosques continentales de Europa. Analizaron los datos de brotación de siete grandes especies arbóreas presentes en 1.245 localizaciones en una franja que va desde el Mar del Norte hasta el Adriático y desde Bélgica hasta Bosnia-Herzegovina.

Su análisis se ha apoyado en datos recogidos desde 1980 por el Proyecto Fenológico Paneuropeo, que registra los fenómenos biológicos periódicos relacionados con el tiempo (como el regresar de las golondrinas o la floración de almendros y cerezos). Comprobaron que todas las especies analizadas, y en todos los sitios con datos, llevan 30 años adelantando el brote de sus hojas.
"La salida de las hojas se ha adelantado seis o siete días desde 1980", dice el director de la Unidad de Ecología Global del Centro de Investigación Ecológica y Aplicaciones Forestales, del CSIC, y coautor del estudio, Josep Peñuelas. El impacto de este fenómeno es enorme. Por un lado, el adelanto del brote hace que las hojas fijen más carbono, balanceando el exceso de emisiones. Pero, por el otro, "produce efectos en cadena en todos los ecosistemas que acaban influyendo en cómo funciona todo el planeta", añade Peñuelas.

Sin embargo, para el investigador catalán, la investigación, publicada en la revista Nature, descubre otro fenómeno aún más intrigante: el ritmo de adelanto de la brotación se está frenando aunque sin llegar a detenerse. Así, entre 1980 y 1994, la salida de las hojas se adelantó de media 4 días por cada grado extra de aumento de la temperatura. Pero, desde 1999, la ratio ha bajado hasta 2,3 días por grado, es decir, una reducción del 40%.

El frenazo no es igual en todas las especies. El castaño de Indias o castaño falso (Aesculus hippo), por ejemplo, ha suavizado su adelanto de la brotación hasta los dos días por grado. En el extremo opuesto, las hojas de la haya común (Fagus sylvatica) mantienen casi el mismo ritmo acelerado de brote. Así que las hojas salen cada vez antes pero, en los últimos tiempos, esas prisas se han suavizado.

Los investigadores estudiaron entonces el porqué de esta ralentización. Manejaron varias hipótesis, como una progresiva adaptación de los árboles caducifolios a la mayor variabilidad de las temperaturas primaverales o una especie de límite físico que tendrían las hojas a la hora de brotar relacionado con el fotoperiodo o cantidad de radiación solar. Es como si los árboles supieran que no pueden adentrarse demasiado en el invierno, no sea que una helada tardía acabe con sus primeros tallos verdes.
"Hemos observado que las hojas de los árboles europeos no brotan tan pronto como se pensaba, porque necesitan acumular un cierto número de noches frías para despertar del estado de dormición invernal", comenta Peñuelas. El frío es la parte de la ecuación que faltaba para explicar la llegada anticipada de la primavera. Las especies de hoja caduca necesitan una buena dosis de frío antes de que llegue el calor y la cantidad extra de horas de sol que anuncia el fin del invierno.

Pero el cambio climático no solo está provocando más calor en verano, también está suavizando las temperaturas de otoño e invierno. Sin ir más lejos, la AEMET ya ha anunciado que la nueva estación que ahora empieza será particularmente suave y húmeda. Eso hará que los árboles tarden más en alcanzar el cupo de frío que necesitan, como si les costase más darse cuenta de que es el momento de sacar las hojas.

Para Peñuelas "es como si los árboles se estuvieran volviendo locos". Y con su locura, enloquecen al resto del ecosistema y todas las especies animales o vegetales que hacen su vida en función de cuando salen las hojas de los árboles.

Fuente: ElPais.com