miércoles, 29 de febrero de 2012

La altura de las nubes es menor que hace una década.

Un satélite de la NASA descubre que las nubes están hasta 40 metros más bajas que hace una década, lo que puede tener importantes implicaciones en el clima mundial.

Un satélite de la NASA ha descubierto que las nubes de la Tierra están cada vez más bajas. En concreto, han perdido un 1% de su altura -de 30 a 40 metros- a lo largo de la última década. Este fenómeno tiene implicaciones potenciales para el clima mundial en el futuro. Según los científicos, de continuar este proceso, nuestro planeta podría enfriarse de manera más eficiente, reduciendo la temperatura de la superficie del planeta y «ralentizando potencialmente los efectos del calentamiento global».

Científicos de la Universidad de Auckland en Nueva Zelanda analizaron mediciones de la altura de las nubes tomadas durante diez años (de marzo de 2000 a febrero de 2010) por instrumentos de la nave espacial Terra de la NASA. El estudio, publicado recientemente en la revista Geophysical Research Letters, revela una tendencia general a la disminución de altura de las nubes. El promedio se redujo en alrededor de un 1% durante la década, es decir, de 30 a 40 metros. La mayor parte de la reducción se debió a un menor número de nubes que se producen a gran altura.

El investigador principal, Roger Davies, explica que si bien el registro es demasiado pequeño para ser definitivo, proporciona un indicio de que algo muy importante podría estar pasando. Aunque es necesario realizar un seguimiento a más largo plazo para determinar la influencia de este proceso en las temperaturas globales.

Enfriamiento

Una reducción constante en la altura de las nubes permitiría a la Tierra enfriarse al espacio de manera más eficiente, reduciendo la temperatura de la superficie del planeta y potencialmente ralentizando los efectos del calentamiento global. Esto puede representar un mecanismo de «retroalimentación negativa», un cambio provocado por el calentamiento global que, por extraño que parezca, ayuda a contrarrestarlo. «No sabemos exactamente lo que hace que las nubes disminuyan de altura», dice Davies. «Pero tiene que ser debido a un cambio en los patrones de circulación que dan lugar a la formación de nubes a gran altura».

La nave Terra seguirá recopilando datos para ver si esta tendencia continúa.


Fuente: ABC.es

miércoles, 22 de febrero de 2012

La altura de todos los árboles de la Tierra en un mapa.

Ayudará a entender mejor el papel de los bosques en el cambio climático, cómo influyen sus alturas en los hábitats de vida y servirá para cuantificar el carbono almacenado en la vegetación

Un equipo de científicos dirigido por la NASA ha creado un preciso mapa de alta resolución de la altura de los bosques de la Tierra. El mapa ayudará a los científicos a entender mejor el papel que los bosques juegan en el cambio climático, cómo influyen sus alturas en los hábitats de vida silvestre que albergan, y servirá para cuantificar el carbono almacenado en la vegetación.

Los científicos del Jet Propulsion Laboratory de la NASA, la Universidad de Maryland y el Centro de Investigación Woods Hole, crearon este mapa con 2,5 millones mediciones de pulso láser desde el espacio cuidadosamente seleccionadas y distribuidas globalmente. Los datos LIDAR (Light Detection and Ranging) se recogieron en 2005 por el instrumento de Altímetro Láser de Geociencias a bordo del satélite ICEsat de la NASA.

«Conocer la altura de los bosques de la Tierra es fundamental para la estimación de la biomasa, o la cantidad de carbono que contienen», dijo el investigador principal, Marc Simard, del JPL. «Nuestro mapa se puede utilizar para mejorar los esfuerzos globales para controlar el carbono. Además, la altura de los bosques es una característica integral de los hábitats de la Tierra, sin embargo, no está bien medida a nivel mundial, por lo que nuestros resultados también beneficiarán a los estudios de las variedades de vida que se encuentran, en particular, en habitats boscosos».

Los puntos más altos del bosque

El mapa representa los puntos más altos en el dosel del bosque. Su resolución espacial es de 1 kilómetro. Fue validado con datos de una red de cerca de 70 sitios en todo el mundo.

Los investigadores encontraron que, en general, los bosques disminuyen en porte en latitudes más elevadas y son más altos en las latitudes bajas, disminuyendo en altura cuanto más lejos están de los trópicos. Una excepción importante se encuentra alrededor de la latitud 40 grados sur, en los bosques tropicales de Australia y Nueva Zelanda, donde las masas de eucalipto rebasan con facilidad los 40 metros.


Fuente: ABC.es


domingo, 12 de febrero de 2012

Amasia: el supercontinente que fusionará América y Asia.

La fuerte atracción hacia el polo norte provocará dentro de millones de años la fusión de América y Asia dando lugar a Amasia, el nombre con el que científicos estadounidenses han bautizado al que creen que será el próximo supercontinente de la Tierra.

Según sus cálculos, esta gran masa de tierra llegará a formarse dentro de entre 50 y 200 millones de años, de acuerdo con una investigación publicada en la revista británica 'Nature'.

Así, ambos continentes se unirán por el polo norte, mediante una cordillera montañosa que permitirá cruzar de Alaska a Siberia y viceversa, de acuerdo con expertos de la Facultad de Geología y Geofísica de la Universidad de Yale (EEUU).

América permanecerá situada sobre el anillo de fuego del Pacífico, una zona de intensa actividad sísmica y volcánica, pero su orografía cambiará radicalmente porque la atracción hacia el Polo fusionará América del Sur con el Norte.

Este desplazamiento provocará a su vez la desaparición del océano Ártico y del mar Caribe, según explicó Ross Mitchell, geólogo de Yale y uno de los autores del artículo.

Nuna, Rodinia y Pangea

Han pasado alrededor de 1.800 millones de años desde que se formó el primer supercontinente, Nuna, al que siguieron Rodinia y Pangea, última gran masa de tierra con centro en el África actual y que con el tiempo y la acción de las placas tectónicas conformó los continentes actuales.

El estudio del magnetismo de las rocas de entonces ha servido en el presente al equipo de Mitchell para determinar la distancia que existió entre uno y otro y estimar dónde se situaría Amasia, cuyo centro localizan en algún punto del actual océano Ártico, a noventa grados de distancia del centro del supercontinente anterior, Pangea.

Esta teoría, a la que han denominado ortoversión, desafía los dos modelos tradicionales defendidos hasta el momento para predecir la evolución de las masas terrestres, según detalló Mitchell.

De estas dos últimas hipótesis, una sugiere que la próxima gran masa continental se formará sobre la región en la que existió el supercontinente anterior (introversión), y la otra, todo lo contrario, defiende que será en un punto opuesto a donde se encontraba su predecesora (extroversión).

De esta forma, los partidarios de la introversión localizan el centro del próximo supercontinente en África, mientras que los defensores del modelo de extroversión lo sitúan en el océano Pacífico, en algún punto entre las islas de Hawaii, Fiji y Samoa.

Según estos modelos, la unión se produciría a través del océano Atlántico o del Pacífico respectivamente, mientras que el modelo de Mitchell se decanta por una unión a través del Ártico.


Fuente: ElMundo.es

viernes, 3 de febrero de 2012

La NASA 'escanea' la Tierra para buscar daños provocados por el cambio climático

La NASA ha presentado las primeras imágenes captadas con el instrumento CERES que porta el satélite Suomi NPP para mejorar las predicciones meteorológicas a corto plazo e incrementar el entendimiento del cambio climático.

Suomi ha abierto sus compuertas y el instrumento Earth's Radiant Energy System (CERES) ha comenzado a escanear la Tierra, por primera vez, ayudando a asegurar la disponibilidad continua de las mediciones de la energía que emanan de la Tierra a la atmósfera.

Los resultados CERES ayudarán a los científicos a determinar el balance energético de la Tierra, proporcionando un registro a largo plazo de este parámetro ambiental crucial que servirá para consolidar los datos de sus predecesores.

CERES llegó al espacio el 28 de octubre de 2011, a bordo del satélite de observación de la tierra Suomi NPP, una alianza entre la NASA, la Administración Nacional de Océanos y Atmósfera de Estados Unidos (NOAA) y el Departamento de Defensa.

Según explicó Norman Loeb del Centro de Investigación Langley y principal investigador de CERES, este instrumento "vigila pequeños cambios en la energía de la Tierra, la diferencia entre la energía entrante y saliente".

"Cualquier desequilibrio en la energía de la Tierra debido a las crecientes concentraciones de gases calienta los océanos, aumenta el nivel del mar y causa de los aumentos de temperatura de la atmósfera", indicó en un comunicado.

Cinco instrumentos

El conjunto de cinco instrumentos de Suomi NPP recoge y distribuye datos de la Tierra, el océano y la atmósfera a la comunidad científica y de meteorólogos de todo el mundo para mejorar la investigación científica.

Su misión proporcionará medidas de las temperaturas superficiales del mar y la atmósfera, la humedad, la tierra, la biología marina, las nubes y propiedades de los aerosoles, para dar un perfil de las mediciones de ozono y seguir los cambios la radiación de la Tierra.

Loeb subrayó que es importante analizar un largo historial de datos para entender "cómo el clima de la Tierra está cambiando en respuesta a las actividades humanas, así como los procesos naturales".

En la imagen de onda larga, se puede apreciar la energía del calor irradiado por la Tierra (medido en vatios por metro cuadrado) en tonos amarillos, rojos, azules y blanco.

Las áreas más brillantes de color amarillo son las más calientes y emiten la mayor cantidad de energía hacia el espacio, mientras que las áreas de color azul oscuro y las nubes blancas brillantes son mucho más frías, lo que significa que ahí se emite la menor cantidad de energía.

El aumento de la temperatura, la disminución de vapor de agua, y la disminución de las nubes tienden a aumentar la capacidad de la Tierra para disipar el calor hacia el espacio.


Fuente: ElMundo.es

martes, 24 de enero de 2012

El Océano Ártico se abomba por exceso de agua.

Los fuertes vientos que soplan en el Ártico podrían estar detrás del 'abombamiento' que se está produciendo en el Océano de esta zona del planeta, detectado por satélites de la Agencia Espacial Europea (ESA) destinados a la observación de la Tierra.

Los satélites han revelado que hay una gran aglomeración de agua dulce en el Océano Ártico que se ha ido formando a lo largo de los últimos 15 años. En concreto, desde el año 2002, la altura del altura del nivel del mar en esta zona se ha elevado cerca de 15 centímetros, y el volumen de agua dulce ha aumentado en 8.000 kilómetros cúbicos, es decir, en torno a un 10% de toda el agua dulce del Océano Ártico.

El trabajo, publicado ahora en la revista 'Nature Geoscience' ha sido realizado por investigadores del Centro Polar de Observación y Modelización (CPOM), del University College London, y del Centro Nacional Oceanográfico del Reino Unido, que han utilizado los datos enviados por los satélites ERS-2 y Envisat para medir el nivel del mar entre 1995 y 2010.

Los científicos están convencidos de que si la dirección del viento ártico actual cambiara, gran parte de ese agua se vertería en el Océano Atlántico, lo que enfriaría el clima en Europa.

Según sus conclusiones, la acumulación de agua se debe a que se está acelerando un gran sistema de circulación oceánica llamado Giro de Beaufort debido a los fuertes vientos árticos.

El cambio de su dirección, haría que ese agua pudiera alcanzar hasta el Atlántico Norte. Ello ralentizaría una corriente oceánica que es clave porque parte de la Corriente del Golfo, que es la responsable de que Europa disfrute de temperaturas relativamente suaves, comparado con otras áreas de latitudes similares.

Katharine Giles, investigadora del CPOM y autora de la investigación, señala que al observar los datos a escala anual comprobaron que los cambios tenían relación directa con el comportamiento del viento. "Una posibilidad es que el hielo marino actúe como una barrera entre la atmósfera y el océano. Así, con los cambios en la cubierta de hielo cambiaría también el efecto del viento sobre el océano", señala Giles en un comunicado de la ESA.

La investigadora señala que esta relación entre el hielo y la interacción entre la atmósfera y el océano debe ser confirmada, algo en lo que también serán necesarios los datos que llegan desde los satélites.

La ESA destaca que los radioaltímetros de satélites como Envisat y ERS-2 son muy útiles en la observación de áreas inaccesibles, como el Ártico. De hecho, Envisat, que cumple en marzo 10 años en órbita, ha sido de gran ayuda en estudios sobre el cambio climático.

El ERS-2 ya fue retirado en julio del año pasado, pero aún quedan muchos datos por analizar de los que recogió cuando estuvo en activo.

En los próximos años, ESA seguirá lanzando satélites de observación de la familia 'Tierra Sentinel', dentro del programa europeo de Monitorización Global para el Medio Ambiente y la Seguridad (GMES, siglas en inglés).

Fuente: ElMundo.es

lunes, 23 de enero de 2012

Nueve de los 10 años más cálidos han sido en el siglo XXI


Según el Instituto Goddard de la NASA
La temperatura media global de 2011 fue la novena más elevada en los registros meteorológicos modernos, continuando una tendencia de acumulación de gases de efecto invernadero que ha provocado que nueve de los 10 años más cálidos conocidos hayan ocurrido desde 2000, afirman científicos de la NASA.

La temperatura superficial global promedio para 2011 fue 0,51ºC más caliente que la temperatura media de base para el siglo XX, según afirman investigadores del Goddard Institute for Space Studies, informa Reuters. Los registros de temperatura de esta institución científica empezaron en 1880.

Los primeros 11 años del nuevo siglo fueron notablemente más calientes que la segunda mitad del siglo XX, según asegura el director del instituto, James Hansen, uno de los más destacados expertos mundiales en cambio climático. El único año no perteneciente al siglo XXI que se 'cuela' entre los 10 más cálidos es el cercano 1998.

Estas temperaturas globales tan altas ocurren incluso cuando hay situaciones coyunturales que llevan al enfriamiento, como es un fuerte fenómeno oceánico de La Niña, que enfría la temperatura del océano, y una baja actividad solar durante los últimos años.

Un comunicado de la NASA asegura que las temperaturas actuales son superiores a la media por las crecienntes concentraciones de gases de efecto invernadero en la atmósfera, especialmente el dióxido de carbono. El dióxido de carbono es emitido por diversas actividades humanas especialmente por la quema de combustibles fósiles como el carbón, el gas y el petróleo.

Los niveles actuales de dióxido de carbono en la atmósfera superan las 390 partes por millón, frente a las 285 partes por millón que había en el siglo XVIII y las 315 partes por millón que había en 1960.

Fuente: ElMundo.es

jueves, 29 de diciembre de 2011

¿Por qué el año comienza el 1 de enero?


La decisión de comenzar el año en enero tiene su origen en la antigua Roma, en el siglo II a.C., pero durante la Edad Media el inicio del año se celebraba en la Navidad, la Encarnación o la Pascua. La historia de nuestro calendario, el más usado del mundo, es el resultado de aproximaciones sucesivas del año civil al año astronómico que marca las estaciones.

Fragmento de un antiguo calendario romano.

Fragmento de un antiguo calendario romano.

Un fundamento astronómico

El día y el año (tal y como está definido hoy) tienen su fundamento en el movimiento de la Tierra sobre sí misma y en torno al Sol. El día y el año son pues los ladrillos de un calendario solar. Sin embargo, el mes es una unidad basada en el movimiento de la Luna y forma la base de los calendarios lunares. La semana, una unidad intermedia muy conveniente para organizar los días de trabajo y de descanso, corresponde aproximadamente a una fase lunar.

El laberinto romano

Nuestro calendario actual es obviamente solar, pero sus orígenes se remontan al antiguo calendario romano que tenía un fundamento lunar. En la antigua Roma, varios siglos antes de nuestra era, el año era una sucesión de diez meses: Martius (dedicado a Marte), Aprilis (del latín aperire, abrir, por los brotes vegetales), Maius (por la diosa Maia), Junius (por Juno), Quintilis (el mes quinto), Sextilis (sexto), September (séptimo), October (octavo), November (noveno), y December (décimo).

El año comenzaba el primer día (calendas) de Marzo, bajo los auspicios del dios guerrero, pues esta era la fecha que marcaba el inicio de las campañas militares con la designación de los cónsules. Los meses comenzaban con la luna nueva, algo que era difícil de determinar observacionalmente (precisamente porque en esa fase la luna no es visible).

Julio César.

Julio César.

Además, como el año era mucho más corto de 365 días, su inicio iba cambiando de estación, lo que creaba inconvenientes en las campañas militares. Para evitar este problema, se intercalaban meses adicionales cada cierto tiempo. Esta situación se prestaba a un gran desorden. Los pontífices (encargados del calendario además de los puentes de Roma) alargaban y acortaban los años fraudulentamente, según su conveniencia, para prolongar la magistratura de sus amigos y reducir la de otros.

Numa Pompilius trató de acompasar el calendario romano a las estaciones añadiendo de manera permanente dos meses al final: Ianarius (dedicado a Jano, mes 11) y Februarius (de februare, purificación, mes 12).

A mediados del siglo II a.C., las campañas militares lejos de Roma (y concretamente en Hispania) requerían nombrar a los cónsules con suficiente antelación al comienzo de las actividades. En el año 153 a.C. se fijó el principio del año en el día 1 de Ianarus (en lugar del 1 de Martius), fecha en que se pasó a realizar el nombramiento de los cónsules, esto es, dos meses antes del comienzo de las campañas.

Enero, del calendario de �Las horas del Duque de Berry�.

Enero, del calendario de �Las horas del Duque de Berry�.

Gracias a los dos meses adicionales introducidos por Numa Pompilius, el año había pasado a tener unos 355 días, pero aún así era demasiado corto respecto del año de las estaciones. Ocasionalmente se introducía un decimotercer mes, algo también propicio a manipulaciones por intereses políticos o económicos. En el año 46 a.C. el año del calendario se encontraba desfasado unos tres meses respecto de las estaciones y seguía reinando el desorden.

César bien asesorado

Fue Julio César (102 – 44 a.C.) quien en el 45 a.C. (año 708 de Roma) decidió realizar una reforma definitiva del calendario. Encargó el trabajo al prestigioso astrónomo griego Sosígenes que estaba establecido en Alejandría. Sosígenes se despreocupó de la Luna y ajustó la duración de los meses para fijar la duración total del año en 365,25 días por término medio, es decir, unos 11 minutos más cortos que el año trópico (el de las estaciones, que dura 365,2422 días), transformando así el calendario de lunar a solar. Como resultaba conveniente que el año tuviese un número entero de días, se fijó el año ordinario en 365 días (como el de los egipcios) y para que no se acumulase un decalaje con las estaciones se decidió intercalar un día extra cada cuatro años.

Posteriormente, el mes Quintilus fue renombrado Julius (en honor de Julio César) y el Sextius pasó a llamarse Augustus (por Augusto) pero, por inercia del lenguaje, September, October, November y December han conservado unos nombres que hoy nos resultan aparentemente absurdos y que son, obviamente, inadecuados.

Reticencias con Enero

Este calendario, denominado juliano en memoria de Julio César, permaneció válido durante más de dieciséis siglos. Pero durante muchos de estos siglos, los católicos se resistieron a celebrar el principio del año en un mes dedicado a una deidad pagana.

En la Edad Media, diferentes pueblos de Europa tenían por costumbre celebrar el principio del año en fechas de significado religioso. Dependiendo del estado europeo, se utilizaba el ‘estilo’ de la Navidad (el año comenzaba el 25 de diciembre), el de la Encarnación (25 de marzo), o el de la Pascua (¡con el año comenzando en fecha variable!). Y en algunos de los estados se cambiaba a veces. Por ejemplo, en Aragón se utilizó el estilo de la Encarnación hasta 1350, y entonces se cambió al de la Navidad que permaneció hasta principios del XVII. En pocos estados (por ejemplo Polonia, desde 1364) se utilizó el estilo de la Circuncisión, con el año comenzando el 1 de enero.

El inicio del año el 1 de enero se hizo obligatorio en muchos estados europeos a partir del siglo XVI. Se impuso en Alemania mediante un edicto hacia 1500; Carlos IX lo decretó en 1564 en Francia y entró en funcionamiento en 1567; en España se generalizó hacia el siglo XVII (en el XVIII en Cataluña), y en Inglaterra hubo que esperar hasta 1752.

Calendario gregoriano, Unión Soviética, del año 1930. | ELMUNDO.es

Calendario gregoriano, Unión Soviética, del año 1930. | ELMUNDO.es

Del juliano al gregoriano

Con el transcurso de los siglos, los 11 minutos de diferencia en la duración del año juliano y del trópico, generaron una deriva muy significativa. A finales del siglo XVI, a pesar de la corrección introducida en el concilio de Nicea (año 325 d.C.), el equinoccio de primavera (muy importante para la Iglesia, pues determina la fecha de la Pascua) caía hacia el 11 de Marzo, es decir, 10 días antes de la fecha que la Iglesia le había impuesto en Nicea. Esta situación llevó al papa Gregorio XIII a realizar una importante reforma en 1582, año al que recortó 10 días.

En el excelente calendario resultante, denominado gregoriano, vigente hasta hoy, el año tiene una duración media de 365,2425 días. Pero aún contiene diferencias significativas respecto del año astronómico (el año gregoriano dura 26 segundos más que el trópico) y aún conserva numerosas curiosidades y elementos peculiares. Por ejemplo, sigue conteniendo años bisiestos (entre los que se encuentra el 2012), pero se suprimieron los años seculares de entre tales bisiestos (salvo aquellos que son divisibles por 400).

También interesante

  • El término calendario deriva del latino calendas que se empleaba para denominar el día inicial de cada mes. Calendas, a su vez, procede del verbo calare (llamar). A primero de mes los cobradores reclamaban los tributos y, para ello, llamaban a los ciudadanos a gritos. El libro en el que estos cobradores anotaban sus cuentas se denominaba calendarium...

  • En Inglaterra, el inicio del año en el 1 de enero se decretó en 1752 (antes se celebraba el 25 de marzo). Para ello hubo que suprimir enero, febrero y veinticuatro días de marzo del año 1751, que sólo tuvo 282 días (del 25 de marzo al 31 de diciembre). Al mismo tiempo, se impuso el calendario gregoriano para lo que hubo que suprimir 11 días de 1752 (en lugar de los 10 que fueron necesarios cuando se instauró la reforma por vez primera en 1582). Al miércoles 2 setiembre de 1752 siguió el jueves 14 de setiembre. Lord Chesterfield, promotor de las reformas, tuvo que aguantar sátiras en las que se le reclamaba: "Devuélvenos nuestros once días".

  • El peculiar calendario republicano francés, que estuvo vigente apenas trece años (desde octubre de 1793 hasta diciembre de 1805) cambió el principio del año del 1 de enero al día del equinoccio de otoño en París, aniversario de la Primera República (22 de setiembre de 1792). El mes en que comenzaba el año pasó a denominarse Vendémiaire (por la vendimia).

  • Fuente: ElMundo.es

domingo, 11 de diciembre de 2011

¿Para qué sirve el heredero de Kioto?

La cumbre de Naciones Unidas sobre el clima culminó en Durban con la aprobación, tras muchas discusiones, de un paquete de medidas con numerosos aspectos significativos. Entre ellos, destacan:

Protocolo de Kioto

La cumbre logra la firma de un segundo plazo de este tratado, que se aplica a los países desarrollados, a excepción de EEUU, que no firmó el Protocolo, cuya fecha de caducidad era el 31 de diciembre de 2012. Además, Canadá, Japón y Rusia, que ya anunciaron su intención de no renovar Kioto, se caen del segundo periodo de compromisos.

Durban fija la fecha de inicio del segundo periodo de compromiso de Kioto para 2013 -se decidirá el año que viene en la Cumbre sobre el Clima de Qatar-, con lo que se evita un vacío en la lucha contra el cambio climático, pero deja para posteriores reuniones su fecha de finalización, 2017 o 2020.

No se formulará un nuevo acuerdo que suceda al Protocolo de Kyoto hasta la próxima conferencia sobre el clima, que tendrá lugar en Qatar en 2012. En los próximos años deberán fijarse los objetivos de reducción de emisiones para los distintos países. Sin embargo, la UE y los Estados que se han adherido al Protocolo de Kyoto sólo generan un 15% de las emisiones globales de gases contaminantes. Países como China y la India, dos de los grandes contaminadores, no están sometidos a esta normativa.

Finanzas

El Fondo Verde para el Clima pondrá a disposición de los países en desarrollo 100.000 millones de dólares anuales (74.000 millones de euros) para que puedan adaptarse a las consecuencias del cambio climático. Además, con ese monto se promoverán proyectos para la protección del clima. La creación del fondo se acordó ya en Cancún, pero en Durban los delegados pactaron un programa de trabajo para 2012 con el fin de hacer factible el fondo, entre otros, contratando personal.

Protección de los bosques

No se ha avanzado significativamente en los acuerdos para la protección de los bosques. Tampoco hay previsto dinero para ello en el Fondo Verde. Así, cobra fuerza la posibilidad de que la financiación para la protección de las selvas venga de centrales eléctricas e industrias, que entonces no tendrían que reducir tan drásticamente sus emisiones. Como el bosque absorbe mucho dióxido de carbono, podría abaratar los derechos de contaminación.

Hoja de ruta

La COP17 de Durban logra poner en marcha una hoja de ruta, propuesta por la UE, para la adopción de un nuevo acuerdo global vinculante de reducción de emisiones de gases de efecto invernadero, aplicable a todos los países, al contrario que Kioto, que sólo incluye a los Estados desarrollados.

Tras un pacto entre la India, reticente a asumir compromisos vinculantes, y la Unión Europea, el documento final acuerda empezar las negociaciones para adoptar, en 2015, un "resultado con fuerza legal" para todos los países.

La ambigüedad del término traslada a posteriores cumbres la verdadera negociación, que consistirá en establecer exactamente el marco legal y las obligaciones a las que se someterán los países que lo ratifiquen.

El nuevo acuerdo global deberá estar listo antes de 2020, periodo en que finalizan los compromisos voluntarios de recortes efectuados por los Estados en la cumbre de la ciudad mexicana de Cancún (COP17) de 2010.


Fuente: ElMundo.es

jueves, 8 de diciembre de 2011

Tres informes revelan la 'extrema vulnerabilidad' del Himalaya al cambio climático.








Presentados durante la Cumbre de Durban
  • Analizan la situación de la región montañosa Hindu-Kush-Himalaya
  • Aquí se encuentran algunas de las montañas más altas, como el Everest
  • Es una de las áreas ecológicamente más sensibles y con más biodiversidad
  • Los estudios alertan de la rápida reducción de la masa de los glaciares

Un total de tres informes revelan la "extrema vulnerabilidad" de las montañas más altas del mundo al cambio climático, ya que el aumento de las temperaturas ha alterado el equilibrio de la nieve, el hielo y el agua de estos picos.

Esta evaluación, que han sido presentados durante la XVII Cumbre de la ONU sobre Cambio Climático en Durban (Sudáfrica), se ha realizado sobre la región montañosa asiática Hindu-Kush-Himalaya (HKH) -en donde se encuentran, entre otros de los montes más altos del mundo, el Everest- con el fin de proporcionar la recopilación más actualizada de información sobre el estado actual de esta región y obtener los datos más precisos sobre el número y la extensión de los glaciares que allí se encuentran, así como los patrones de precipitaciones de nieve.

El director general del Centro para el Desarrollo Integrado de Montañas (ICIMOD, en sus siglas en inglés), David Molden, ha señalado que "aunque la HKH es físicamente imponente, es una de las áreas ecológicamente más sensibles en el mundo" y ha indicado que esta situación supone una amenaza para los 210 millones de pobladores de las montañas, que viven gracias a sus recursos, y a los 1.300 millones de habitantes que viven río abajo en las cuencas fluviales más importantes de Asia.

Rica biodiversidad

Molden ha destacado la rica biodiversidad de las montañas. Así, ha apuntado que la HKH es el hogar de 25.000 especies animales y contiene una mayor diversidad de tipos de bosque que el Amazonas. Sin embargo, a pesar de la abundancia de recursos naturales en la región, la pobreza está muy extendida. Los países a los que pertenece la HKH representan el 15 por ciento del total de las migraciones en el mundo.

En cuanto a los glaciares, ha indicado que la cordillera es conocida como 'el tercer Polo', ya que en ella se sitúa el 30 por ciento de los glaciares del mundo. En este sentido, uno de los informes señala que se han contabilizado más de 54.000 glaciares en la región, lo que supone una superficie cubierta de hielo de unos 60.000 kilómetros.

De estos 54.000 glaciares, sólo diez han sido estudiados con regularidad para determinar la pérdida o ganancia neta de hielo y nieve (llamado balance de masa). Estas investigaciones muestran una pérdida de balance de masa de aproximadamente el doble entre 1980 y 2000. Además, en la zona del Everest, los datos muestran una marcada aceleración en la pérdida de masa glaciar entre 2002 y 2005.

En cuanto a la reducción de cada país, los estudios han encontrado que en los últimos 30 años fue del 22 por ciento en Bután y el 21 por ciento en Nepal. También han destacado que los glaciares de la meseta tibetana están retrocediendo a un ritmo "más rápido" que los glaciares del Himalaya central que gracias a su estructura, con mucho escombro, tiene un efecto aislante.

También es "preocupante" los resultados obtenidos sobre una disminución general de la cubierta de nieve durante la última década. Al respecto, el informe indica que entre los glaciares y la nieve se da vida a las cabeceras de los 10 principales sistemas fluviales que se extienden a través de ocho países de Asia: Afganistán, Bangladesh, Bután, China, India, Myanmar, Nepal y Pakistán.

Fuente: ElMundo.es

miércoles, 30 de noviembre de 2011

Los 13 años más cálidos de la Historia se han registrado en los últimos 15.

Los 13 años más cálidos han sucedido, sin excepciones, durante los 15 años transcurridos desde 1997. Las temperaturas mundiales de 2011 son actualmente las décimas más altas registradas, y superan a las de cualquiera de los años anteriores durante períodos La Niña, que suelen influir a la baja en la temperatura. La extensión del Mar Ártico fue en 2011 la segunda más pequeña registrada, con el volumen más bajo en términos absolutos.

Tales son algunos de los datos más destacados de la Declaración anual de la Organización Meteorológica Mundial sobre el estado del clima mundial, que, junto con una evaluación de la temperatura mundial, ofrece una instantánea de la evolución meteorológica y climática en el mundo durante 2011. Fue hecha pública hoy en la Conferencia Internacional sobre el Clima que está teniendo lugar en Durban, Sudáfrica.

"Nuestra tarea estriba en ofrecer conocimientos científicos para ayudar a los decisores en su labor", señaló el Secretario General de la OMM, Michel Jarraud. "Nuestra ciencia es sólida, y demuestra inequívocamente que el mundo se está calentando y que este aumento de temperatura es atribuible a las actividades humanas", declaró.

Nuevos máximos de gases de efecto invernadero

"La concentración de gases de efecto invernadero en la atmósfera ha alcanzado nuevos máximos. Se está acercando muy rápidamente a unos niveles que podrían reflejar un aumento de 2 a 2,4 ºC en la temperatura media mundial, que, según los científicos, podría desencadenar cambios irreversibles y de amplio alcance en nuestro planeta, así como en nuestra biosfera y océanos", manifestó.

Según la estimación provisional de la OMM, durante 2011 (entre enero y octubre) la temperatura del aire en la superficie de la tierra y del mar se situó en 0,41 ºC ± 0,11 ºC por encima del promedio anual del período 1961-1990, que fue de 14,00 ºC, según la declaración provisional. Éste es, pues, el décimo año más cálido desde que comenzaron los registros en 1850.

El período 2002-2011 fue, junto con 2001-2010, el decenio más cálido registrado, con 0,46 ºC por encima del promedio de largo período.

Durante 2011, el clima mundial estuvo fuertemente influenciado por el intenso La Niña, que se gestó en el Pacífico tropical durante el segundo semestre de 2010 y prosiguió hasta mayo de 2011.

Temperaturas máximas en Rusia

Fue uno de los más intensos de los últimos 60 años, y estuvo estrechamente asociado a las sequías padecidas en el África oriental, en las islas del Pacífico ecuatorial central y en el sur de los Estados Unidos, y a las crecidas sobrevenidas en el sur de África, Australia oriental y sur de Asia.

Los años en que La Niña ha sido intenso suelen ser entre 0,10 y 0,15 ºC menos cálidos que los años precedentes y posteriores al fenómeno. Las temperaturas mundiales de 2011 siguieron esa misma pauta, y fueron inferiores a las de 2010, aunque fueron considerablemente más altas que en los episodios de intensidad moderada a intensa de los últimos fenómenos de La Niña: 2008 (+0,36 ºC), 2000 (+0,27 ºC) y 1989 (+0,12 ºC). En las últimas semanas ha vuelto a manifestarse un La Niña débil, aunque sin alcanzar la intensidad de finales de 2010 y comienzos de 2011.

Durante 2011 la temperatura del aire en la superficie fue superior al promedio de largo período en la mayoría de las áreas de tierra firme del mundo. Las diferencias respecto del promedio fueron máximas en Rusia, especialmente en su parte septentrional, en que las temperaturas fueron entre enero y octubre aproximadamente 4 ºC superiores al promedio en algunos lugares.

La extensión mínima estacional de los hielos marinos en el Mar Ártico, que se alcanzó el 9 de septiembre, fue de 4,33 millones de kilómetros cuadrados. Esta cifra fue un 35% inferior al promedio de 1979-2000, y sólo ligeramente superior al mínimo registrado, que se alcanzó en 2007. A diferencia de lo que sucedió ese año, tanto el corredor marítimo noroccidental como el nororiental estuvieron exentos de hielo durante ciertos períodos en el verano de 2011. El volumen del hielo marino fue nuevamente inferior al promedio, habiendo alcanzado según las estimaciones un nuevo mínimo, sin precedentes, de 4.200 kilómetros cúbicos, inferior a su vez a los 4.580 kilómetros cúbicos alcanzados en 2010.

En la mayoría de las regiones polares septentrionales, las temperaturas superiores al promedio coincidieron con el valor mínimo del volumen de los hielos marinos y con la segunda extensión mínima jamás registrada de los hielos en el Mar Ártico.

Fuente: ElMundo.es

martes, 29 de noviembre de 2011

Nanociencia y nanotecnología para conseguir energías alternativas.


Desde hace ya tiempo, existen diversos estudios científicos en los que se demuestra que la utilización de combustibles fósiles como principal fuente energética ocasiona graves daños medioambientales, tales como polución y desajustes del clima. Nuestra sociedad necesita con urgencia cambiar de modelo energético.

En los próximos años, las nanociencias y las nanotecnologías pueden jugar un papel fundamental a la hora de facilitar esta ineludible conversión.

Para poder profundizar más en este tema hoy tengo la oportunidad de poder charlar con Fernando Briones, profesor de investigación del Instituto de Microelectrónica de Madrid (IMM-CSIC) y fundador de un grupo pionero en el mundo en la tecnología de Epitaxia de Haces Moleculares (MBE), la más avanzada en la fabricación de nanoestructuras semiconductoras. En la actualidad trabaja en el desarrollo de células solares fotovoltaicas más eficientes mediante la integración de nanoestructuras de nuevos materiales.

El profesor Fernando Briones (IMM-CSIC) y uno de los equipo de MBE que él ha diseñado.

El profesor Fernando Briones (IMM-CSIC) y uno de los equipo de MBE que él ha diseñado.

Mónica Luna.- ¿Cómo pueden contribuir las nanociencias a la obtención de tecnologías energéticas más respetuosas con el medio ambiente?

Fernando Briones.- Mediante sus grandes aportes al desarrollo de un nuevo modelo energético basado en opciones más racionales para la generación, almacenamiento, ahorro y distribución de energía. Fundamentalmente, en relación con el aprovechamiento de la energía solar, la fuente de energía más ubicua, más sostenible y limpia de que disponemos, apoyarán el desarrollo del concepto de 'cosechadoras' de energía solar. Células solares fotovoltaicas que combinarán un gran rendimiento de captación y conversión de los fotones solares en energía eléctrica, con un diseño inteligente y el empleo de materiales abundantes y de bajo coste.

Serán compatibles con el urbanismo actual y respetuosas e integrables en el medio natural, ayudando incluso a remediar zonas desérticas o devastadas.

M. L.- ¿Cuál es el rendimiento actual de conversión de la radiación solar en energía eléctrica?

F. B.- En las actuales células fotovoltaicas comerciales de silicio, oscila entre un 15% y un 20%, según la tecnología elegida y el fabricante. Su coste energético, es decir, el tiempo que deberían funcionar para devolver la energía empleada en la fabricación de un módulo completo, es actualmente inferior a un año y su tiempo de vida útil garantizado supera los 25 años.

Oblea con células de alto rendimiento. | Solar Junction, EEUU.

Oblea con células de alto rendimiento. | Solar Junction, EEUU.

Sin embargo, y a pesar del rápido crecimiento de las inversiones y expectativas en la industria fotovoltaica, su coste todavía es poco competitivo en relación al de las fuentes convencionales y es necesario investigar cómo aumentar significativamente el rendimiento o, alternativamente, reducir los costes de producción.

M. L.- ¿Qué puede aportar la nanotecnología para lograr este necesario aumento del rendimiento?

F. B.- Las células monolíticas multi-unión, desarrolladas inicialmente para el espacio y fabricadas por epitaxia de semiconductores GaInP/GaAs/GaInAs/Ge, han alcanzado ya este año un rendimiento récord de un 43,5% en la empresa Solar Junction, en California . En este desarrollo, por cierto, ha participado uno de los doctores formados en nuestro laboratorio, Ferrán Suarez, trabajando en la actualidad en dicha empresa.

Las células multi-unión funcionan óptimamente con concentraciones del orden de 500 soles, lo que permite que el tamaño de los chips sea muy pequeño (2,5 x 2,5 mm) y que, por tanto, el alto coste de los materiales y su fabricación quede más que compensado. Asimismo, sus pequeñas dimensiones también implican una reducción notable en el coste de instalación, sistemas de seguimiento, concentración óptica y mantenimiento que, en última instancia, definen la viabilidad económica de cualquier opción energética.

Un concentrador de luz solar tiene un aspecto semejante al faro de un coche. | SolFocus.

Un concentrador de luz solar tiene un aspecto semejante al faro de un coche. | SolFocus.

M. L.- Su grupo de investigación es experto en el diseño y construcción de estos sistemas de Epitaxia de Haces Moleculares y en la fabricación de estos dispositivos semiconductores, ¿en qué estrategias trabajan en la actualidad en el campo de los materiales fotovoltaicos? F. B.- Trabajamos en colaboración con el Instituto de Energía Solar (IES) de la UPM, en la introducción de nanoestructuras autoensambladas epitaxiales como son los puntos cuánticos y de nanoestructuras fotónicas, en la zona activa de estas células solares. El objetivo final es el de poder alcanzar rendimientos energéticos superiores al 50%. Téngase en cuenta que el límite teórico es del 65% con este tipo de materiales y estructuras.

Nuevo material fotovoltaico bajo estudio: puntos cuánticos autoensamblados de InAs. | Grupo MBE, IMM-CSIC.

Nuevo material fotovoltaico bajo estudio: puntos cuánticos autoensamblados de InAs. | Grupo MBE, IMM-CSIC.

M. L.- ¿Cuál es la viabilidad comercial de este tipo de células solares?

F. B.- Si, como ha demostrado la ley de Moore de la industria microelectrónica, el desarrollo en gran escala del mercado permite una sustancial reducción de costes aumentando al mismo tiempo las prestaciones, esta opción puede ser pronto muy efectiva para la generación eléctrica de tipo industrial conectada a la red, particularmente en aéreas desérticas con fuerte irradiación solar directa del sur de la península.

M. L.- ¿Y cuál sería la mejor opción para zonas geográficas con nubosidad?

F. B.- Utilizar células de bajo coste que mantengan un rendimiento mínimo por encima del 10 %. Para ello son ideales las tecnologías de película delgada, en materiales como el silicio nanocristalino y amorfo o los semiconductores orgánicos. Estas células pueden fabricarse como recubrimientos semitransparentes sobre las ventanas de los edificios y, en el caso de células de material orgánico, se podrán 'imprimir' sobre plásticos flexibles, tales como los que se utilizan en invernaderos. Alemania y Japón son los países que más se han decantado por estas tecnologías de película delgada, pero aún queda mucho por hacer, sobre todo en relación a la mejora de la estabilidad de los materiales a largo plazo.

Instalación fotovoltaica de concentración. | IES-UPM.

Instalación fotovoltaica de concentración. | IES-UPM.

M. L.- Ha comentado que, aparte de los desarrollos en células solares, la nanotecnología también tendrá aportaciones en el campo del almacenamiento de la energía eléctrica. ¿De qué forma?

F. B.- Ayudará a que dispongamos de baterías ligeras, potentes, económicas, fiables y reciclables para que la opción del automóvil eléctrico sea una realidad en el próximo futuro. En la actualidad, se optimizan las características de estabilidad y procesos de fabricación más económicos actuando sobre el tamaño de las nanopartículas de LiFePO4 que constituyen el cátodo y en la nanoestructuración del los electrodos conductores de carbono para mejorar enormemente su capacidad (hasta 170A.h/ kg), su potencia pico y la estabilidad frente a múltiples ciclos de carga descarga.

El hecho de que las materias primas de estas baterías sean abundantes y no contaminantes, junto a las excepcionales prestaciones ya alcanzadas, muy superiores a las de las baterías de NiCd, hace que se esté librando en estos momentos una furibunda guerra de patentes y algunos retrasos en la adopción de estas tecnologías por las grandes compañías automovilísticas.

La nanoestructuración es también fundamental para el desarrollo de los supercondensadores, otro componente básico para aportar los picos de corriente necesarios en los motores eléctricos de los automóviles. Los últimos desarrollos en este campo alcanzan capacidades específicas del orden de 500F/g con un coste moderado y ya están llegando al mercado.

M. L.- ¿Cuándo cree que se podrán generalizar los nuevos desarrollos?

F. B.- Las tecnologías básicas ya están muy avanzadas pero su aplicación global en gran escala depende ahora fundamentalmente de factores económicos, sociales y políticos muy ajenos a la ciencia y a la tecnología.

Mónica" Luna es investigadora en Nanociencia y Nanotecnología del Instituto" de Microelectrónica de Madrid (CNM-CSIC).
monica.luna.estevez@gmail.com


Fuente: ElMundo.es

lunes, 21 de noviembre de 2011

Los gases responsables del cambio climático baten todos los récords.

La agencia meteorológica de Naciones Unidas asegura que las concentraciones de gases causantes del calentamiento global están en la actualidad en niveles récord que superan los peores escenarios de los científicos.

La Organización Meteorológica Mundial (OMM) dice que las concentraciones de dióxido de carbono, principal responsable de la captura de calor en la atmósfera, han llegado a 389 partes por millón, la mayor concentración desde el inicio de la era industrial en 1750.

"El impacto que sufre la atmósfera debido a los gases de efecto invernadero generados por la actividad humana ha vuelto a alcanzar niveles récord desde la era pre-industrial", afirmó el secretario general de la OMM, Michel Jarraud.

Las emisiones de gases se disparan

"Incluso si lográramos detener hoy nuestras emisiones de gases de efecto invernadero, algo que está lejos de ser realidad, el efecto estaría presente durante décadas en la atmósfera", declaró Jarraud durante la presentación del boletín de la OMM.

En su opinión, "ahora más que nunca antes, tenemos que comprender las complicadas, y a veces imprevisibles, interacciones entre los gases de efecto invernadero y la atmósfera, la biosfera terráquea y los océanos"

La OMM dice que sus datos revelan un aumento del 20% del óxido nitroso, del 39% de aumento en el CO2 y del 158% de aumento del metano desde entonces, todos ellos son gases de efecto invernadero contemplados en el Protocolo de Kioto como gases a reducir.

La OMM indicó que entre 1990 y 2010 hubo un incremento del 29% en la fuerza de irradiación (el efecto del calentamiento atmosférico en el clima) derivada de los gases de efecto invernadero y que el dióxido de carbono (CO2) es el responsable del 80 por ciento de ese aumento.

El CO2 es hoy el gas de efecto invernadero más presente en la atmósfera y representa en torno al 64 por ciento del total de las causas de variación del clima.

Los combustibles fósiles, principales responsables

El informe cita la quema de combustibles fósiles, la pérdida de bosques que absorben dióxido de carbono y el uso de fertilizantes como principales culpables.

Las concentraciones reflejadas por la OMM superan el peor de los siete escenarios de emisiones proyectados en el año 2001 por el panel de expertos climáticos de la ONU.

Desde el principio de la era industrial en 1750, según la OMM, su presencia en la atmósfera ha aumentado en un 39 por ciento, hasta las 389 moléculas de gas por millón de moléculas de aire limpio.

Entre 2009 y 2010 esa "abundancia atmosférica" aumentó en 2,3 unidades por millón, superando las cifras de la década de 1990, cuando fueron de 1,5 unidades por millón y de la pasada década, cuando la concentración se situó en 2 unidades por millón.

La concentración permaneció constante durante 10.000 años

Durante los 10.000 años anteriores al inicio de la era industrial, la presencia atmosférica de CO2 se mantuvo "casi constante" en torno a las 280 moléculas por millón.

Después del CO2, el metano (CH4) contribuye con el 18 por ciento de la fuerza de irradiación, con un incremento del 158% con respecto a la era pre-industrial, cuando la presencia de este gas en la atmósfera terrestre era de 700 moléculas por cada 1.000 millones de partículas de aire limpio.

Este fuerte incremento se debe sobre todo a la ganadería, la producción de arroz y la explotación de los combustibles fósiles.

Por otra parte, la actividad humana es la responsable en estos momentos del 60 por ciento de las emisiones de metano, mientras que el 40 por ciento restante procede de fuentes naturales, como las tierras húmedas.

En el caso del metano, la OMM advierte de que "después de un periodo de relativa estabilización de sus niveles entre 1999 y 2006, su presencia en la atmósfera ha vuelto a aumentar".

Por último, el óxido nítrico contribuye con un 6% a esa fuerza de irradiación y está un 20% por encima de los niveles previos a la revolución industrial.

El óxido nítrico tiene su origen en causas naturales -los océanos- y actividades humanas -el uso de fertilizantes y biomasa y otros procesos industriales.

El problema es que su impacto sobre el clima, tomando como referencia un siglo, es 298 veces superior al de las emisiones en igual cantidad de dióxido de carbono.


Fuente: ElMundo.es

miércoles, 16 de noviembre de 2011

La contaminación del Mediterráneo con metales pesados empezó hace 3.000 años.

Los primeros vestigios de contaminación causada por el hombre sobre el Mediterráneo a causa de los metales datan de unos 2.800 años, según revela una investigación dirigida por el Consejo Superior de Investigaciones Científicas (CSIC). La fecha coincide con el desarrollo minero, metalúrgico, cultural y tecnológico de las civilizaciones humanas de los periodos griego y romano.

El trabajo analiza la concentración de residuos metálicos en los sedimentos de las praderas de 'Posidonia oceanica' de la bahía de Port Lligat (Girona). Dichas praderas se extienden unas 10 hectáreas y cubren el 69% de los fondos de la bahía. Los sedimentos estudiados alcanzan los 5 metros de espesor y reflejan 4.500 años de antigüedad.

El investigador del CSIC en el Centro de Estudios Avanzados de Blanes Óscar Serrano, explica: «"Estos depósitos son un registro privilegiado para la reconstrucción del pasado en la costa mediterránea, un área especialmente expuesta a las perturbaciones naturales y antropogénicas". El trabajo ha sido liderado por Miguel Ángel Mateo, perteneciente al mismo centro del CSIC.

Testigo de posidonia empleado en la investigación. | CSIC

Testigo de posidonia empleado en la investigación. | CSIC

Los resultados, que han sido publicados en la revista 'Science of the Total Environment, describen un aumento inicial en la concentración de metales hace unos 2.800 años. Posteriormente, se produce un incremento en las cantidades de zinc, plomo, cadmio, cobre, arsénico y hierro hace unos 2.500 años, especialmente durante el periodo romano.

A lo largo de los últimos 1.200 años, el Mediterráneo ha experimentado un aumento gradual en la presencia de metales que se aceleró notablemente en los últimos 350 años a partir de la revolución industrial. En esta época se aprecia especialmente el aumento del plomo, el zinc y el arsénico.

Para Serrano,«"las praderas de posidonia no sólo generan registros milenarios, sino que almacenan grandes cantidades de metales pesados que refuerzan las funciones de esta planta en la biogeoquímica costera". Frente a la «clara regresión» que están sufriendo estos ecosistemas, el investigador del CSIC considera que las praderas de«posidonia demuestran ser un gran filtro y sumidero de polución en primera línea de costa.


Fuente: ElMundo.es

lunes, 14 de noviembre de 2011

Reflexiones sobre el ordenamiento del territorio.

La noción de ordenamiento del territorio puede aplicarse a todos los espacios: rurales, urbanos, regionales, nacionales. De acuerdo a la escala, los objetivos y los procesos, no son los mismos; los costos y los niveles de decisión son diferentes.

Existe un micro y un macro ordenamiento en todas las escalas intermedias. Sin embargo, el ordenamiento territorial es concebido en el marco de los Estados para tratar de atentar las desigualdades entre sus regiones. También influye la mundializacion de la economía.

El ordenamiento del territorio deriva del cambio de mentalidad y del comportamiento del hombre en la época moderna a partir del Renacimiento y del siglo de las luces.

El crecimiento de la población mundial en el siglo XX, el aumento de la densidad, el despoblamiento de los campos, los progresos de la información y otros avances han contribuido a la aspiración del ordenamiento del territorio.

Al Estado se lo hace responsable de todo, como también de todos los niveles de todas las colectividades. Cambiar por cambiar no tiene sentido; el cambio es desleable si se corresponde por un progreso.

Ordenar y planificar se realiza a largo plazo, en cambio gobernar y administrar se realiza a corto plazo. Se debe decidir y obrar en función de lo que sera el futuro, de ahí la necesidad de ensayar, de prever; las realizaciones efectuadas tendran efectos durante decenios y hasta siglos.

El tiempo de ejecución es un factor cuyos efectos son desconocidos en el ordenamiento. Un programa bien adaptado, financiado, tiene chances de ser realizado mas rápido y tendrá consecuencias mas rápidas. Por el contrario, toda realizacion que se prolongue sera mas costosa y sus efectos mas tardíos. Los actos tienen consecuencias para el futuro mas que para el presente, pero la prospectiva es un arte difícil y hay mas ejemplos de errores que exitos.

Frente a nuevas realidades hay que saber adaptarse rápidamente y si es necesario, cambiar las prioridades, los métodos. Hace falta que el ordenamiento y la planificación no impidan las iniciativas individuales espontáneas, cuyos efectos pueden ser benéficos. En todos los casos, se trata de motivar y dirigir hombres, de buscarlos medios, de realizar equipamientos e infraestructura etc.

Esta modalidad de ordenamiento del territorio se aplica solo en casos particulares, no hay países, regiones, ciudades, poblaciones etc son los factores de diferenciación los siguientes: configuraciones y condiciones naturales, historia, economía etc; pero pueden presentarse analogías, similitudes. No hay modelos teóricos estándar que puedan ser copiadas, pero si modelo significa proyecto, entonces el modelo se hace necesario; hay que tener en cuenta el comportamiento de los hombres ya que es distinto.

Desde siempre los jefes de Estado han hecho ordenamiento sin saberlo, por ejemplo construir una ruta, un puente etc , pero se tomo conciencia de ello recientemente. El ordenamiento del territorio bajo su forma moderna nació después de la crisis de 1929; primero en EEUU, luego en la II guerra mundial, aparecen Europa occidental, y en países socialistas donde la planificación estatal manejo el ordenamiento por diversas razones, pero se descuidaba el medio ambiente. La política de descentralización de la capital de un país es también una forma de ordenamiento del territorio es la distancia dado que exige energía, tiempo y costo para ser vencida. La historia del ordenamiento se origina en primer lugar en las vías de comunicación y los medios de circulación.

Hay que tener en cuenta los conceptos no solamente de ordenamiento del territorio, sino la globalidad, de medio ambiente y de ecosistema de mundialización. Hoy los daños al medio ambiente natural se generalizan y cambian de escala con la industrialización y la urbanización. Esto hace que uno de los primeros objetivos del ordenamiento del territorio sea hoy la protección del medio ambiente natural. La localización de los equipamientos generadores de perjuicios como las autopistas, las centrales nucleares etc constituye una de las eleccones mas importantes del ordenamiento con sus dificultades y contradicciones. El patrimonio de la humanidad, de un Estado o de una región no es solamente natural lo es también histórico.

Los Estados buscan cada vez mas un desarrollo durable. Se habla cada vez mas del cambio global, que afecta todos los aspectos sobre todo socioeconómicos de la vida de un país o de una región. El desarrollo crea y acentúa las desigualdades y el ordenamiento del territorio apunta a reducir aquellas que se producen en el interior de un mismo país.

Las actividades son las que determinan los empleos. Es necesario que haya adecuación entre empleos creados y mano de obra disponible. Las actividades y los empleos desde el punto de vista de su relación con su localización, son de tres tipos. Los que están en el sitio para satisfacer las necesidades de la población residente. Los que corresponden a las necesidades de la región donde la cuidad es la cabecera de distrito. Los que corresponden a necesidades superando la zona de influencia de la ciudad.

Hay dos métodos de acción que no son contradictorias pero pueden ser complementarios. El método progresivo de pequeños pasos, de mejores continuadas, y de las grandes realizaciones, mas caras, mas espectaculares, con efectos mas rapidos pero tal vez imprevistos.

Los gobiernos tienen medios para alentar o disuadir cierta acción, estos medios son: las medidas atractivas que consisten en variadas ayudas financieras, préstamos, reducción de impuestos etc; los medios de disuasión se aplican para impedir la instalación de alguna actividad, tales medidas pueden ser la fijación de ciertas tarifas a diversas actividades.

Los costos verdaderos son difíciles de establecer en particular para las infraestructuras. Lo mas negativo lo representan las inversiones poco o nada rentables efectuadas a pura pérdida también los casos de corrupción. Las fuentes de financiamiento son: los contribuyentes por medio del impuesto, las generaciones futuras por el empréstito, los usuarios por el pago de las tasas de utilización.

Fuente: Jean Bastie

lunes, 7 de noviembre de 2011

360 millones de chinos menos y más envejecimiento.

La ley del hijo único ha sido un éxito rotundo. Según estimaciones oficiales, la política de natalidad china, introducida en 1978, ha evitado el nacimiento de unos 360 millones de personas. Así, los chinos ya no suponen una quinta parte de la población mundial, y su peso en el total continuará cayendo si se mantiene la actual tasa de fecundidad de 1,54 hijos por mujer, solo siete centésimas por encima de España (1,47). El gigante asiático alcanzará su cénit demográfico en 2025, con 1.400 millones de habitantes. En una década, India le arrebatará su título de país más poblado del planeta.

Pekín muestra sus datos demográficos con triunfalismo, pero la decisión de limitar a uno el número de descendientes de cada pareja también ha provocado graves problemas sociales. El más evidente es el brusco envejecimiento: el 13,3% de la población ya supera los 60 años. Los menores de 14 son 16,6%.

El Gobierno chino espera que para 2050 haya cuatro personas de más de 65 años por cada diez que tengan entre 15 y 64, lo que supone un reto económico para un país que no cuenta con una red de seguridad social sólida, y para los individuos que, sin el apoyo de hermanos, tendrán la responsabilidad de cuidar de padres y abuelos. El vuelco de la pirámide demográfica pondrá pronto en peligro el milagro económico, según algunos estudios.

Otra consecuencia negativa es el desequilibrio de sexos. Aunque el infanticidio está en proceso de extinción, la tecnología permite realizar abortos selectivos. La Academia de Ciencias Sociales de China los considera ya "muy comunes".

El resultado es que, de media, en el país nacen 119 varones por cada 100 mujeres, una relación que se dispara hasta los 130 por cada 100 en algunas zonas rurales. Así, en 2020 podría haber en China 24 millones de hombres más que de mujeres, un hecho que ya ha disparado la compra de esposas, incluso en países vecinos, y el tráfico de mujeres.

Los hijos únicos ya son más de 100 millones, y la sociedad los tacha de individualistas y materialistas. Varias ciudades, entre ellas las megalópolis de Shanghai y Cantón, han pedido al Gobierno central que revise la política de natalidad. Pero, de momento, la cúpula del Partido Comunista no da su brazo a torcer.


Fuente: ElPais.com

miércoles, 2 de noviembre de 2011

La población mundial crece a un ritmo que se frena.

El paso de los 6.000 a los 7.000 millones se ha dado en 12 años.- Es el mismo tiempo que se tardó en pasar de los 5.000 a los 6.000 millones.

La población mundial alcanzó oficialmente el pasado lunes los 7.000 millones de habitantes. Hace apenas 12 años éramos 6.000. Pese a todo, el ritmo de crecimiento se ha frenado. Los anteriores 1.000 millones se ganaron también en 12 años (de 1987 a 1999), pero como se partía de 5.000 millones el aumento de la población fue del 20%. Ahora, en los últimos 12 años, el incremento (también 1.000 millones), representa el 17%.

Quizá este relativo freno explique la tranquilidad con que el Fondo para la Población de Naciones Unidas (UNFPA por sus siglas en inglés) ha elaborado el informe correspondiente. Lejos de los mensajes más preocupantes lanzados cuando se llegó a los 6.000 o a los 5.000 millones -riesgo de falta de recursos, guerras por el agua-, el fondo ha preferido enfocar el asunto desde el punto de vista de los 7.000 millones de oportunidades que este número de habitantes representa.

La calma ha sido manifiesta en la presentación del trabajo que ha tenido lugar esta mañana en la casa de América de Madrid. El jefe de Población y Desarrollo del FNUPA, José Miguel Guzmán, expuso que "no hay problemas de espacio para esa cantidad de personas". "Cabrían en Puerto Rico", dijo. A lo mejor Guzmán exageró, pero lo que sí es cierto es que si se toma el territorio de mayor densidad de población del mundo, Macao (18.534 personas por kilómetro cuadrado), ese número de habitantes cabría en 377.684 kilómetros cuadrados. Prácticamente la superficie de Japón (377.873 kilómetros cuadrados), y menos que España (504.782 kilómetros cuadrados). Otra cosa es que ese número de habitantes exija hacer "equilibrios" entre el agua disponible, los alimentos y la energía, indicó Guzmán. "A más población, esta relación es más difícil", afirmó.

Porque la ausencia de un mensaje preocupante no quiere decir que la ONU no crea que el crecimiento debe limitarse. Así lo demostraba a las claras la presencia en la rueda de prensa de esta mañana de la representante de la Federación de Planificación Familiar Estatal, Isabel Serrano. Y es que casi la mitad de estos 7.000 millones son menores de 25 años, lo que indica una potencialidad reproductiva tremenda si no se consigue asegurar que las mujeres tengan capacidad para espaciar sus embarazos a voluntad (o evitarlos). Algo que casi 300 millones de mujeres en edad fértil no tiene a su alcance, bien por cuestiones políticas (Gobiernos que no permiten el uso de anticonceptivos), religiosas o de género (acceso a preservativos, posibilidad de negociarlo, hábitos culturales asociados a la reproducción y la sexualidad como la mutilación genital.... etcétera). Y esto no es exclusivo de los países menos desarrollados. "No es casual, como se ve en Latinoamérica, que a peor política de planificación familiar -Nicaragua, El Salvador- haya menor desarrollo", indicó Serrano.

Pero este mundo mayoritariamente joven es, a la vez, el que mayor número de personas mayores ha tenido nunca. Casi 900 millones, el 12% del total, lo es, lo que representa nuevos retos, dijo Guzmán. Hasta ahora, en los países pobres, las personas no llegaban a viejos, y los que lo hacían eran los que tenían mejores condiciones (más dinero, salud), por lo que podían ayudar a los más jóvenes. Pero eso está cambiando, por lo que habrá que plantear servicios que protejan su salud, sus derechos. Y, de nuevo, esto tiene una perspectiva de género, ya que las cuidadoras son, en todo el mundo, mayormente mujeres.

Respecto al futuro del planeta, Guzmán no quiso hacer un vaticinio. "En 2100 la población podrá ser de menos de 7.000 millones o de 12.000 millones. Basta con que la media de hijos por mujer sea 0,5 más o menos para producir esa variabilidad", afirmó. Lo que parece claro es que para entonces solo África estará aumentando de población (en Asia se espera que empiece a bajar en 2050).

Esto tiene otra implicación: que si aumentan los habitantes de los países pobres, van a tener que contaminar para crecer. Un debate que ya se ha planteado en las cumbres del clima. Y que puede ser otra fuente de conflictos.

Fuente: ElPais.com