
Unos siete mil millones de habitantes hay en todo el mundo, según las últimas cifras de población de la Organización de Naciones Unidas (ONU) y la mayoría son jóvenes y viven en países subdesarrollados.
El INE cotejará esos números con los del próximo censo, que se actualizará con encuestas anuales para aquilatar mejor las grandes cifras y tener información sociodemográfica actualizada. A medio plazo, Estadística pretende que la cifra oficial de la población total de España y la de las comunidades autónomas se fije con esa herramienta.
Los números del padrón, que previsiblemente no coincidirían con los de las actualizaciones censales, solo marcarían los habitantes de cada municipio. El padrón municipal incluye "entre un 3% y un 4% de dudosos", según el subdirector general. Ello se debe en gran medida a los numerosos ciudadanos extranjeros que abandonan España sin darse de baja en sus municipios de residencia.
Otro elemento es la lentitud del proceso para registrar las defunciones. Desde 1996, España tiene un sistema de padrón continuo que gestionan -y deben actualizar- los Ayuntamientos. De la cifra de población que arroja este registro depende la financiación estatal que reciben los consistorios, a menudo reacios a registrar bajas, según han criticado frecuentemente los demógrafos. El padrón es también la base para establecer el censo electoral.
Habitualmente, los censos, que se realizan cada 10 años, permiten afinar las cifras de población. Suelen reducir los números padronales. "El de 2001 rebajó en 800.000 personas la población española", recuerda Argüeso. Esa reducción solo tiene efectos estadísticos: la cifra oficial de población es la del padrón. La del censo se utiliza para estadísticas internacionales (Eurostat, sobre todo), para el diseño de grandes encuestas o para estudios sociodemográficos pormenorizados.
Si se cumplen los planes del INE, el censo, que por primera vez se realizará este año con una encuesta al 10% de la población en lugar de puerta a puerta, cobrará a partir de ahora más protagonismo para afinar las cifras de habitantes. Numerosos demógrafos coinciden con el INE en que el padrón está inflado.
Estadística quiere establecer el cotejo continuo de la población que arroja el padrón con una encuesta que actualizará el censo todos los años desde 2011. Con entrevistas al 1% de los ciudadanos, este censo continuo cada 12 meses permitirá aquilatar mejor las grandes cifras, dice Argüeso. Además aportará una puesta al día sistemática de otros datos estructurales relevantes, tanto sociodemográficos (estructura de los hogares, por ejemplo) como de vivienda. El subdirector general apuesta por que cuando esté en marcha esa actualización continua, la cifra oficial de población sea la del censo tanto a nivel nacional como autonómico. Para los Ayuntamientos regiría el padrón. Asegura que el cambio no tendría repercusiones en una de las grandes batallas de algunas comunidades autónomas, su cifra de población. De ella depende en parte la financiación que reciben del Gobierno central.
Fuente: ElPais.com
El NCDC sitúa el incremento de la temperatura de la superficie terrestre el año pasado en 0,62 grados centígrados respecto a los datos registrados de media en el pasado siglo, alcanzando el mismo nivel que en 2005, según informa el organismo en un comunicado. "Estos resultados arrojan que el clima está reflejando la influencia de la emisión de gases de efecto invernadero a la atmósfera producto de la quema de combustibles fósiles y de la destrucción de los bosques. Es una evidencia del calentamiento global", ha dicho David Easterling, responsable de la división científica del NCDC.
Algunas zonas del globo, como Rusia y Paquistán, sufrieron en 2010 olas de calor e inundaciones que provocaron la muerte de miles de personas, arruinaron cosechas y anegaron incontables hectáreas de explotaciones agrícolas, lo que llevó a alcanzar nuevas cifras récord en el precio de los alimentos. Aunque no es posible vincular directamente el calentamiento global con estos fenómenos, el progresivo aumento de las temperaturas incrementa la posibilidad de fenómenos meteorológicos extremos en el futuro, tales como olas de calor, sequías e inundaciones, ha señalado Easterling. 2010 fue también el año más húmedo de la historia, y una atmósfera más cálida retiene más agua, lo que puede dar lugar a más inundaciones, ha explicado el científico.
Este estudio aporta datos similares al de otro llevado a cabo por el Instituto Goddard de Estudios del Espacio de la NASA. La agencia espacial estadounidense cifra la subida de la temperatura de la superficie terrestre en 0,75 grados centígrados por encima de la media contabilizada entre 1951 y 1980. La tendencia de las temperaturas, incluyendo los datos de 2010, muestra que estas han ido aumentando aproximadamente a un ritmo de 0,2 grados por década desde finales de los años 70, según la NASA. "Si esta tendencia hacia un mayor calentamiento prosigue, tal como se prevé, y si los gases de efecto invernadero continúan aumentando, el récord alcanzado en 2010 no permanecerá como tal durante mucho tiempo", ha lamentado James Hansen, director del Instituto Goddard de la NASA.
Los inviernos especialmente fríos que se están viviendo en partes de Europa y Estados Unidos serían, de acuerdo con algunos científicos, un "efecto paradójico" del cambio climático. El aumento de las temperaturas significa una reducción del hielo en el Ártico, el calentamiento de la zona y la inyección de aire frío en dirección sur durante el invierno, según un estudio publicado el mes pasado en el Journal of Geophysical Research. El calentamiento del aire sobre el mar de Kara (norte de Siberia) y el de Barents (entre Noruega y Rusia), por ejemplo, parece llevar vientos fríos a Europa en invierno.
"Estas anomalías podrían multiplicar por tres las probabilidades de inviernos extremadamente fríos en Europa y el norte de Asia", ha afirmado Vladimir Petoukhov, autor principal del citado estudio y científico del Instituto Postdam de Investigación del Impacto del Clima de Alemania. "Los últimos inviernos severos que se han vivido, como el del último año, no contradicen el calentamiento global, como algunos aseguran; es más, lo complementan".
Al igual que la NOAA y la NASA, la Organización Meteorológica Mundial de Naciones Unidas y el Centro Meteorológico Hadley de Reino Unido publicarán a finales de este mes sendos informes sobre las temperaturas globales en 2010.
Fuente: ElPais.com
Según un análisis de las estadísticas del sitio, la página fue visitada durante todo 2010 desde 51 países distribuidos en todos los continentes del planeta incluyendo naciones de habla no hispana. El primer lugar del ranking de países visitantes de
La lista de visitantes se completa en orden respectivo hasta el puesto vigésimo con República Dominicana, Costa Rica, Guatemala, Puerto Rico, Uruguay, (decimosexto origen desconocido), Bolivia, El Salvador, Brasil siendo este el segundo en importancia de posicionamiento considerando a los países de habla no hispana para completar la lista Honduras.
Nicaragua, Rusia, Portugal, Alemania, Francia, Italia, Gran Bretaña, Cuba, Paraguay y Andorra ocupan las posiciones vigésimo primera a trigésima en orden respectivo. La decena siguiente se continúa con Polonia, Rumania, Suecia, (Satélite), Hungría, Lituania, Vietnam, Países Bajos, Sudáfrica, República Checa y la siguiente decena se destaca con Eslovaquia, Israel, Nueva Zelanda, Finlandia, Bulgaria, Bélgica, Suiza, Canadá, Angola, Ucrania y cierra la lista en el quincuagésimo primer lugar de los países Visitantes de
Del análisis se destaca que la página web aún se encuentra en pleno crecimiento y cuyo tráfico es todavía lento pero los números indicadores son alentadores en cuanto a las expectativas para el año que comienza. También se infiere que la página tiene mayor influencia en su país de origen (Argentina) y en Latinoamérica.
Las estadísticas no solo permiten conocer el origen de las visitas sino también se puede establecer cuales son las notas más visitadas, las búsquedas realizadas y los intereses de los visitantes lo que permite orientar el contenido de la página hacia lo más buscado por los internautas.
En 2010
Las alentadoras estadísticas impulsa a quien administra el sitio a seguir brindando una página web destinada a la ciencia geográfica cada vez de mayor calidad y contenido para satisfacer las necesidades de información de los destacados visitantes.
Juan Pablo García Ruiz
Administrador
Este informe que busca promover el debate ha sido impulsado por el Centro Complutense de Estudios e Información Medioambiental (CCEIM) y la Fundación Conama, y ha sido elaborado por un equipo de expertos co-dirigido por Pedro Linares, profesor de la Escuela TécnicaSuperior de Ingeniería ICAI, de la Universidad Pontificia Comillas, y Joaquín Nieto, presidente de honor de la Fundación Sustainlabour. El informe no se limita a la energía eléctrica, sino que contempla el conjunto del sistema energético. A diferencia de otros trabajos más enfocados hacia la oferta en la generación de energía, este informe da una importancia especial a la demanda, marcándose como objetivo una reducción del 23% del consumo de energía primaria para 2030.
"Hemos dedicado una atención especial a la demanda, a la gestión de la demanda y a la reducción de la demanda", ha comentado Nieto en la presentación, que ha incidido en la insostenibilidad del modelo energético actual.
Una de las principales conclusiones es que el cambio de modelo es posible; de hecho, la elaboración de la propuesta se ha modelizado utilizando el modelo TIMES-Spain, desarrollado dentro de los programas de sistemas de análisis de tecnologías energéticas de la Agencia Internacional de la Energía.
El informe analiza dos escenarios diferentes. El escenario base incluye los actuales objetivos de energías renovables marcados por la Unión Europea para 2020 (cubrir el 20% del consumo energético final con fuentes renovables y una reducción del 20% de las emisiones de CO2). Sin embargo, considera que esto no sería suficiente para alcanzar una reducción de las emisiones del 80% para el año 2050 (que impida que el calentamiento global supere los 2ºC), por ello propone un escenario deseable con medidas adicionales y mayores restricciones, en particular las referidas a las emisiones de CO2 que se reducen un 30% para 2020 y un 50% para 2030 (respecto a los niveles de 1990).
Este escenario deseable plantea que cada año hasta 2050 medio millón de viviendas sean rehabilitadas para conseguir un ahorro energético del 50% sobre el consumo de 2009 y que todas las nuevas viviendas construidas tengan una demanda energética un 80% inferior a la actual. Todo ello supondría un ahorro de la demanda energética global en el sector residencial y de servicios de un 46% en 2050 respecto a 2009.
Fuente: ElMundo.es
En tanto, se determinó que hay 95,4 hombres cada 100 mujeres. La variacion intercensal del total del país es de 10,6. En 2001 el relevamiento había arrojado un total de 36.027.041 habitantes.
Además, se indicó que en el país hay 14.297.149 viviendas y que bajó la mortalidad y subió la expectativa de vida.
La Capital Federal es la ciudad más densamente poblada, con 14.185 habitantes por kilómetro cuadrado, contra los 13.679 que residían en 2001. Sin embargo, es la jurisdicción que menos creció con respecto al último relevamiento.
En tanto, la provincia de Buenos Aires es la que registra mayor número de pobladores, con la participación del 38,8 del total del país.
Los resultados provisorios del Censo Nacional de Población Hogares y Viviendas 2010 fueron dados a conocer en la Casa de Gobierno de Santa Cruz, con la presencia de las autoridades del Instituto Nacional de Estadíscias y censo (INDEC), encabezadas por la directora general Ana María Edwin y el gobernador provincial, Daniel Peralta.
Se informó la cantidad de habitantes y de viviendas a nivel nacional, provincial y departamental junto con el número total de hombres y mujeres que viven en la Argentina, también discriminado por provincia y departamento.
Respecto a la provincia de Buenos Aires, se determinó que el total de habitantes es de 15.594.428, de los cuales 9.910.282 vive en los 24 partidos que conforman el Gran Buenos Aires.
En Capital Federal habitan 2.891.082 personas y hay un índice de masculinidad del 85,8 por ciento. En tanto, se contabilizaron 1.479.015 viviendas.
En la provincia de Córdoba se relevaron 3.304.825 habitantes, de los cuales 1.330.023 viven en la ciudad capital.
En tanto, se determinó que en la provincia de Santa Fe residen 3.200.736 habitantes y que 1.198.528 residen en Rosario.
Fuente: LaNacion.com.ar
Un barrio bien femenino y una localidad bien masculina. El barrio porteño de Recoleta y la localidad sanjuanina de Iglesia son los lugares con menor equilibrio en la cantidad de hombres y mujeres, según muestran los resultados preliminares del Censo 2010 que hoy dio a conocer el Instituto Nacional de Estadísticas y Censos (INDEC).
En las estadísticas, la relación entre los dos sexos se mide a través del índice de masculinidad: cuánto hombres hay cada 100 mujeres.
A nivel nacional, esa relación es relativamente pareja, ya que hay 95,4 hombres por cada 100 mujeres. Entre las provincias, las de la Patagonia registran más hombres que mujeres, mientras que en el resto del país son más las mujeres.
Los puntos extremos a nivel más desagregado se registran en Recoleta e Iglesia. En el barrio porteño, hay, según el censo, 73,3 hombres por cada 100 mujeres, lo que implica casi 14 representantes femeninas por cada 10 varones. En la localidad sanjuanina, en cambio, hay 17 hombres por cada 10 mujeres.
Fuente: Clarin.com
La entidad difundió dos fotos de la formación glaciar -ubicada en el Parque Nacional Los Glaciares, en la sureña provincia de Santa Cruz- una tomada en 1931 y otra sacada en marzo pasado que evidencian la retracción de la masa de hielo.
"Lo que se puede ver es una retracción notable, de casi 4 kilómetros, que es coincidente con la evolución que tienen, en las últimas décadas, casi la totalidad de los hielos a lo largo de toda la Cordillera de los Andes", explicó en un comunicado Juan Carlos Villalonga, director de Campañas de Greenpeace Argentina.
La foto más reciente del Ameghino fue tomada por la organización ambientalista en una expedición conjunta con el Instituto Argentino de Nivología y Glaciología (IANIGLA), mientras que la de 1931 fue tomada desde el mismo lugar por el sacerdote Alberto De Agostini.
En la comparación fotográfica puede verse que en el frente del glaciar ahora existe una laguna que no aparecía en otras fotografías anteriores.
"El Ameghino fue uno de los glaciares que comenzó a estudiar el IANIGLA hace ya tiempo atrás. Y rápidamente, año tras año, y comparando con documentos históricos que contábamos en ese momento, vimos claramente un proceso de retracción muy marcado", señaló Ricardo Villalba, director del IANIGLA.
Según el experto, "el efecto obvio del calentamiento global es la retracción de las masas de hielo en todo el planeta y, obviamente, Argentina y los glaciares de Sudamérica no están ajenos a ello".
"Uno recorre periódicamente la Cordillera de los Andes y ve claramente que el proceso de retracción sigue y, en muchos casos, se ha acelerado", alertó Villalba.
Greenpeace recordó que la desaparición de cuerpos glaciares representa una pérdida de reservas de agua dulce y que muchos de estos hielos contribuyen en el caudal de ríos que nacen en altas cumbres.
El Ameghino pertenece al Campo de Hielo Patagónico Sur, de donde se desprenden trece grandes glaciares y 190 glaciares menores.
Fuente: ElMundo.es
La geografía económica es una disciplina-encrucijada. Se inclina hacia las ciencias de la naturaleza y hacia la ecología cuando busca entender la importancia de las asignaciones físicas en la producción. Adopta de la economía una parte de su vocabulario, de sus fundamentos teóricos (la economía espacial) y de sus formas de razonamiento. Se interesa por la psicología a fin de tener en cuenta la multiplicidad de los comportamientos, y por la antropología para apreciar la diversidad de los marcos dentro de los cuales se desenvuelve la vida económica. Necesita de la sociología para que le aclare algunos aspectos de las empresas o de las administraciones que agrupan a la mayor parte de los activos en las sociedades industrializadas.
La multiplicidad de estas adopciones no ha impedido a la geografía económica constituir un dominio coherente en el cual el desarrollo ha sido singularmente fecundo en el curso de los últimos veinte años. Todo ello es debido a la simplicidad de los principios sobre los cuales descansa: sabe poner al día la lógica de las decisiones y explicar la manera con la que armonizan, consiguiendo así prever sus consecuencias.
Por una parte de los progresos de la geografía humana general es el resultado, durante el transcurso de los años 1950 a 1960, de la utilización de los métodos y de los conceptos de la geografía económica; éstos han permitido interpretar la distribución espacial de la producción y del consumo, pero también de los problemas de la ciudad y de la región, del crecimiento y del estancamiento. Desde hace algunos años la curiosidad se ha ido desplazando. La geografía económica ha dejado de ser confundida con la geografía humana de vanguardia. Tampoco constituye un terreno demasiado opulento: las condiciones del desarrollo, las escaseces que amenazan al mundo civilizado y que atacan ya duramente a los países subdesarrollados, y de las contaminaciones que están destruyendo algunos medios, están en el centro de sus preocupaciones. Es en el análisis de éstas cuestiones candentes y delicadas donde se descubre la eficacia de las formas de razonamiento que necesita ésta disciplina; en una obra de iniciación importa, pues, insistir con la prioridad más en la trama lógica de las interpretaciones que en los datos brutos.
La geografía económica intenta explicar la distribución de los hechos de producción, de reparto y de consumo. Para mejor captarlos utiliza las categorías propuestas por los economistas, precisando la manera cómo el espacio los modela o los modifica. La descripción que lleva a cabo revela la multiplicidad de los agentes y de los sujetos económicos, la diversidad de los cometidos que cumplen y el número de las relaciones que los unen. El orden del conjunto queda claro cuando son analizadas las funciones que toman los actores y la manera por la cual son conducidas a compaginarse, pues los proyectos individuales raramente son armónicos. Las fricciones que producen dispersión de actividades, la opacidad del medio y el obstáculo de la distancia, alejan unas condiciones ideales en las cuales se mueve la economía clásica.
La geografía económica muestra, pues, cuando evoca los mecanismos de ajuste de las decisiones para los mercados o para las rentas, la multiplicidad de las configuraciones que toma el sistema económico en función del reparto de las dotaciones naturales del espíritu de las instituciones y del nivel técnico de las civilizaciones. Insiste en la oposición que surge entre las sociedades donde lo económico está mal aislado de las otras esferas de la actividad, y aquellas en donde es verdaderamente autónomo. Indica como la dispersión perjudica la eficiencia del conjunto, tanto en una economía centralizada como en una economía descentralizada. Subraya también lo que afecta, en la geometría del espacio, a la forma con que las comunicaciones son estructuradas por los sistemas de relaciones societales.
Fuente: Paul Claval "Geografía Económica"
(Fragmento de la Introducción)
Como indica su nombre, el modelo oligárquico fue la propuesta política llevada a cabo por las minorías que ostentaban el poder económico y eran dueños de la tierra además de grandes comerciantes. El modelo en cuestión se lo puede ubicar en el tiempo desde 1880 a 1930, sin embargo como se explicará más adelante, se destaca un periodo de crisis en sus últimos años que llevaron a su declinación definitiva en el cual emerge al poder la clase media.
Los grandes terratenientes y comerciantes concentraban su dominio y poder en torno al puerto de Buenos Aires y en la región pampeana, por lo que el resto del país se encontraba inmerso en un claro retroceso y atraso, por ejemplo se puede evidenciar en el mayor analfabetismo del resto del país con respecto a la zona portuaria y pampeana.
En materia educativa, la educación fue en un principio (en particular a partir de fines de la década de 1860 con la presidencia de Sarmiento) el motor para educar al soberano ya que en esa época los índices de analfabetismo eran elevados y la sociedad se debatía entre el binomio “civilización y barbarie” y como Sarmiento afirmaba “un pueblo educado jamás votará por Rosas”. En segunda instancia la educación fue vehículo para “argentinizar” a la gran masa de inmigrantes llegados de diferentes países europeos que lejos de acoger la cultura argentina continuaban con sus costumbres nacionales. En éste sentido el primer (o uno de los primeros) antecedente legal en materia educativa fue la “Ley Lainez” (fines de la década de 1870) que establecía construir escuelas en todo el territorio nacional.
Ante ésta perspectiva era inminente y necesaria la sanción de una ley de educación que previo Congreso Pedagógico en 1882 fue sancionada en 1884 la Ley 1420 o Ley de Educación Común que regía y daba obligatoriedad a la educación primaria; esto significa que la Ley 1420 consideraba importante solo la instrucción básica apoyada en el conductismo y el positivismo por lo cual a partir de la pubertad el individuo había adquirido ya los conocimientos necesarios para poder ingresar al mundo laboral que estaba dado en el marco del trabajo en el campo de aquellos terratenientes gobernantes y que servían al modelo económico de agroexportación para luego importar manufacturas.
La necesidad del Estado de manejar la educación estaba dada también para contrarrestar el poder hegemónico que tenía la Iglesia Católica sobre distintos ámbitos entre ellos la educación que hasta entonces estaba en poder del clero por lo cual la Ley 1420 nace “pública, gratuita y laica”.
A su vez en 1885 la sanción de la primera ley de educación superior del país como fue la Ley 1597 conocida también como “Ley Avellaneda” en referencia al presidente su promotor otorgaba la normativa para la educación universitaria donde deja en claro el fuerte intervencionismo del Poder Ejecutivo Nacional en las dos únicas universidades nacionales de ese entonces como son las Universidades de Córdoba y de Buenos Aires. Por su parte la educación secundaria no era obligatoria y solo accedían a ella los hijos de quienes tenían el poder económico y político y tanto la educación secundaria como universitaria era más bien un “curso” para ser dirigentes en el futuro.
Ya a fines del siglo XIX y principios del XX ante la eventualidad que existiera movilidad social ascendente es que se trata de poner obstáculos a la educación secundaria y universitaria como ejemplo de ello es que se pretendía imponer un sistema de educación técnica, no porque hiciera falta mano de obra especializada sino que se pretendía que esa educación fuese a doble turno de manera que los pobres por tener que trabajar no pudieran acceder a ella como también cerrar casi todos los colegios nacionales e incluso poner un filtro preparatorio para la educación secundaria (Saavedra Lamas) para asegurar menos ingreso a la universidad por ende menor competencia por el poder dirigente político.
Pero a fines del siglo XIX la clase media comienza a movilizarse para tratar de lograr beneficios sociales y acceder al poder, para ello esa clase media cuenta con el apoyo de estudiantes hijos de pequeños comerciantes, de la clase obrera que a su vez se aglutinaba en torno a sindicatos socialistas e incluso anarquistas (éstos por lo tanto no coincidían con la clase media en querer llegar al poder por medios democráticos sino que pretendían controlar su propia propuesta educativa para no aburguesar a la sociedad y tomar el poder por la fuerza). Es a partir de 1893 cuando nace la Unión Cívica Radical conducida por jóvenes de la clase media (Alem, Yrigoyen) que exigirán al poder oligárquico la posibilidad de participar en elecciones lo cual lograrán en 1912 con la Ley 8871 o “Saenz Peña” y les posibilitaría acceder al poder con Yrigoyen en 1916 a través del voto obligatorio, universal y secreto (pero solo para varones en ese momento).
El mundo para esa época estaba en guerra, era la Primera Guerra Mundial, lo cual posibilitó en los años que duró la misma afianzar al país como agroexportador ya que los países centrales estaban en guerra y necesitaban comida, pero el fin de la guerra llevó a que las potencias que hasta el momento compraban materia prima hicieran un cerco proteccionista para favorecer a sus economías ya que no estaban en condiciones de comprar por lo que nuestro país perdió mercados. Ese proteccionismo a nivel mundial hizo que otro país agroexportador y productor además de industrializado como EEUU tuviera demasiada oferta y poca demanda por lo que en 1929 su sistema financiero colapse, y con él el mundo occidental.
Por lo tanto Argentina que antes vendía materia prima y compraba manufacturas se vio obligada a sustituir las importaciones y manufacturar en el país. Por tal motivo en educación fue necesario incorporar a un sujeto que supiera producir a nivel industrial.
Si bien el modelo oligárquico en cuanto a poder político había llegado a su fin en 1916, solo fue un tenue disfraz ya que los nuevos gobernantes traían reminiscencias de la oligarquía en cuanto a lo económico y eso trasladaron al poder también. Por lo tanto no se puede decir que en 1916 termina la oligarquía sino que comienza un proceso de transición donde la misma se debilita pero no desaparece.
En el plano educativo los cambios llegaron recién en 1918 con la Reforma Universitaria donde las mismas elegirían sus autoridades en un co-gobierno entre autoridades docentes y alumnos como también se redactarían estatutos y planes de estudios acordes a las necesidades de la clase media y ya no solo de la clase alta y los profesores serían elegidos por concurso. A pesar de la reforma originada por fuertes reclamos estudiantiles seguiría en vigencia la Ley Avellaneda hasta 1947 cuando se sanciona una nueva legislación en materia educativa superior.
La oligarquía intenta retomar el poder debilitado en 1916 y es que en 1930 toma el gobierno por la fuerza e instaura un nuevo régimen político que durante los próximos cincuenta años alternaría entre gobiernos democráticos con gobiernos de facto éstos de manos de las fuerzas armadas. Dicho golpe militar restaura la oligarquía ya con otras bases distintas a la etapa anterior para luego llamar a elecciones pero destacándose el fraude a pesar que se elegía en democracia a los dirigentes y en el marco social se impuso un sistema de rigidez basado en principios religiosos conservadores. Esta nueva oligarquía se mantiene en el poder hasta 1945 momento en el cual cambia el escenario político y social dando paso al Estado Benefactor o de Bienestar encabezado por el presidente Perón.
Por Juan Pablo García Ruiz
El mapa de la Argentina creció y de ahora en más, Tierra del Fuego quedará en la mitad del país. Es que una ley del Congreso dispuso que se utilice un nuevo mapa con la dimensión real de la Antártida . Así, ya no estará más el “cuadradito” en el costado derecho, y a cambio llegará su versión extra large .
La ley 26.651, estableció “la obligatoriedad de utilizar en todos los niveles y modalidades del sistema educativo” este nuevo mapa denominado bicontinental, porque contiene la Argentina del continente americano y la del antártico. Por eso desde ahora tendrá que ser también incluido en los nuevos libros escolares .
Según el texto de la ley, el mapa bicontinental, elaborado por el Instituto Geográfico Nacional, muestra “el Sector Antártico en su real proporción con relación al sector continental e insular”.
¿Por qué se decidió este cambio? Mariel Calchaquí, diputada del Frente para la Victoria de Tierra del Fuego y una de las impulsoras del proyecto, explica las razones: “Se defiende lo que se conoce, por eso es importante que se conozca nuestro territorio en toda su plenitud . Eso nos da una visión de pertenencia”. Para Calchaquí, el antiguo mapa daba “una visión distorsionada de la Argentina”.
La superficie de la Antártida representa casi la tercera parte del total de la Argentina continental . Mientras que el sector antártico se extiende a lo largo de 965.597 kilómetros cuadrados, el continente mide 2.791.810 kilómetros cuadrados. Pero además, el 70 por ciento de la Antártida representa una reserva natural de agua potable.
En verdad, este nuevo mapa es viejo ya que fue el que se utilizó hasta la década del 40. Con el paso de los años y en honor a la practicidad, la representación del sector antártico se fue achicando.
Pero el regreso de este mapa es obra, sobre todo, de Juan Carlos Luján, titular de la Fundación Marambio, y su amigo Horacio Lemos, ambos expedicionarios del Desierto Blanco. Fueron ellos quienes desde hace diez años vienen insistiendo para que se apruebe este proyecto. Primero consiguieron que se convirtiera en ordenanza en el partido de Vicente López, después en ley provincial en Mendoza y, finalmente, es desde el 16 de noviembre legislación nacional .
“Si uno toma este mapa y lo dobla por la mitad, Tierra del Fuego queda en el medio –explica Luján–. Así es como uno cobra dimensión de que existe una continuidad geológica y geográfica con la Antártida”.
La ley fue aprobada por mayoría tanto en Diputados como en el Senado. Y además de Calchaquí, otro de los que apoyó el proyecto fue el senador socialista Rubén Giustiniani El texto determinó también que el mapa tendrá que ser exhibido “en todos los organismos nacionales y provinciales”. Y que será el Ministerio de Educación de la Nación el encargado de proveer a las escuelas las nuevas láminas que tendrán que mostrarse tanto en los colegios públicos como los privados.
Además, la ley obliga a las editoriales incluir el mapa bicontinental “en las nuevas ediciones de los libros de texto y aquellos editados con anterioridad deberán incorporar el mapa bicontinental en caso de reimpresión o reedición”.
El mapa fue realizado sobre la base de los datos recogidos por el satélite Envisat, gracias a su espectógrafo MERIS, entre el 1 de enero y el 31 de diciembre de 2009, en un tiempo récord: sólo nueve meses, cuando antes se necesitaban varios años.
Se trata de una cartografía que ofrece una resolución de 300 metros. "La novedad de este mapa es que podemos finalmente tener información global relevante y concreta de la cubierta de tierra a la hora de tomar una decisión", ha señalado Chris Steenmans, responsable del programa.
"Es importante tener en cuenta el medio ambiente y compaginarlo en su contexto económico y social para que sea un desarrollo sostenible. Esto significa que no podemos continuar haciendo lo que hemos hecho en el pasado, que era divulgar sobre cambios de la utilización del suelo usando datos de tres y hasta cinco años, totalmente obsoletos", añadía Jean-Louis Weber, asesor especial medioambiental.
La Agencia Europea de Medio Ambiente tiene el encargo de la Comisión Europea de organizar esta información a nivel pan-europeo y su entorno mediterráneo. "La agencia también está implicada en contabilizar 'lo verde'; en la ONU, donde se coopera en la evaluación de los ecosistemas", señalaba Weber.
El mapa de GlobCorine podría ser un precursor en el mundo que se puede utilizar para organizar este tipo de información. "GlobCorine es mucho más que un proyecto que va a ir entregando mapas europeos de la cubierta de tierra. Es la demostración científica y técnica que una descripción del estado de la superficie de la tierra en una escala continental se puede proporcionar en el plazo de un solo año", concluye.
Fuente: ElMundo.es
La clic Fonoteca Nacional trabaja con desarrolladores e ingenieros de la empresa californiana para publicar a comienzos de 2011 "México suena así", una aplicación que permitirá escuchar sonidos típicos de diferentes territorios mexicanos sobre la base de Google Maps.
"Queremos que se vuelva un mapa interactivo, que cada persona pueda enviarnos una grabación de sus propios sonidos, por ejemplo a través del teléfono celular", le explicó a BBC Mundo el director de la Fonoteca, Álvaro Hegewisch.
"El objetivo es enriquecer el mapa para dotarle de sonidos de los lugares más remotos", dijo.
En las próximas semanas se abrirá la convocatoria para que los mexicanos envíen sus sonidos. Cuando el mapa esté listo en 2011 se podrá navegar a lo largo y ancho del país, como en cualquier otra aplicación de clic Google Maps.
La diferencia es que en éste no sólo se podrá escuchar el sonido característico, sino también conocer dónde se grabó el audio y cuáles son las coordenadas del lugar donde se captó.
"Las campanas de una iglesia, sonidos de oficios, testimonios, grabaciones de naturaleza que identifique el lugar… todo es válido. Nuestra intención es que el público tome conciencia del valor de los sonidos de un lugar y convencer de que podemos ubicarnos en el espacio gracias a ellos", aseguró Hegewisch.
La Fonoteca también trabaja en un registro de sonidos en peligro de extinción, desde las teclas de una máquina de escribir hasta el canto de un pregonero, pasando por las canciones en lenguas indígenas.
clic Escuche: Así sonaba el México revolucionario
Por ahora cuentan con un archivo de audios de especies de la naturaleza amenazadas, especialmente aves, y han contactado a coleccionistas privados para documentar sonidos de objetos en desuso, como los teléfonos tradicionales.
"Éste es uno de los países del mundo con más diversidad cultural", asegura Hegewisch. "Y es muy rico en sonidos, desde el canto de los pájaros en un parque en la Ciudad de México hasta los cantos del mariachi".
Ahora que la cocina tradicional es patrimonio cultural inmaterial de la UNESCO, recordó, "los mexicanos no deberían olvidarse de los aspectos sonoros de ese mundo". "Como el sonido de las quesadillas friéndose o las ollas utilizadas para preparar el mole".
Fuente: BBC.co.uk/mundo
Los ordenadores personales cada vez son más rápidos y potentes, por lo que ya es habitual tener en casa máquinas sofisticadas a las que, en muchos casos, no les sacamos todo el rendimiento que podríamos. Conscientes de que su capacidad suele ser muy superior al uso que le damos, un grupo internacional de científicos ha decidido aprovechar los ordenadores domésticos para llevar a cabo un original proyecto de investigación sobre el clima que bautizaron como 'climateprediction.net'
Aunque la iniciativa comenzó en 2003 en la Universidad de Oxford (Reino Unido) con cientos de voluntarios, el proyecto acaba de extenderse a Europa, el sur de Africa y el oeste de EEUU para conseguir datos regionales.
Los científicos han creado una red internacional de ordenadores para llevar a cabo predicciones sobre el clima de la Tierra hasta el año 2100. Otro de los objetivos es comprobar si los modelos existentes son correctos.
Para lograrlo, recurren a la colaboración de los ciudadanos, que ponen a disposición de los científicos sus ordenadores personales para desarrollar modelos climáticos.
Se trata de que cada persona haga funcionar una simulación de un modelo climático en su ordenador. El programa trabaja de manera automática. Lo único que tiene que hacer el usuario es dejar la computadora encendida.
Para participar, hay que descargar e instalar el programa BOINC y elegir la investigación en la que se desee participar del listado disponible. Mientras tanto, se pueden realizar con normalidad otras tareas. A medida que el programa avanza, se pueden ver los resultados en la pantalla. Según explican los responsables del proyecto, se tarda una semana en completar cada unidad de investigación, que simula un año.
Cuando termina, los datos son enviados automáticamente a los científicos por Internet. Los colaboradores pueden ver un resumen de los resultados en la página web y, si lo desean, pueden participar en más de un proyecto a la vez.
"Gracias a nuestra red de voluntarios, en menos de dos meses podemos llevar a cabo 40.000 simulaciones de modelos climáticos de un año de duración. Un superordenador que estuviera dedicado plenamente a esta tarea podría simular durante ese periodo los datos equivalentes a 200 años", afirma Philip Mote, director del Instituto de Investigación de Cambio Climático de la Universidad del Estado de Oregón (EEUU) y uno de los principales responsables de este proyecto, en el que también participan científicos de las universidades estadounidenses de Washington y Pennsylvania así como de Cape Town (Sudáfrica).
Los científicos que han ideado esta iniciativa subrayan que tanto el cambio climático como la respuesta que damos a este problema son asuntos de importancia global. Afectan a sectores tan dispares como la producción de alimentos, el suministro de agua, los ecosistemas, la demanda de energía o los costes de los seguros. Diversos estudios han alertado de que la temperatura de la Tierra aumentará durante este siglo y el objetivo de 'climateprediction.net' es mostrar cuáles son los posibles escenarios que se darán en la Tierra.
no de los mayores experimentos consistió en probar distintos modelos climáticos regionales para simular las condiciones desde 1960 a 2010. Se usaron datos reales de la temperatura de la superficie del mar y mediciones de la capa de hielo y de los gases de efecto invernadero en la atmósfera para comparar estos modelos con las observaciones registradas.
Los responsables de esta iniciativa esperan que con la ampliación de la red de voluntarios a otros lugares del mundo podrán simular modelos a nivel regional. En estos estudios regionales, los modelos serían a una escala mucho más precisa que los globales y tendrían en consideración otras variables como vientos, nubes o humedad.
"No se trata de simular las condiciones meteorológicas para predecir tormentas con más precisión. Se trata de analizar la complejidad del clima e intentar determinar qué podría cambiar y dónde, y hasta qué punto podemos confiar en que esto será así", afirma Mote. "Los ciudadanos se verán afectados por los cambios en el clima, y aquí tienen una oportunidad para describir lo que ocurrirá y poder tomar medidas de cara al futuro".
Fuente: ElMundo.es