Monte Io Japon

Un volcán en Japón entró en erupción por primera vez en 250 años

Por primera vez en 250 años un volcán en Japón entró en actividad eruptiva este jueves, despidiendo humo y cenizas a varios metros de altura. Las autoridades ya le han advertido a los pobladores no acercarse al área de la montaña.

Se trata del Monte Io o Ebino Kogen, que forma parte de la cadena de volcanes presidida por el Monte Kirishima, mismo en el que se encuentra el Shinmoedake, uno de los más peligrosos de la isla.

“Hay posibilidades de que el volcán tenga más actividad”, dijo Makoto Saito, de la Agencia Meteorológica de Japón (JMA, en inglés) al confirmar la erupción. Durante una rueda de prensa que se transmitió por televisión Saito pidió a los residentes de la zona mantenerse alejados de la montaña.

Es la primera vez que el volcán entra en erupción desde 1768, dijo la JMA, que advirtió que pueden caer piedras en un radio de tres kilómetros.

La erupción provocó columnas de humo y ceniza de 400 metros.

De momento no hay información sobre heridos, indicó el secretario jefe de gabinete Yoshihide Suga, y afirmó que el gobierno tomará “todas las medidas posibles” para evitar daños y víctimas.

En México se intensifica la actividad del Volcán de Colima

Por su parte, en México el Volcán de Colima registró un incremento en su actividad sísmica, pues en la última semana se contaron nueve derrumbes, una explosión de baja intensidad y actividad fumarólica al interior del cráter.

“Seguimos en niveles bajos, aunque sí hubo un ligero incremento en la sismicidad, hay eventos que nosotros le llamamos sismos de largo periodo que nos indican movimiento de gases y fluidos al interior del edificio volcánico”, explicó Raúl Arámbula Mendoza, director del Centro Universitario de Estudios e Investigaciones de Vulcanología.

La última gran explosión del Volcán de Colima, ocurrió el pasado 3 de febrero de 2017. A partir de esa fecha, entró en un periodo de baja actividad.

El pasado martes se presentó el nuevo Atlas de Peligros y Riesgos del Estado de Colima, un documento de más de mil 600 páginas y 15 capítulos que contiene un diagnóstico de la entidad y presenta 180 peligros de origen natural.

A partir de esta publicación, las autoridades se comprometen a actualizar la base de datos del Atlas de Riesgo, y mantener activos los protocolos de carácter preventivo y difundir entre la población, la cultura de protección civil.

AFP

Coral Bleaching Survey Orpheus Island 2017 - Greg Torda

En 2016 se perdió hasta el 30% de coral en la Gran Barrera de Coral

Tras una ola de calor marino extendida en 2016, gran parte de los corales al norte de la Gran Barrera de Coral experimentaron una muerte catastrófica según muestra un nuevo estudio publicado en la revista Nature.

“Cuando los corales se blanquean a partir de una ola de calor, pueden sobrevivir y recuperar su calor lentamente a medida que la temperatura baja, o pueden morir”, explicó Terry Hughes, profesor en el Centro de Excelencia ARC para los Estudios de Arrecifes de Coral (CoralCoE, en inglés).

Entre marzo y noviembre de 2016, se calcula que el 30 por ciento de los corales en toda la Gran Barrera de Coral ubicada en las costas australianas se perdió, apunta la investigación.

El equipo de científicos realizador de la investigación, mapeó el patrón geográfico de exposición al calor de satélites y midieron la supervivencia del coral a lo largo de los 2 mil 300 kilómetros de longitud de la Barrera, luego de la ola de calor marino extrema que tuvo lugar en 2016.

La muerte de los corales que midieron estuvo estrechamente relacionada con la cantidad de blanqueamiento y el nivel de exposición al calor, siendo el tercio norte de la Gran Barrera de Coral el más gravemente afectado.

El estudio encontró que el 29 por ciento de los 3 mil 863 arrecifes que componen el sistema de arrecifes más grande del mundo perdieron dos tercios o más de sus corales, lo que transformó la capacidad de estos arrecifes para mantener un funcionamiento ecológico completo.

“La extinción de los corales ha provocado cambios radicales en la mezcla de especies de coral en cientos de arrecifes individuales, donde las comunidades de arrecifes maduros y diversos se están transformando en sistemas más degradados, con solo unas pocas especies duras restantes”, explicó Andrew Baird profesor en la Universidad James Cook.

Los científicos dicen que estos hallazgos refuerzan la necesidad de evaluar el riesgo de un colapso a gran escala de los ecosistemas de los arrecifes, especialmente si la acción global sobre el cambio climático no limita el calentamiento de 1.5 a 2° C por encima de los niveles preindustriales.

“Como parte de un evento global de blanqueamiento de corales  que abarcó 2014-2017, la Gran Barrera de Coral sufrió un severo estrés por calor y decoloración nuevamente en 2017, esta vez afectando a la región central de la Gran Barrera de Coral”, afirma Mark Eakin de la Administración Nacional Oceánica y Atmosférica de los Estados Unidos.

“Pero eso aún deja mil millones de corales vivos y, en promedio, son más resistentes que los que murieron. Tenemos que concentrarnos urgentemente en proteger el vaso que todavía está medio lleno, ayudando a estos supervivientes a recuperarse”, recalcó Hughes.

El estudio es único porque prueba el marco emergente de la Lista Roja de Ecosistemas de la Unión Internacional para la Conservación de la Naturaleza (UICN), que busca clasificar los ecosistemas vulnerables como “seguros”, “amenazados” o “en peligro”.

“Hemos perdido cerca de la mitad de los corales en hábitats de aguas poco profundas en los dos tercios del norte de la Gran Barrera de Coral debido a un blanqueamiento posterior durante dos años consecutivos”, lamentó Sean Connolly de la Universidad James Cook.

Los investigadores advierten que si no se frena el cambio climático, provocando que la temperatura global suba mucho más de 2 ° C, se alterarán radicalmente los ecosistemas de los arrecifes tropicales y se perjudicarán los beneficios que proporcionan a cientos de millones de personas, principalmente en países pobres y en rápido desarrollo.

“La Gran Barrera de Coral está ciertamente amenazada por el cambio climático, pero no está condenada si tratamos rápidamente las emisiones de gases de efecto invernadero. Nuestro estudio muestra que los arrecifes de coral ya están cambiando radicalmente en respuesta a olas de calor sin precedentes”, recalcó Hughes.

CoralCoE.

SF8

Se cumplen 112 años del gran terremoto de San Francisco

El terremoto de 1906 en San Francisco apareció alrededor de las 5:12 a.m. de aquel miércoles 18 de abril con una magnitud de 7.9. En la mente de las personas, este terremoto es el más recordado en San Francisco por el incendio que provocó de forma posterior. El daño producido por sus sacudidas fue sumamente severo en muchos otros lugares a lo largo de la zona de ruptura de la falla.

El terremoto se extendió por un espacio de unos 45 a 60 segundos, y de acuerdo con testimonios de la época se sintió desde el sur de Oregon, hasta el sur de Los Ángeles y en distintas áreas de Nevada.

Se cree que 700 personas perdieron la vida aquella mañana, mientras que en otros lugares se reportaron 189 decesos. No obstante, la cifra es inconsistente pues se ha llegado a creer que son más de 3 mil las personas que murieron ese día.

Alrededor de 225 mil personas perdieron su hogar, y casi 28 mil edificios resultaron con daños.

De esta forma, el terremoto de 1906 se ubica como uno de los más importantes de todos los tiempos. Derivado del hecho, se obtuvieron muchos conocimientos acerca de los sismos de esta magnitud.

El terremoto se produjo en una longitud de 477 kilómetros que desconcertó a los sismólogos. A diferencia, el terremoto de Loma Prieta, ocurrido en la década de 1980 se produjo en un área de ruptura de apenas 40 kilómetros.

Fue casi cincuenta años después que el análisis sobre la tensión y desplazamientos en la falla ocasionados por el terremoto de 1906 llevaron a formular la primera teoría del rebote elástico como la fuente de un terremoto, que en la actualidad sigue siendo el principal modelo del ciclo sísmico.

Dos años después del terremoto y el fuego, la ciudad gastó aproximadamente $100 millones de dólares en su reconstrucción, alrededor de $ 2.7 mil millones en la valuación actual de la moneda.

Fue la falta de agua para luchar contra el fuego, no el terremoto en sí, lo que causó la mayor parte de la devastación.

Parte de la rápida reconstrucción de San Francisco se debió a que las compañías de seguros desembolsaron unos $180 millones de dólares. Los comerciantes y los líderes empresariales trabajaron incansablemente para devolver a San Francisco su aspecto cotidiano.

Propuestas convocadas para crear un sistema de agua a alta presión, un sistema eléctrico contra incendios, depósitos de agua en las colinas más altas (Twin Peaks tenía uno), potentes lanchas contra incendios y 100 cisternas de concreto con capacidad para 100,000 galones de agua, para contener incendios se han quedado como propuestas.

¿Podría ocurrir otra vez? ¿En San Francisco?

Según los modelos que tienen en cuenta la tasa de deslizamiento a largo plazo en la falla de San Andrés y la cantidad de compensación que se produjo en la falla en 1906, la mejor estimación es que los terremotos como este ocurren a intervalos de unos 200 años.

Debido al tiempo necesario para acumular un deslizamiento igual a 20 pies, hay solo una pequeña posibilidad (aproximadamente del 2 por ciento) de que tal terremoto pueda ocurrir en los próximos 30 años, según un informe del Grupo de Trabajo sobre Probabilidades de Terremoto en California.

La amenaza real para la región de la Bahía de San Francisco en los próximos 30 años no proviene de un terremoto de 1906, sino de terremotos más pequeños (magnitud 7) que ocurren en la falla de Hayward, o el segmento de la Península de la falla de San Andrés.

La falla de Hayward ha despertado el interés de los sismólogos, atraviesa Oakland y en distintos momentos, se ha podido constatar la forma en la que se desplaza año con año.

USGS / Berkeley

SkyAlert

cambio-climatico-acelera-crecimiento-bosques

El cambio climático podría acelerar el crecimiento de bosques

El crecimiento natural de bosques en tierras no desarrolladas o abandonadas en el este de Estados Unidos podría acelerarse mediante la fuerza del cambio climático y los climas más cálidos que genera.

De acuerdo con un nuevo estudio, si se deja a los propips recursos de la naturaleza un campo de malesas y pastos, con el tiempo estos serían reemplazados por retoños, árboles jóvenes y finalmente, un bosque maduro.

Según investigaciones anteriores, esta sucesión de campo a bosque puede ocurrir en el paso de décadas al sureste de Estados Unidos, a diferencia del noreste, pero los científicos no encontraban la obviedad en el asunto porque, como señalan, tanto campos del norte como del sur fueron colonizados por primera vez por las mismas especies de árboles.

Ahora, el estudio publicado en la revista Proceedings de la Academia Nacional de Ciencias (PNAS, por sus siglas en inglés) en Estados Unidos, apunta a la temperatura como el factor principal que influye en el ritmo al cual los árboles podrían tomar el control de distintas tierras.

Los resultados sugieren que a medida que suban las temperaturas, los bosques de crecimiento más rápido en tierras que los humanos han dejado inactivas podrían desempeñar un papel más importante en la eliminación del dióxido de carbono de la atmósfera, según investigadores de la Universidad de Duke y la Universidad de Syracuse.

El equipo realizó el experimento en seis sitios de la parte este de los Estados Unidos desde Nueva York hasta Florida.

En cada sitio, los investigadores siguieron las primeras etapas de vida de cuatro especies arbóreas que son las primeras en llegar a los campos de cultivo abandonados: pino de abetos, cerezo negro, cedro rojo y liquidámbar.

Utilizando piscinas de plástico como macetas, cultivaron los árboles a partir de semillas en parcelas con diferentes niveles de fertilidad del suelo, y con y sin mezclas diferentes de plantas de sucesión temprana, como distintos tipos de pastos.

En cada parcela, los investigadores también midieron la disponibilidad de luz, la humedad del suelo, los nutrientes y otras variables que se sabe afectan el crecimiento de las plantas.

Después de dos años, las plántulas de árboles crecieron más rápido en los sitios del sur. Pero sorprendentemente, otras especies de plantas crecieron más lentamente.

Una posibilidad es que la fertilidad del suelo sea el principal factor, dijo el coautor del estudio Jason Fridley, profesor de biología en la Universidad de Syracuse. El pensamiento era que los suelos del sur más, pobres producen una alfombra más escasa de malezas y hierbas. Esto a su vez podría sombrear las plántulas de árboles emergentes en menor medida que en el norte, y facilitarles el crecimiento a través de las tierra.

Pero los análisis estadísticos que sopesaron los efectos relativos de la fertilidad del suelo y otros factores revelaron que la temperatura era el principal impulsor del crecimiento de las plántulas de árboles.

Parte de la razón es que inviernos más suaves y primaveras más tempranas significan una temporada de crecimiento más larga, dijo Justin Wright, profesor de biología en Duke.

Los resultados son importantes porque se predice que las temperaturas medias anuales en Estados Unidos se elevarán hacia fines de siglo.

El aumento de las temperaturas también podría traer más sequías, advierte Wright. Pero en ausencia de estrés por sequía, incluso un calentamiento menor probablemente acelerará la transición de campo a bosque.

Esto también significa que los prados del noreste que normalmente persisten durante décadas pueden tener una vida más corta, dijo Fridley. Los bosques que los reemplazan probablemente no reflejarán los bosques nativos, agregó, especialmente si los árboles intolerantes al frío que son colonizadores comunes de los campos del sur encuentran cada vez más fácil sobrevivir y afianzarse en el norte.

“Ciertamente, en los próximos 100 años y tal vez en los próximos 50 años, los campos probablemente pasarán mucho más rápido a la vegetación leñosa. El doble golpe es que los árboles también van a cambiar”, señaló Fridley.

Pero los árboles jóvenes que crecen rápidamente pueden absorber más dióxido de carbono que las malas hierbas, ya que convierten el gas que atrapan el calor en el azúcar que necesitan para crecer.

Eso significa que la tierra no desarrollada o abandonada, si no se interrumpe, pronto podría desempeñar un papel más importante en la eliminación de las emisiones humanas de dióxido de carbono, apunta la investigación.

“Los bosques de crecimiento más rápido en tierras que alguna vez fueron cultivadas no resolverán el problema del cambio climático. Pero una de las razones por las que nos preocupamos por estos sitios abandonados es que tienen un potencial muy alto para la captura de carbono”, concluyó Wright.

Duke University.

Cadena-montanosa-de-taiwan

La cadena montañosa de Taiwán que exhala dióxido de carbono

Los científicos sabían desde hace tiempo que las cordilleras escarpadas pueden retirar dióxido de carbono de la atmósfera, pues la erosión expone rocas nuevas y ese es el comienzo de una reacción química entre minerales en las laderas y el CO2 presente en el aire, produciendo minerales como la calcita.

Pero, mientras que el proceso de erosión en las montañas promueve la aparición de rocas recién expuestas que absorben dióxido de carbono (CO2), esa misma erosión podría ser una fuente CO2 que se libera a la atmósfera mucho más rápido de lo que la roca lo absorbe.

Así lo afirma una nueva investigación realizada por el Instituto Woods Hole de Oceanografía (WHOI, por sus siglas en inglés).

“Esto va en contra de la hipótesis de hace mucho tiempo de que más montañas significan más erosión y desgaste, lo que significa una reducción adicional de CO2. Resulta que es mucho más complicado que eso”, dice Jordon Hemingway, principal autor del estudio.

La fuente de este CO2 adicional no es completamente geológica, detalla el estudio. En cambio, es el subproducto de pequeños microbios en los suelos de las montañas que “comen” fuentes antiguas de carbono orgánico que quedan atrapadas en la roca. A medida que los microbios metabolizan estos minerales, arrojan dióxido de carbono.

Los investigadores llegaron a esta conclusión después de estudiar una de las cadenas montañosas más propensas a la erosión en el mundo ubicadas en la cadena montañosa de Taiwán también conocida como la cadena Zhongyang.

Este rango de lados empinados es golpeado por más de tres tifones principales cada año, cada uno de los cuales erosiona mecánicamente el suelo y las rocas a través de fuertes lluvias y vientos.

Hemingway y sus colegas examinaron muestras del suelo, la roca y los sedimentos fluviales del área central, en busca de indicios reveladores de carbono orgánico en la roca. Y lo que encontraron allí los sorprendió.

“En la parte inferior del suelo se tiene basicamente roca sin tocar. Tan pronto como se golpea la base del suelo, se puede ver roca que no se ha roto del todo, y a este punto el carbono orgánico presente parece desaparecer del todo”, explica Hemingway.

Fue en ese punto que el equipo de investigadores halló un incremento de lípidos en la roca, que se sabe, provienen de las bacterias.

“Todavía no sabemos exactamente qué bacteria está haciendo esto, eso requeriría genómica, metagenómica y otras herramientas microbiológicas que no usamos en este estudio. Pero ese es el siguiente paso para esta investigación”, dijo el geoquímico marino Valier Galy, coautor del estudio.

El grupo se dio cuenta rápidamente de que el nivel total de CO2 liberado por estos microbios no es lo suficientemente grave como para tener un impacto inmediato sobre el cambio climático; en cambio, estos procesos tienen lugar en escalas de tiempo geológicas.

La investigación del equipo de WHOI puede conducir a una mejor comprensión de cómo funcionan realmente los ciclos de carbono presentes ​​en montañas, lo que podría ayudar a generar pistas sobre cómo se ha regulado el CO2 desde que se formó la Tierra.

“Mirando hacia atrás, estamos más interesados ​​en cómo estos procesos lograron mantener los niveles de CO2 en la atmósfera más o menos estables durante millones de años. Le permitió a la Tierra tener el clima y las condiciones que ha tenido, uno que ha promovido el desarrollo de formas de vida complejas”, dice Hemingway.

“A lo largo de la historia de nuestra Tierra, el CO2 se tambaleó con el tiempo, pero se ha mantenido en esa zona estable. Esto es solo una actualización del mecanismo de los procesos geológicos que permite que eso suceda”, concluyó.

WHOI.

Artists’s impression of one of more than 50 new exoplanets fou

¿Qué son los exoplanetas y por qué la NASA lanzará una misión para estudiarlos?

Más allá del sistema solar, mundos orbitan alrededor de estrellas distintas a nuestro Sol. Se llaman exoplanetas o planetas extrasolares y serán el objeto de estudio del nuevo satélite que la NASA lanzará al espacio este miércoles después del aplazamiento de su salida de la Tierra.

De acuerdo con la Administración Nacional de Aeronáutica y del Espacio (NASA, por sus siglas en inglés) los exoplanetas existen en una gran variedad de tamaños, desde gaseosos más grandes que Júpiter o pequeños planetas rocosos casi tan grandes como la Tierra o Marte.

Pueden estar lo suficientemente calientes como para hacer hervir el metal, o estar encerrados en estado de congelación. Sus “años” pueden durar tan poco como unos cuantos días, o pueden orbitar dos soles a la vez como en la Guerra de las Galaxias. Pero además, existen algunos que vagan por galaxias en la oscuridad permanente al no estar acompañados de un sol.

¿Cuál sería el número de planetas existentes tan solo en nuestra Vía Láctea? Se calcula que en este sistema, existen alrededor de 400 mil millones de estrellas, el Sol entre ellas. Si casa una de estos estrellas no tiene un solo planeta, o como el nuestro, un sistema completo de ellas, entonces el número de planetas en la galaxia podría ser asombroso. Una cosa de trillones.

El primer exoplaneta descubierto en el escenario fue 51 Pegasi b, un “Júpiter caliente” a 50 años luz de la Tierra que está encerrado en una órbita de cuatro días terrestres alrededor de su estrella. El planeta fue descubierto en 1995 y pronto se convirtió en un tema: el de los planetas extrasolares, como también se les conoce.

Más recientemente se descubrió a Proxima Centauri, una estrella vecina cercana que posee al menos un planeta, probablemente rocoso. Se encuentra, según los astrónomos, a 40 billones de kilómetros de nuestra tierra. La mayor parte de los exoplanetas hallados hasta ahora, están a cientos o miles de años luz de distancia.

En la actualidad, vivimos en un universo repleto de exoplanetas. El recuento de planetas confirmados es de 3 mil 700 y está en un aumento constante.

Pero esto es solo una pequeña muestra de las galaxias como un todo, la cuenta podría elevarse a decenas de miles dentro de una década a medida que se eleve la capacidad de observación de telescopios robóticos elevados en el espacio.

Dichos telescopios pueden realizar una inspección cercana de los exoplanetas, sus atmósferas y su potencial para albergar alguna forma de vida.

El descubrimiento de dichos cuerpos se basa en dos métodos principales que dependen del “bamboleo” y las sombras producidas por el planeta en cuestión.
Este método de “oscilación”, llamado de velocidad radial, observa el temblor revelador de las estrellas cuando son empujadas hacia adelante y hacia atrás por tirones gravitacionales de un planeta en órbita. El tamaño de dicha oscilación revela la masa del planeta.

Pero la gran mayoría de los exoplanetas se han encontrado mediante la búsqueda de sombras: la inclinación increíblemente pequeña en la luz de una estrella cuando un planeta cruza su cara. Los astrónomos llaman a este cruce un “tránsito”.

El tamaño de la caída en la luz estelar revela cuán grande es el planeta en tránsito. Esta búsqueda de sombras planetarias se conoce como el método de tránsito.

En mayo de 2009, el telescopio espacial Kepler de la NASA, encontró casi 2 mil 700 exoplanetas confirmados por este método. En su nueva misión “K2”, el telescopio sigue descubriendo nuevos cuerpos a pesar de que su combustible podría agotarse muy pronto.

Cada método tiene sus ventajas y desventajas. Las detecciones de temblor proporcionan la masa del planeta, pero no brindan información sobre la circunferencia o el diámetro del planeta. Las detecciones de tránsito revelan el diámetro pero no la masa.

Al usar múltiples métodos en conjunto, los astrónoms han podido obtener las estadísticas vitales de sistemas planetarios enteros, sin siquiera obtener imágenes directamente de los planetas.

El mejor ejemplo hasta ahora es el sistema TRAPPIST-1 a unos 40 años luz de distancia, donde siete planetas del tamaño de la Tierra orbitan alrededor de una pequeña estrella roja.

Los planetas TRAPPIST-1 han sido examinados con telescopios terrestres y espaciales. Los estudios basados ​​en el espacio revelaron no solo sus diámetros, sino la sutil influencia gravitatoria que estos siete planetas estrechamente compactados tienen entre sí; a partir de esto, los científicos determinaron la masa de cada planeta.

Aún se desconoce mucho sobre estos siete mundos, incluso si poseen atmósferas u océanos, capas de hielo o glaciares, pero TRAPPIST-1 se ha convertido en el sistema solar más conocido aparte del nuestro.

Con el lanzamiento de TESS, el satélite Transiting Exoplanet Survey Satellite, la NASA podrá realizar un estudio de casi todo el cielo de las estrellas más cercanas y brillantes para buscar planetas en tránsito. Kepler, el antiguo maestro de los tránsitos, pasará la antorcha del descubrimiento a TESS.

TESS, a su vez, revelará los mejores candidatos para una mirada más cercana con el Telescopio Espacial James Webb, actualmente programado para lanzarse en 2020. El telescopio Webb, que despliega un espejo gigante, segmentado y que recoge la luz que se desplazará sobre una plataforma, está diseñado para capturar la luz directamente de los propios planetas.

La luz se puede dividir en un espectro multicolor, un tipo de código de barras que muestra qué gases están presentes en la atmósfera del planeta.

Estas son algunas de las misiones que la NASA ha puesto o pondrá en marcha para estudiar a los exoplanetas (NASA).
Los objetivos de Webb pueden incluir “súper Tierras”, o planetas más grandes que la Tierra, pero más pequeños que Neptuno, algunos de los cuales podrían ser planetas rocosos gigantes, pero parecidos al nuestro.

A pesar de lo poco que se sabe de estos planetas, con suerte alguno de ellos mostraría signos de gases como el oxígeno, dióxido de carbono o metano presentes en su atmósfera. Esa mezcla, sería un fuerte recordatorio de nuestra atmósfera, y sería un indicador de presencia de vida.

Pero la búsqueda de atmósferas similares a la Tierra en exoplanetas del tamaño de la Tierra probablemente tendrá que esperar a una generación futura de sondas espaciales aún más potentes en la década de 2020 o 2030, explica la NASA.

NASA.

Corriente-del-oceano-atlantico

La corriente del Golfo en su punto más débil en los últimos mil 500 años

Desde mediados del siglo XIX y aproximadamente desde hace mil 600 años, el sistema global de circulación oceánica no ha estado en su punto máximo, en específico en la corriente del Golfo que circula por el Océano Atlántico.

De seguir debilitándose, la corriente podría alterar los procesos climáticos de Estados Unidos, Europa, y el Sahel africano, además, podría provocar un aumento más rápido del nivel del mar en la costa este de Estados Unidos.

Así lo revela una investigación realizada por el University College de Londres y el Instituto Woods Hole de Oceanografía (WHOI, por sus siglas en inglés). La investigación explica que cuando se trata de regular el clima global, la circulación del Océano Atlántico juega un papel clave.

De esa forma, el sistema en constante movimiento de la circulación en aguas profundas que provee la Corriente del Golfo, como se le conoce, envía agua cálida y salada hasta el Atlántico Norte donde libera calor a la atmósfera y calienta Europa Occidental. Por su parte, el agua más fría se hunde a grandes profundidades y viaja hasta la Antártida y finalmente regresa a la corriente misma.

“Nuestro estudio proporciona el primer análisis exhaustivo de los registros de sedimentos oceánicos, demostrando que este debilitamiento del vuelco del Atlántico comenzó cerca del final de la Pequeña Edad de Hielo, un período frío de siglos que duró hasta alrededor de 1850”, explicó Delia Oppo, científica en WHOI y principal autora del estudio publicado en Nature.

David Thornalley, profesor en University College London, cree que cuando el Atlántico Norte comenzó a calentarse cerca del final de la Pequeña Edad de Hielo, el agua dulce interrumpió el sistema, llamado Circulación Meridional de Derivación Atlántica (AMOC, en inglés) .

El hielo marino del Ártico y las capas de hielo y los glaciares que lo rodean comenzaron a derretirse, formando un enorme grifo natural de agua dulce que brotaba en el Atlántico Norte. Esta gran afluencia de agua dulce diluyó la superficie del agua de mar, haciéndola más liviana y menos capaz de hundirse profundamente, ralentizando el sistema AMOC.

Para investigar la circulación del Atlántico en el pasado, los científicos primero examinaron el tamaño de los granos de sedimentos depositados por las corrientes de aguas profundas; cuanto más grandes son los granos, más fuerte es la corriente.

Luego, usaron una variedad de métodos para reconstruir las temperaturas oceánicas cercanas a la superficie en regiones donde la temperatura está influenciada por la fuerza AMOC.

De acuerdo con Jon Robson, coautor del estudio, los nuevos hallazgos insinúan una brecha en los modelos climáticos globales actuales. “La circulación en el Atlántico Norte es mucho más variable de lo que se pensaba y es importante descubrir por qué los modelos subestiman las disminuciones de AMOC que hemos observado”, señaló.

Podría ser porque los modelos no tienen capas de hielo activas, o tal vez hubo más derretimiento del Ártico y, por lo tanto, más agua dulce que ingresa al sistema, de lo que se estima actualmente.

Otro estudio en el mismo número de Nature, dirigido por Levke Caesar y Stefan Rahmstorf del Instituto de Investigación de Impacto Climático de Potsdam, analizó los datos del modelo climático y las temperaturas pasadas de la superficie del mar para revelar que AMOC se ha debilitado más rápidamente desde 1950 en respuesta a calentamiento global reciente.

Juntos, los dos nuevos estudios proporcionan evidencia complementaria de que el actual AMOC es excepcionalmente débil, ofreciendo tanto una perspectiva a más largo plazo como una visión detallada de los cambios decenales recientes.

“Lo que es común a los dos períodos de debilitamiento de AMOC, el final de la Pequeña Edad de Hielo y las últimas décadas, es que ambos se calentaron y se derritieron. Se predice que el calentamiento y el derretimiento continuarán en el futuro debido a las continuas emisiones de dióxido de carbono”, explicó Thornalley.

Oppo está de acuerdo, ambos señalando, sin embargo, que al igual que los cambios pasados ​​en el AMOC les han sorprendido, puede haber sorpresas futuras inesperadas. Por ejemplo, hasta hace poco se pensaba que el AMOC era más débil durante la Pequeña Edad de Hielo, pero estos nuevos resultados muestran lo contrario, lo que destaca la necesidad de mejorar nuestra comprensión de este importante sistema.

University College London.

nevados-de-chillan-chile

Nevados de Chillán, el volcán que pone en la mira a Chile

En alerta naranja desde el pasado 6 de abril, la última etapa antes de la erupción, Nevados de Chillán en Chile es un complejo volcánico cuya actividad hace temer a la población que aún recuerda cuando el Calbuco hizo erupción en 2015.

A cada instante una red vigila los 45 volcanes más activos de Chile, un país caracterizado por su actividad sísmica y volcánica. En el caso de Nevados de Chillán, las autoridades están preocupadas porque dicen que se trata de una olla de presión a punto de estallar.

“Nuestro temor, y lo que la evidencia instrumental muestra, es que hay aumento de presión interna. Tenemos un escenario en que ya no es tan impensado de que el domo (acumulación de lava viscosa en el cráter) se destruya, provoque despresurizaciones repentinas y destape la olla”, explicó Álvaro Amigo, jefe de la Red Nacional de Vigilancia Volcánica del Servicio de Geología y Minería (Sernageomin), del país.

El “peor escenario esperable” es una erupción parecida a la del volcán Calbuco, que levantó una nube de cenizas de casi 15 kilómetros, provocando la evacuación masiva de pueblos cercanos y obstaculizando el tráfico aéreo de la región.

La erupción del Calbuco, en las cercanías de la turística localidad de Puerto Varas, transformó en ríos de cenizas territorios ubicados alrededor de uno de los lagos más imponentes de la Patagonia, provocando la muerte de animales y cultivos y dando un duro golpe a la industria turística.

El volcán Chillán tiene una composición química que favorece las erupciones explosivas, según explica Ángelo Castruccio, académico del Departamento de Geología de la Universidad de Chile.

“En el registro geológico de este volcán hay evidencias de erupciones muy explosivas que han generado la caída de material piroclástico y generación de flujos de lava a una gran extensión. Ambas cosas podrían generar bastantes problemas”, en una zona con termas y pistas de esquí altamente concurridas en invierno, agregó.

Chile es considerado un país de volcanes. Sus fronteras están dentro del llamado Cinturón de Fuego del Pacífico, una de las regiones dinámicamente más inestables y activas de la Tierra. En total, existen en el país unos 90 volcanes potencialmente activos o que han tenido actividad en los últimos 10 mil años.

Cuarenta y cinco de ellos son monitoreados por la Red Nacional de Vigilancia Volcánica del Sernageomin, que hoy concentra sus esfuerzos en el volcán Chillán, cuya actividad es seguida en tiempo real las 24 horas de los 365 días del año.

La red nació en 2009, un año después de que la erupción del volcán Chaitén destruyera casi por completo el pueblo homónimo aledaño, obligando a la evacuación de sus más de 4.000 habitantes.

El peor registro del país data del 10 de abril de 1932, cuando el volcán Quizapu, ubicado en las cercanías de la ciudad de Talca, inició una de las más violentas erupciones que se han registrado en el siglo. Su columna de gases alcanzó una altura de casi 30 kilómetros.

La ceniza y otros elementos producto de una erupción que caen en forma de lluvia cubrió más de dos millones de kilómetros cuadrados, desde la cuidad de Quilpué, en el centro de Chile, hasta el sur de Brasil.

Actualmente, el volcán más peligroso de Chile es el Villarica, ubicado también en el sur del país. Pero la actualidad del Chillán, con una altura de 3 mil 216 metros y su última erupción mayor fichada de 1973, se gana las miradas.

La Red de Vigilancia garantiza a los chilenos puedan ver en tiempo real, cuando las condiciones climáticas lo permiten, varios de estos volcanes elegidos por su peligrosidad, su vulnerabilidad de población e infraestructura.

“La vigilancia instrumental es multiparamétrica, porque los volcanes son sistemas complejos, hay que interpretar señales. La técnica en la que se basan nuestros informes es la sismología, porque los sismos nos entregan información importante de lo que está ocurriendo”, explica Amigo.

La deformación del macizo y la composición química de los gases son también señales importantes.

Surcando las áridas montañas del norte o atravesando la espesa vegetación sureña para llegar a lugares donde los helicópteros no acceden, los especialistas logran colocar los sensores sobre el volcán. La vigilancia se garantiza con un centro de recepción y procesamiento en tiempo real de la información en Temuco al sur y otro en Santiago.

Para el hecho de que cada volcán tenga características propias complica los pronósticos, según Castruccio. “Cada volcán es distinto, tiene su propia personalidad, entonces se necesita saber la actividad de sismos base para saber cuándo ese volcán está más perturbado y podría hacer erupción”, afirma este experto.

AFP.

olas-de-calor-marinas

Olas de calor marinas más largas y frecuentes: estudio

Durante el último siglo las olas de calor marinas han sido más largas y frecuentes, lo que representa importantes efectos ecológicos y económicos, de acuerdo con un estudio que publica la revista Nature Communicatios.

El estudio, realizado por investigadores de la Universidad de Dalhousie en Canadá, determinó que la cantidad de días en los que se registran olas de calor marinas a nivel global a incrementado en un 34% entre 1925 y 2016, y que dicha tendencia se aceleró de forma particular a partir de 1982.

El fenómeno de características extremas es resultado del cambio climático y produce largos períodos de tiempo con temperaturas excepcionalmente altas en la superficie de océanos lo que tiene un impacto significativo en ecosistemas marinos.

Las olas de calor marinas se han hecho más largas y frecuentes durante el último siglo, lo que puede comportar importantes efectos ecológicos y económicos, según un estudio que publica la revista Nature Communications.

Investigadores de la Universidad de Dalhousie (Canadá) han determinado que la cantidad de días anuales en los que se registran olas de calor marinas a nivel global se ha incrementado un 54% entre 1925 y 2016, una tendencia que se aceleró especialmente a partir de 1982.

Ese fenómeno climático extremo, en el que se producen largos periodos con temperaturas anormalmente altas en la superficie de los océanos, pueden tener efectos negativos en los ecosistemas marinos, alertan los científicos.

El autor principal del estudio, Eric Oliver explicó que “mientras que algunos de nosotros podemos disfrutar de las aguas más cálidas cuando vamos a nadar, estas olas de calor tienen un impacto significativo en los ecosistemas, la biodiversidad, la pesca, el turismo y la acuicultura. A menudo hay profundas consecuencias económicas que van de la mano con estos eventos”.

De acuerdo con el estudio, existen ejemplos recientes que muestran cuán importantes pueden ser los eventos de ondas de calor marinas. En 2011, en el oeste de Australia se produjo un fenómeno de estas características que desplazó a ecosistemas completos para ser dominados por algas marinas.

El cambio en las aguas australianas se mantuvo incluso después de que la temperatura del agua volviera a la normalidad, detalla la investigación.

Por otra parte, en 2012, una ola de calor marina en el Golfo de Maine en Norteamérica provocó un aumento de las langostas, pero esto trajo un desplome de los precios que perjudicó seriamente las ganancias de la industria.

El agua cálida persistente en el Pacífico norte entre 2014 y 2016 dio lugar a cierres de pesquerías, varamientos masivos de mamíferos marinos y floraciones de algas nocivas a lo largo de las costas. Esa ola de calor incluso cambió los patrones climáticos a gran escala en el noroeste del Pacífico, apunta el estudio.

Más recientemente, destacan, la intensa ola de calor marina de Tasmania en 2016 provocó brotes de enfermedades y disminuyó las tasas de crecimiento en las industrias acuícolas.

Para revelar esta tendencia en el aumento de las olas de calor marinas, los científicos combinaron datos satélites con datos tomados de barcos y varias estaciones de medición terrestre.

Posteriormente, eliminaron las influencias de la variabilidad natural causadas por la Oscilación del Sur de El Niño, la Oscilación Decadal del Pacífico y la Oscilación Multidecadal del Atlántico para encontrar la tendencia subyacente.

“Hubo una relación clara entre el aumento de las temperaturas promedio de la superficie del mar y el aumento de las olas de calor marinas, casi lo mismo que vemos los aumentos en los eventos de calor extremo relacionados con el aumento de las temperaturas promedio mundiales”, dijo el coautor del estudio Neil Holbrook de la Universidad de Tasmania.

“Con más del 90% del calor del calentamiento global causado por los humanos que entra en nuestros océanos, es probable que las olas de calor marinas continúen aumentando. La siguiente etapa clave para nuestra investigación es cuantificar exactamente cuánto pueden cambiar.

“Es probable que los resultados de estas proyecciones tengan implicaciones significativas sobre cómo nuestro medio ambiente y nuestras economías se adaptan a este mundo cambiante”, concluyó por su parte Oliver.

Phys.

tambora

203 años de la cataclísmica erupción del volcán Tambora

Esta semana se conmemora el 201 aniversario de la erupción más grande de la que ha sido testigo el ser humano. La fase más intensa ocurrió durante los días 10 y 11 de abril de 1815.

Situado en la Isla Sumbawa, Indonesia, originalmente el volcán Tambora tenía una altitud de 4,300 m s.n.m. pero las descomunales explosiones, que fueron escuchadas hasta 3,000 km de distancia del volcán, terminaron reduciendo su altura a sólo 2,851 m s.n.m, dejando una gran caldera. La erupción expulsó más de 160 km³ de material volcánico, tuvo un Índice de Explosividad Volcánica de 7, donde la caldera de Yellowstone en EE.UU., y Toba en Indonesia, poseen las cataclísmicas erupciones de escala 8.

Las consecuencias a escala local, fueron de total devastación, dejando más de 12,000 personas fallecidas directamente en las ciudades más cercanas; a escala global, las partículas suspendidas de ceniza y compuestos de azufre en la atmósfera, enfriaron el planeta provocando un invierno volcánico en 1816, año que fue conocido como el “año sin verano”. Finalmente, la pérdida de cultivos y ganado dejaron 50,000 personas muertas por estos efectos indirectos.

SkyAlert