En hashtag: Astronomia

Un científico grabó casi 40 ovnis mientras observaba el único satélite natural de la Tierra con su telescopio en una práctica de rutina.

El profesional se encontraba observando la superficie de la Luna, y descubrió casi de casualidad la presencia de 38 objetos no identificados que se movían por la superficie.

Según el hombre, quien dijo se aficionado, estaba con su telescopio “observando el cielo y las estrellas” y cuando puso su mirada sobre el satélite natural y descubrió lo inesperado.

¡Mirá el vídeo!

Este caso fue revisado por otros investigadores y sus opiniones varían según cuáles sean los objetos, “sin embargo, todos, incluyéndome a mí, estamos de acuerdo en que no hay evidencia en el video crudo de que haya sido alterado, manipulado o es un fraude CGI”.

Publicado en Ciencia
Archivado en

Con OSIRIS, un instrumento del Gran Telescopio Canarias, se detectaron 11 mil galaxias; muchas de ellas no emiten suficiente luz para ser descubiertas con otros instrumentos, señalaron investigadores del Instituto de Astronomía.

Con la participación de investigadores del Instituto de Astronomía (IA) de la UNAM, el proyecto OTELO del Gran Telescopio Canarias (GTC), España, obtuvo el censo de objetos con líneas de emisión más completo hasta la fecha.

Se trata de la detección de 11 mil objetos, muchos de ellos “galaxias fantasma”, es decir, que sus estrellas no emiten suficiente luz para ser descubiertas con otros instrumentos, por lo que habían permanecido ocultas. Esto permite entender mejor la formación y evolución de esos conjuntos de estrellas.

Esto fue posible gracias a OSIRIS (Optical System for Imaging and low-Intermediate-Resolution Integrated Spectroscopy), en el GTC, instrumento en cuya concepción, diseño y construcción tuvo una contribución relevante el Instituto de Astronomía.

Jesús González, director del IA e integrante original del equipo OSIRIS y del proyecto OTELO (OSIRIS Tunable Emission Line Object Survey), explicó que los resultados son únicos porque se obtuvieron con el telescopio más grande y potente en su tipo, óptico-infrarrojo, que consta de un espejo primario de 10.4 metros de diámetro, instalado en la isla española de La Palma.

Además, porque se utilizó un instrumento (OSIRIS) diseñado y optimizado para la detección de líneas de emisión de gas ionizado, una característica común de las galaxias con una gran tasa de formación estelar.

Y por último, porque el equipo de OSIRIS aportó el tiempo de observación suficiente para lograr un catastro único y, hasta ahora, el más completo. “Sumar esas condiciones no es fácil, por eso los resultados representan el alcance máximo que se puede conseguir en un gran telescopio”, remarcó.

“Cuando nos vamos atrás en el tiempo, podemos ver que prácticamente todas las galaxias tienen esas líneas: son jóvenes y están formando estrellas en ese momento”. De eso se trata el catálogo, dijo González.

José Antonio de Diego, investigador del IA, señaló que es difícil saber cuántas de las galaxias detectadas no se habían visto antes. “Estamos haciendo una correlación cruzada con otros catálogos; pero probablemente no se habían detectado entre cuatro mil y seis mil”.

González explicó que OSIRIS puede ver lo que otros instrumentos no, porque fue diseñado específicamente para utilizar una tecnología llamada filtros sintonizables, que pueden ser de distinto ancho y se pueden ajustar en distintas longitudes de onda. Esto brinda la oportunidad única de detectar objetos en emisión (de gas ionizado) sin ningún sesgo, en un volumen bien definido del Universo.

Para ello, científicos de diversos países, encabezados por el IA de la UNAM y el Instituto de Astrofísica de Canarias (IAC), escudriñaron una “ventana” de observación equivalente a una treceava parte de la Luna llena, en una zona que ha sido vista por otros telescopios para complementar la información y “saber qué tipo de objetos tenemos”.

El GTC se terminó de construir en 2009 y el censo galáctico comenzó poco después. “Para 2011 ya llevábamos el 20 por ciento de las observaciones, pero hoy prácticamente hemos terminado. Ahora se realizan los análisis específicos, que presentan ya estos primeros resultados”.

Así, después de años de observación en el telescopio, y de análisis de datos, viene la interpretación. De Diego, por ejemplo, trabaja actualmente en la aplicación de redes neuronales para la clasificación de las galaxias.

Con información de fotometría en diferentes bandas, de perfiles de luminosidad, no sólo de OSIRIS sino de catálogos correlacionados, intentamos que la red neuronal aprenda a distinguir las galaxias. Los resultados son alentadores.

OTELO fue un proyecto original del grupo que definió a OSIRIS, conformado por alrededor de ocho astrónomos mexicanos y españoles, y a lo largo del censo se unieron otros estudiantes e investigadores. Derivado de este trabajo que lidera Jordi Cepa, del IAC, se han elaborado seis tesis doctorales de alumnos de distintas universidades del mundo.

Los primeros resultados serán dados a conocer próximamente en la revista Astronomy and Astrophysics, y en otras publicaciones. Estamos contentos de que después de tanto esfuerzo se difundan los frutos de esta tarea, concluyeron.

 

 

 

 

Publicado en Tecnologia
Archivado en
Sábado, 15 Septiembre 2018 05:15

Tepeu, el satélite mexicano con fines científicos

(Agencia Informativa Conacyt).- El programa espacial Tepeu, diseñado por el profesor investigador del Instituto Politécnico Nacional (IPN), Mario Alberto Mendoza Bárcenas, en colaboración con científicos de diversas instituciones, es la primera misión espacial mexicana que tiene como objetivo, además de la demostración tecnológica, el desarrollo de una misión con fines científicos para investigación de la ionósfera sobre México.

En entrevista, el líder del proyecto detalla que el programa consiste en desarrollar y poner en órbita un satélite tipo CubeSat con menos de un kilogramo de peso, que permita realizar un estudio de la parte central de la ionósfera, a unos 500 kilómetros de la Tierra.

La misión, con un costo aproximado de 10 millones de pesos, contará con sensores como magnetómetros, sonda de Langmuir que medirá el plasma —puesto que la ionósfera se comporta como tal—, además de tener un medidor de partículas y un GPS.

Los sensores y la computadora que contendrá en su interior el “bicho espacial”, refiere, enviarán los resultados a una estación terrena, lo que permitirá estudiar esta parte fundamental de la atmósfera terrestre y que, a la postre, podría establecer las bases para la investigación en otras áreas de ciencia de frontera, como los precursores sísmicos.

Entrevistado en el marco del Simposio Internacional: La ciencia y la tecnología para la resiliencia y desarrollo de Oaxaca, afirma que a esta misión se han sumado investigadores como el doctor Enrique Cordaro Cárdenas, del Departamento de Física de la Universidad de Chile, quien tiene amplias investigaciones en materia de precursores sísmicos basado en el análisis del comportamiento del campo magnético terrestre.

Además, precisa, la misión cuenta con la participación del doctor Manuel Sanjurjo Rivo, investigador de la Universidad Carlos III de Madrid, del Departamento de Bioingeniería e Ingeniería Aeroespacial, cuya principal aportación estará basada en el uso de nuevos materiales para el desarrollo de sensores, como el C12A7:e- (dodecacalcium hepta-aluminate) que se pueda probar a bordo de la misión.

Así como científicos de instituciones de la Universidad Nacional Autónoma de México (UNAM), el Centro de Investigación Científica y Tecnológica de Guerrero, A.C., la consultora Fupresa, A.C., la Universidad de Chile, la compañía espacial Proxima Space y con el asesoramiento de la Agencia Espacial Mexicana (AEM).

El satélite Tepeu 1, considera, además de obtener datos de la parte media de la ionósfera, que es una capa de la atmósfera altamente sensible a múltiples fenómenos, entre los cuales se encuentra la actividad solar y el interior de la Tierra, también habrá de validar la tecnología desarrollada.

El profesor titular B adscrito al Centro de Desarrollo Aeroespacial del IPN también ha puesto en marcha herramientas como Pegasus y plataformas de vuelo suborbital, que consisten en vuelos en parapente y globos sonda, respectivamente, a través de los cuales se documenta el funcionamiento y desempeño de los equipos que habrán de enviar a la misión espacial.

“No podemos detenernos por falta de recursos, la complejidad de los permisos y el desarrollo de mapas, planos y los requerimientos tecnológicos y científicos que la misión implica, mientras tanto, realizamos pruebas en parapentes y globos estratosféricos”.

Experimentos que, anuncia, buscará traer a Oaxaca antes de que concluya 2018, para incentivar el interés de estudiantes y fomentar la colaboración de instituciones educativas locales, además de continuar con este tipo de “pruebas de concepto” que permitirán madurar los diseños en ruta hacia la misión al espacio.

El doctor en ingeniería eléctrica por la División de Estudios de Posgrado de la UNAM indica que una vez que cuenten con la carga útil totalmente desarrollada buscarán, con el apoyo de la Agencia Espacial Mexicana y con las instituciones (IPN, UNAM), lanzar al espacio el satélite de 10 por 10 por 10 centímetros.

Una vez en la ionósfera, el CubeSat recolectará información que permita detectar señales y fenómenos basados en métodos científicos y tecnológicos que, a corto plazo, permitirán obtener datos para alimentar investigaciones sobre el conocimiento de la ionósfera y, a largo plazo, contribuyan a investigaciones que permitan generar criterios que logren salvar vidas y reducir riesgos, pérdidas económicas y materiales por los sismos, al detectar la ocurrencia de los mismos con horas de anticipación, además de establecer beneficios también en materia de cambio climático, concluye.

 

 

 

Publicado en Tecnologia
Archivado en
Jueves, 13 Septiembre 2018 12:53

Plutón podría volver a ser considerado un planeta

Lo admitimos. En estos precisos momentos todo el mundo parece estar girando en torno al evento de Apple y la presentación de su nueva familia iPhone. Pero mientras todos centran su anteción en ello existen otros temas de interés para el resto de la comunidad. Como la nueva controversia con Plutón.

Como bien sabemos ese remoto enano tiene ya bastantes años sin ser considerado oficialmente por la humanidad como un planeta. Pero eso pronto podría cambiar; gracias a una nueva investigación de la Universidad de Florida Central (UCF) (vía Yahoo!).

Todo se enfoca a rebatir los parámetros impuestos en 2006 por la Unión Astronómica Internacional (IAU). Donde marcó tres parámetros necesarios para que un cuerpo celeste fuera considerado un planeta:

- Que orbite alrededor del sol
- Que tenga la suficiente masa para mantenerse casi redondo
- Y que el cuerpo tenga la capacidad de mantener despejada su órbita

Sin embargo, Plutón tiene una órbita que confluye con la de Neptuno, viendo afectada su gravedad. Y por ello fue expulsado de la lista.

Sin embargo, el proyecto de la UCF, publicado en la Revista Ícaro (vía NewsWeek), y encabezado por el científico planetario Philip Metzger, concluye que los parámetros de la IAU son inválidos.

La definición de la IAU diría que el objetivo fundamental de la ciencia planetaria, el planeta, se supone que está definido sobre la base de un concepto que nadie usa en su investigación. Y dejaría fuera el segundo planeta más complejo e interesante de nuestro sistema solar.

Si tomas eso literalmente [la definición de la IAU], entonces no hay planetas, porque ningún planeta despeja su órbita.

Esos tres principios además, según Metzger, no pueden ser aceptados como un parámetro científico, ni de investigación, debido a que al revisar los antecedentes de los últimos 200 años para la construcción de esas reglas se descubrió que´sólo una publicación de 1802 impuso ese controvertido tercer punto.

Existirían más de 100 casos de investigaciones científicas modernas donde se ignoró o contradijo el nuevo supuesto parámetro. Así que ahora el clamor es tirar todo a la basura.

Y por ende volver a considerar a Plutón como un planeta.

Publicado en Ciencia
Archivado en
Sábado, 08 Septiembre 2018 05:29

¿Por qué es importante el estudio de las estrellas?

Ciudad de México (Agencia Informativa Conacyt).- Ya sea para conocer tiempos de siembra y cosecha, desplazamientos, viajes, cálculos matemáticos o como inspiración para creaciones artísticas, las estrellas han sido objeto de fascinación desde el inicio de la civilización humana, la cual ha levantado su vista al firmamento confrontándose con profundas incógnitas y emociones que tratan de resolver el origen e importancia del cosmos.

La literatura registra que hace 32 mil años aproximadamente, nuestros antepasados hacían incisiones en huesos de animales para representar las fases de la luna, vivían de la caza y recolección, por lo que seguían las estrellas y predecían los cambios de estación gracias a la observación del cielo.

Pero ante esta fascinación, ¿qué son las estrellas?, ¿qué forma tienen?, ¿cuál es su función e importancia en el universo? Con el paso del tiempo y en aras de una evolución científica y tecnológica que explican mejor el mundo y lo que hay fuera de él, el humano perfeccionó métodos e instrumentos a través de los siglos que han facilitado la resolución de estas y otras incógnitas que envuelven a estos astros.

 

El papel de las estrellas en el universo

De acuerdo con el astrónomo Armando Arellano Ferro, investigador del Instituto de Astronomía (IA) de la Universidad Nacional Autónoma de México (UNAM), las estrellas son los ladrillos del universo.

“Una galaxia está hecha básicamente de estrellas, tiene además polvo y gas interestelar, pero las estrellas son las células de este gran cuerpo que es la galaxia y su estudio permite el conocimiento del estado primigenio del universo”.

A diferencia de los planetas, una estrella es un cuerpo esférico con la temperatura interior suficiente para tener reacciones nucleares y generar energía. Estas se formaron por el colapso gravitacional de una nube, y a medida que se forma un centro masivo, la aceleración hacia ese centro aumenta.

“Las estrellas son isotrópicas, es decir, son iguales en todas las direcciones y su simetría esférica se debe a este proceso de reacciones masivas. Además, algunas de ellas tienen rápida rotación, por lo que pierden su forma esférica y toman forma alargada en el ecuador, como la forma de la Tierra, dada la fuerza centrífuga de su rotación”, explicó.

 
Primeras medidas y registros
 
Para facilitar su proceso de estudio, los primeros astrónomos agruparon las estrellas en constelaciones, con el fin de rastrear la posición del sol y el movimiento de los planetas.

De acuerdo con el Instituto Nacional de Técnica Aeroespacial (INTA), dichas observaciones fueron registradas en las primeras cartas estelares o mapas nocturnos, donde la más ancestral de ellas corresponde a la antigua astronomía egipcia en el año 1534 antes de nuestra era. 

Con la recopilación de estos datos, los antiguos astrónomos babilónicos de Mesopotamia crearon los primeros catálogos de estrellas conocidos; sin embargo, el primero de estos tomos fue escrito por la astronomía griega en el año 300 antes de nuestra era aproximadamente.

A propósito de estos registros, fueron los astrónomos chinos los primeros en observar y describir una supernova, mientras que los astrónomos islámicos medievales hacían lo suyo al crear instrumentos que permitieron conocer la ubicación de las estrellas, nombrarlas y crear los primeros grandes observatorios e institutos de investigación.

“Hoy se lleva un registro específico a través de un catálogo oficial de estrellas variables en cúmulos globulares, la curadora actual es la doctora Christine Clement, quien es una astrónoma de la Universidad de Toronto y le da seguimiento a la información que inició Helen Sawyer Hogg en la década de 1940”, subrayó Armando Arellano.

De acuerdo con el especialista, el universo aún está lleno de secretos que faltan por descifrar y estudios por realizar para desentramarlos, y las estrellas son solo una parte de las incógnitas que todavía quedan por estudiar.

La especialidad de Armando Arellano son los estudios de las estrellas variables y consideró que en estos niveles de observación y conocimiento, puede que las estrellas ya no sean tan abundantes como los planetas.

“Estudiando este grupo de estrellas en particular, podemos no solo proveer de datos sobre los parámetros físicos de las estrellas y el cúmulo globular, sino también podemos comprender cómo evolucionan las estrellas en sus diferentes etapas y, por lo tanto, sabemos más de la historia y evolución de nuestro universo. El universo sería mucho menos interesante sin estos astros”.

 

 

Publicado en Tecnologia
Archivado en
Sábado, 01 Septiembre 2018 05:52

Confirman existencia de agua en la luna

Está en forma de hielo, en los polos norte y sur de nuestro satélite natural, a 163 grados bajo cero.

La búsqueda de agua en el Sistema Solar se asocia a la posibilidad de encontrar vida, indicó José Franco, investigador del Instituto de Astronomía de la UNAM y coordinador del Foro Consultivo Científico y Tecnológico.

Esta semana, un artículo publicado en la revista estadounidense Proceedings of the National Academy of Sciences (PNAS) muestra la primera observación “directa y definitiva” de agua helada sobre la superficie de la Luna.

Un equipo de investigadores de varias universidades del vecino país, encabezado por Shuai Li, de la Universidad de Hawái, analizó imágenes recogidas en 2009 por el instrumento Moon Mineralogy Mapper (M3), que voló en Chandrayaan-1, la primera misión india a nuestro satélite natural.

Así fue como encontraron hielo en la superficie lunar, en áreas de los polos en donde nunca da la luz solar. En estas regiones, a causa de la reducida inclinación del eje de rotación de la Luna respecto a su órbita en torno al Sol, de apenas 1.5 grados, existen cráteres que siempre están en tinieblas.

“La búsqueda de agua en el Universo, en particular en el Sistema Solar, está asociada a la posibilidad de encontrar vida. También, ayuda a que en el futuro la exploración espacial tenga, in situ, bases y abasto de elementos fundamentales para la vida de los seres humanos”, comentó José Franco López, investigador del Instituto de Astronomía (IA) de la UNAM y coordinador general del Foro Consultivo Científico y Tecnológico (FCCyT).

En junio de 2009, la sonda lunar Reconnaissance Orbiter (LRO) de la Agencia Aeroespacial de Estados Unidos (NASA) detectó que los polos lunares helados eran algunos de los sitios más fríos del Sistema Solar, con temperaturas de hasta 238 grados bajo cero, suficientes para acumular hielo durante miles de millones de años. Las regiones donde Shua Li y sus colegas encontraron el agua helada no superan los 163 grados bajo cero.

“La temperatura en la superficie de la Luna varía muchísimo. Cuando le da el sol, como no tiene prácticamente atmósfera puede llegar a los 100 grados Celsius o más. Pero en la noche baja bastante: en las zonas donde no da nunca la luz solar se enfría a más de 160 grados bajo cero, así que el agua está en forma de hielo muy frío y antiguo, pues está acumulado”, explicó Franco.

El análisis reciente de la exploración de 2009 concluye, sin equivocación, que hay hielo en varios de los cráteres alrededor de los polos lunares, con más abundancia en el polo sur, añadió el astrónomo.

Instrumentos, extensiones humanas

El universitario indicó que los instrumentos tecnológicos son extensiones de nuestros sentidos para saber del mundo y del Universo. “Nos han permitido conocerlos con mucho más detalle y precisión”.

En los últimos 50 años, prosiguió, el desarrollo de la electrónica y del software ha permitido que los instrumentos se vuelvan no sólo detectores con la ayuda del ingenio humano, sino equipos automatizados que pueden descubrir por sí mismos lo que los expertos buscan.

En el caso de México, Franco concluyó que el desarrollo de instrumentación es una asignatura pendiente, pues la política económica ha privilegiado el mercado externo y que empresas multinacionales se instalen en el país para ofrecerles mano de obra barata. “Esto ha reducido la capacidad y la posibilidad de generar industria de alta tecnología”.

 

 

 

Publicado en Tecnologia
Archivado en

Ensenada, Baja California. (Agencia Informativa Conacyt).- Astrónomos de la Universidad Nacional Autónoma de México (UNAM) colaboraron en la investigación para explicar el caso de HuBi1, una nebulosa planetaria con una estructura opuesta a la convencional, ya que sus iones más cargados están más alejados de la estrella.

Las nebulosas planetarias son una de las fases finales de las estrellas comparables con el Sol y típicamente estos objetos concentran una alta ionización en el área más cercana a la estrella.

HuBi1 es una estrella similar al Sol y no solamente porque tiene una masa casi igual —tan solo 10 por ciento mayor— sino también porque se encuentra sola, es decir, no es un sistema binario de estrellas, lo que ofrece una visión de lo que podría ocurrir dentro de cinco mil millones de años, cuando el Sol llegue a las etapas finales de su vida.

Los hallazgos de la investigación internacional para explicar la existencia de HuBi1, liderada por el doctor Martín Guerrero, del Instituto de Astrofísica de Andalucía, fueron publicados el pasado 6 de agosto en la prestigiada revista Nature Astronomy, con el artículo The inside-out planetary nebula around a born-again star, del que los astrónomos de la UNAM son coautores.

En entrevista con la Agencia Informativa Conacyt, el doctor Christophe Morisset, investigador del Instituto de Astronomía de la UNAM, campus Ensenada, explicó que en los últimos 50 años la estrella HuBi1 disminuyó 10 mil veces su luminosidad.

“La nebulosa externa todavía emite luz porque todavía está ionizada y caliente pero este estado es como un fósil, algo similar a las agujas de los relojes que brillan en la noche cuando se apaga la luz. Si la estrella no se prende de nuevo, después de unos siglos se apagará completamente la nebulosa”.

Para explicar la estructura atípica de la nebulosa planetaria, Morisset en colaboración con el doctor Alexandre Alarie, desarrolló modelos de choque y modelos de enfriamiento.

“Por la parte interna, donde la estructura de ionización se observa al revés de lo común, con los iones más cargados ubicados lejos de la estrella central, imaginamos que se trata de un choque entre una nebulosa anterior y la última eyección de materia expulsada por la estrella hace poco tiempo, cuando sufrió una fase de 'renacimiento'”.

Morisset expuso que el choque se propaga en la nebulosa hacia afuera, calentando y ionizando el gas; para explicar este fenómeno hicieron modelos teóricos que reproducen las observaciones del estado del gas detrás del choque.

Observaciones desde el OAN

Comprender la cinemática de HuBi1, su evolución y las velocidades de sus gases, fue el trabajo realizado desde el Observatorio Astronómico Nacional (OAN) Sierra de San Pedro Mártir por la doctora Laurence Sabin, investigadora del Instituto de Astronomía de la UNAM, campus Ensenada.

“De la cinemática pudimos ver que no concordaba con lo que estábamos viendo y también podíamos hacer esos modelos para darnos una idea de cómo era esta nebulosa y por qué tiene esas propiedades morfocinemáticas”, comentó la investigadora en entrevista.

Para realizar estas observaciones, los astrónomos utilizaron en el OAN el Manchester Echelle Spectrograph, espectrógrafo de alta resolución que usa filtros nebulares.

“La idea de este instrumento es tener un montón de cortes y no solamente horizontales y verticales, sino en todas direcciones, porque entre más cortes hay, mejor se puede reconstruir el objeto y eso se hace con otra herramienta que se llama Shape, desarrollada por Wolfgang Steffen, otro investigador de la UNAM, Ensenada”.

El inicio de una aventura

Las observaciones de HuBi1 están lejos de haber concluido, pues los astrónomos continúan siguiéndola para ver su evolución, especialmente tras calcular que su fluorescencia se apagará en apenas unas centenas de años.

Para Christophe Morisset, esto representa el inicio de una aventura, ya que generaciones de futuros astrónomos tendrán la oportunidad de observar un objeto del que no hay antecedentes.

“Es el primero con esta estructura donde se combinan dos efectos muy raros: el efecto fósil por la parte externa, el efecto de choque por la parte interna, las dos cosas se encuentran por separado pero en el mismo objeto, es excepcional, es la primera vez y no creo que haya muchas”, destacó.

• Dra. Laurence Sabin
 Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

• 
Dr. Christophe Morisset
  Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

 

 

 

Publicado en Tecnologia
Archivado en

• El Sol es nuestra estrella más cercana, y entender su física ayudará a comprender la de todas las estrellas, indicó Juan Américo González, investigador de la unidad Michoacán del IGf de la UNAM, y director del Servicio de Clima Espacial México

• La misión de la sonda es acercarse más que cualquier otra nave para analizar la atmósfera del Sol, del que depende la vida en la Tierra. Se estima que llegará al punto más cercano en 2025.

El domingo pasado la sonda solar Parker inició su viaje al Sol, con la meta de aproximarse lo más posible, más que cualquier nave hasta ahora, a nuestra estrella. Se espera que en noviembre alcance la corona solar, y que llegue al punto más cercano en 2025.

Luego de tres intentos fallidos, la Agencia Aeroespacial de Estados Unidos (NASA) logró el lanzamiento desde Cabo Cañaveral, Florida. La sonda analizará la atmósfera de la estrella, de la que depende la vida en la Tierra.

“Estamos muy contentos. Es una misión importante que responderá preguntas que nos han intrigado por más de 60 años. Con los datos que se obtengan esperamos entender por qué su atmósfera es tan caliente, uno de los cuestionamientos de la física solar aún sin respuesta”, afirmó Juan Américo González Esparza, investigador del Instituto de Geofísica (IGf) de la UNAM.

El también jefe del Servicio de Clima Espacial México (SCiESMEX) –uno de los servicios que brinda el IGf unidad Michoacán y que está adscrito al Laboratorio Nacional de Clima Espacial (LANCE), también coordinado por él– indicó que la superficie del Sol tiene una temperatura de seis mil grados, por eso emite luz visible y en amarillo, principalmente.

“Pero su atmósfera, una capa más externa, está mucho más caliente y alcanza un millón de grados. Cómo se produce este calentamiento de la corona solar es algo que aún no tiene respuesta científica, y es relevante porque el Sol es nuestra estrella más cercana, y entender su física nos ayuda a comprender cómo es la de todas las estrellas”, explicó.

Viaje a 700 mil kilómetros por hora

La sonda solar Parker se convertirá en la nave más rápida construida por el ser humano: alcanzará casi los 700 mil kilómetros por hora. “Ha sido lanzada con uno de los cohetes más poderosos de la NASA, porque tenía que lograr una gran velocidad para acercarse al Sol”, detalló el doctor en física.

González Esparza detalló que la misión se hace sobre la Tierra, que se desplaza a 30 kilómetros por segundo alrededor de la estrella. “Para lanzar algo hacia el Sol primero tenemos que cancelar esa velocidad tangencial, y es por eso que es tan difícil hacerlo”.

Para sacar un satélite al espacio, el cohete debe alcanzar una velocidad aproximada de 11 kilómetros por segundo, pero nuestro planeta gira alrededor del Sol a 30 kilómetros por segundo, así que se requiere de un aparato muy poderoso, que además acelere y alcance la máxima velocidad posible saliendo de la Tierra.

Después, la sonda Parker se dirigirá a Venus y aprovechará la atracción de ese cuerpo celeste, que le dará un “jalón gravitacional” y la acelerará rumbo a nuestra estrella. “Dará vueltas alrededor de Venus y del Sol para tener mayor velocidad y poder acercarse cada vez más”.

Cerca de nuestra estrella

Además de la velocidad, Parker batirá un segundo récord: será la nave con mayor aproximación al Sol, siete veces más que Helios 2, la que más se aventuró en el pasado. La sonda aprovechará la gravedad de Venus para frenarse hasta en siete ocasiones, y gracias a estas maniobras se colocará a sólo 6.16 millones de kilómetros de su objetivo, más o menos 16 veces la distancia que hay entre la Tierra y la Luna. En sus siete años de misión programados, que se pueden prorrogar, completará 24 órbitas en torno a la estrella.

Para saber qué tanto se acercará, la investigadora principal de la misión, Nicola Fox (compañera de González Esparza en el Imperial College de Londres), ejemplificó que si pensáramos en la distancia entre el Sol y la Tierra como un campo de futbol americano con 100 yardas, la misión Parker se acercará a la yarda tres: “va a estar muy cerca del Sol”, refirió González Esparza.

La sonda está diseñada para soportar altas temperaturas, y una de las claves es un escudo térmico de 2.4 metros de diámetro y 14 centímetros de grosor, de una composición similar a las placas cerámicas de transbordadores espaciales, que frenará el viento solar y se calentará hasta los mil 400 grados Celsius, una temperatura mayor que la lava.

En honor al padre del viento solar

En esta misión, por primera vez en su historia la NASA honra a un científico vivo al designar su nombre a una nave espacial: Eugene Newman Parker, el padre del viento solar, es un astrofísico de la Universidad de Chicago, de 91 años de edad, que en 1958 fue pionero al acuñar la teoría de los vientos supersónicos solares.

“Parker hizo un modelo que explicó que el Sol no iba a ser capaz de contener a su atmósfera (muy caliente), y que ésta se empezaría a escapar formando un viento. Esto iba en contra de lo que los astrofísicos pensaban en aquel momento. Él demostró que la atmósfera de las estrellas se escapa como un viento con velocidades muy altas, y a esto le llamó ‘viento solar’”, finalizó González Esparza.

Conoce más de la Universidad Nacional, visita:

www.dgcs.unam.mx

www.unamglobal.unam.mx 

 

 

Publicado en Tecnologia
Archivado en

Morelia, Michoacán. (Agencia Informativa Conacyt).- El paraíso de ciénegas, fauna ancestral, humedad y árboles de frutos y sombra terminó por la glaciación provocada por la caída de 18 millones de toneladas de meteorito en fragmentos hace 12 mil 800 años. ¿Imaginas un pasado de humedad, abundante y desconocida vegetación como alimento de gonfoterios, perezosos, bisontes, mamuts, huyendo por la ciénega del diente de sable? Las tierras michoacanas que hoy caminamos están construidas sobre el suelo que pisaron diversos animales ancestrales.

En un instante, el dióxido de carbono (CO2) llenó el ambiente y un incendio lo quemó todo, la Tierra ingresó en una nueva era de hielo, que desde muchos años se había atribuido al desprendimiento de un bloque de hielo entre Canadá y el noreste de Estados Unidos. Pero nunca se estudió el motivo de ese desprendimiento.

Las investigaciones de la doctora en ciencias de la Tierra Isabel Israde Alcántara, adscrita al Instituto de Investigaciones en Ciencias de la Tierra y miembro nivel II del Sistema Nacional de Investigadores (SNI), han ayudado a esclarecer que fue un meteorito el que causó la glaciación hace 12 mil 800 años.

La doctora se ha dedicado a buscar en diferentes partes de México evidencias de un impacto cósmico que tuvo muchas repercusiones desde el punto de vista geológico y ambiental.

Esto lo logró a partir del estudio de los lagos de Michoacán, específicamente el lago de Cuitzeo, que fue el que le dio el primer indicio.

El ciclo de las glaciaciones

"Cada 100 mil años, por los últimos dos millones, ha habido glaciaciones, es un ciclo de 100 mil años fríos y 10 mil años cálidos. A pesar de esa regla imperante, hubo una interrupción hace 18 mil años, cuando correspondía estar en tiempos cálidos, hubo un descenso abrupto de temperaturas que acabó con la vida animal y vegetal".

La científica afirma que se creía que era por el desprendimiento de un bloque de hielo proveniente del norte de América, frenando los sistemas de convección marina cálida y ese freno controló también la evaporación del agua, deteniendo las condiciones tibias de los continentes.

La causa de ese desprendimiento fue una incógnita por mucho tiempo, hasta 2007 que el investigador Richard Firestone encontró en Groenlandia una capa de combustión en los hielos.

“Ahora que se han roto muchas capas de hielo por el cambio climático, han quedado expuestas capas antiguas de hielo, esto permitió que el doctor viera una capa de carbono que pudo fechar arrojando que pertenecía a hace 12 mil 800 años".

Con estos datos, Firestone postuló la teoría de un impacto cósmico que catalizó el desprendimiento del bloque de hielo, generando las condiciones de un invierno nuclear por el impacto, la onda de choque, radiación y los vientos, señala la doctora. Eso acarreó carbón incendiando los bosques y haciendo que ese material subiera por la atmósfera depositándose en las capas de hielo. Es por eso que el investigador pudo encontrarlo en esas capas expuestas por el calentamiento global.

Relación del meteorito con los lagos michoacanos

Isabel Israde tiene una especialidad en estratigrafía, que es el estudio de las capas de la Tierra, y explica que las algas diatomeas pueden decir mucho sobre el pasado, debido a que a pesar de que su vida es de apenas 30 días, tienen un esqueleto de sílice que resguarda información y permite estudiar el pasado a partir de su estructura.

Desde que terminó su tesis ha estudiado los lagos de Michoacán, con el objetivo de entender si los episodios de los lagos han sido cíclicos o aleatorios. "Los lagos son como tinas, cualquier cosa que eches cae en el centro, por lo que estudiándolos podríamos entender el impacto del hombre y detallar la actividad volcánica".

En su estudio, introducían una especie de popotes de metal que colectan información de las capas de la Tierra que se encuentran debajo de los lagos, pudiendo ver el paso de los años según la profundidad. En 1998, sacaron un núcleo muy largo del centro del lago de Cuitzeo, que tardaron tres años en analizar en cada una de sus capas.

Encontraron en cada estudio que siempre había una capa donde aumentaba mucho el nivel del lago; sin embargo, afirmaban que se debía a un error en el análisis. La doctora sabía que no era así, pero siguió trabajando la muestra.

"Las algas tienen preferencias, tolerancias y exigencias del lugar en el que se encuentran. Las que encontraron en esa capa que estudiaron tenían preferencia de lugares de aguas profundas; sin embargo, eso no coincidía con el lago Cuitzeo que tiene una profundidad media de tres metros".

La investigadora no entendía por qué fue profundo, porque además esta característica duró poco tiempo porque solo estaba en 10 centímetros de sedimentos, ubicado a 2.85 metros del sustrato del lago, de los 27 metros que analizaron.

En esa capa encontraron un nivel de carbón e hicieron los fechamientos.

¿Burbujas espaciales en el microscopio?

En el microscopio óptico, Isabel Israde vio que había esférulas que siempre se encontraban cuando observaban las diatomeas. Intentaron combinarlas con diferentes sustancias para disiparlas, "pero como son de hierro se ponían más brillantes y hermosas".

Al principio creía que se trataba de burbujas de agua; sin embargo, "se trataba de esférulas, que son cuerpos redondos que tienen una ornamentación en forma de coliflor o estructuras de filigrana, que se dan por un enfriamiento muy rápido".

La doctora señala que ahora saben que se dio por el choque con la atmósfera, "las esférulas chocaron entre sí hasta casi fusionarse, aunque no por completo", afirma que tienen arrugamientos producidos por la fusión del metal y que había otras en forma de gota con la misma ornamentación.

Estas esférulas le dieron evidencia incluso de la dirección del viento cósmico en el momento en que se produjo el choque con la atmósfera. "Las esférulas son una evidencia de materiales cósmicos, también existen como productos industriales, pero se encontraron sepultadas a tres metros del actual lago, por lo que no pudieron haberse sepultado ahí en la historia del ser humano".

Encontraron nanodiamantes

El sesgo que había en las profundidades los hizo estudiar cada tres centímetros el núcleo, este trabajo implicó mucho tiempo porque cada muestra lleva varias semanas, señala la doctora. Cuando terminaron, reunieron los datos de esférulas, análisis de polen, diatomeas, los cambios en los estratos y los enviaron a analizar mediante una técnica que permite detectar nanodiamantes.

"Los diamantes detectados en esa capa de los estratos indican que hubo temperaturas mayores a las emitidas en una explosión volcánica, que se generan con la presión y temperatura a la que se expone el carbón".

Ya tenían todos los proxies, por lo que la doctora pudo comenzar a escribir las conclusiones de su investigación.

Ha sido un meteorito

En ese mismo tiempo, hace 12 mil 800 años se dio una desaparición importante del ser humano, anteriormente se creía que se debió a una infección y que solo había sido en Estados Unidos y Canadá.

Comenzaron a detectar esas coincidencias, del carbón encontrado en las capas de hielo, la desaparición del ser humano, las inconsistencias de profundidad y los nanodiamantes en el lago de Cuitzeo. Se reunió un grupo de investigadores de todo el mundo para encontrar evidencias en diferentes países.

Isabel Israde concluyó que todos estos fenómenos pudieron haber estado causados por un impacto cósmico en muchas partes de la Tierra.

"No fue solo un meteorito, fueron muchos pedazos de uno que se fragmentó afuera del planeta. Hemos encontrado pedazos en Bélgica, Siria, Venezuela, España, Italia, Rusia, entre otros".

Calcularon que cayeron alrededor de 18 millones de toneladas de pedazos de meteorito en el mundo.

"Este meteorito proviene de la nube de Oort, que se encuentra más allá de Neptuno. Se trata de un basurero galáctico sin órbita donde fue a parar todo lo que se produjo en el Big Bang que no se hizo planeta, como vagan sin rumbo pueden generar colapsos".

Señala que lo que habían podido ver los geólogos, son las que se encontraban en la superficie; sin embargo, ella siempre ha pensado que se tienen que observar los lagos.

¿Quedó solo en Cuitzeo?

¿Qué pasa si hay lagos más grandes que pudieron haber funcionado como cápsulas del tiempo, permitiendo que se almacenara en los sedimentos la evidencia hasta que la descubriéramos?, se pregunta la investigadora. Es por ello que está haciendo viajes a diferentes medios sedimentarios, desiertos, lagos, ciénegas, selvas.

Sometió el proyecto al Fondo Conacyt de Ciencia Básica y lo ha obtenido durante tres años consecutivos. Ella sabía que su descubrimiento era importante.

En este trayecto ya han encontrado otras evidencias como la de Cuitzeo, Chapala, Acambay, Valle de Santiago, Tocuila y Chalco. En Tocuila se encontraron nueve mamuts sobre los que se hallaban las capas que arrojaban datos sobre el meteorito.

Para la investigadora, estos hallazgos son importantes por una razón muy simple: "Muestran la fragilidad del ser humano. Cuando ocurre un evento como ese, extermina todo. No nos damos cuenta que somos solo un punto en el espacio".

Esta obra cuyo autor es Agencia Informativa Conacyt está bajo una licencia de Reconocimiento 4.0 Internacional de Creative Commons.

 

 

 

 

Publicado en Tecnologia
Archivado en

El hallazgo tiene implicaciones importantes para la ciencia, consideró Rafael Navarro, del Instituto de Ciencias Nucleares de la UNAM.

La probabilidad de que existan más lagos es alta, pues sólo se ha revisado menos del 10 por ciento de la superficie del polo sur de ese planeta, indicó.

Científicos europeos descubrieron un lago con agua líquida en Marte, hecho que amplía la posibilidad de que actualmente haya vida en el planeta rojo.

Rafael Navarro González, del Instituto de Ciencias Nucleares (ICN) de la UNAM, precisó que el hallazgo se hizo en una región del polo sur marciano, formada por numerosas capas de hielo y polvo, con una profundidad máxima de 1.5 kilómetros, en una zona de 20 kilómetros de diámetro. Ahí se identificó una reflexión especialmente brillante de las ondas sonoras detectadas por el radar MARSIS bajo las capas de los depósitos.

El doctor en Química por la Universidad de Maryland, y quien colabora con la NASA y la Agencia Espacial Europea (ESA) en la exploración de Marte, explicó que para encontrar el cuerpo de agua científicos italianos utilizaron el radar MARSIS (a bordo de la sonda europea Mars Express), que envía pulsos de sonido a la superficie de ese planeta para medir cuánto tardan en regresar a la nave, así como su intensidad; “llevó mucho tiempo revisar los diferentes tipos de reflexión”.

Mars Express monitorea la superficie, pero no puede revisar el planeta en su totalidad. Ha logrado mapear menos del 10 por ciento de la superficie del polo sur; entonces, es muy probable que haya más cuerpos de agua líquida que no han sido explorados, destacó el astrobiólogo.

El hallazgo tiene implicaciones importantes para la ciencia, pues abre la posibilidad de que exista vida en la región, además de que plantea preguntas como ¿cuál sería la fuente de energía que la ha mantenido por todo este tiempo?

Navarro, colaborador de la misión Curiosity de la NASA, indicó que se sabe que la fotosíntesis no puede ocurrir en el área monitoreada debido al grosor y profundidad de la capa de hielo, que no permite la llegada de luz. “La región estaría completamente oscura, y por consiguiente, de haber vida microbiana, sería de tipo quimiosintética, es decir, que toma energía de reacciones químicas, como las bacterias metanógenas”.

Además, la existencia de organismos macroscópicos (como los conocemos) es imposible, pues requieren de mayor cantidad de energía, lo que implica el uso de oxígeno, y en la zona hay condiciones anaeróbicas.

Otra limitante, reflexionó, es la entrada de nutrientes, pues el lago está completamente cerrado; no se podría dar el intercambio de nutrientes y eso restringe la cantidad de biósfera que pudiera existir.

El científico mexicano destacó que otra incógnita es saber qué mantiene al lago en forma líquida. Se estima que la presencia de sales es fundamental en condiciones por debajo de cero grados, pero podría haber fuentes hidrotermales u otro tipo de energía.

La misión InSight de la NASA, que actualmente se dirige al planeta rojo, ofrecerá información importante para saber lo que ocurre, pues lleva consigo un sismógrafo que aportará conocimiento sobre la potencial actividad tectónica.

Sobre la posibilidad de usar el líquido encontrado en futuras misiones espaciales, el universitario destacó que existen protocolos internacionales de protección planetaria para la utilización de recursos en otros planetas, aunque no se descarta la posibilidad de aprovecharla para uso humano u obtención de combustibles.

“Sabemos que hay otros sitios en Marte donde hay agua, por ejemplo, en el área ártica, en donde la misión Phoenix detectó hielo”, añadió. Pero también se podría tener acceso a otras fuentes de agua, y para eso está la misión ExoMars, en la que participa, que intentará capturar líquido de la atmósfera para uso humano.

El lago, acotó, complementa el reciente anuncio de agua en la vida pasada del planeta rojo, descubrimiento realizado por el robot Curiosity, lo que aumenta las expectativas de trabajo.

Pero “el gran hallazgo será tener evidencia de biosfera en Marte, porque cambiará la biología terrícola y nos llevará a una biología universal”.

Finalmente, estimó necesario enviar más misiones de exploración a los polos, tarea difícil por la cantidad de luz y energía que reciben los equipos. “Pero ahora se sabe que en esas áreas hay más posibilidades de encontrar vida, respecto a las zonas ecuatoriales, en donde actualmente se encuentra Curiosity”.

—oOo—

Conoce más de la Universidad Nacional, visita:

www.dgcs.unam.mx

 

www.unamglobal.unam.mx

Publicado en Tecnologia
Archivado en

Ubican entre galaxias la mitad de la materia ordinaria del Universo, de la que está hecho todo lo que vemos, incluidos los seres vivos.
En el estudio participaron 21 científicos de seis países, entre ellos Yair Krongold Herrera, integrante del Instituto de Astronomía de esta casa de estudios.
El hallazgo, publicado en la revista Nature, avanzará nuevas investigaciones para entender la formación de las galaxias y su estructura actual.

Hasta ahora estaba perdida y su ubicación era una pregunta abierta para la astronomía. Pero después de 12 años de investigación, un grupo internacional formado por 21 científicos de seis países encontró entre las galaxias, en forma de filamentos, la mitad de la llamada “materia ordinaria” del Universo, aquella con la que está hecho todo lo que vemos, incluidos los seres vivos.

“No sabíamos dónde estaba la mitad de la materia ordinaria, no se podía haber desintegrado y tendría que estar en algún lado”. El estudio fortalece la teoría de la Gran Explosión o Big Bang, que predice cuánta materia ordinaria debió formarse durante el surgimiento del Universo, indicó Yair Krongold Herrera del Instituto de Astronomía (IA) de la UNAM y quien participó en este hallazgo científico, publicado recientemente en la revista Nature.

De acuerdo con cálculos recientes, la materia ordinaria es apenas el 4% de la masa del Universo. El 23% está formado por materia oscura y el 73% por energía oscura, ambas aún indetectables. Ubicar el 50% de materia ordinaria, que está hecha de átomos, confirma experimentalmente hipótesis teóricas y ayuda a los astrónomos a tener una pequeña pieza del rompecabezas que describe la estructura cósmica.

Para detectar la mitad de la materia ordinaria en el medio intergaláctico, los astrónomos recurrieron a los telescopios espaciales XMM-Newton, de la Agencia Espacial Europea (ESA), y Hubble, proyecto conjunto de la Agencia Espacial de Estados Unidos (NASA) y la ESA, así como al terrestre Gran Telescopio Canarias, que opera un consorcio internacional bajo el liderazgo del Instituto de Astrofísica de Canarias en España.

Según el experto del IA de la UNAM, hay coincidencia, al comparar la cantidad de materia ordinaria predicha por el Big Bang con la información inferida de la luz remanente del Universo muy joven (conocida como radiación cósmica de fondo); también la hay con la cantidad de materia observada en el Universo distante. Pero cuando se trata de distancias más cercanas a nosotros, se pierde paulatinamente evidencia de esta materia.

Además de Yair Krongold, por parte de México participaron Divakara Mayya y Daniel Rosa González, ambos del Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE).

Dos filamentos

La estructura del Universo es una telaraña cósmica formada por muchos hilos de gas muy caliente que se entremezclan y a veces se fusionan para crear galaxias. “Lo que descubrimos fueron dos filamentos, en donde se veía material muy caliente y tenue”, explicó.

“Se detectaron en rayos X y en ultravioleta”. A estas dos “miradas” desde el espacio, sumaron una tercera desde la Tierra, con el Gran Telescopio Canarias. Sin embargo, el estudio tiene una sola línea de visión.

“Es importante avanzar hacia otros objetos porque así podremos entender además cuál es el estado físico de esta materia. Eso nos da una pista sobre cómo han sido los procesos de formación de las galaxias”.

El siguiente paso, adelantó, es observar (con el método ya diseñado y probado) hacia otros lados, y a través de eso podremos entender mejor cómo se han formado las galaxias, cómo han evolucionado y su crecimiento desde el big bang.

—oOo—

Conoce más de la Universidad Nacional, visita:

www.dgcs.unam.mx

www.unamglobal.unam.mx

 

 

Publicado en Tecnologia
Archivado en

Marte es hermoso y desconocido.

La Agencia Espacial Europea (ESA por sus siglas en inglés) presentó una sorprendente imagen captada por la Mars Express, la sonda de exploración que sobrevuela Marte.

La imagen muestra una tormenta de arena que se arremolina de manera temible en casi toda la región del polo norte marciano. El impresionante fenómeno fue captado gracias a la High Resolution Stereo Camera, una increíblemente potente cámara de alta resolución que viene equipada en la Mars Express.

Los astrónomos del Centro Aeroespacial Alemán, quienes administran el sistema de la cámara, aseguran que la panorámica se tomó el pasado 3 de abril.

La región que cubre la tormenta de arena en la imagen se conoce como Utopía Planitia, una de las zonas que más a estudiado Mars Express desde su arribo a Marte.

La tormenta de arena es uno de los muchos eventos a pequeña escala que tuvieron lugar en Marte en los últimos meses. Y fue un antecedente de una tormenta similar, pero que cubrió todo el planeta, tan sólo unos meses después.

En realidad, las tormentas de arena son muy comunes en Marte, incluso Opportunity, el rover explorador de la NASA, ha tenido que hibernar varias veces para esperar que se detenga alguno de estos fenómenos.
 

FUENTE Science News

Publicado en Ciencia
Archivado en

Creador de tecnologías propias desarrolladas en la Universidad Nacional, Jorge Prado Molina, académico del Instituto de Geografía (IGg) de la UNAM, patentó dos sistemas de simulación satelital y un estabilizador para satélites en órbita.

Sus proyectos son útiles para el sector aeroespacial, en el que la Universidad Nacional tiene una larga trayectoria, y hoy dedica esfuerzos para desarrollar nanosatélites de uno a 10 kilogramos de peso.

Los satélites espaciales se mantienen en su órbita, y en ella se mueven libremente y rotan en todas direcciones. Para orientarlos y controlarlos desde la Tierra, o para que efectúen esta tarea de manera autónoma, Prado Molina, investigador del Laboratorio de Análisis Geoespacial del IGg, ha diseñado prototipos originales de simuladores que imitan, en laboratorio, el ambiente sin fricción característico del espacio exterior.

Los complementa con sensores que determinan la orientación del satélite, actuadores que cambian su posición, y controladores que envían y reciben información entre el artefacto en el espacio y una estación terrena.

El sistema de simulación tiene un movimiento en tres ejes, así que la plataforma se puede mover como ocurre en el espacio, donde los objetos flotan libremente y se desplazan en tres grados de libertad, aunque se debe hacer una transformación matemática con respecto a otro sistema de referencia fijo en la Tierra para lograr obtener seis grados de libertad. Así, se simula en el laboratorio el movimiento normal de cualquier objeto que orbita el planeta.

 

Método estabilizador de satélites

 

Cuando tenemos un satélite moviéndose en una órbita recibe agentes externos, como el viento solar. Si el centro de masa de este objeto no está en el centro geométrico, hay una pequeña fuerza que lo hace girar en alguno de sus ejes.

“La idea de este sistema es que, con unas masas internas, llevemos el centro de masa al centro geométrico y así reducir esas fuerzas externas que causan un movimiento indeseado que cambia la orientación del satélite, pues queremos que se mantenga totalmente estabilizado apuntando hacia la Tierra, y que esa estabilidad se mantenga en toda la órbita”, explicó.

“Esto no se había hecho con satélites tan pequeños, de uno a 10 kilogramos, que son con los que trabajamos”.

A partir de tres patentes, la UNAM hace promoción para lograr el interés de alguna empresa que quiera comercializar estos equipos. “Lo importante fue la idea. En otros países los investigadores hacen las empresas de alta tecnología, y eso nos hace falta en México para que no seamos tan dependientes del exterior”.

Finalmente, Prado Molina consideró que en nuestro país no tenemos una cultura del patentamiento, por lo que exhortó a los investigadores a generar tecnologías propias y hacer dicho proceso.

Desde 1985, el doctor en ingeniería ha diseñado diversos equipos aeroespaciales. Con uno de sus sistemas de simulación obtuvo el quinto lugar de la más reciente edición del Programa para el Fomento al Patentamiento y la Innovación (PROFOPI) de esta casa de estudios.

 

 

Publicado en Tecnologia
Archivado en

Ciudad de México. La materia bariónica o comúnmente conocida como la “materia ordinaria” perdida del universo —la materia de la que se compone todo lo existente— fue encontrada recientemente en el medio intergaláctico con ayuda de los telescopios espaciales XMM-Newton y Hubble, y con el Gran Telescopio Canarias en la Tierra, a través de las investigaciones de un grupo internacional de astrónomos, entre los que se incluyen mexicanos.

El doctor Yair Krongold Herrera, investigador del Instituto de Astronomía (IA) de la Universidad Nacional Autónoma de México (UNAM), y los doctores Divakara Mayya y Daniel Rosa, del Instituto Nacional de Astrofísica, Óptica y Electrónica (INAOE), forman parte de este grupo de especialistas que tras doce años de investigación han encontrado las evidencias que ayudan a constatar la teoría de la llamada Gran Explosión o Big Bang.

En entrevista para la Agencia Informativa Conacyt, Yair Krongold explicó la importancia de este hallazgo en la conformación del universo y en la manera de localizar la materia ordinaria tenue. El hallazgo valió la reciente publicación en la revista Nature bajo el título Observations of the missing baryons in the warm–hot intergalactic medium, publicado en el reciente ejemplar de junio de 2018.

Materia casi invisible

 

De acuerdo con el especialista, si se toma la cantidad de materia ordinaria del universo que predice la teoría del Big Bang con la cantidad de materia que se mide a través de la radiación cósmica de fondo —la luz más antigua que vemos del universo— y se compara con lo que hoy se observa en el universo cercano, hay aproximadamente cincuenta por ciento de materia perdida.

“Existe coincidencia al comparar la cantidad de materia ordinaria predicha por el Big Bang con la información inferida de la luz remanente del universo muy joven —conocida como radiación cósmica de fondo—, como también la hay con la cantidad de materia observada en el universo distante. Sin embargo, cuando se trata de distancias más cercanas a nosotros, se pierde paulatinamente evidencia de esta materia”.

Mencionó que esa cantidad de materia ordinaria que había antes comienza a perderse y ya no se sabe dónde está, aunque en términos generales la cantidad de materia que hay en las galaxias tan solo es la quinta parte del total, y el resto está en el medio intergaláctico.

Debido a sus altas temperaturas, este material bariónico se presenta de manera muy tenue y en forma de filamentos en el espacio intergaláctico, por lo que es difícil de detectar y sobre todo cuantificar.

Este material emite muy poca luz propia, lo que hace más complicada su ubicación al no poder observarse directamente; por esto es imperativo ver la sombra de dicha materia, y para lograrlo se necesita de la búsqueda de objetos distantes en el universo como los cuásares, que proyectan un gran brillo, así se aprecia la sombra de la materia tenue en la luz que llega de ellos.

“En los cuásares hay un agujero negro supermasivo que se come una gran cantidad de material y que irradia una gran cantidad de luz que sale en dirección hacia nosotros”, explicó Yair Krongold.

 

La idea de este trabajo de doce años de duración fue utilizar rayos X en uno de estos cuásares y ver la sombra de la materia bariónica. Debido a su tenuidad, se necesitó de una gran observación del telescopio espacial de rayos X XMM-Newton, propiedad de la Agencia Espacial Europea (ESA, por sus siglas en inglés).

Se apuntó el telescopio en dirección del cuásar sin moverse hacia otros objetos durante 1.8 millones de segundos, lo que equivale a dieciocho días completos. Esta es la observación más larga, por mucho, de un objeto por parte de un telescopio espacial de rayos X.

Observando el medio intergaláctico

El resultado derivado de la observación del XMM-Newton fue que efectivamente se pudo ver la sombra casi imperceptible del material intergaláctico en los rayos X y que confirmaron con el uso de datos ultravioleta del telescopio espacial Hubble, donde también encontraron una sombra extremadamente tenue de este mismo material.

“En el telescopio espacial Hubble se ve la sombra de átomos de hidrógeno y en la observación con rayos X se ve la sombra de átomos de oxígeno. Necesitábamos los datos de ambos telescopios para confirmar que se trataba del mismo resultado y fue ahí donde lo encontramos”.

Asimismo utilizaron el tiempo mexicano del Gran Telescopio Canarias —el telescopio óptico más grande del mundo— para observar todas las galaxias que había entre la Tierra y el cuásar estudiado, pues la teoría que habla de la formación de las galaxias y evolución del universo menciona que esta materia ultra tenue tiene que estar alrededor de las concentraciones de galaxias.

Estas pueden estudiarse en luz óptica desde dicho telescopio terrestre y observaron que en los lugares donde se encuentran estos filamentos de material bariónico existen concentraciones de galaxias.

“Quiere decir que nos encontramos en el camino correcto, tenemos tres piezas de evidencia que nos dicen que estos filamentos muy tenues confirman la teoría: la sombra directa de los rayos X, la sombra de los datos ultravioleta y las concentraciones de galaxias justo en la misma distancia y en el mismo lugar donde está dicho material evidenciado por estas sombras, lo que demuestra que estamos viendo el material tenue intergaláctico”, subrayó Yair Krongold.

Búsqueda más allá

 

Con estas evidencias a la mano, los investigadores compararon si el número de filamentos que observaban en la distancia que hay entre la Tierra y el cuásar coincidía con la cantidad de filamentos que predecía la teoría.

“En una distancia similar a la que hay de aquí al cuásar esperábamos dos filamentos, y justamente detectamos dos filamentos, entonces coincide en ese sentido la teoría con lo que encontramos”.

Con esta detección y estudiando el material que se encuentra en los filamentos, los astrónomos pueden medir sus propiedades como temperatura, densidad y, sobre todo, la masa de materia bariónica que hay en ellos.

De acuerdo con el investigador, si este trabajo se extrapola al universo, estos mismos filamentos se encontrarán en todas las demás vertientes fuera del punto de estudio entre el telescopio XMM-Newton y el cuásar objetivo, por lo que concluyó que la materia perdida del universo ya ha sido encontrada.

“Como nos decía la teoría, está en este gas muy tenue y muy caliente, en estos filamentos cósmicos alrededor de las galaxias, por lo que este hallazgo es muy importante porque ya encontramos esa materia perdida de la que no podíamos dar cuenta en el universo en el cual estamos, y que valida nuestra creencia de proceso de formación de galaxias a través de estas evidencias que lo confirman”.

 

 

 

Publicado en Tecnologia
Archivado en

Ciudad de México.  Joel Sánchez Bermúdez, investigador mexicano del Observatorio Europeo Austral (ESO, por sus siglas en inglés), ganó junto con su equipo, conformado por los españoles Antxón Alberdi y Rainer Schödel, el premio a la reconstrucción de una imagen astronómica más bella y precisa. Dicho galardón fue otorgado en el Congreso de la Society of Photo-Optical Instrumentation Engineers (SPIE).

El Interferometric Imaging Beauty Contest es un concurso que tiene el objetivo de poner a prueba el software y las capacidades metodológicas para la reconstrucción de imágenes interferométricas en el espectro infrarrojo. La reconstrucción de este tipo de imágenes es fundamental en la astronomía moderna para entender los fenómenos que ocurren todos los días en el universo.

La dinámica del concurso consiste en que los equipos expertos y participantes de todo el mundo reciben una serie de datos obtenidos a partir de simulaciones que hacen los organizadores según parámetros de los instrumentos y telescopios. A partir de ahí, los equipos procesan los datos interferométricos y crean una imagen; la más bella y precisa según los datos es elegida como la ganadora.

La imagen ganadora recrea una estrella central con un disco de polvo elongado y un brillo asimétrico, con un planeta en formación. Este tipo de estrellas jóvenes es común en el universo y se piensa que nuestro Sol y sistema solar tuvo un proceso de formación similar.

“Este concurso sirve como referencia para establecer los límites y alcances de la tecnología que existe en el campo de la interferometría infrarroja”, aclaró Joel Sánchez Bermúdez en entrevista con la Agencia Informativa Conacyt.

Además de la imagen, se tienen que entregar los parámetros físicos del objeto observado, por lo que se necesitó a expertos de las universidades de Cambridge, Lyon y Leuven. Los resultados fueron presentados durante el Congreso de la SPIE el 14 de junio en Austin, Texas.

El concurso se lleva a cabo de forma bienal desde hace 16 años y en ediciones anteriores los equipos e investigadores han reconstruido a partir de datos interferométricos imágenes de estrellas, cúmulos de estrellas, discos alrededor de estrellas y planetas.

La interferometría astronómica es una técnica observacional que ha permitido a los astrónomos observar con el mayor detalle posible las estrellas y galaxias. Esta técnica permite combinar dos o más telescopios al mismo tiempo para observar un objeto astronómico. La resolución alcanzada es proporcional a la separación entre los distintos telescopios combinados.

“Para un interferómetro como el Very Large Telescope Interferometer, localizado en el desierto de Atacama en Chile, el nivel de detalle alcanzado equivale a ver una moneda de cinco pesos en la superficie de la Luna”, explicó Sánchez Bermúdez.

Esta es la segunda ocasión en que Joel Sánchez Bermúdez resulta ganador de este concurso, por lo que se ha colocado como uno de los astrónomos reconstructores más reconocidos a nivel mundial por la calidad y precisión de su trabajo. La primera vez fue en 2014 y aún era estudiante de doctorado.

En esta edición del concurso, los especialistas a nivel internacional tuvieron que reconstruir a partir de datos interferométricos una estrella en formación con un disco de polvo y un planeta. Este es un fenómeno similar a como piensan los astrónomos ­que se formó el sistema solar. Los datos con que trabajaron los concursantes fueron obtenidos de dos de los interferómetros más importantes del mundo, el Center for High Angular Resolution Astronomy (CHARA) en Estados Unidos y el Very Large Telescope Interferometer en Chile.

La línea de investigación del doctor Joel Sánchez Bermúdez gira alrededor del análisis de datos interferométricos para el estudio de estrellas de altas masas, que son las estrellas que producen prácticamente todos los ingredientes de los que está hecho el universo, por lo que adquieren una relevancia particular para estudiar todos los fenómenos astronómicos.

“El estudio de este tipo de estrellas con interferometría es importante para entender la evolución de las mismas y su efecto en la evolución química de las galaxias”, concluyó.  

 

 

Publicado en Tecnologia
Archivado en

Ciudad de México. (Agencia Informativa Conacyt).- El investigador mexicano Juan Pablo Torres Papaqui, de la Universidad de Guanajuato, busca determinar el radio de influencia de los núcleos activos de galaxias (NAG) para poder entender la coevolución entre estos y las galaxias que los hospedan.

Esta investigación fue una colaboración con el proyecto Calar Alto Legacy Integral Field Spectroscopy Area Survey(CALIFA) y su aporte consistió en generar nuevos conocimientos sobre la importancia de los NAG junto con los demás fenómenos que ocurren en una galaxia.

“La calidad de los datos de CALIFA nos brinda un panorama mucho más completo para comprender las galaxias”, agregó en entrevista con la Agencia Informativa Conacyt.

De acuerdo con el paradigma estandarizado, las galaxias que hospedan un NAG poseen un agujero negro supermasivo en su centro, con base en esto el doctor Torres Papaqui desarrolló el trabajo de investigación.

El doctor comentó que entre los agujeros negros supermasivos que se encuentran en los centros de las galaxias, el núcleo activo y la formación estelar propia de la galaxia existe una pequeña batalla por las reservas de gas y polvo.

Por ello, indicó que existe la hipótesis acerca de una posible conexión entre la formación estelar y el núcleo activo de las galaxias, por lo que influiría en el proceso evolutivo; conocer esto abonaría a comprender las fases de evolución de este tipo de galaxias.

Torres Papaqui agregó que todavía hay un fuerte debate dentro de la astronomía con respecto a los núcleos activos de las galaxias ya que todavía no se sabe a ciencia cierta los elementos que los producen. Sin embargo, los científicos saben que se da en una etapa primaria de la formación de la galaxia.

Aunque todavía no hay una teoría sólida al respecto, el catedrático de la Universidad de Guanajuato explicó que la versión más aceptada es que el núcleo activo surge a partir de la fusión de protogalaxias.

“Entre más rápido se desarrolle la tecnología, más probabilidades hay de conocer con más detalle el proceso de evolución de las galaxias y de su relación con los núcleos activos”, agregó.

Como parte del trabajo de su equipo de investigación, estudian el crecimiento de los bulbos galácticos que en la mayoría de las galaxias crecen paralelamente con el agujero negro supermasivo que se encuentra en el centro, por lo que conocer más al respecto puede ser una de las claves para entender la evolución de las galaxias.

También expresó que están investigando las intensidades de la formación estelar de las galaxias y cómo se relaciona con la perturbación gravitacional ante la presencia de galaxias cercanas; ahora con datos recientes, el grupo de investigación del doctor Torres Papaqui ha logrado ubicar que en las regiones centrales de las galaxias está ocurriendo el nacimiento de nuevas regiones de formación estelar por dichas perturbaciones.

Estos indicadores afectan la evolución de las galaxias porque se acelera la formación estelar y tiene un efecto que va desencadenando más fenómenos astronómicos, aseguró el investigador de la Universidad de Guanajuato.

La astronomía también es divertida

En la Universidad de Guanajuato, además de la investigación de alta especialidad, realizan actividades de divulgación científica bajo una premisa: se aprende mejor jugando.

Bajo el nombre de Astronomía Divertida, varios profesores y estudiantes de posgrado de la universidad dan conferencias y pláticas orientadas a público infantil, con el objetivo de que se interesen por la ciencia.

“También hacemos talleres lúdicos, observación con telescopios y tenemos un observatorio móvil que usamos para llegar a comunidades de difícil acceso”, dijo el divulgador.

Las observaciones las hacen con seis telescopios de ocho pulgadas portátiles, los cuales sirven para acercar la astronomía a jóvenes y niños que no tienen los medios ni los recursos para participar en actividades de divulgación en la ciudad.

Para el investigador Juan Pablo Torres Papaqui, la astronomía tiene una ventaja para divulgarse porque es muy atractiva y atrae al público infantil.

 

 

 

 

 

 

Publicado en Tecnologia
Archivado en
Sábado, 23 Junio 2018 06:35

Agujeros negros con sabor a México

Ciudad de México. (Agencia Informativa Conacyt).- Durante su participación en el High-grade Global Education Program for Sciences (HiGEPS), de la Universidad de Saitama, Japón, el astrofísico Eduardo de la Fuente Acosta, profesor investigador de la Universidad de Guadalajara, cautivó a jóvenes de secundaria y preparatoria con una singular presentación sobre agujeros negros en la que los dulces típicos de México fueron los protagonistas.

El HiGEPS es un curso para 50 estudiantes selectos de Japón, todos sobredotados, para que aprendan de diversos temas de ciencia, así como de la importancia de la internacionalización de los investigadores y de otras culturas.

Cuando los organizadores invitaron a De la Fuente Acosta, él sabía que era un reto porque la charla sería con jóvenes muy críticos que le harían preguntas como ¿qué son los agujeros negros?, si son negros y no se ven, ¿entonces cómo se estudian?, entre otras cosas, pero el principal desafío consistía en no usar tecnicismos.

“¿Cómo les explicas? Uno debe garantizar que se lleven conocimiento, pero no puedes ser técnico ni tampoco puedes insultar su inteligencia porque te pueden 'agarrar de bajada'. Así que le tuve que dedicar tiempo en pensar cómo explicarles un agujero negro”.

De la Fuente Acosta no encontraba los ejemplos o analogías precisos. Después de mucho pensar, se le ocurrió utilizar los dulces mexicanos como estrategia para atraer la atención de los jóvenes y difundir al mismo tiempo la cultura mexicana.

Así que antes de viajar a Japón compró en un mercado una buena cantidad de obleas de cajeta, popotitos flexibles de dulces, bolitas rojas con chile, ollitas de tamarindo y bombones.

El día del evento, De la Fuente Acosta estaba nervioso e impaciente, aunque no era la primera vez que impartiría una plática de divulgación, sí sería la primera donde utilizaría dulces mexicanos como herramienta para describir un agujero negro y no sabía cómo reaccionarían los jóvenes ni sus colegas.

“Es una cultura distinta, uno se puede reír de un chiste, pero quizás a los jóvenes japoneses no les cause gracia, claro que esa es la belleza de las distintas culturas y hay que saber manejarlas”.

Así que el día de la charla repartió un kit de dulces a cada uno de los asistentes con palillos chinos; les mostró el agujero negro “Gargantúa” de la película Interstellar, y después con una diapositiva con todos los componentes de un agujero negro, les explicó que el objeto astronómico es un punto en el espacio llamado singularidad, con una fuerza de gravedad tan alta que ni la luz puede escapar.

Esta singularidad está rodeada por una zona con un cierto tamaño, radio y horizonte de eventos, dentro del cual no se sabe qué pasa, pero fuera de él la materia no cae de manera directa a la singularidad, sino a través de un disco que rota y emite chorros de plasma (los jets).

“Les expliqué luego el ‘Gargantúa’ paso a paso, enfatizando que la gravedad también dobla la luz; también les platiqué el lente gravitacional. Luego les dije: 'Imaginen toda la Tierra metida en la bolita de dulce rojo que les di, esta bolita representa la singularidad. Ahora imagínense y apliquen lo que les expliqué y construyan su agujero negro, lo tienen todo”.

Los chicos debían poner la singularidad, el horizonte de eventos, el disco y sus propiedades, la desviación de la luz y los palillos chinos como jets. La plática terminó mostrando cómo los científicos infieren la presencia de los agujeros negros, de cómo usan la modelación y la simulación para entenderlos.

Respecto a la respuesta de los jóvenes, De la Fuente Acosta señaló que les gustó, se mostraban muy participativos. En tanto que a sus colegas les pareció interesante y una explicación correcta.

El reto de hacer una dulce divulgación científica

Para el físico, también miembro de la planta académica del doctorado en tecnologías de la información de la UdeG, el principal reto de hacer divulgación es saber cómo dejar clara la idea que se quiere transmitir a la audiencia.

.“Aquí los estudiantes hicieron sus propios agujeros negros y entre ellos se explicaban. Yo les daba los tips y los guiaba. Cada dulce era una componente del agujero negro, pero ellos debían entender y armarlos”.

Pero para que esto sea posible es necesario que el ponente tenga un profundo entendimiento del tema. No es copiar una plática y reproducirla una y otra vez, se debe preparar especialmente para cada público.

En opinión del especialista, en astrofísica utilizar dulces como herramienta de divulgación no significa bajarle el nivel a la ciencia, pero no en el sentido del rigor, sino en el aspecto de hacerla más asequible a todo el público.

“No me considero un divulgador profesional, pero tengo escuela y tradición. Hacer difusión siempre me cuesta trabajo porque considero que la mejor forma de dar una charla es mostrarlo de una manera fácil, sencilla y que tenga un impacto en la vida cotidiana; no obstante, hacer esto es lo más difícil”.

En tono de broma expresó que espera que algún día uno de los jóvenes que estuvieron en esta charla explique qué es un agujero negro pero con dulces japoneses, porque eso significaría que entendió bien el mensaje de divulgación del científico mexicano. 

Para De la Fuente Acosta, otra de las cualidades de la buena divulgación es despertar curiosidad e inquietud en los asistentes por conocer más y eso solo se logra si pudiste cautivarlos.

“También debes dejar ‘picada’ y motivada a la audiencia, hacer que saliendo de tu plática busquen más información, que quieran saber más. Eso también es un reto y es parte de la divulgación”, finalizó De la Fuente Acosta.

 

Dr. Eduardo de la Fuente Acosta
Estudió la licenciatura de física en la Universidad de Guadalajara, después realizó una maestría en ciencias en astronomía en la UNAM y un doctorado en ciencias en física en la Universidad de Guadalajara. Actualmente es profesor e investigador en la Universidad de Guadalajara. 
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

 

 

 

Publicado en Tecnologia
Archivado en

Este hallazgo ocurrió gracias al estudio de restos de microrganismos que vivieron en el pasado y se conservaron en el registro geológico.

Los avances más recientes de esta investigación que realiza un grupo internacional de 32 expertos de 17 países se publicaron hace unos días en la revista Nature.

El asteroide que se estrelló en la Tierra hace aproximadamente 66 millones de años fue responsable de la quinta extinción masiva: provocó la desaparición de los dinosaurios y del 76 por ciento de la vida en todo el planeta. La huella de este asteroide quedó plasmada en forma de cráter en la costa de la Península de Yucatán. En la zona de impacto y a dos mil kilómetros a la redonda, la devastación fue total. Sin embargo, estudios recientes revelan que el ecosistema prosperó apenas transcurridos 30 mil años, una recuperación muy rápida desde la perspectiva del tiempo geológico; un hallazgo que ha causado una gran sorpresa, según anunciaron los investigadores Ligia Pérez Cruz y Jaime Urrutia Fucugauchi, del Institutito de Geofísica de la UNAM.

Esta investigación en el cráter Chicxulub ha causado mucho interés y se ha vuelto “taquillero” por su relación con la extinción de los dinosaurios, dijo Urrutia Fucugauchi, quien agregó que en un principio los trabajos que se realizaron en la zona se enfocaron en la dinámica y en los efectos del impacto en varios niveles y áreas de estudio.

El expresidente de la Academia Mexicana de Ciencias señaló que además de investigar los mecanismos de extinción y las causas que ocasionaron la desaparición de organismos, ahora “hemos pasado a estudiar las condiciones en la que los organismos pueden sobrevivir a una extinción de este tipo y sus efectos globales; qué ocurre con las extinciones secundarias y qué sucede con un ecosistema fragmentado (tres de cuatro especies desaparecieron)”.

El interés de este trabajo está justo en el sitio de impacto, donde se presentaron efectos adicionales a diferencia de lo que sucedió en los ecosistemas alejados. En dicha zona los organismos desaparecieron porque hubo temperaturas de miles de grados, ahí el ecosistema desapareció en superficie y en profundidad. “El sitió quedó prácticamente estéril a la vida, eso hace que sea interesante de estudiar”, dijo Jaime Urrutia.

Los recientes hallazgos
De acuerdo con Pérez Cruz, en el artículo publicado el 30 de mayo en la revista Nature con el título Rapid recovery of life at ground zero of the end-Cretaceous mass extinction se hace referencia a la pronta recuperación de la vida a finales del Cretácico, cuando ocurrió esta extinción masiva. Para esta investigación fue necesario, recordó la investigadora, realizar una perforación en el sitio M77A, a 20 kilómetros de Puerto Progreso, Yucatán, de donde se extrajeron los núcleos de roca —a una profundidad aproximada a los mil 400 metros— para ser estudiados.

En estos núcleos fue posible analizar pequeños microorganismos que quedaron atrapados en las rocas y se conservaron en el registro geológico. “Tres fueron los indicadores utilizados en este estudio: foraminíferos, nanoplancton calcáreo e icnofósiles (restos fósiles)”, señaló Pérez Cruz.

Este estudio, explicó la oceanógrafa, es resultado de la expedición 364 del Programa Internacional de Descubrimientos en los Océanos (IODP, por sus siglas en inglés), que entre sus objetivos es averiguar cómo fue la recuperación de la vida en la zona del impacto, qué pasó después y cómo se pudo recuperar la vida y el tiempo que se tomó en hacerlo.

“La ventaja de los organismos que nos sirven de indicadores es que en pequeños fragmentos de roca podemos encontrar cientos de estos ejemplares para hacer cuantificaciones y reconstrucciones para resolver estas preguntas de investigación”.

Los investigadores apuntaron que los diminutos fósiles y el rastro de ellos, son evidencia contundente de que los organismos habitaban la zona del cráter, pero también son un indicador general de la habitabilidad en el medio ambiente años después del impacto.

El núcleo 40, que se obtuvo a 616 metros de profundidad de la perforación, es el que marca el intervalo Cretáceo/Paleógeno y la extinción masiva. Fue clave para el estudio de los microfósiles. Ahora los científicos trabajarán en afinar la tasa de sedimentación y gracias a “los datos geoquímicos que se están produciendo ya tenemos más información al respecto”.

Ligia Pérez informó que de gracias a los estudios que se han hecho del asteroide que se estrelló en la Tierra ahora se sabe que: la fuerza de impacto fue 7 millones de veces más grande que la explosión de la bomba nuclear más poderosa en el mundo; que el material fragmentado salió disparado a velocidades mayores de 9.8 kilómetros por segundo; que en la parte central de la cavidad del núcleo se formó en pocos segundos una estructura más grande que el monte Everest —de 8 mil 848 metros de altura— , que posteriormente se desplomó; que más del 76% de la biodiversidad se extinguió, lo que marcó la quinta extinción masiva en el planeta; y que los animales que sobrevivieron a dicho impacto pesaban menos de un kilo —en el caso de los mamíferos—.

Y lo más reciente que se encontró fue la primera evidencia de la aparición de la vida tras el impacto. Después de 30 mil años del choque hubo un ecosistema próspero presente en el cráter con fitoplancton floreciente (algas microscópicas) que soportaba una comunidad diversa de microfósiles en las aguas superficiales y en el fondo marino. En contraste, otras áreas alrededor del mundo, incluyendo el Atlántico Norte y otras áreas del Golfo de México, tomaron hasta 300 mil años para recuperarse de manera similar.

“La lección que podemos obtener de esto es que todas las investigaciones del cráter de Chicxulub permiten conocer sobre la evolución de los sistemas planetarios, los cráteres de impacto, los cambios globales, pero también la manera de cómo la vida se reinventa y resurge sin importar qué tan adversas sean las condiciones”, concluyó Pérez Cruz.

 

Publicado en Tecnologia
Archivado en

Ciudad de México. 24 de mayo de 2018 (Agencia Informativa Conacyt).- La Unión Astronómica Internacional (IAU, por sus siglas en inglés) otorgará el reconocimiento IAU PhD Prize 2017 a la mexicana Gisela Noemí Ortiz León por su tesis de doctorado Astrometría ultraprecisa con interferometría de muy larga base en el centimétrico y milimétrico, realizada en el Instituto de Radioastronomía y Astrofísica de la Universidad Nacional Autónoma de México (UNAM), campus Morelia.

Bajo la supervisión del prestigiado científico Laurent Loinard, profesor de dicha casa de estudios, la investigación de la entonces becaria del Consejo Nacional de Ciencia y Tecnología (Conacyt) consiste en el estudio de la posición de los astros para determinar sus distancias y movimientos.

Los resultados más destacados de la tesis doctoral se centran en dos líneas principales de investigación. La primera es su participación en el proyecto Gould’s Belt Distances Survey (GOBELINS), en el cual se logró la determinación de mayor precisión hasta el momento de las distancias hacia las regiones de formación de estrellas.

En entrevista, la especialista explicó que uno de los fenómenos que hoy en día intriga mucho a los astrónomos es la formación y evolución de las estrellas. Se piensa que las estrellas como el sol se forman de la acumulación de gas y polvo interestelar que abunda en ciertas regiones de la galaxia, denominadas regiones de formación estelar, y su estudio, así como la determinación de sus propiedades físicas, representa un paso hacia el entendimiento de la formación de nuevas estrellas.

“En mi tesis doctoral hice mediciones para determinar con la mayor precisión posible —estamos hablando de un margen de error de uno a tres por ciento— la distancia respecto al sol de varias estrellas que aún viven en sus regiones madres. Estas mediciones me permitieron derivar varias propiedades de dichas regiones, como por ejemplo su profundidad, así como el movimiento de las estrellas dentro de las regiones estelares”.

Esta precisión fue posible gracias a que se utilizó el arreglo de líneas de base muy largas (VLBA, por sus siglas en inglés), un interferómetro conformado por 10 radiotelescopios situados a lo ancho del territorio de Estados Unidos y que tiene la capacidad de medir la posición de estrellas con gran precisión.

La segunda gran aportación que hizo Ortiz León en su tesis de doctorado fue la primera observación del agujero negro en el centro de nuestra Vía Láctea, que utilizó la técnica interferométrica con el Gran Telescopio Milimétrico (GTM) y el VLBA, esto con el objetivo de formar virtualmente un telescopio de tamaño continental.

“Utilizamos este gran arreglo para estudiar la luz a una longitud de onda de tres milímetros y determinamos que el tamaño físico de la región donde se produce dicha radiación es unas 14 veces el tamaño del horizonte de eventos (equivalente a 1.2 unidades astronómicas)”.

Este resultado representa un paso hacia el objetivo final del proyecto del Telescopio del Horizonte de Eventos (EHT, por sus siglas en inglés), donde los científicos esperan conseguir la primera imagen de la vecindad cercana del agujero negro.

“Gracias a la investigación desarrollada en mi tesis, ahora sabemos que con el GTM es posible ver el agujero negro en tiempo real y detectar estallidos de radiación que ocurran cerca del horizonte de eventos debido a posibles incrementos en la caída de materia hacia el agujero negro”.

Una joven estrella

Para Gisela Noemí Ortiz León, quien actualmente realiza una estancia posdoctoral en el Max Planck Institut für Radioastronomie, en Bonn, Alemania, recibir este galardón representa un reconocimiento al trabajo que realiza en conjunto con un gran grupo de investigadores de México, Estados Unidos, Brasil y Chile, sobre el estudio de regiones estelares.

“Mi investigación sobre las distancias a estrellas jóvenes es un fragmento de un proyecto mayúsculo (…) Para mí, el premio de la IAU es un reconocimiento al valor científico de la investigación desarrollada por nuestro grupo de trabajo, y una gran oportunidad para que astrónomos en todo el mundo se enteren de nuestros resultados y puedan aplicarlos en sus propias investigaciones”.

Resaltó que si bien medir la posición de estrellas para determinar su distancia y movimientos ha sido un estudio clásico en astronomía, aún hay mucho por descubrir y, por lo tanto, es una de las ramas más activas.

 

 

 

 

Publicado en Tecnologia
Archivado en

Rafael Navarro, del Instituto de Ciencias Nucleares, es el único mexicano en el proyecto de la NASA para el diseño, construcción y análisis de datos del laboratorio portátil Sample Analysis at Mars, el corazón del robot.

El agua que tuvo Marte hace tres mil 800 millones de años era similar a la que bebemos en la Tierra; sus rocas, formadas por lodos de un lago, son ricas en hidrógeno, carbono, nitrógeno, oxígeno, fósforo y azufre, necesarios para la vida como la conocemos, dijo.

Curiosity ha llegado a una zona de arcillas que pueden atrapar materia orgánica y preservarla. Esto podría responder a la pregunta de si hubo vida en el planeta rojo.

Desde su llegada a Marte, en agosto de 2012, y hasta la fecha, el robot explorador Curiosity ha visto poco más de dos mil soles; es decir, ha pasado más de dos mil días con sus noches en el planeta rojo, lo que implica casi seis años de trabajo constante para el mexicano Rafael Navarro, del Instituto de Ciencias Nucleares (ICN) de la UNAM.

Pero Navarro se unió al proyecto de la NASA en 2004 para el diseño del laboratorio portátil Sample Analysis at Mars (SAM, o Análisis de Muestras en Marte), que es el corazón del robot Curiosity; así, el investigador universitario lleva 14 años de su vida dedicados al diseño, construcción y análisis de datos.

“Ha sido una experiencia emocionante en todos los sentidos”, enfatizó Navarro, uno de los especialistas que desde el Laboratorio de Química de Plasmas y Estudios Planetarios del ICN recrea los experimentos realizados por la máquina en Marte.

Cada día, Curiosity vaporiza muestras del suelo marciano y manda los datos a la NASA, mismos que son retomados por investigadores de la UNAM, de Estados Unidos y de Europa, quienes además de reproducir los experimentos, comparan los resultados y discuten sobre lo que encuentra el robot durante su exploración.

En los dos mil días que ha pasado en Marte, ha recorrido 19 kilómetros desde su llegada a las faldas del cráter Gale hasta el monte Sharp, en donde está actualmente, a 180 metros de altitud.

“El estado de salud del robot es bastante bueno, con la capacidad de seguir explorando el ambiente marciano probablemente hasta finales de esta década o principios de la siguiente”, estimó el único mexicano en colaborar en la misión Curiosity.

Durante su travesía, Curiosity, y el equipo de científicos en la Tierra, han realizado importantes aportes: el agua que tuvo Marte hace tres mil 800 millones de años era similar a la que bebemos en la Tierra; sus rocas, formadas por lodos de un lago, son ricas en hidrógeno, carbono, nitrógeno, oxígeno, fósforo y azufre, elementos necesarios para la vida como la conocemos.

Además, se confirmó la presencia de sales de perclorato, que si bien impiden la detección de compuestos orgánicos de manera directa y pueden tener un efecto tóxico para los humanos, hacen posible atrapar el agua de la atmósfera; así, se podría colectar el líquido en Marte sin tener que llevarlo de nuestro planeta.

De igual manera, se han medido los niveles de radiación en la superficie marciana y se ha encontrado que exceden los niveles permitidos para los astronautas; entonces, los que viajen deberán hacerlo con trajes especiales para evitar daños.

El robot explorador lleva consigo varios equipos de medición, pero uno de los más valiosos es SAM, en el que participa Navarro González; tiene una especie de horno que vaporiza las muestras de suelo, además de un laboratorio químico que procesará otras muestras en el futuro.

SAM ha contribuido a analizar la atmósfera y a saber que, en el tiempo en que había vulcanismo, ríos y agua líquida, “era mucho más densa, probablemente parecida a la que tenemos en la Tierra; además, había mayor cantidad de agua que fluía por lagos que pudieron existir hace millones de años”, explicó el también colaborador de la Agencia Espacial Europea.

Estos datos son clave para proyectos gubernamentales y privados de exploración humana. “Después de casi seis años, Curiosity ha logrado llegar a una zona rica en arcillas, importantes porque se forman en presencia de agua líquida y tienen propiedades para atrapar materia orgánica y preservarla. Esto representa un ambiente en donde podremos estudiar si hay compuestos orgánicos y responder a la pregunta de si hubo o no vida en Marte”, remarcó el especialista.

La misión en general es altamente valiosa para la NASA, que ya ha extendido el periodo de operaciones de Curiosity por tres años más, y para 2020 espera enviar un nuevo robot explorador que tomará muestras del suelo para ser traídas directamente a la Tierra.

 

Publicado en Tecnologia
Archivado en

Publish the Menu module to "offcanvas" position. Here you can publish other modules as well.
Learn More.