J. Arnoldo Bautista
Entender la Inteligencia Artificial: Imprescindible para la no proliferación nuclear y la seguridad nacional
El día de hoy nos comparte un querido colega un interesante artículo sobre el alcance de nuestra compresión de la Inteligencia Artificial (IE). Este artículo, escrito por Tom Rickey, se publicó en el boletín digital de Pacific Northwest National Laboratory el 26 de febrero pasado y se tradujo por nosotros para este espacio. Esperamos lo disfrute.
Todos hemos conocido a personas tan inteligentes e informadas que no entendemos de qué están hablando. El asesor de inversiones que habla de los derivados, el médico que habla de las células B y las células T, el mecánico de automóviles que habla de los sofisticados motores computarizados actuales: sin embargo, confiamos en sus decisiones, aunque no comprendemos completamente el significado de sus palabras.
Así como sucede con la inteligencia humana, también ocurre con la Inteligencia Artificial (IA). Puede que no sepamos exactamente qué está pasando dentro de esa elaborada caja negra construida por humanos, pero sus decisiones pueden ser tan precisas que se gana nuestra confianza, si no nuestra comprensión.
Eso no es un problema cuando las decisiones tienen poca importancia. ¿Realmente necesitamos comprender, por ejemplo, el funcionamiento interno de un sistema de inteligencia artificial que clasifica cientos de fotos de gatos y perros sin problemas en el tiempo que lleva decir las palabras "perros y gatos"? Probablemente no. Las vidas humanas y el destino de las naciones no dependen de esas decisiones.
Pero la necesidad de comprensión aumenta cuando hay algo más en juego. Para las preocupaciones de seguridad nacional que se están estudiando en el Pacific Northwest National Laboratory (PNNL) no es suficiente saber que un sistema funciona; los científicos exigen saber cómo y por qué.
IA comprensible: un camino hacia entender qué son y cómo funcionan los sistemas
Esa es la base de un campo de estudio conocido como "IA comprensible". El objetivo es comprender y explicar el razonamiento del sistema: desenredar los hilos de información que utiliza un sistema de inteligencia artificial para tomar decisiones o hacer recomendaciones.
"En el espacio de la seguridad nacional, las decisiones las toman personas que exigen transparencia con las tecnologías con las que están trabajando", dijo Angie Sheffield, gerente senior de programas de la National Nuclear Security Administration (NNSA por sus siglas en inglés) del Departamento de Energía de EUA.
Sheffield administra la cartera de ciencia de datos en la Oficina de Investigación y Desarrollo de No Proliferación Nuclear de Defensa de la NNSA, también conocida como Investigación y Desarrollo de DNN. La oficina supervisa y mejora la capacidad de la nación para detectar y monitorear la producción y el movimiento de material nuclear, el desarrollo de armas y las detonaciones nucleares en todo el mundo. La oficina apoya el trabajo de un equipo de científicos de PNNL que están explorando cómo hacer que la IA sea compresible desde todos los ángulos y formas.
La IA está en todas partes en estos días, desde el diseño de medicamentos hasta las compras en línea, los sistemas de reserva y las listas de verificación de riesgos para la salud. El ámbito de la seguridad nacional, con grandes desafíos de análisis de datos y potentes capacidades informáticas, no es una excepción. Hay mucho en juego cuando se trata de cuestiones de no proliferación nuclear, y saber exactamente cómo un sistema de inteligencia artificial llega a sus conclusiones es crucial.
"Puede ser difícil incorporar una tecnología nueva y disruptiva como la IA en los enfoques científicos actuales. Un enfoque es construir nuevas formas en que los humanos puedan trabajar de manera más eficaz con la IA", dijo Sheffield. "Debemos crear herramientas que ayuden a los desarrolladores a comprender cómo funcionan estas técnicas sofisticadas para que podamos aprovecharlas al máximo".
La escasez de datos hace que la IA compresible sea esencial
La técnica más común para entrenar un sistema de IA es presentarle una gran cantidad de datos. Cuando hay fotos casi ilimitadas de rostros disponibles, por ejemplo, un sistema aprende mucho sobre los matices que involucran ojos, narices y bocas para usar el reconocimiento facial para determinar si una mirada suya debería abrir su teléfono. El sistema de IA se basa en la disponibilidad y la entrada de una gran cantidad de datos para permitir que el sistema clasifique la información correctamente.
Pero, afortunadamente, los datos son mucho más escasos cuando se trata de explosiones nucleares o desarrollo de armas. Esa buena noticia complica el desafío de usar la inteligencia artificial en el espacio de la seguridad nacional, lo que hace que el entrenamiento de la inteligencia artificial sea menos confiable y amplifica la necesidad de comprender cada paso del proceso.
"Estamos trabajando para entender por qué los sistemas dan las respuestas que dan", dijo Mark Greaves, científico de PNNL involucrado en la investigación. "No podemos usar directamente las mismas tecnologías de inteligencia artificial que utiliza Amazon para decidir que estoy preparado para comprar una cortadora de césped, para decidir si una nación está preparada para crear un arma nuclear. Los datos disponibles de Amazon son enormes y una cortadora de césped equivocada la recomendación no es un gran problema.
"Pero si un sistema de inteligencia artificial arroja una probabilidad errónea sobre si una nación posee un arma nuclear, ese es un problema de una escala completamente diferente. Por lo tanto, nuestro sistema debe al menos producir explicaciones para que los humanos puedan verificar sus conclusiones y usar su propia experiencia para corregir para las brechas de entrenamiento de IA causadas por la escasez de datos ", agregó Greaves. "Estamos inspirados por los enormes avances que sigue haciendo la IA, y estamos trabajando para desarrollar técnicas de IA nuevas y especializadas que puedan dar a Estados Unidos una ventana adicional a la actividad de proliferación nuclear".
Una pizca de IA, una pizca de conocimiento del dominio.
Sheffield señala que las fortalezas de PNNL provienen de dos fuentes. Uno es la experiencia significativa en IA; Los científicos de PNNL son presentadores frecuentes en congresos en los que también participan investigadores de entidades como Google, Microsoft y Apple. Pero el otro es el conocimiento del dominio: detalles técnicos entendidos por el personal de la PNNL sobre cuestiones como cómo se procesa el plutonio, el tipo de señales exclusivas del desarrollo de armas nucleares y las proporciones de isótopos producidos por dichos materiales.
La combinación de ciencia de datos, inteligencia artificial y experiencia en seguridad nacional le da a PNNL un papel único en la protección de la nación en el espacio de seguridad nacional de IA. Está combinando el poder científico puro de la IA con la sensatez inteligente callejera de un detective nuclear.
"Se necesita un conjunto especial de conocimientos, habilidades y capacidad técnica para avanzar en el estado del arte en seguridad nacional", dijo Sheffield. "Las consecuencias de lo que hacemos son muy altas y debemos ir mucho más allá de la práctica estándar para ser responsables".
Fuente: https://www.pnnl.gov/news-media/explainable-ai-must-nuclear-nonproliferation-national-security
Robot cuadrúpedo autónomo que se controla y energiza con aire comprimido
Un estimado colega nos comparte en esta ocasión información relativa a robots blandos. En particular se trata de un robot blando cuadrúpedo que no necesita ningún dispositivo electrónico para funcionar y que fue diseñado y construido por ingenieros de la University of California - San Diego. El robot sólo necesita una fuente constante de aire a presión para todas sus funciones, incluidos sus controles y sistemas de locomoción. Esta información se publicó el 17 de febrero de 2021 en el boletín digital de noticias de la UC-San Diego en un artículo de divulgación escrito por Ioana Patringenaru y traducido aquí por nosotros. Veamos de qué se trata…
El equipo de ingenieros, dirigido por Michael T. Tolley, profesor de ingeniería mecánica en la Jacobs School of Engineering de la UC-San Diego, detalla sus hallazgos en la edición del 17 de febrero de 2021 de la revista científica Science Robotics.
"Este trabajo representa un paso fundamental pero significativo hacia robots andantes totalmente autónomos y sin dispositivos electrónicos", dijo el Dylan Drotman, estudiante de doctorado y miembro del equipo de investigación de Tolley y primer autor del artículo.
Las aplicaciones incluyen robótica de bajo costo para entretenimiento, como juguetes, y robots que pueden operar en entornos donde la electrónica no puede funcionar, como máquinas de resonancia magnética o pozos de minas. Los robots blandos son de particular interés porque se adaptan fácilmente a su entorno y operan de forma segura cerca de los humanos.
La mayoría de los robots blandos funcionan con aire a presión y están controlados por circuitos electrónicos. Pero este enfoque requiere componentes complejos como placas de circuitos, válvulas y bombas, a menudo fuera del cuerpo del robot. Estos componentes, que constituyen el cerebro y el sistema nervioso del robot, suelen ser voluminosos y costosos. Por el contrario, el robot UC San Diego está controlado por un sistema de circuitos neumáticos livianos y de bajo costo, compuesto por tubos y válvulas blandas, a bordo del propio robot. El robot puede caminar por orden o en respuesta a las señales que detecta del entorno.
"Con nuestro enfoque, podría hacer un cerebro robótico muy complejo", dijo Tolley, autor principal del estudio. "Nuestro enfoque aquí fue crear el sistema nervioso de aire más simple necesario para controlar la marcha".
El poder computacional del robot imita aproximadamente los reflejos de los mamíferos que son impulsados por una respuesta neuronal de la columna en lugar del cerebro. El equipo se inspiró en los circuitos neuronales que se encuentran en los animales, llamados generadores de patrones centrales, hechos de elementos muy simples que pueden generar patrones rítmicos para controlar movimientos como caminar y correr.
Para imitar las funciones del generador, los ingenieros construyeron un sistema de válvulas que actúan como osciladores, controlando el orden en que el aire presurizado ingresa a los músculos impulsados por aire en las cuatro extremidades del robot. Los investigadores construyeron un componente innovador que coordina la marcha del robot retrasando la inyección de aire en las piernas del robot. El andar del robot se inspiró en las tortugas de cuello lateral.
El robot también está equipado con sencillos sensores mecánicos: pequeñas burbujas suaves llenas de líquido colocadas al final de los brazos que sobresalen del cuerpo del robot. Cuando se presionan las burbujas, el fluido hace girar una válvula en el robot que hace que cambie de dirección.
El artículo de Science Robotics se basa en trabajos anteriores de otros grupos de investigación que desarrollaron osciladores y sensores basados en válvulas neumáticas, y agrega los componentes necesarios para lograr funciones de alto nivel como caminar.
¿Cómo funciona?
El robot está equipado con tres válvulas que actúan como inversores que hacen que un estado de alta presión se extienda por el circuito de aire, con un retraso en cada inversor.
Cada una de las cuatro patas del robot tiene tres grados de libertad impulsados por tres músculos. Las patas tienen un ángulo de 45 grados hacia abajo y están compuestas por tres cámaras cilíndricas neumáticas conectadas paralelas con fuelles. Cuando se presuriza una cámara, la extremidad se dobla en la dirección opuesta. Como resultado, las tres cámaras de cada extremidad proporcionan la flexión de múltiples ejes necesaria para caminar. Los investigadores emparejaron cámaras de cada pierna en diagonal una frente a la otra, simplificando el problema de control.
Enlace a video del robot caminando sin ataduras, impulsado por un contenedor de CO2 presurizado a bordo equipado con un regulador de presión. Video acelerado 4X. Crédito: Drotman et al., Sci. Robot. 6, eaay2627 (2021): https://youtu.be/X5caSAb4kz0
Una válvula suave cambia la dirección de rotación de las extremidades entre la izquierda y la derecha. Esa válvula actúa como lo que se conoce como un interruptor de enganche de dos polos y dos posiciones: un interruptor con dos entradas y cuatro salidas, por lo que cada entrada tiene dos salidas correspondientes a las que está conectada. Ese mecanismo es un poco como tomar dos nervios e intercambiar sus conexiones en el cerebro.
Próximos pasos
En el futuro, los investigadores quieren mejorar la marcha del robot para que pueda caminar sobre terrenos naturales y superficies irregulares. Esto permitiría al robot navegar sobre una variedad de obstáculos. Esto requeriría una red de sensores más sofisticada y, como resultado, un sistema neumático más complejo.
El equipo también analizará cómo se podría usar la tecnología para crear robots, que en parte estén controlados por circuitos neumáticos para algunas funciones, como caminar, mientras que los circuitos electrónicos tradicionales manejan funciones superiores.
Fuente: https://ucsdnews.ucsd.edu/pressrelease/airwalker
El Rover Perseverance de la NASA envía un adelanto del aterrizaje en Marte
El pasado jueves 19 de febrero tuvimos la oportunidad de ver la trasmisión, desde la cabina de mando de la NASA, del momento en que aterrizó el Perseverance Rover en Marte. Fue un momento emocionante. Este tipo de eventos se están convirtiendo poco a poco en un lugar común.
Al respecto un querido colega nos comparte el presente comunicado de la NASA sobre lo que ha pasado en las horas siguientes al aterrizaje. Este comunicado (21-020) fue firmado por Alana Johnson / Grey Hautaluoma, en la sede de la Nasa en Washington y publicado en su boletín digital el 19 de febrero de 2021 y traducido por nosotros. Revisemos su contenido:
Menos de un día después de que el rover Perseverance Mars 2020 de la NASA aterrizara con éxito en la superficie de Marte, los ingenieros y científicos del NASA Jet Propulsion Laboratory (Laboratorio de Propulsión a Chorro, JPL por sus siglas en inglés) de la agencia en el sur de California estaban trabajando arduamente, esperando las próximas transmisiones de Perseverance. A medida que ingresaban datos gradualmente, transmitidos por varias naves espaciales que orbitaban el Planeta Rojo, el equipo de Perseverance se sintió aliviado al ver los informes del estatus, la situación, del Rover, que mostraban que todo parecía funcionar como se esperaba.
Además de la emoción, se obtuvo una imagen de alta resolución tomada durante el aterrizaje del rover. Mientras que el Rover Mars Curiosity de la NASA envió una película stop-motion de su descenso, las cámaras de Perseverance están destinadas a capturar video de su aterrizaje y esta nueva imagen fija fue tomada de ese metraje, que aún se está transmitiendo a la Tierra para su proceso.
Esta imagen fija de alta resolución es parte de un video tomado por varias cámaras cuando el rover Perseverance de la NASA aterrizó en Marte el 18 de febrero de 2021. Una cámara a bordo de la etapa de descenso capturó esta toma. Un objetivo clave de la misión de Perseverance en Marte es la astrobiología, incluida la búsqueda de signos de vida microbiana antigua. El rover caracterizará la geología del planeta y el clima pasado, allanará el camino para la exploración humana del Planeta Rojo y será la primera misión en recolectar y almacenar rocas y regolitos marcianos (rocas y polvo rotos). JPL, que es administrado para la NASA por Caltech en Pasadena, California, planeó y administra las operaciones de los Rovers Perseverance y Curiosity.
Créditos: NASA / JPL-Caltech
A diferencia de los vehículos exploradores anteriores, la mayoría de las cámaras de Perseverance capturan imágenes en color. Después del aterrizaje, dos de las cámaras de seguridad (Hazcams) capturaron vistas desde la parte delantera y trasera del rover, mostrando una de sus ruedas en la tierra marciana. La Perseverancia también obtuvo un primer plano del ojo de la NASA en el cielo: el reconocimiento de Marte de la NASA, el Orbiter, que usó una cámara especial de alta resolución para capturar la nave espacial navegando hacia el cráter Jezero, con su paracaídas detrás. La cámara del Experimento de cámara de alta resolución (HiRISE) hizo lo mismo con Curiosity en 2012. JPL lidera la misión del orbitador, mientras que el instrumento HiRISE está dirigido por la Universidad de Arizona.
Se espera que varias cargas pirotécnicas se disparen más tarde el viernes, liberando el mástil de Perseverance (la "cabeza" del rover) desde donde está fijado en su cubierta. Las cámaras de navegación (Navcams), que se utilizan para conducir, comparten espacio en el mástil con dos cámaras científicas: la Mastcam-Z con zoom y un instrumento láser llamado SuperCam. El mástil está programado para levantarse el sábado 20 de febrero, después de lo cual se espera que las Navcams tomen panoramas de la cubierta del rover y sus alrededores.
En los próximos días, los ingenieros estudiarán minuciosamente los datos del sistema del rover, actualizarán su software y comenzarán a probar sus diversos instrumentos. En las próximas semanas, Perseverance pondrá a prueba su brazo robótico y hará su primer viaje corto. Pasaran al menos uno o dos meses hasta que Perseverance encuentre un lugar plano para que Ingenuity, el mini helicóptero dentro del vientre del rover, emprenda sus recorridos, e incluso pasará aún más tiempo antes de que finalmente emprenda su larga jornada; en ese momento iniciará su misión científica buscando su primera muestra de roca y sedimentos marcianos.
Más sobre la misión
Un objetivo principal de la misión Perseverance en Marte es la investigación astrobiológica, incluida la búsqueda de signos de vida microbiana antigua. El rover caracterizará la geología del planeta y el clima pasado y será la primera misión en recolectar y almacenar rocas y regolitos marcianos, allanando el camino para la exploración humana del Planeta Rojo.
Las misiones posteriores de la NASA, en cooperación con la ESA (Agencia Espacial Europea), enviarán naves espaciales a Marte para recolectar estas muestras tomadas de la superficie y devolverlas a la Tierra para un análisis en profundidad.
La misión Perseverancia Marte 2020 es parte de todo un proyecto que incluye la exploración de la Luna y Marte de la NASA, con las misiones de Artemisa a la Luna que ayudaran a prepararse para la exploración humana del Planeta Rojo.
JPL, una división de Caltech en Pasadena, California, opera la misión Perseverancia Mars 2020 y la demostración de la tecnología Ingenuity Mars Helicopter para la NASA.
Para ver más imágenes de Perseverance, visite:
https://www.nasa.gov/content/perseverance-mars-rovers-first-images
Para obtener más información sobre la perseverancia, visite:
https://mars.nasa.gov/mars2020/
y
Fuente: https://www.nasa.gov/press-release/nasa-s-perseverance-rover-sends-sneak-peek-of-mars-landing
El almacenamiento a largo plazo de aeronaves no es un gran riesgo para la seguridad
La pandemia generada por el coronavirus SARS-CoV-2 ha tenido un impacto monumental en la industria de la aviación debido a las restricciones que los países han impuesto para proteger a sus poblaciones, resultando en una ingente reducción en la demanda de vuelos. Por supuesto, el origen de las restricciones se deriva del papel directo que las aerolíneas han jugado en la forma en que la enfermedad COVID-19 se ha propagado alrededor del mundo. Lo anterior ha ocasionado que los aviones vuelen vacíos entre aeropuertos, que se hayan cancelado vuelos, se hayan cerrado aeropuertos y que la gran mayoría de aviones se encuentre en tierra.
De acuerdo al cuarto informe de la Asociación Internacional de Transporte Aéreo del 14 de abril de 2020, se estima una reducción de ingresos del 55 por ciento a nivel global para el 2020 por venta de pasajes. Los fabricantes de aviones y los operadores de aeropuertos también han despedido empleados. Según algunos expertos, la crisis resultante es la peor jamás ocurrida en la historia de la aviación.
De lo anterior, surge de pronto una pregunta: ¿qué impacto tendrá la inactividad de los aviones en la futura seguridad de los vuelos? Al respecto un estimado colega nos comparte un artículo escrito por Neil Martin, publicado el 21 de enero de 2021 en el boletín digital de la University of New South Wales (UNSW) y traducido por nosotros. Revisémoslo…..
Existen procedimientos de mantenimiento adecuados para garantizar que los aviones que estén en tierra durante meses o años debido a restricciones de viaje en todo el mundo no sean un peligro adicional cuando vuelvan a volar.
Los pasajeros aéreos no deberían preocuparse por volar en el futuro, según un experto aeroespacial de la UNSW en Sydney, a pesar de que muchos aviones se mantienen almacenados a largo plazo debido a la pandemia de COVID-19.
La seguridad aérea fue un tema mundial a principios de este mes cuando 62 personas murieron tras el accidente de un Boeing 737 de Sriwijaya Air poco después del despegue de Yakarta en Indonesia. La aeronave involucrada en ese incidente había estado almacenada a largo plazo durante muchos meses durante 2020.
Como se comentó anteriormente, la pandemia de COVID-19 ha provocado una enorme disminución de los viajes aéreos en el último año, especialmente en rutas intercontinentales, y posteriormente obligó a las aerolíneas de todo el mundo a dejar en tierra miles de aviones durante largos períodos.
La Agencia de Seguridad Aérea de la Unión Europea (EASA) dijo en un boletín de información de seguridad publicado en agosto pasado que había notado una “tendencia alarmante” en el número de informes de indicaciones de velocidad y altitud no confiables durante los primeros vuelos después de que la aeronave dejara el almacenamiento, causada por sistemas de datos de aire contaminado.
Un porcentaje significativo de esas contaminaciones se debió, dijo, a la acumulación de objetos extraños, como nidos de insectos, en el sistema estático pitot que monitorea de manera crucial la velocidad y la altitud. Recomendaron el cumplimiento cuidadoso de los procedimientos de mantenimiento para las aeronaves almacenadas que vuelven a estar en servicio.
Pero la Dra. Sonya Brown, profesora principal de diseño aeroespacial en UNSW Engineering, dice que no hay razón para que los pasajeros se preocupen indebidamente por la condición de los aviones almacenados, incluso si los aviones permanecen en tierra por períodos más largos debido a restricciones fronterizas extendidas.
"En cualquier manual de mantenimiento de aeronaves hay procedimientos para poner a tierra el avión y son muy, muy específicos sobre lo que se debe hacer dependiendo de las diferentes duraciones del almacenamiento", dice la Dra. Brown.
Muchos aviones se envían a instalaciones de almacenamiento a largo plazo en regiones desérticas donde la baja humedad ayuda a prevenir daños al avión y sus sistemas de vuelo cruciales.
"Y si la aeronave se almacena correctamente, y si el personal debidamente autorizado sigue todos esos procedimientos, existe muy poco riesgo adicional".
"También depende de factores ambientales. Por eso, en algún lugar como Alice Springs a menudo se utiliza como instalación de almacenamiento, así como el desierto de Arizona, porque tienen muy poca humedad, por lo que se reduce la posibilidad de que algunos de los efectos de la degradación que podríamos ver ".
La instalación de almacenamiento en Alice Springs, administrada por Asia Pacific Aircraft Storage (APAS), ha crecido rápidamente desde que la pandemia afectó fuertemente los viajes aéreos y, en última instancia, podría albergar hasta 200 aviones.
La compañía también aumentó sus niveles de personal de mantenimiento a 70, con planes de expansión futura si es necesario.
En términos de flotas locales, y con los viajes intercontinentales hacia y desde Australia diezmados, Qantas ha almacenado 12 de sus Airbus A380 de larga distancia en el desierto de Mojave en los E.E. U.U. hasta 2023. Además, 11 de sus Boeing 787 también han sido conectadso a tierra a largo plazo en la misma instalación.
En total, Qantas anunció en junio pasado que guardaría alrededor de 100 aviones durante al menos un año, y probablemente incluso más, ya que el gobierno australiano parece reacio a abrir sus fronteras rápidamente.
Situación sin precedentes
Incluso antes de la pandemia de COVID, las aeronaves se retirarían del servicio regular y se almacenarían debido, por ejemplo, a los diferentes niveles de demanda de pasajeros durante el año.
Muchos sistemas de vuelo están cubiertos para evitar daños cuando los aviones se almacenan a largo plazo.
Pero la Dra. Brown reconoce que esta es una situación sin precedentes con respecto a la gran cantidad de aviones que permanecen sin usar durante largos períodos de tiempo, lo que podría causar algunos problemas.
“El problema que tenemos en este entorno de COVID es que normalmente el almacenamiento estaría sucediendo un número reducido de veces a un número reducido de aeronaves, y las aerolíneas o las instalaciones cuentan con una tripulación dedicada a mantenerlas adecuadamente”, dijo la profesora de la Facultad de Mecánica. e Ingeniería de Fabricación explica.
"Pero con COVID, hay tantos aviones en todo el mundo que se almacenan y eso significa que algunos pueden terminar en condiciones no ideales, o en lugares sin el equipo adecuado o sin suficiente personal de mantenimiento adecuado.
"Habrá muchas personas de mantenimiento que no se han ocupado de estos problemas de almacenamiento con mucha regularidad, y si no han realizado los procedimientos con frecuencia antes, es posible que no necesariamente detecten algo. Y ahí es donde pueden entrar en juego algunos riesgos adicionales, simplemente porque el mayor número de aeroplanos almacenados podría provocar más imperfecciones en el proceso ".
Sin embargo, la Dra. Brown dice que esos problemas potenciales se mitigan por el hecho de que es probable que sea un proceso largo y lento volver a los niveles "normales" anteriores de viajes aéreos.
"Abril de 2020 fue el punto más bajo en términos de tráfico aéreo y desde entonces ha habido un aumento gradual y continuo", explica.
"No creo que las aerolíneas vayan a necesitar repentinamente muchos de estos aviones almacenados para estar listos en poco tiempo, por lo que el hecho de que es probable que vuelvan a estar en servicio de manera gradual y lenta significa que debería haber tiempo para hacer las inspecciones adecuadas. completamente."
Fuente:
El cambio climático puede haber promovido la aparición del SARS-CoV-2
Cuando se descubre un nuevo virus, como es el caso del SARS-CoV-2, es importante ubicar de dónde proviene para poder identificar y aislar la fuente y prevenir nuevas introducciones del virus en la población humana. También ayuda a comprender la dinámica del comienzo del brote, que se puede utilizar para planear la respuesta de los sectores que manejan la salud pública. Entender el mecanismo que dio origen del virus también puede ayudar al desarrollo de terapias y vacunas. Actualmente, investigadores de todo el mundo están trabajando arduamente en esta tarea. Por esta razón consideramos importante compartir el presente artículo, que nos envía un estimado colega, el cual fue escrito por Andrea Manica y publicado en el boletín digital de la University of Cambridge el pasado 5 de febrero d 2021. Veamos de qué se trata…
Las emisiones globales de gases de efecto invernadero durante el último siglo han convertido al sur de China en un punto de acceso para los coronavirus transmitidos por murciélagos, al promover el crecimiento del hábitat forestal favorecido por los murciélagos.
Un nuevo estudio publicado el 5 de febrero en la revista Science of the Total Environment proporciona la primera evidencia de un mecanismo por el cual el cambio climático podría haber jugado un papel directo en la aparición del SARS-CoV-2, el virus que causó la pandemia de COVID-19.
El estudio ha revelado cambios a gran escala en el tipo de vegetación en la provincia de Yunnan, en el sur de China, y las regiones adyacentes en Myanmar y Laos, durante el último siglo. Los cambios climáticos, incluidos el aumento de la temperatura, la luz solar y el dióxido de carbono atmosférico, que afectan el crecimiento de plantas y árboles, han cambiado los hábitats naturales de matorrales tropicales a sabanas tropicales y bosques caducifolios. Esto creó un entorno adecuado para muchas especies de murciélagos que viven predominantemente en los bosques.
La cantidad de coronavirus en un área está estrechamente relacionada con la cantidad de diferentes especies de murciélagos presentes. El estudio encontró que otras 40 especies de murciélagos se han trasladado a la provincia de Yunnan, en el sur de China, en el siglo pasado, albergando alrededor de 100 tipos más de coronavirus transmitidos por murciélagos. Este “punto de acceso global' es la región donde los datos genéticos sugieren que puede haber surgido el SARS-CoV-2.
"El cambio climático durante el último siglo ha hecho que el hábitat en la provincia de Yunnan, en el sur de China, sea adecuado para más especies de murciélagos", dijo el Dr. Robert Beyer, investigador del Departamento de Zoología de la University of Cambridge y primer autor del estudio, quien recientemente recibió una beca de investigación europea en el Instituto de Potsdam para la Investigación del Impacto Climático, Alemania.
Añadió: "Comprender cómo ha cambiado la distribución global de las especies de murciélagos como resultado del cambio climático puede ser un paso importante en la reconstrucción del origen del brote de COVID-19".
Para obtener sus resultados, los investigadores crearon un mapa de la vegetación del mundo como era hace un siglo, utilizando registros de temperatura, precipitación y nubosidad. Luego usaron información sobre los requisitos de vegetación de las especies de murciélagos del mundo para calcular la distribución global de cada especie a principios del siglo XX. Comparar esto con las distribuciones actuales les permitió ver cómo la “riqueza de especies” de murciélagos, el número de especies diferentes, ha cambiado en todo el mundo durante el último siglo debido al cambio climático.
"A medida que el cambio climático alteró los hábitats, las especies abandonaron algunas áreas y se trasladaron a otras, llevándose sus virus consigo. Esto no sólo alteró las regiones donde los virus están presentes, sino que probablemente permitió nuevas interacciones entre animales y virus, lo que provocó la aparición de más virus dañinos. transmitirse o evolucionar ”, dijo Beyer.
La población mundial de murciélagos porta alrededor de 3.000 tipos diferentes de coronavirus, y cada especie de murciélago alberga un promedio de 2.7 coronavirus, la mayoría sin mostrar síntomas. Un aumento en la cantidad de especies de murciélagos en una región en particular, impulsado por el cambio climático, puede aumentar la probabilidad de que un coronavirus dañino para los humanos esté presente, se transmita o evolucione allí.
La mayoría de los coronavirus transmitidos por los murciélagos no pueden afectar a los humanos. Pero es muy probable que varios coronavirus que se sabe infectan a los humanos se hayan originado en los murciélagos, incluidos tres que pueden causar muertes humanas: el síndrome respiratorio de Oriente Medio (MERS) CoV y el síndrome respiratorio agudo severo (SARS) CoV-1 y CoV-2.
La región identificada por el estudio como un punto crítico para un aumento impulsado por el clima en la riqueza de especies de murciélagos también alberga pangolines, que se sugiere que actuaron como huéspedes intermediarios del SARS-CoV-2. Es probable que el virus haya pasado de los murciélagos a estos animales, que luego se vendieron en un mercado de vida silvestre en Wuhan, donde ocurrió el brote humano inicial.
Los investigadores se hacen eco de las llamadas de estudios anteriores que instan a los responsables políticos a reconocer el papel del cambio climático en los brotes de enfermedades virales y abordar el cambio climático como parte de los programas de recuperación económica de COVID-19.
"La pandemia de COVID-19 ha causado un daño social y económico tremendo. Los gobiernos deben aprovechar la oportunidad de reducir los riesgos para la salud de las enfermedades infecciosas tomando medidas decisivas para mitigar el cambio climático", dijo el profesor Andrea Manica del Departamento de Zoología de la University of Cambridge, quien participó en el estudio.
"El hecho de que el cambio climático pueda acelerar la transmisión de patógenos de la vida silvestre a los humanos debería ser una llamada de atención urgente para reducir las emisiones globales", agregó el profesor Camilo Mora de la University of Hawai'i en Manoa, quien inició el proyecto.
Los investigadores enfatizaron la necesidad de limitar la expansión de áreas urbanas, tierras de cultivo y terrenos de caza en hábitats naturales para reducir el contacto entre humanos y animales portadores de enfermedades.
El estudio mostró que durante el último siglo, el cambio climático también ha provocado aumentos en el número de especies de murciélagos en regiones de África central y zonas dispersas en América Central y del Sur.
Fuente: https://www.cam.ac.uk/research/news/climate-change-may-have-driven-the-emergence-of-sars-cov-2
La ciencia de manejo datos y las matemáticas computacionales se unen para avanzar en los métodos predictivos en ingeniería
El artículo que nos comparte hoy un estimadísimo colega me recordó mi tesis de doctorado, en la que utilice como herramienta principal para solucionar las ecuaciones de un modelo de irrigación, el método de elemento finito (MEF). De acuerdo con este artículo, escrito por el profesor Mark Girolami y publicado el 21 de enero de 2021 en el boletín digital de la University of Cambridge (UC), este conocido método matemático, que se ha utilizado como herramienta predictiva en la ingeniería y las ciencias físicas durante mas de 70 años, ha sido rediseñado radicalmente en una investigación histórica dirigida por ingenieros de dicha universidad (UC).
El método de elementos finitos (MEF), una herramienta que proporciona soluciones simuladas por computadora a modelos matemáticos que de otro modo no se resolverían, ha sido la piedra angular de las matemáticas aplicadas modernas, el análisis numérico y el desarrollo de software, pero la capacidad de integrar datos con el MEF para mejorar las técnicas para hacer predicciones de modelos físicos se ha pasado por alto, hasta ahora.
Investigadores de la University of Cambridge, la University of Western Australia (UWA) y el Alan Turing Institute han colaborado para rediseñar el MEF y sentar las bases y la metodología mediante la cual se pueden realizar los Gemelos Digitales (Digital Twins). Se informó de estos hallazgos en los Proceedings of the National Academy of Sciences (PNAS).
El coautor del informe y autor del presente artículo, el profesor Mark Girolami, quien es titular de las cátedras Sir Kirby Laing de ingeniería civil y la de investigación de la Royal Academy of Engineering en la University of Cambridge, así como director del Programa de Ingeniería Centrada en Datos en el Alan Turing Institute, dijo que la investigación tuvo un impacto comercial interesante.
"Los Gemelos Digitales (Digital Twins), es decir, el enlace del mundo físico y virtual, es de gran interés actual para la comunidad de ingenieros en general. Al integrar datos con MEF, este nuevo trabajo proporciona la base y la metodología mediante la cual se pueden realizar estos Gemelos Digitales (Digital Twins)", dijo.
"Al aceptar que nuestras descripciones matemáticas de sistemas complejos pueden ser incorrectas y no captar todos los aspectos del sistema, pudimos definir una descripción estadística del MEF que proporcionó una forma muy natural y completamente nueva de combinar datos y modelos matemáticos en una forma realmente poderosa.
"Esto brinda la oportunidad de acoplar técnicas estadísticas con FEM para sentar las bases matemáticas de la revolución de los gemelos digitales. Hasta ahora, en las FEM no se ha podido tomar en cuenta directamente los datos".
El artículo de PNAS demuestra el método en el contexto de mejorar nuestra comprensión de los solitones oceánicos, es decir, ondas internas de gran amplitud que se producen en la plataforma noroeste de Australia y en otras partes del mundo.
Connor Duffin, Ph.D. estudiante de la Escuela de Física, Matemáticas y Computación de la UWA y autor principal del artículo, agregó: "Científicamente, los solitones son eventos significativos que introducen turbulencias y mezclas, que impactan la fertilización local y, por lo tanto, la biología, debido a la dispersión de nutrientes del lecho marino en la columna de agua. Para la práctica de la ingeniería, predecir la ocurrencia y la magnitud de los solitones es de particular interés para la industria marítima australiana, ya que impacta la seguridad y operación de los activos actuales y futuros ".
Fuente:
Robots inspirados en peces coordinan los movimientos sin ningún control externo
Los bancos de peces exhiben comportamientos complejos y sincronizados que los ayudan a encontrar alimento, migrar y evadir a los depredadores. Ningún pez o equipo de peces coordina estos movimientos ni los peces se comunican entre sí sobre qué hacer a continuación. Más bien, estos comportamientos colectivos surgen de la llamada coordinación implícita: los peces individuales toman decisiones en función de lo que ven hacer a sus vecinos.
Este tipo de auto-organización y coordinación descentralizadas y autónomas ha fascinado durante mucho tiempo a los científicos, especialmente en el campo de la robótica.
Al respecto, un estimado colega nos comparte el presente artículo escrito por Leah Burrows, traducido por nosotros y publicado el 13 de enero de 2021 en el boletín digital de la Escuela de Ingeniería y Ciencias Aplicadas John A. Paulson de Harvard University. Veamos de quÉ se trata…..
Efectivamente, un equipo de investigadores de la Escuela de Ingeniería y Ciencias Aplicadas (SEAS) de Harvard John A. Paulson y el Instituto WYSS de Ingeniería de Inspiración Biológica han desarrollado robots inspirados en peces que pueden sincronizar sus movimientos como un banco real de peces, sin ningún tipo de control externo. Es la primera vez que los investigadores demuestran comportamientos colectivos tridimensionales complejos con coordinación implícita en robots submarinos.
"Los robots a menudo se despliegan en áreas que son inaccesibles o peligrosas para los humanos, áreas donde la intervención humana podría ni siquiera ser posible", dijo Florian Berlinger, candidato a doctorado en SEAS y WYSS y primer autor del artículo. "En estas situaciones, realmente te beneficia tener un enjambre de robots altamente autónomos que sea autosuficiente. Mediante el uso de reglas implícitas y percepción visual en 3-D, pudimos crear un sistema que tiene un alto grado de autonomía y flexibilidad bajo el agua. donde cosas como GPS y WiFi no son accesibles ".
La investigación se publicó en Science Robotics
El cardumen robótico inspirado en peces, apodado Blueswarm, fue creado en el laboratorio de Radhika Nagpal, profesora que imparte la cátedra Fred Kavli de Ciencias de la Computación en SEAS y miembro asociado de la facultad en el Instituto WYSS. El laboratorio de Nagpal es pionero en sistemas auto-organizados, desde su enjambre de 1,000 robots Kilobot hasta su equipo de construcción robótica inspirado en las termitas.
Sin embargo, la mayoría de los enjambres robóticos anteriores operaban en un espacio bidimensional. Los espacios tridimensionales, como el aire y el agua, plantean importantes desafíos para la detección y la locomoción.
Se grabaron videos que muestra todos los comportamientos de aprendizaje del Blueswarm, incluida la formación de círculos, la búsqueda colectiva y la reunión alrededor de un objetivo, la auto-organización en el espacio y la auto-organización a lo largo del tiempo.
Ver video en: https://www.youtube.com/watch?v=1pflbeDRkUs&feature=emb_logo Credit: Berlinger et al., Sci Robot. 6, eabd8668 (2021)
Para superar estos desafíos, los investigadores desarrollaron un sistema de coordinación basado en la visión en sus robots de peces basado en luces LED azules. Cada robot submarino, llamado Bluebot, está equipado con dos cámaras y tres luces LED. Las cámaras a bordo con lente de pez detectan los LED de Bluebots vecinos y utilizan un algoritmo personalizado para determinar su distancia, dirección y rumbo. Basándose en la simple producción y detección de luz LED, los investigadores demostraron que el Blueswarm podría exhibir comportamientos complejos auto-organizados, incluida la agregación, la dispersión y la formación de círculos.
"Cada Bluebot reacciona implícitamente a las posiciones de sus vecinos", dijo Berlinger. "Entonces, si queremos que los robots se agreguen, entonces cada Bluebot calculará la posición de cada uno de sus vecinos y se moverá hacia el centro. Si queremos que los robots se dispersen, los Bluebots harán lo contrario. Si queremos que naden como una escuela en un círculo, están programados para seguir las luces directamente frente a ellos en el sentido de las agujas del reloj ".
Los investigadores también simularon una misión de búsqueda simple con una luz roja en el tanque. Usando el algoritmo de dispersión, los Bluebots se esparcen por el tanque hasta que uno se acerca lo suficiente a la fuente de luz para detectarlo. Una vez que el robot detecta la luz, sus LED comienzan a parpadear, lo que activa el algoritmo de agregación en el resto del cardumen. A partir de ahí, todos los Bluebots se agrupan alrededor del robot de señalización.
"Nuestros resultados con Blueswarm representan un hito significativo en la investigación de comportamientos colectivos auto-organizados bajo el agua", dijo Nagpal. "Los conocimientos de esta investigación nos ayudarán a desarrollar futuros cardúmenes submarinos en miniatura que puedan realizar el monitoreo ambiental y la búsqueda en entornos visualmente ricos pero frágiles como los arrecifes de coral. Esta investigación también allana el camino para comprender mejor los bancos de peces, recreando sintéticamente su comportamiento".
Fuente: https://wyss.harvard.edu/news/robotic-swarm-swims-like-a-school-of-fish/
Una diminuta versión del USS Voyager arroja luz sobre la física de unidades micro-nadadoras
Para este envío, un querido colega, ingeniero mecánico que labora en el área aeroespacial, nos comparte una descripción del trabajo de investigación que realiza Leiden University en Holanda y que podría conducir a la fabricación de pequeños robots submarinos con lo que se podrá realizar la administración autónoma de fármacos en el cuerpo humano, entre otras aplicaciones. Esta información se publicó el 17 de noviembre de 2020 en un artículo escrito por Jennifer Ouellette en el boletín digital de ARS Thecnica. Veamos de qué se trata…
Físicos de Leiden University ubicada en Holanda han creado una versión microscópica impresa en 3D del USS Voyager de la serie de televisión Star Trek, según un artículo reciente en la revista Soft Matter. Este tipo de "micro-naves nadadoras sintéticas” son de gran interés para los científicos porque algún día podrían convertirse en diminutos robots nadadores para la administración autónoma de fármacos a través del torrente sanguíneo o para limpiar aguas residuales, entre otras aplicaciones potenciales. Dichos estudios también podrían arrojar luz sobre cómo los "unidades micro-nadadoras naturales”, como los espermatozoides y las bacterias, viajan a través del cuerpo humano.
Debido a su pequeño tamaño, los micro-nadadores enfrentan desafíos únicos cuando se mueven a través de fluidos. Como informamos anteriormente en el contexto de diferentes investigaciones, los microorganismos biológicos viven en ambientes con un llamado número de Reynolds bajo, un número que predice cómo se comportará un fluido en función de las variables viscosidad, longitud y velocidad. El concepto, que lleva el nombre del físico del siglo XIX Osborne Reynolds, es especialmente útil para predecir cuándo un fluido pasará a un flujo turbulento.
En términos prácticos, significa que las fuerzas de inercia (por ejemplo, empujar contra el agua para impulsarse hacia adelante mientras nada) son en gran parte irrelevantes en números de Reynolds muy bajos, donde dominan las fuerzas viscosas. Entonces, debido a que las bacterias o los espermatozoides nadan en números de Reynolds bajos, apenas pueden deslizarse en una distancia si se los empuja para ponerlos en movimiento. Es similar a un humano que intenta nadar en melaza.
"Al estudiar a los micro-nadadores sintéticos, nos gustaría entender a los micro nadadores biológicos", dijo a CNN la coautora Samia Ouhajji. "Esta comprensión podría ayudar a desarrollar nuevos vehículos de administración de fármacos; por ejemplo, microrobots que nadan de forma autónoma y administran fármacos en el lugar deseado del cuerpo humano".
La forma resulta ser un factor significativo que afecta el movimiento y las interacciones de los micro nadadores, y ese es el tema central de este último artículo. "La forma y el movimiento de los micro nadadores sintéticos y biológicos están íntimamente conectados", escribieron los autores. Estudios anteriores han demostrado que las partículas en forma de L siguen trayectorias circulares, por ejemplo. Y en 2016, científicos de la Southern Methodist University construyeron robots micro nadadores que se asemejan a una cadena de cuentas magnéticas. El movimiento de los robots podría controlarse mediante un campo magnético giratorio. Los investigadores encontraron que los micro nadadores de diferentes longitudes tenían diferentes propiedades de natación. En particular, los más largos nadan más rápido.
El equipo de Leiden necesitaba un método sólido para fabricar micro-nadadores en una variedad de formas complejas. Los micro-nadadores sintéticos se fabrican típicamente mediante técnicas químicas o de evaporación, que, si bien son efectivas, limitan las posibles formas a esferas o coloides en forma de varilla. Los micro nadadores biológicos son mucho más diversos y asimétricos con respecto a la forma. Así que los investigadores de Leiden optaron por utilizar la "polimerización de dos fotones" o 2PP, un método que permite la impresión 3D de microestructuras sin dejar de tener cierta flexibilidad en términos de forma y simetría. También les permitió controlar cómo se orienta una partícula en relación con el sustrato de sílice fundida sobre el que se imprime, lo que les da un control adicional sobre el movimiento resultante.
"El potencial de 2PP para crear micro nadadores con una amplia gama de geometrías es inmenso, lo que permite la producción de casi cualquier forma deseada", escribieron los autores. Según la coautora Daniela Craft, física de la Universidad de Leiden, el equipo enfocó un láser dentro de una gota y lo usó para "escribir" cualquier estructura que desearan. Pudieron crear una variedad de formas a escala micrométrica con una impresora 3D de alta resolución. Una vez impresos, los objetos se colocaron en acrilato de metiléter de propilenglicol durante 30 minutos y se sumergieron cinco veces en isopropanol como toque final a cada estructura.
El equipo comenzó imprimiendo partículas esféricas en el rango de 1 a 10 micrómetros como prueba de principio y pudo concluir que 4 micrómetros era lo más bajo que podían llegar y aún así producir formas razonablemente esféricas. A continuación, mostraron que, cuando se colocan en agua, sus partículas esféricas exhiben movimiento browniano, el movimiento aleatorio de partículas en un fluido cuando chocan constantemente con otras moléculas, es decir, se comportan como verdaderos coloides. (Dato curioso: uno de los artículos fundamentales que Albert Einstein publicó en 1905, su annus mirabilis, modeló moléculas de agua individuales como un mecanismo para el movimiento aleatorio observado de las partículas de polen en un charco).
Luego, los científicos de Leiden colocaron sus micro-nadadores en una solución de agua y peróxido de hidrógeno; el recubrimiento de platino / paladio reaccionó con la solución para crear autopropulsión o movimiento activo. "La diferencia en las trayectorias pasivas en el agua y las de la solución de peróxido de hidrógeno muestra que mediante un simple procedimiento de recubrimiento, los coloides impresos en 3D pueden activarse", escribieron los autores.
Para la siguiente fase de su investigación, el equipo de Leiden amplió su repertorio para imprimir en 3D estructuras más complejas: una esfera puntiaguda, una espiral, una hélice y un barco llamado "3DBenchy" que mide 30 micrómetros de largo, abreviatura de "punto de referencia". "una estructura comúnmente utilizada para probar impresoras 3D para ver qué tan bien manejan los detalles finos. El barco Benchy, por ejemplo, luce características geométricas tan desafiantes como ojos de buey y una cabina abierta.
Y, por supuesto, hicieron la versión micro del USS Voyager, que mide solo 15 micrómetros de largo. Eso fue a instancias del coautor Jonas Hoecht, a quien se le dio la opción de imprimir cualquier forma 3D que le gustara para la muestra final. Hoecht es un fanático acérrimo de Star Trek y eligió la Voyager. Se tomaron imágenes de todos los microobjetos impresos en 3D utilizando un microscopio electrónico de barrido (SEM).
"Esperamos aprender sobre lo que ahora es un buen principio de diseño para crear un pequeño vehículo de administración de medicamentos: si tiene una pequeña partícula que va a una parte específica del cuerpo para administrar medicamentos, entonces tiene que propulsarse y entonces tienes que lidiar con el medio ambiente en tu cuerpo, que es muy complejo ", dijo a CNN la coautora Daniela Kraft. "Lo que estamos tratando de responder es: ¿cuál sería un buen diseño? ¿Cuál sería una gran forma para que pueda circular y ser eficiente?"
La investigación del equipo demostró que las partículas creadas en forma de hélice mostraban el movimiento más prometedor. "Cuando se mueve hacia adelante, a menudo necesita rotar y eso ayuda, por ejemplo, a acelerarlo", dijo Kraft. "Si piensas en aplicaciones, si quieres tener una pequeña máquina que vaya a alguna parte, podría ser más útil tener forma de hélice, porque nada más rápido".
China enciende con éxito el 'sol artificial' de propulsión nuclear
Un estimado colega, ingeniero mecánico, nos comparte el presente artículo publicado por la AFP en Beijing el 4 de diciembre de 2020. Veamos de qué se trata.
EL 4 de diciembre de 2020 China encendió con éxito su reactor de fusión nuclear "sol artificial" por primera vez, informaron los medios estatales, lo que marca un gran avance en las capacidades de investigación de energía nuclear del país.
El reactor HL-2M Tokamak es el dispositivo de investigación experimental de fusión nuclear más grande y avanzado de China, y los científicos esperan que el dispositivo pueda potencialmente ofrecer una poderosa fuente de energía limpia.
Diseñado para replicar las reacciones naturales que ocurren en el Sol utilizando gases de hidrógeno y deuterio como combustibles, el aparato ubicado en la ciudad de Chengdu, provincia de Sichuan, proporcionará energía limpia a través de la fusión nuclear controlada, informó la China National Nuclear Corporation (CNNC).
Utiliza un poderoso campo magnético para fusionar el plasma caliente y puede alcanzar temperaturas de más de 150 millones de grados Celsius, según el People's Daily, aproximadamente diez veces más caliente que el núcleo del sol.
El reactor, que se terminó de construir a fines del año antepasado, a menudo se le denomina “sol artificial" debido al enorme calor y energía que produce.
"El desarrollo de la energía de fusión nuclear no es sólo una forma de resolver las necesidades energéticas estratégicas de China, sino que también tiene una gran importancia para el futuro desarrollo sostenible de la energía y la economía nacional de China", dijo el People's Daily.
Los científicos chinos han estado trabajando en el desarrollo de versiones más pequeñas del reactor de fusión nuclear desde 2006.
Planean usar el dispositivo en colaboración con científicos que trabajan en el Reactor Experimental Termonuclear Internacional, el proyecto de investigación de fusión nuclear más grande del mundo con sede en Francia, que se espera que esté terminado en 2025 y cuyo proyecto participa China.
La fusión se considera el Santo Grial de la energía y es lo que alimenta nuestro Sol. Fusiona núcleos atómicos para crear cantidades masivas de energía, lo opuesto al proceso de fisión utilizado en las armas atómicas y las plantas de energía nuclear, que los divide en fragmentos.
A diferencia de la fisión, la fusión no genera desechos radiactivos y conlleva menos riesgo de accidentes o robo de material atómico.
Pero lograr la fusión es extremadamente complejo y difícil de implementar, y actualmente tiene un costo prohibitivo (el costo total de ITER estimado en $ 22.5 mil millones de dólares US), pero al igual que otras tecnologías, seguramente, una vez que se extienda su uso el costo de fabricación y operación bajara dramáticamente..
"El tiempo de confinamiento de energía de los dispositivos Tokamak internacionales es de menos de un segundo. La duración de descarga de disparo del HL-2M es de alrededor de 10 segundos, con un tiempo de confinamiento de energía de unos cientos de milisegundos", dijo Yang Qingwei, ingeniero jefe de HL -2M en el Southwestern Institute of Physics bajo la CNNC.
El sol artificial proporcionará un soporte técnico clave para la participación de China en el proyecto del Reactor Termonuclear Experimental Internacional y en los campos de investigación de frontera que incluyen la inestabilidad del flujo y los fenómenos magnéticos del plasma de temperatura ultra alta, según Yang.
El dispositivo de desarrollo propio es el más grande del país en escala y los parámetros más altos, con una estructura y modo de control más avanzados que su predecesor, el HL-2A Tokamak.
Fuentes:
https://www.france24.com/en/live-news/20201204-china-turns-on-nuclear-powered-artificial-sun
http://www.xinhuanet.com/english/2020-12/04/c_139564057_2.htm
Breves resúmenes de los 25 mejores artículos publicados en Tech Xplorer en el 2020 (Segunda Parte).
Deseamos una Feliz Navidad y un excelente Año 2021 a todos nuestros colaboradores y lectores. Y para concluir el año, terminaremos de revisar los resúmenes de los 25 mejores artículos publicados en Tech Xplorer en el 2020. Estos resúmenes se publicaron en un reporte especial el 18 de diciembre de 2020 y se tradujeron para Sólo para Ingenieros. Tech Xplore es una extraordinaria organización dedicada a la divulgación de la ciencia y la tecnología y forma parte de la red Science X. Tiene un alcance global de más de cinco millones de lectores mensuales y cuenta con sitios web dedicados a ciencias duras, tecnología, investigación médica y noticias de salud. La red Science X es una de las comunidades en línea más grandes del mundo de personas con una inclinación y gusto por las ciencias, la ingeniería o los desarrollos tecnológicos.
Continuemos entonces con la breve descripción de los artículos más sobresalientes en 2020 que publicó Tech Xplorer….
Un esfuerzo de colaboración entre Microsoft, la University of Michigan y Carnegie Mellon University fue reconocido por el grupo de ACM's Programming Language Design and Implementation con el Distinguished Paper Award por un método que garantiza que los programas informáticos complejos estén libres de errores sin tener que probarlos. El método utiliza una técnica llamada verificación formal para probar si una pieza de software producirá el resultado deseado.
Por otro lado, un grupo de investigadores de la University of Zurich que trabaja con SONY AI Zurich desarrolló un modelo de aprendizaje profundo que logró un rendimiento que sobrepasa la capacidad humana en Gran Turismo Sport, un conocido videojuego de carreras de autos. En el artículo que muestra su sistema, operando en el servidor de preimpresión arXiv, los investigadores describieron el sistema subrayando el potencial de las técnicas de aprendizaje profundo para controlar automóviles en entornos simulados.
Un equipo de investigadores de la King Abdullah University of Science and Technology desarrolló un sistema WiFi submarino que utiliza LED y láseres llamado Aqua-Fi. El sistema puede admitir servicios de Internet utilizando LED para proporcionar opciones de bajo consumo de energía para comunicaciones de corta distancia y láseres para transportar datos más lejos, pero utilizando más energía. Su prototipo pudo cargar y descargar contenido multimedia entre dos computadoras colocadas bajo el agua a dos metros de distancia.
Una colaboración de varias instituciones en los E.E. U.U. y China anunció paneles solares transparentes para ventanas con una calificación de eficiencia del ocho por ciento; los paneles también son 43.3 por ciento más transparentes. Fueron fabricados con un diseño a base de carbono en lugar de silicio convencional y, por lo tanto, tienen un tinte ligeramente verde que el equipo describió como similar a las gafas de sol.
En mayo, Tesla anunció que había desarrollado una nueva batería que está preparada para rediseñar la eficiencia económica del automóvil. Esta batería fue desarrollada como un proyecto conjunto con el fabricante chino de baterías Contemporary Amperex Technology junto con un equipo de expertos académicos contratados por el CEO de Tesla, Elon Musk. Tesla prometió que la nueva batería duraría más y costaría menos que las que se utilizan actualmente, con lo que el precio de los vehículos eléctricos estará más en línea con los vehículos convencionales.
Un equipo de investigadores de la University of York dio a conocer algunas de las vulnerabilidades de los administradores de contraseñas. Informaron que habían creado una aplicación maliciosa para hacerse pasar por una aplicación legítima de Google, y pudieron usarla para engañar a dos de cada cinco administradores de contraseñas probados para que revelaran una contraseña. Esto, afirmaron, se debía a que los administradores de contraseñas usaban criterios débiles para identificar aplicaciones legítimas.
El verano pasado, un equipo de la empresa Check Point informó que habían dado a conocer un error en los datos de voz utilizados por el asistente digital virtual de Amazon, Alexa. El error podría permitir a los piratas informáticos obtener datos del historial de voz e instalar habilidades de Alexa o acciones de Google sin el conocimiento o permiso del usuario. Esto significaba que los comandos de usuario se podían obtener y utilizar para infiltrarse en sus dispositivos de Amazon.
Además, un equipo combinado de investigadores de la University of Sydney, la University of Exeter y la University of Adelaide descubrió que los biocombustibles impulsados por tequila eran más eficientes que los de maíz o de azúcar. Más específicamente, encontraron que la planta de agave utilizada para hacer tequila podría usarse en lugares secos como Australia y México para producir bioetanol para uso como combustible y etanol como ingrediente desinfectante de manos durante la pandemia, todo sin competir con los cultivos alimentarios.
Y un equipo de ETH Zurich desarrolló el primer lenguaje de programación intuitivo para computadoras cuánticas. Afirmaron que el nuevo lenguaje, llamado Silq, podría usarse para programar computadoras cuánticas de manera tan simple, confiable y segura como las computadoras clásicas. También afirmaron que permitiría a los programadores darse cuenta del potencial de las computadoras cuánticas mejor que los lenguajes existentes, porque el código es más compacto, más rápido, más intuitivo y más fácil de entender.
Además, un equipo internacional de investigadores afirmó haber resuelto un misterio de décadas sobre el almacenamiento de baterías de iones de litio: cómo los óxidos metálicos de próxima generación almacenan más energía de la que debería ser posible. El equipo, dirigido por un grupo de la University of Texas en Austin, descubrió que los óxidos metálicos poseen formas únicas de almacenar energía más allá de los mecanismos de almacenamiento electroquímicos clásicos.
Y un equipo de investigadores de la University of Michigan comenzó a investigar el uso de la inteligencia artificial en arquitectura como una forma de crear nuevos diseños arquitectónicos. Comenzaron evaluando el rendimiento de las redes neuronales existentes más simples disponibles en tareas de transferencia de estilo neuronal 2-D-a-2-D y poco después pasaron a modelos 3-D. Utilizaron los datos resultantes para entrenar una red neuronal convolucional.
La empresa alemana SINN Power anunció que planeaba lanzar un proyecto de demostración de una plataforma de generación de energía de triple opción única en su tipo frente a Iraklio, Grecia. El proyecto único implicaría la construcción de una plataforma en el océano atada al fondo del mar que recogerá tanto la energía de las olas, como la luz solar y el viento y la enviará de regreso a la costa.
Y finalmente, un ambicioso proyecto conjunto japonés-australiano llamado Hydrogen Energy Supply Chain llamó la atención y desató la controversia. Su idea requería que Japón comenzara a importar grandes cantidades de hidrógeno líquido de Australia para quemarlo y generar electricidad. Sin embargo, los críticos señalan que el hidrógeno se produciría y licuaría extrayéndolo del lignito, que libera dióxido de carbono al aire. El plan también requería la construcción de barcos especiales para transportar el hidrógeno.
Fuente: https://techxplore.com/news/2020-12-year-techxplore-articles.html
Breves resúmenes de los 25 mejores artículos publicados en Tech Xplorer en el 2020 (Primera parte).
Para cerrar el año reproduciremos aquí resúmenes de los 25 mejores artículos publicados en Tech Xplorer en el 2020. Estos resúmenes se publicaron en un reporte especial el 18 de diciembre de 2020 y los tradujimos para Sólo para Ingenieros. Tech Xplore es una extraordinaria organización dedicada a la divulgación de la ciencia y la tecnología y forma parte de la red Science X. Tiene un alcance global de más de cinco millones de lectores mensuales y cuenta con sitios web dedicados a ciencias duras, tecnología, investigación médica y noticias de salud. La red Science X es una de las comunidades en línea más grandes del mundo de personas con una inclinación y gusto por las ciencias, la ingeniería o los desarrollos tecnológicos.
2020 fue un buen año para la investigación tecnológica de todo tipo. Revisemos…….
Un equipo de SkyDrive Inc. de Japón hizo una demostración de su "automóvil volador": despegó con una persona a bordo, flotó aproximadamente entre 1 y 2 metros sobre el suelo durante aproximadamente cuatro minutos y luego regresó a salvo al suelo. Tomohiro Fukuzawa, quien dirige la empresa, dijo en la demostración que espera tener un producto a la venta dentro de un par de años.
El fabricante de baterías NDB afirmó que sus baterías de diamante para marcapasos alimentadas con desechos nucleares podrían durar miles de años; también afirmaron que podrían alimentar un teléfono celular durante nueve años y que un paquete de baterías utilizadas para alimentar un automóvil duraría casi un siglo. La compañía también afirmó que había encontrado una forma segura de utilizar los desechos nucleares sobrantes de las plantas de energía para fabricar sus baterías.
Un equipo de Duke University presentó una aplicación de inteligencia artificial que hace que fotos de rostros borrosas se vean 60 veces más nítidas. También reconocieron que las imágenes que resultaron no eran imágenes realistas de las personas en las fotografías originales, sino predicciones de cómo podrían verse.
Además, el verano pasado, Microsoft anunció que su programa Defender comenzaría a marcar CClean como una aplicación potencialmente no deseada y advertiría a los usuarios que no la instalen. CCleaner es un conjunto popular de herramientas de limpieza y optimización de sistemas informáticos. Durante años, Microsoft ha señalado a dicho software no sólo como innecesario sino también potencialmente problemático para los usuarios de computadoras.
Y la startup británica Gravitricity comenzó la construcción de un sistema de almacenamiento de energía renovable que se basará en la gravedad: manipulará pesos masivos en un eje como un medio de almacenamiento de energía, que caerá por gravedad cuando se necesite energía; esto lo hace haciendo girar un eje que impulsa a su vez otro eje de un generador eléctrico. Los ejes deben tener una altura de casi una milla y los pesos oscilarán entre 500 y 5,000 toneladas.
Un equipo combinado de Aalto University y la empresa Ote Robotics crearon RealAnt, un robot de cuatro patas de bajo costo que podría usarse de manera efectiva para probar e implementar algoritmos de aprendizaje por refuerzo (RL por sus siglas en inglés) indican en su artículo subido al servidor de preimpresión denominado arXiv. El equipo de investigadores señaló que el robot era una versión del mundo real del entorno de simulación de robot tipo "Ant" comúnmente utilizado en proyectos de investigación de RL.
Y un equipo de University of Cambridge desarrolló un dispositivo independiente que convierte la luz solar, el dióxido de carbono y el agua en un combustible neutro en carbono sin requerir componentes adicionales ni electricidad. El equipo describió su tecnología avanzada de "photosheets (foto-hojas)" como un paso significativo hacia el logro de la fotosíntesis artificial.
Además, un par de estadísticos de la University of Waterloo propuso una idea relativa a un proceso matemático que podría entrenar sistemas de Inteligencia Artificial (IA) sin la necesidad de grandes conjuntos de datos. Ilia Sucholutsky y Matthias Schonlau se basaron en un trabajo reciente publicado en el MIT que muestra que es posible destilar la información más importante en un sistema de numeración a sus componentes más básicos, lo que permite el almacenamiento en mucho menos espacio.
Y un equipo de Aalto University demostró respuestas ultravioleta (UV) de silicio negro que excedían el 130% de eficiencia. Señalaron que era la primera evidencia experimental directa de que una eficiencia cuántica externa superior al 100% era posible en un sólo fotodiodo sin ningún antirreflejo externo. Antes de sus esfuerzos, la mejor eficiencia que se había visto era del 80%.
Además, un equipo de la Carnegie Mellon University dio a conocer lo que describieron como un nuevo lenguaje y herramienta de programación para garantizar que el código se computara según lo previsto. Juntas, las herramientas se llamaron Amanda, y verifican que los programas sean demostrablemente correctos y demuestren matemáticamente que el código se calculará correctamente a medida que se escribe.
Y un grupo de físicos de Lancaster University superó un hito al demostrar un nuevo tipo de memoria universal que podría transformar la forma en que funcionan las computadoras, los teléfonos inteligentes y otros dispositivos. La nueva tecnología almacena y cambia información fácilmente.
Finalmente en esta primera parte, una nueva empresa de Nueva Zelanda visualizó una red eléctrica inalámbrica global a la que denominó Emrod. La compañía tiene planes para alimentar al mundo con un sistema de transmisión eléctrica inalámbrica que puede llevar energía a áreas de difícil acceso a un costo menor que las líneas eléctricas tradicionales. Proponen una serie de antenas que deberían estar dentro de la línea de visión unas de otras.
Fuente: https://techxplore.com/news/2020-12-year-techxplore-articles.html
La polarización aumenta con el declive económico, volviéndose terriblemente contagiosa
Un estimado colega nos envía el presente artículo que informa de estudios que está realizando Princeton University (PU) sobre la situación mundial actual. Dicho artículo fue escrito por B. Rose Huber y publicado el 11 de diciembre de 2020 en el boletín de noticias de la Universidad. Revisemos su contenido…
El auge de los movimientos populistas esta cambiando los sistemas políticos de todo el mundo. A medida que se intensifica el apoyo a estos movimientos "anti-elites", muchos investigadores se esfuerzan por comprender en qué grado están influyendo en y entre diferentes grupos el declive económico y la intensificación del conflicto.
Un modelo desarrollado por un equipo de investigadores, donde participa Nolan McCarty, de la Universidad de Princeton, muestra cómo la polarización de grupos, la creciente desigualdad y el declive económico pueden estar fuertemente conectados.
El modelo desarrolla una teoría de que la polarización de grupos tiende a dispararse en tiempos de contracción económica y creciente desigualdad. Sin embargo, incluso después de que mejoren las condiciones financieras, estas divisiones pueden permanecer profundamente arraigadas.
Es por eso que se necesitan redes de seguridad social fortalecidas para ayudar a minimizar los conflictos entre grupos sociales, étnicos y raciales, argumentan los investigadores en Science Advances.
"Surgen tiempos en los que se necesita la unidad nacional, como estamos viendo ahora con COVID-19, pero no debemos esperar a que una crisis de salud pública o una guerra unan a la gente. Los legisladores y los gobernantes deben actuar ahora invirtiendo en y proteger las redes de seguridad social que pueden prevenir la ampliación de las divisiones sociales y políticas ", dijo McCarty, quien es profesor titular de la cátedra Susan Dod Brown de Política y Asuntos Públicos en la Escuela de Asuntos Públicos e Internacionales de Princeton.
McCarty trabajó en el modelo con Alexander Stewart de la Universidad de Houston y Joanna Bryson de la Escuela Hertie en Berlín, Alemania. Utilizando modelos de evolución cultural y teoría de juegos evolutivos, el equipo diseñó su modelo para examinar la disposición de las personas a interactuar con personas fuera de su propio grupo social.
El modelo se basa en algunas suposiciones, la primera es que el éxito económico de un individuo está vinculado a las interacciones con otros y al desempeño de la economía subyacente. También asumen que las personas tienden a imitar el comportamiento de personas aparentemente "exitosas" para que los comportamientos sociales se puedan difundir entre el público.
Por último, asumen que las interacciones dentro del comportamiento social dentro del grupo son generalmente menos riesgosas con recompensas más bajas, mientras que las interacciones con miembros fuera del grupo son más riesgosas, pero conllevan una mayor ventaja. Esto significa que cuando las condiciones económicas se vuelven más inciertas y por ello más desafiantes, la gente tenderá a preferir la apuesta segura de interactuar con los de su propio grupo y evitar las interacciones con extraños. A medida que se imita tal comportamiento, las interacciones entre grupos declinan precipitadamente.
El modelo puede ser útil para explicar las tendencias políticas observadas en todo el mundo. En primer lugar, el modelo respalda las teorías que sostienen que las crisis económicas envalentonan a los movimientos de extrema derecha que predican vilipendiar a los grupos sociales externos. Por ejemplo, la Gran Depresión y la Crisis Financiera Global llevaron a un mayor apoyo para los populistas de derecha en varios países, incluidos los Estados Unidos y el Reino Unido.
Cuando se trata de desigualdad, la mayoría de los modelos sugieren que una brecha de riqueza significativa tiende a empoderar a los de la izquierda, ya que buscarán la redistribución del ingreso. El nuevo modelo de los investigadores no muestra necesariamente tal cambio, sino un alejamiento general de las interacciones entre grupos de identidad social. Dado que las interacciones entre grupos son económicamente valiosas, la sociedad se empobrece.
"En lugar de continuar el debate improductivo sobre si la 'ansiedad económica' o el conflicto grupal son los principales responsables de nuestra política profundamente dividida, los académicos deberían dedicar más esfuerzos a considerar la retroalimentación que impacta negativamente entre economía e identidad", dijo McCarty.
El documento, "Polarización bajo una creciente desigualdad y declive económico", apareció por primera vez en línea en Science Advances el 11 de diciembre de 2020.
La tecnología hace posible la comunicación digital a través del toque humano
Para este envío un colega nos comparte el presente artículo publicado el pasado 3 de diciembre de 2020, en el boletín digital de Purdue University (PU) y escrito por Kayla Wiles. Veamos de qué se trata…
En lugar de insertar una tarjeta o escanear un teléfono inteligente para realizar un pago, ¿qué pasaría si usted simplemente tuviera que tocar la máquina con el dedo?
Un prototipo desarrollado por ingenieros de PU esencialmente permitiría que su cuerpo actuara como el enlace entre su tarjeta o teléfono inteligente y el lector o escáner, lo que le permitiría transmitir información con solo tocar una superficie.
El prototipo aun no transfiere dinero, pero es la primera tecnología que puede enviar cualquier información con el toque directo de un dedo. En un nuevo estudio los investigadores muestran que mientras se usa el prototipo como reloj, el cuerpo de un usuario puede usarse para enviar información como una foto o contraseña al tocar un sensor en una computadora portátil.
"Estamos acostumbrados a desbloquear dispositivos con nuestras huellas digitales, pero esta tecnología no se basaría en la biometría, se basaría en señales digitales. Imagínese iniciar sesión en una aplicación en el teléfono de otra persona con solo tocarlo", dijo Shreyas Sen, un profesor asociado de PU en el departamento de ingeniería eléctrica e informática.
"Todo lo que toque se volverá más poderoso por la información digital que lo atraviesa".
El estudio se publica en Transactions on Computer-Human Interaction, una revista de la Association for Computing Machinery. Shovan Maity, un alumno de Purdue, dirigió el estudio como Ph.D. estudiante en el laboratorio de Sen. Los investigadores también presentarán sus hallazgos en la conferencia Computer Human Interaction (ACM CHI) de la Association for Computing Machinery en mayo.
La tecnología funciona estableciendo una "Internet" dentro del cuerpo que los teléfonos inteligentes, relojes inteligentes, marcapasos, bombas de insulina y otros dispositivos portátiles o implantables pueden usar para enviar información. Estos dispositivos normalmente se comunican mediante señales de Bluetooth que tienden a irradiarse desde el cuerpo. Un pirata informático podría interceptar esas señales desde 30 pies de distancia, dijo Sen.
En cambio, la tecnología de Sen mantiene las señales confinadas dentro del cuerpo acoplándolas en un llamado "rango electrocuasistático" que es mucho más bajo en el espectro electromagnético que la comunicación Bluetooth típica. Este mecanismo es el que permite la transferencia de información con solo tocar una superficie.
Incluso si su dedo estuviera a solo un centímetro sobre una superficie, la información no se transferiría a través de esta tecnología sin un toque directo. Esto evitaría que un pirata informático robara información privada, como credenciales de tarjetas de crédito, al interceptar las señales.
Los investigadores demostraron esta capacidad en el laboratorio al hacer que una persona interactuara con dos superficies adyacentes. Cada superficie estaba equipada con un electrodo para tocar, un receptor para obtener datos del dedo y una luz para indicar que los datos se habían transferido. Si el dedo tocaba directamente un electrodo, solo se encendía la luz de esa superficie. El hecho de que la luz de la otra superficie permaneciera apagada indicó que los datos no se filtraron.
Del mismo modo, si un dedo se acerca lo más posible al sensor de una computadora portátil, la foto no se transferirá. Pero un toque directo podría transferir una foto.
Las máquinas de tarjetas de crédito y aplicaciones como Apple Pay utilizan una alternativa más segura a las señales de Bluetooth, llamada comunicación de campo cercano, para recibir un pago al tocar una tarjeta o escanear un teléfono. La tecnología de Sen agregaría la conveniencia de realizar un pago seguro en un solo gesto.
"No tendría que sacar un dispositivo de su bolsillo. Podría dejarlo en su bolsillo o en su cuerpo y simplemente tocar", dijo Sen.
La tecnología también podría reemplazar los llaveros o tarjetas que actualmente usan la comunicación Bluetooth para otorgar acceso a un edificio. En cambio, una persona podría simplemente tocar la manija de una puerta para entrar.
Al igual que las máquinas de hoy que escanean cupones, tarjetas de regalo y otra información desde un teléfono, el uso de esta tecnología en la vida real requeriría que las superficies en todas partes tengan el hardware adecuado para reconocer su dedo.
El software del dispositivo que lleva puesto una persona también debería configurarse para enviar señales a través del cuerpo hasta la punta del dedo, y tener una forma de apagarlo para que la información, como un pago, no se transfiera a todas las superficies. equipado para recibirlo.
Los investigadores creen que las aplicaciones de esta tecnología irían más allá de cómo interactuamos con los dispositivos en la actualidad.
"Cada vez que habilita un nuevo canal de hardware, le brinda más posibilidades. Piense en las grandes pantallas táctiles que tenemos hoy; la única información que recibe la computadora es la ubicación de su toque. Pero la capacidad de transferir información a través de su toque sería cambiar las aplicaciones de esa gran pantalla táctil ", dijo Sen.
Mario Molina (1943-2020): Ganador del Premio Nobel de Química, defensor del Protocolo de Montreal, asesor de presidentes
El pasado 7 de octubre de 2020 recibimos con profunda tristeza la noticia del fallecimiento del Doctor Mario Molina Pasquel-Henríquez. La Academia Panamericana de Ingeniería publicó a nombre del Consejo de Directores y de todos sus miembros una esquela donde expresamos públicamente el pésame por el sensible fallecimiento del Dr. Molina, distinguido Académico de Honor, enfatizando que sentimos profundamente la pérdida del amigo inmejorable, colega fraternal y notable ingeniero; destacamos en ella nuestra admiración y respeto por este gran hombre, “siempre abierto a sorprenderse, dispuesto por la curiosidad inmediata, una vida por amor a la ciencia. Un hombre sublime”.
Un querido colega nos comparte el OBITUARIO que del Dr. Molina publica Nature el pasado 6 de noviembre de 2020 en su boletín digital y que aquí traducimos. Respetuosamente revisémoslo…
A mediados de la década de 1970, Mario Molina ayudó a predecir que las emisiones globales de clorofluorocarbonos (CFC) podrían agotar el ozono estratosférico. Una década más tarde, los científicos del British Antarctic Survey informaron que había aparecido un gran agujero en la capa de ozono sobre el Polo Sur. La incansable defensa y diplomacia científica de Molina ayudaron a lograr el Protocolo de Montreal de 1987 sobre Sustancias que adelgazan la Capa de Ozono, un acuerdo internacional para eliminar los CFC y otras sustancias químicas que tienen este efecto en la capa de ozono. Molina compartió el Premio Nobel de Química de 1995 con su ex asesor F. Sherwood Rowland y el químico holandés Paul Crutzen por su trabajo sobre la química estratosférica. Murió el 7 de octubre, a los 77 años.
El Protocolo de Montreal, el primer tratado de las Naciones Unidas en lograr la ratificación universal, redujo el cloro y el bromo estratosféricos, y el agujero de ozono ha comenzado a recuperarse. En 2003, el ex secretario general de la ONU, Kofi Annan, describió el tratado como “quizás el acuerdo internacional más exitoso hasta la fecha”. Su implementación, y el trabajo posterior de Molina sobre la calidad del aire en las megaciudades y sobre el cambio climático, mejoraron la calidad de vida de millones de personas en todo el mundo.
Una figura pública preciada en los Estados Unidos y México, fue un asesor de confianza del presidente estadounidense Barack Obama.
Nacido en la Ciudad de México, hijo de un diplomático, Molina fue a un internado en Suiza.
Estudió ingeniería química en la Universidad Nacional Autónoma de México, en su ciudad natal, y química aplicada en la Universidad de Friburgo, Alemania. Los estudios de doctorado en química física en la Universidad de California (UC), Berkeley, lo llevaron a Estados Unidos, donde consolidó su carrera.
En UC Irvine, él y Rowland calcularon la amenaza que representan los CFC para la atmósfera (véase M. Molina y F. Rowland Nature 249, 810–812; 1974). La inercia química que hizo que los CFC fueran valiosos como refrigerantes y propulsores también evita que la oxidación los elimine de la atmósfera, donde se convierten en un caballo de Troya para introducir cloro a la estratosfera. Allí, el gas puede catalizar la destrucción del ozono, permitiendo que la dañina luz ultravioleta de alta energía (UVB) penetre en la superficie de la Tierra.
Comunicar este trabajo a los medios de comunicación y a los legisladores fue el inicio de Molina en la diplomacia científica. Estos esfuerzos crearon un impulso para la eliminación gradual de los CFC en las latas de aerosol, acelerados por el descubrimiento del agujero de ozono y concluidos con el Protocolo de Montreal. Sin embargo, quedaron sin respuesta preguntas básicas: ¿por qué el agujero de ozono estaba localizado sobre el Polo Sur y era estacional?
Molina encontró la respuesta en la química de la superficie de las partículas de hielo que forman las hermosas nubes estratosféricas polares (PSC) de "madre perla" observadas durante el invierno sobre el Polo Sur. Durante el oscuro y frío invierno polar, el cloro estratosférico se almacena en formas relativamente inertes de nitrato de cloro en fase gaseosa, ácido hipocloroso y cloruro de hidrógeno.
Molina y su grupo de investigación, entonces en el Jet Propulsion Laboratory en Pasadena, California, hicieron experimentos creativos para imitar partículas de PSC: las reacciones entre las superficies de hielo y los compuestos de cloro llevaron a la liberación de cloro. La acumulación invernal del gas en el vórtice polar antártico debido a tales reacciones conduce a un agotamiento intenso del ozono cuando la luz solar regresa en la primavera polar.
Quedaba un misterio en cuanto a por qué el hielo debería ser un catalizador tan eficaz para estos procesos estratosféricos. Los cálculos basados en las reacciones del cloruro de hidrógeno con una superficie de hielo cristalino predijeron que la activación del cloro sería mucho menos eficiente de lo que se observa en el laboratorio o en el medio ambiente. Molina sugirió que la diferencia podría deberse a una capa superficial desordenada, o capa casi líquida, en el hielo. En el Instituto de Tecnología de Massachusetts (MIT) en Cambridge, su grupo de investigación realizó experimentos que confirmaron que el cloruro de hidrógeno a bajas temperaturas estratosféricas inducía tal desorden y que desempeñaba un papel en la activación del cloro.
Mientras era profesor de instituto en el MIT entre 1989 y 2004, Molina y su entonces esposa y colaboradora de mucho tiempo, Luisa Tan Molina, comenzaron a trabajar en la calidad del aire en megaciudades (en general, aquellas con más de diez millones de habitantes) en el sur global. Para orientar la política, el Proyecto Ciudad de México combinó estudios de campo a gran escala sin precedentes de la química atmosférica en vecindarios urbanos, en los que participaron cientos de científicos internacionales, con análisis en profundidad y participación de las partes interesadas. Este trabajo mejoró la calidad del aire en su amada ciudad natal.
En 2004, Molina se mudó a UC San Diego y fundó el Centro Mario Molina de Estudios Estratégicos sobre Energía y Medio Ambiente, un grupo de expertos con sede en la Ciudad de México. En sus últimas décadas, pasó cada vez más tiempo en México, pero siguió siendo un miembro inspirador de la facultad en UC San Diego. En 2014, encabezó una importante iniciativa de divulgación pública sobre el cambio climático, "Lo que sabemos", para la Asociación Estadounidense para el Avance de la Ciencia.
Molina podía comunicar la esencia de un tema técnico a cualquiera, con diplomacia amable y credibilidad científica.
Se desempeñó como asesor científico de varios presidentes de México y, como miembro de la Academia Pontificia de Ciencias del Vaticano, asesoró a tres papas y fue coautor del informe de 2017 'Menos de 2 grados Celsius: políticas de acción rápida para proteger a las personas y el planeta del cambio climático extremo'. En sus últimos meses, abogó apasionadamente por el uso de mascarillas para reducir la transmisión del SARS-CoV-2 en México.
Fuente:
https://www.nature.com/articles/d41586-020-03133-3
https://www.academiapanamericanaingenieria.org/Docs/mm2.pdf
“Búsqueda de toda la vida” de partículas supersimétricas en el CERN
Un estimado colega, físico de origen pero ingeniero por sus posgrados, nos envía el presente artículo escrito por Katrina Miller, publicado en el boletín digital de la University of Chicago (UChicago) el 19 de noviembre del 2020 y traducido para Sólo para Ingenieros. Veamos de qué se trata…
Un equipo de investigadores de la Universidad de Chicago se embarcó recientemente en la búsqueda de su vida, o más bien, una búsqueda de la existencia de partículas supersimétricas de larga vida.
La supersimetría es una teoría propuesta para expandir el modelo estándar de física de partículas. Similar a la tabla periódica de los elementos, el modelo estándar es la mejor descripción que tenemos para las partículas subatómicas en la naturaleza y las fuerzas que actúan sobre ellas.
Pero los físicos saben que este modelo está incompleto; no deja espacio para la gravedad o la materia oscura, por ejemplo. La supersimetría tiene como objetivo completar el cuadro emparejando cada partícula del modelo estándar con un socio supersimétrico, lo que abre una nueva clase de partículas hipotéticas por detectar y descubrir. En un nuevo estudio, los físicos de UChicago han descubierto las limitaciones de las propiedades que podrían tener estos supercompañeros, si es que existen.
"La supersimetría es realmente la teoría más prometedora que tenemos para resolver tantos problemas como sea posible en el Modelo Estándar", dijo Tova Holmes, profesora asistente en la Universidad de Tennessee, Knoxville, quien trabajó en el experimento como investigadora postdoctoral en UChicago. "Nuestro trabajo encaja en un esfuerzo mayor en el Gran Colisionador de Hadrones para reconsiderar cómo buscamos una nueva teoría de la física".
El Gran Colisionador de Hadrones, ubicado en Europa en el CERN (Conseil européen pour la recherche nucléaire), acelera los protones a casi la velocidad de la luz antes de obligarlos a chocar. Estas colisiones protón-protón producen una gran cantidad de partículas adicionales donde los investigadores esperan encontrar esta prometedora nueva física.
"Pero en el Gran Colisionador de Hadrones, los nuevos eventos físicos son extremadamente raros y difíciles de identificar en los escombros de las partículas en colisión", dijo la profesora Young-Kee Kim, presidenta del departamento de física de UChicago y coautora del estudio, un esfuerzo dirigido íntegramente por mujeres.
El equipo de UChicago buscó la producción de sleptones, supuestos supercompañeros de los leptones existentes de electrones, muones y tau, utilizando datos recopilados en el ATLAS, un detector de partículas del CERN. En el modelo de supersimetría que se intenta probar, se teoriza que los sleptones tienen una vida útil prolongada, lo que significa que pueden viajar mucho antes de descomponerse en algo detectable por ATLAS.
"Una de las formas en que podemos no detectar la nueva física es si la partícula no se descompone rápidamente cuando se produce", dijo Holmes. "Por lo general, no podemos ver a las partículas de larga duración en nuestras búsquedas, porque básicamente eliminamos cualquier cosa que no parezca un decaimiento rápido estándar en nuestro detector".
Sin embargo, en cuatro años de recopilación de datos en el ATLAS, los investigadores de UChicago no encontraron eventos de leptones desplazados. Esa falta de descubrimiento les permitió establecer lo que se llama un límite, descartando un rango de masas y tiempo de vida que podrían tener los sleptons longevos.
"Estamos al menos un 95% seguros de que, en caso de que exista un slepton en este modelo, no tiene las masas ni el tiempo de duración en las partes sombreadas de esta trama", dijo Lesya Horyn, Ph.D. de UChicago quien recientemente completó su disertación sobre esta medida.
¿Un resultado nulo decepciona al equipo? De ningún modo.
"No encontrar nada te dice tanto", dijo Horyn. Saber que los sleptons longevos no tienen determinadas masas y duraciones informa a los investigadores sobre dónde enfocar las búsquedas futuras.
"Desde mi punto de vista, esta búsqueda era lo que los teóricos decían haber cubierto", dijo Holmes. "Parecía que podíamos hacerlo, ¡y lo hicimos!"
El resultado ha dado energía al equipo para ampliar aún más los límites. En algún momento de la próxima década, el Gran Colisionador de Hadrones entrará en su período de mantenimiento periódico, dejando tiempo suficiente para que se actualice el hardware del ATLAS.
"Este fue un primer paso en el análisis, por lo que definitivamente hay lugares para mejorar", dijo Horyn.
Una actualización urgente será una renovación del sistema de activación, que selecciona si los eventos deben guardarse o desecharse. El disparador está optimizado actualmente para almacenar desintegraciones de partículas de vida corta, no de los sleptones de vida larga que son fundamentales para esta búsqueda de supersimetría.
Se pueden realizar mejoras más inmediatas sin esperar el cierre.
"Los pasos futuros podrían incluir la búsqueda del mismo modelo utilizando datos más sólidos de las próximas ejecuciones del Gran Colisionador de Hadrones", dijo Xiaohe Jia, una estudiante graduada en Harvard que trabajó en el experimento como estudiante de la Universidad de Chicago. Otra ruta para explorar, dijo, podría ser el uso de técnicas similares para expandir la búsqueda de partículas de larga duración más allá de los sleptons.
Por ahora, el completar el modelo estándar sigue siendo una tarea pendiente, pero el equipo se enorgullece de haber liderado una primera búsqueda de este modelo de supersimetría en el ATLAS.
"Descubrir nueva física es como encontrar una aguja en un pajar", dijo Kim. "Aunque no vimos nada en los datos actuales, ¡hay una gran oportunidad para el futuro!"
Fuente: https://news.uchicago.edu/story/search-lifetime-supersymmetric-particles-cern
¿Es un pájaro, un avión? No, tampoco es Supermán, sino un dron batiendo su alas
Un equipo internacional de ingenieros aeroespaciales está desarrollando un prototipo de dron que imita las maniobras acrobáticas de una de las aves más rápidas del mundo, el vencejo, en el último ejemplo de vuelo de inspiración biológica. Al respecto un estimado colega nos comparte el presente artículo publicado en el boletín digital de noticias de la University of South Australia (UniSA) el 29 de julio de 2020 y traducido aquí para Sólo para Ingenieros. Veamos de qué se trata…
Un equipo de investigación de Australia Meridional, Singapur, China y Taiwán ha diseñado un ornitóptero de 26 gramos (avión de alas móviles) que puede flotar, lanzarse, planear, frenar y sumergirse como un vencejo común, lo que los hace más versátiles, seguros y silenciosos que los drones quadricópteros existentes.
Con un peso equivalente a dos cucharadas de harina, el dron de alas móviles se ha optimizado para volar en entornos caóticos de los humanos, con la capacidad de deslizarse, flotar a muy baja altura y detenerse rápidamente desde velocidades rápidas, evitando colisiones, todo lo que los cuadricópteros actuales no pueden hacer.
El equipo, que incluye al ingeniero aeroespacial de UniSA, el profesor Javaan Chahl, ha diseñado un dron con alas felixbles similar en tamaño a un vencejo o de una paloma grande, que puede imitar algunas maniobras agresivas de vuelo de esta ave.
El profesor Chahl dice que copiar el diseño de las aves, como los vencejos, es solo una estrategia para mejorar el rendimiento de vuelo de los ornitópteros de alas batientes.
“Hay ornitópteros existentes pero, hasta ahora, eran demasiado ineficientes y lentos para ser ágiles. Hemos superado estos problemas con nuestro prototipo de ala flexibles, logrando el mismo empuje generado por una hélice”, dice el profesor Chahl.
“El batir de alas puede elevarse como el ala de un avión, mientras se empuja como una hélice y frena como un paracaídas. Hemos reunido esto para replicar los patrones de vuelo agresivos de las aves mediante el simple control de la cola ".
El científico investigador de la Universidad Nacional de Singapur, el Dr. Yao-Wei Chin, quien ha dirigido el proyecto publicado recientemente en Science Robotics, dice que los drones de inspiración biológica podrían usarse con éxito en una variedad de entornos.
Las aplicaciones de vigilancia son claras, pero las aplicaciones novedosas incluyen la polinización de granjas verticales interiores sin dañar la vegetación densa, a diferencia de los cuadricópteros de propulsión rotatoria cuyas cuchillas corren el riesgo de triturar los cultivos.
Debido a su estabilidad en vientos fuertes, el dron ornitóptero también podría usarse para ahuyentar a las aves de los aeropuertos, reduciendo el riesgo de que sean absorbidas por los motores a reacción.
“El ornitóptero optimizado actúa como una especie de espantapájaros, lo que ahorra en gran medida los costos laborales para las empresas de control de plagas y los operadores de aeropuertos”, dice el Dr. Chin.
Actualmente no hay ornitópteros comercializados que se utilicen para la vigilancia, pero esto podría cambiar con el último avance, afirman los investigadores.
Al mejorar el diseño para que los ornitópteros ahora puedan producir suficiente empuje para flotar y llevar una cámara y los dispositivos electrónicos que lo acompañan, el dron de alas flexibles batibles podría usarse para monitorear marchas y tráfico, recopilar información y estudiar bosques y vida silvestre.
El peso ligero y el lento batir de las alas del ornitóptero representan menos peligro para el público que los drones cuadricópteros en caso de accidente y, dado el empuje y los bancos de energía suficientes, podría modificarse para transportar diferentes cargas útiles según lo que se requiera.
Un área que requiere más investigación es cómo reaccionarán las aves a un objeto volador mecánico que se les parezca en tamaño y forma. Las aves pequeñas y domesticadas se asustan fácilmente con los drones, pero se sabe que grandes bandadas y aves mucho más grandes atacan a los ornitópteros.
Y aunque el avance bioinspirado es impresionante, estamos muy lejos de replicar el vuelo biológico, dice el Dr. Chin.
“Aunque los ornitópteros son los más cercanos al vuelo biológico con su propulsión de aleteo, las aves y los insectos tienen múltiples conjuntos de músculos que les permiten volar increíblemente rápido, doblar las alas, girar, abrir las ranuras de las plumas y ahorrar energía.
“La agilidad de sus alas les permite girar su cuerpo en el aire sin dejar de aletear a diferentes velocidades y ángulos.
“Los vencejos comunes pueden navegar a una velocidad máxima de 31 metros por segundo, equivalente a 112 kilómetros por hora o 90 millas por hora.
“A lo sumo, diría que estamos replicando el 10 por ciento del vuelo biológico”, dice.
Notas para los lectores:
“Un avión no tripulado con alas flexibles batibles eficientes detiene el vuelo de alta velocidad utilizando el vuelo posterior a la pérdida”, se publica en Science Robotics. Para obtener una copia del documento, envíe un correo electrónico a Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
El proyecto fue la culminación del trabajo de doctorado realizado por el Dr. Yao-Wei Chin en la Universidad Tecnológica de Nanyang bajo la dirección del Profesor Asociado Gih-Keong Lau (ahora con la Universidad Nacional Chiao Tung, Taiwán), y una colaboración internacional compuesta por el Profesor Boo Cheong Khoo ( Universidad Nacional de Singapur), el profesor Javaan Chahl y el Dr. Jia Ming Kok (Universidad de Australia Meridional y Grupo de Ciencia y Tecnología de Defensa, Australia), el Dr. Yong-Qiang Zhu (Universidad Tecnológica de Qingdao, China) y el Dr. Woei Leong Chan (Universidad Nacional de Singapur).
Fuente:
Para sobrevivir al impacto de un asteroide, las algas aprendieron a cazar
Un estimado colega nos comparte el presente e interesante artículo escrito por Jules Bernstein y publicado por la University of California at Riverside (UCR) el pasado 30 de octubre de 2020. La traducción se realizó por “Sólo para Ingenieros”. Veamos de qué se trata…
Pequeñas plantas oceánicas aparentemente inofensivas sobrevivieron a la oscuridad del impacto de un asteroide que mató a los dinosaurios al aprender un comportamiento macabro: comerse a otras criaturas vivientes.
Grandes cantidades de escombros, cenizas y aerosoles se dispararon a la atmósfera cuando un asteroide se estrelló contra la Tierra hace 66 millones de años, sumiendo al planeta en la oscuridad, enfriando el clima y acidificando los océanos. Junto con los dinosaurios en la tierra y los reptiles gigantes en el océano, las especies dominantes de algas marinas fueron aniquiladas instantáneamente, excepto por una de raro tipo.
Un equipo de científicos, incluidos investigadores de UC Riverside, quería comprender cómo estas algas lograron prosperar mientras la extinción masiva se extendía por el resto de la cadena alimentaria mundial.
"Este evento estuvo más cerca de acabar con toda la vida multicelular en este planeta, al menos en el océano", dijo el geólogo de la UCR y coautor del estudio Andrew Ridgwell. "Si eliminas las algas, que forman la base de la cadena alimentaria, todo lo demás debería morir. Queríamos saber cómo los océanos de la Tierra evitaron ese destino y cómo nuestro ecosistema marino moderno volvió a evolucionar después de tal catástrofe".
Para responder a sus preguntas, el equipo examinó fósiles bien conservados de las algas supervivientes y creó modelos informáticos detallados para simular la probable evolución de los hábitos de alimentación de las algas a lo largo del tiempo. Sus hallazgos ahora se publican en la revista Science Advances.
Según Ridgwell, los científicos tuvieron un poco de suerte al encontrar los fósiles de tamaño nanométrico en primer lugar. Se ubicaron en sedimentos de rápida acumulación y alto contenido de arcilla, lo que ayudó a preservarlos de la misma manera que los pozos de alquitrán de La Brea proporcionan un ambiente especial para ayudar a preservar los mamuts.
La mayoría de los fósiles tenían escudos hechos de carbonato de calcio, así como agujeros en sus escudos. Los agujeros indican la presencia de flagelos, estructuras delgadas en forma de cola que permiten que los organismos diminutos naden.
"La única razón por la que necesitas moverte es para atrapar a tu presa", explicó Ridgwell.
Los parientes modernos de las algas antiguas también tienen cloroplastos, que les permiten utilizar la luz solar para producir alimentos a partir de dióxido de carbono y agua. Esta capacidad de sobrevivir tanto al alimentarse de otros organismos como a través de la fotosíntesis se llama mixotrofia. Ejemplos de las pocas plantas terrestres con esta habilidad incluyen Venus atrapamoscas y sundews.
Los investigadores encontraron que una vez que la oscuridad posterior al asteroide se despejó, estas algas mixotróficas se expandieron desde las áreas de la plataforma costera hacia el océano abierto, donde se convirtieron en una forma de vida dominante durante el próximo millón de años, lo que ayudó a reconstruir rápidamente la cadena alimentaria. También ayudó que las criaturas más grandes que normalmente se alimentarían de estas algas estuvieran inicialmente ausentes en los océanos posteriores a la extinción.
"Los resultados ilustran tanto la adaptabilidad extrema del plancton oceánico como su capacidad para evolucionar rápidamente, pero también, para las plantas con un tiempo de generación de un solo día, siempre estás a solo un año de oscuridad de la extinción", dijo Ridgwell.
Sólo mucho más tarde las algas evolucionaron, perdiendo la capacidad de comer a otras criaturas y restableciéndose para convertirse en una de las especies de algas dominantes en el océano actual.
"La mixotrofia fue tanto el medio de supervivencia inicial como luego una ventaja después de que la oscuridad posterior al asteroide desapareció debido a las abundantes células pequeñas y bonitas, probablemente cianobacterias sobrevivientes", dijo Ridgwell. "Es la mejor historia de Halloween: cuando se apagan las luces, todos comienzan a comerse unos a otros".
Fuente: https://news.ucr.edu/articles/2020/10/30/survive-asteroid-impact-algae-learned-hunt
Un asteroide de diferente color ... y otros secretos de Bennu que se descubren (Segunda parte)
Faltan algunas horas para que la nave aeroespacial Osiris-Rex intente obtener una muestra del asteroide Bennu. Este evento será transmitido por la NASA en vivo, el 20 de octubre a las 5:12 pm, hora de CdMex, y usted podrá verlo en el enlace: https://www.nasa.gov/nasalive.
Por lo pronto, aquí continuaremos revisando el artículo que sobre el tema nos han compartido los colegas de la University of Arizona (UA), cuya primera parte revisamos la semana pasada. Hoy analizaremos el resto.
El artículo fue publicado el pasado jueves 8 de octubre en el boletín digital de noticias “A-News” de la UA y traducido por nosotros. Continuamos…
Un triunfo científico
Otro artículo publicado en Science, dirigido por Amy Simon, del Goddard Space Flight Center de la NASA en Greenbelt, Maryland, muestra que el material orgánico que contiene carbono está muy extendido en la superficie del asteroide, incluso en el sitio Nightingale. Estos hallazgos indican que es probable que la muestra recolectada contenga minerales hidratados y material orgánico.
Esta materia orgánica puede contener carbono en una forma que se encuentra a menudo en compuestos asociados con la biología. Los científicos están planeando experimentos detallados con estas moléculas orgánicas y esperan que la muestra devuelta ayude a responder preguntas complejas sobre los orígenes del agua y la vida en la Tierra.
"La abundancia de material que contiene carbono es un gran triunfo científico para la misión. Ahora somos optimistas de que recolectaremos y traeremos una muestra con material orgánico, un objetivo central de la misión OSIRIS-REx", dijo Dante Lauretta, OSIRIS- Investigador principal de REx y profesor de ciencias planetarias de UArizona, que fue coautor de los seis artículos de la colección.
Historia escondida en las rocas
Veta de carbonato brillante en Bennu
Durante el otoño de 2019, la nave espacial OSIRIS-REx de la NASA capturó esta imagen, que muestra una de las rocas del asteroide Bennu con una vena brillante que parece estar hecha de carbonato. La imagen dentro del círculo (abajo a la derecha) muestra una vista enfocada de la vena.
Otro estudio de la colección, publicado en Science y dirigido por Hannah Kaplan de Goddard, encontró que los minerales de carbonato, que son compuestos que contienen combinaciones especiales de carbono, oxígeno y metales, constituyen algunas de las características geológicas del asteroide y podrían estar presentes en la muestra que retorne a la Tierra. Debido a que estos minerales de carbonato se forman bajo ciertas condiciones, los científicos teorizan que el asteroide padre de Bennu probablemente albergaba un entorno en el que el agua interactuó y alteró la roca del cuerpo padre de Bennu.
Un artículo de Science Advances dirigido por Ben Rozitis de The Open University of UK muestra que las rocas oscuras son más débiles y más porosas, mientras que las rocas brillantes son más fuertes y menos porosas. Sin embargo, ambos tipos de rocas son más débiles de lo que esperaban los científicos. Rozitis y sus colegas sospechan que las rocas oscuras de Bennu, las más débiles, porosas y comunes, no sobrevivirían al viaje a través de la atmósfera terrestre. Por lo tanto, es probable que las muestras devueltas del asteroide Bennu proporcionen un eslabón perdido para los científicos, ya que este tipo de material no está representado actualmente en las colecciones de meteoritos.
Una forma sorprendente
Bennu es una pila de escombros en forma de diamante que flota en el espacio, pero hay más de lo que parece. Los datos obtenidos por el altímetro láser OSIRIS-REx, u OLA, han permitido al equipo de la misión desarrollar un modelo de terreno digital en 3D del asteroide que, con una resolución de casi 8 pulgadas, que no tiene precedentes en cuanto a detalle y precisión.
En un artículo de Science Advances dirigido por Michael Daly, de la University of York, los científicos explican cómo el análisis detallado de la forma del asteroide reveló montículos en forma de cresta en Bennu que se extienden de polo a polo, pero son lo suficientemente sutiles como para que el ojo humano los pasen por alto fácilmente.. Su presencia ha sido insinuada antes, pero solo se hizo evidente cuando los hemisferios norte y sur se separaron y compararon en los datos de OLA.
El modelo de terreno digital también muestra que los hemisferios norte y sur de Bennu tienen diferentes formas. El hemisferio sur parece ser más suave y redondo, lo que los científicos creen que es el resultado de que el material suelto queda atrapado por las numerosas rocas grandes de la región.
¿Qué hay en el centro de Bennu?
Otro artículo de Science Advances en la colección especial, dirigido por Daniel Scheeres de la University of Colorado en Boulder, examina el campo gravitatorio de Bennu, que se ha determinado siguiendo las trayectorias de la nave espacial OSIRIS-REx y las partículas que son expulsadas naturalmente de la superficie de Bennu.
El campo de gravedad reconstruido muestra que el interior de Bennu no es uniforme. En cambio, hay bolsas de material de mayor y menor densidad dentro del asteroide. Es como si hubiera un vacío en su centro, dentro del cual podrían caber un par de campos de fútbol.
Las seis publicaciones de la colección especial utilizan conjuntos de datos globales y locales recopilados por la nave espacial OSIRIS-REx desde febrero hasta octubre de 2019. La colección especial subraya que las misiones de retorno de muestra como OSIRIS-REx son esenciales para comprender completamente la historia y la evolución del sistema solar.
La misión está a menos de tres días de cumplir su mayor objetivo: recolectar una pieza de un asteroide prístino, hidratado y rico en carbono. OSIRIS-REx partirá de Bennu en 2021 y entregará la muestra a la Tierra el 24 de septiembre de 2023.
Fuente:https://news.arizona.edu/story/asteroid-different-color-%E2%80%A6-and-other-secrets-bennu-unlocked
La gravedad provoca la homogeneidad del universo
El día de hoy, para variar un poco los temas de ingeniería que regularmente revisamos, un querido colega nos comparte un interesante artículo relacionado con el campo de la física, y específicamente el de la cosmología. El artículo lo escribió Pia Gärtner, fue publicado por la Universität Wien (UW) el pasado 24 de septiembre de 2020 y lo tradujimos nosotros.
Antes de iniciar, recordemos que la cosmología es la rama del conocimiento que estudia el universo en su conjunto, es decir, es la ciencia que estudia todo lo que hay fuera de nuestro planeta. Relacionado con este campo el concepto de “principio cosmológico” es una hipótesis principal de la cosmología moderna, basada en un número cada vez más grandes de indicios que se han estado observando. Afirma este concepto que, en escalas espaciales suficientemente grandes, el Universo es isótropo y homogéneo.
La isotropía significa que sin importar en qué dirección se esté observando, veremos las mismas propiedades en el Universo. La homogeneidad quiere decir que cualquier punto del Universo luce igual y tiene las mismas propiedades que cualquier otro punto dado. La expresión «suficientemente grandes» se refiere a escalas del orden de cientos de megapársecs, donde un pársec es una unidad de longitud utilizada en astronomía igual a 3.2616 años luz y obviamente un megapársec equivale a 3.26 millones de años luz.
Aclarados los conceptos anteriores, nos adentraremos a la visita del artículo propiamente. Para iniciar, el artículo nos dice que la gravedad puede acelerar la homogeneización del espacio-tiempo a medida que evoluciona el universo. Esta idea se basa en estudios teóricos del físico David Fajman de la Universität Wien (UW). Los métodos matemáticos desarrollados dentro de su proyecto de investigación permiten investigar cuestiones fundamentales abiertas de la cosmología, como por qué el universo hoy parece tan homogéneo. Los resultados se han publicado en la revista Physical Review Letters.
La evolución temporal del universo, desde el Big Bang hasta el presente, se describe mediante las ecuaciones de campo de la relatividad general de Einstein. Sin embargo, todavía hay una serie de preguntas abiertas sobre la dinámica cosmológica, cuyos orígenes se encuentran en supuestas discrepancias entre la teoría y la observación. Una de estas preguntas abiertas es: ¿Por qué el universo en su estado actual es tan homogéneo a gran escala?
Del Big Bang al presente
Se supone que el universo se encontraba en un estado extremo poco después del Big Bang, caracterizado en particular por fuertes fluctuaciones en la curvatura del espacio-tiempo. Durante el largo proceso de expansión, el universo evolucionó hacia su estado actual, que es, a gran escala, homogéneo e isotrópico; en términos simples: el cosmos se ve igual en todas partes.
Esto se infiere, entre otras cosas, de la medición de la llamada radiación de fondo, que parece muy uniforme en todas las direcciones de observación. Esta homogeneidad es sorprendente en el sentido de que incluso dos regiones del universo que se desacoplaron causalmente entre sí, es decir, no pudieron intercambiar información, todavía exhiben valores idénticos de radiación de fondo.
Teorías alternativas
Para resolver esta supuesta contradicción, se desarrolló la llamada teoría de la inflación, que postula una fase de expansión extremadamente rápida inmediatamente posterior al Big Bang, que a su vez puede explicar la homogeneidad en la radiación de fondo.
Sin embargo, explicar esta fase en el contexto de la teoría de Einstein requiere una serie de modificaciones de la teoría, que parecen artificiales y no pueden verificarse directamente.
Nuevos hallazgos: homogeneización por gravitación
Hasta ahora, no estaba claro si la homogeneización del universo puede explicarse completamente por las ecuaciones de Einstein. La razón de esto es la complejidad de las ecuaciones y la dificultad asociada para analizar sus soluciones —modelos para el universo— y predecir su comportamiento.
En el problema concreto, la evolución en el tiempo de las desviaciones originalmente fuertes del estado homogéneo como ondas gravitacionales cosmológicas debe analizarse matemáticamente. Hay que demostrar que decaen en el curso de la expansión, lo que permite que el universo obtenga su estructura homogénea.
Dichos análisis se basan en métodos matemáticos modernos en el campo del análisis geométrico. Hasta ahora, estos métodos solo podían lograr tales resultados para pequeñas desviaciones de la geometría homogénea del espacio-tiempo. David Fajman de la UW ha logrado por primera vez transferir estos métodos al caso de desviaciones arbitrariamente grandes.
Los resultados publicados en la reconocida revista PRL muestran que la homogeneización en la clase de modelos investigados ya está completamente explicada por la teoría de Einstein y no requiere modificaciones adicionales. Si este hallazgo puede transferirse a modelos más generales, significa que no necesariamente necesita un mecanismo como la inflación para explicar el estado de nuestro universo actual, pero que la teoría de Einstein finalmente podría triunfar una vez más.
Fuentes:
https://es.wikipedia.org/wiki/Principio_cosmol%C3%B3gico
https://es.wikipedia.org/wiki/P%C3%A1rsec
Desarrollo ingenieril produce una lente ojo de pez completamente plano
Estimados lectores: con este publicación esta columna cumple siete años de haberse iniciado. Agradecemos a La Unión de Morelos y especialmente a Oscar Davis por permitirnos compartir con ustedes noticias relevantes del mundo de la ingeniería, la ciencia y la tecnología. A usted le agradecemos por acompañarnos a revisar un material que cada semana emociona y sorprende.
Para capturar vistas panorámicas en una sola toma, los fotógrafos suelen utilizar lentes de ojo de pez o gran angular fabricados con varias piezas de vidrio curvo, que distorsionan la luz entrante para producir imágenes anchas como burbujas. Su diseño esférico de varias piezas hace que las lentes de ojo de pez sean inherentemente voluminosas y, a menudo, costosas de producir.
Relacionado con una innovación de estos lentes gran angular, un estimado colega nos comparte el presente un artículo escrito por Jennifer Chu y publicado en boletín digital MIT News del Massachusetts Institute of Technology (MIT) el 18 de septiembre de 2020 y traducido por nosotros. Veamos de qué se trata…
El artículo informa que ingenieros del MIT y la University of Massachusetts en Lowell han diseñado una lente gran angular que es completamente plana. Es el primer objetivo de ojo de pez plano que produce imágenes panorámicas nítidas de 180 grados. El diseño es un tipo de "metalente", elaborado con un material delgado como una oblea con un patrón de características microscópicas que trabajan juntas para manipular la luz de una manera específica.
En este caso, la nueva lente de ojo de pez consiste en una sola pieza de vidrio plana, de un milímetro de espesor, cubierta en un lado con estructuras diminutas que dispersan con precisión la luz entrante para producir imágenes panorámicas, tal como lo haría un conjunto de lentes de ojo de pez multielementos curvos convencionales. La lente funciona en la parte infrarroja del espectro, pero los investigadores dicen que podría modificarse para capturar imágenes utilizando también luz visible.
El nuevo diseño podría adaptarse potencialmente para una variedad de aplicaciones, con lentes delgadas de gran angular integradas directamente en teléfonos inteligentes y computadoras portátiles, en lugar de adjuntarlas físicamente como complementos voluminosos. Las lentes de bajo perfil también pueden integrarse en dispositivos de imágenes médicas como endoscopios, así como en gafas de realidad virtual, dispositivos electrónicos portátiles y otros dispositivos de visión por computadora.
"Este diseño es algo sorprendente, porque algunos habían pensado que sería imposible hacer un metalente con una vista de campo ultra amplio", dice Juejun Hu, profesor asociado en el Departamento de Ciencia e Ingeniería de Materiales del MIT. “El hecho de que esto realmente pueda realizar imágenes de ojo de pez está completamente fuera de lo esperado.
Esto no es sólo una ligera flexión, es alucinante ".
Hu y sus colegas han publicado sus resultados hoy en la revista Nano Letters. Los coautores del MIT de Hu son Mikhail Shalaginov, Fan Yang, Peter Su, Dominika Lyzwa, Anuradha Agarwal y Tian Gu, junto con Sensong An y Hualiang Zhang de UMass Lowell.
Diseño en la parte trasera
Los metalentes, aunque todavía se encuentran en una etapa experimental, tienen el potencial de remodelar significativamente el campo de la óptica. Anteriormente, los científicos habían diseñado metalentes que producen imágenes de alta resolución y relativamente gran angular de hasta 60 grados.
Para expandir aún más el campo de visión, tradicionalmente se requerirían componentes ópticos adicionales para corregir aberraciones o borrosidad, una solución que agregaría volumen al diseño de metalentes. En cambio, a Hu y sus colegas se les ocurrió un diseño simple que no requiere componentes adicionales y mantiene un número mínimo de elementos. Su nuevo metalente es una sola pieza transparente hecha de fluoruro de calcio con una fina película de telururo de plomo depositada en un lado. Luego, el equipo utilizó técnicas litográficas para tallar un patrón de estructuras ópticas en la película.
Cada estructura, o "metaátomo", como los llama el equipo, tiene una forma de una de varias geometrías a nanoescala, como una configuración rectangular o en forma de hueso, que refracta la luz de una manera específica. Por ejemplo, la luz puede tardar más en dispersarse o en propagarse de una forma a otra, un fenómeno conocido como retardo de fase.
En las lentes de ojo de pez convencionales, la curvatura del vidrio crea naturalmente una distribución de retrasos de fase que finalmente produce una imagen panorámica. El equipo determinó el patrón correspondiente de metaátomos y talló este patrón en la parte posterior del vidrio plano.
"Hemos diseñado las estructuras del lado posterior de tal manera que cada parte puede producir un enfoque perfecto", dice Hu.
En la parte frontal, el equipo colocó una apertura óptica o apertura para la luz.
"Cuando la luz entra a través de esta apertura, se refracta en la primera superficie del vidrio y luego se dispersa angularmente", explica Shalaginov. "La luz incidirá en diferentes partes de la parte trasera, desde ángulos diferentes pero continuos. Siempre que diseñe la parte trasera correctamente, puede estar seguro de obtener imágenes de alta calidad en toda la vista panorámica".
Al otro lado del panorama
En una demostración, la nueva lente está ajustada para operar en la región del infrarrojo medio del espectro. El equipo utilizó la configuración de imágenes equipada con metalentes para tomar fotografías de un objetivo rayado. Luego compararon la calidad de las imágenes tomadas en varios ángulos a lo largo de la escena y encontraron que la nueva lente producía imágenes de las rayas que eran nítidas y claras, incluso en los bordes de la vista de la cámara, abarcando casi 180 grados.
"Demuestra que podemos lograr un rendimiento de imagen perfecto en casi toda la vista de 180 grados, utilizando nuestros métodos", dice Gu.
En otro estudio, el equipo diseñó las metalentes para operar en una longitud de onda del infrarrojo cercano utilizando nanopostes de silicio amorfo como metaátomos. Conectaron las metalentes en una simulación utilizada para probar instrumentos de imágenes. A continuación, alimentaron la simulación con una escena de París, compuesta por imágenes en blanco y negro unidas para hacer una vista panorámica. Luego ejecutaron la simulación para ver qué tipo de imagen produciría la nueva lente.
"La pregunta clave era, ¿la lente cubre todo el campo de visión? Y vemos que captura todo en el panorama", dice Gu. "Puedes ver edificios y personas, y la resolución es muy buena, sin importar si estás mirando el centro o los bordes".
El equipo dice que la nueva lente se puede adaptar a otras longitudes de onda de luz. Para hacer una lente de ojo de pez plana similar para la luz visible, por ejemplo, Hu dice que las características ópticas pueden tener que hacerse más pequeñas de lo que son ahora, para refractar mejor ese rango particular de longitudes de onda. El material de la lente también tendría que cambiar. Pero la arquitectura general que ha diseñado el equipo seguirá siendo la misma.
Los investigadores están explorando aplicaciones para su nueva lente, no solo como cámaras compactas de ojo de pez, sino también como proyectores panorámicos, así como sensores de profundidad integrados directamente en teléfonos inteligentes, computadoras portátiles y dispositivos portátiles.
"Actualmente, todos los sensores 3-D tienen un campo de visión limitado, por lo que cuando aparta la cara de su teléfono inteligente, no lo reconoce", dice Gu. "Lo que tenemos aquí es un nuevo sensor 3-D que permite la creación de perfiles de profundidad panorámica, lo que podría ser útil para dispositivos electrónicos modernos".
Fuente: https://news.mit.edu/2020/flat-fisheye-lens-0918
¿Son los genes masculinos de Marte y los genes femeninos de Venus?
Análisis que destaca las diferencias sexuales en la salud y las enfermedades.
Un estimado colega nos comparte hoy el presente E interesante artículo escrito por Richard Harth. Aunque el título nos recuerda el título de un conocido libro del autor estadounidense John Gray, en realidad en este caso se trata de una revisión científica realizada en Arizona State University (ASU) en el área del biodiseño genético, publicado el 11 de septiembre de 2020 y traducido aquí por nosotros. Veamos de quÉ se trata…
Los hombres y las mujeres comparten la gran mayoría de sus genomas. Solo unos pocos genes, ubicados en los llamados cromosomas sexuales X e Y, difieren entre los sexos. Sin embargo, las actividades de nuestros genes, su expresión en células y tejidos, generan profundas distinciones entre hombres y mujeres.
Los sexos no solo difieren en apariencia externa, sino que sus genes expresados diferencialmente afectan fuertemente el riesgo, la incidencia, la prevalencia, la gravedad y la edad de aparición de muchas enfermedades, incluido el cáncer, los trastornos autoinmunes, las enfermedades cardiovasculares y las afecciones neurológicas.
Los investigadores han observado diferencias asociadas al sexo en la expresión génica en una variedad de tejidos, incluidos el hígado, el corazón y el cerebro. Sin embargo, estas diferencias de sexo específicas de tejido siguen siendo poco conocidas. La mayoría de los rasgos que muestran variaciones entre hombres y mujeres parecen ser el resultado de diferencias en la expresión de genes autosómicos comunes a ambos sexos, mas que a través de la expresión de genes de cromosomas sexuales u hormonas sexuales.
Una mejor comprensión de estas disparidades asociadas al sexo en el comportamiento de nuestros genes podría conducir a mejores diagnósticos y tratamientos para una variedad de enfermedades humanas.
En un nuevo artículo de la sección PERSPECTIVES de la revista Science, Melissa Wilson revisa la investigación actual sobre patrones de diferencias sexuales en la expresión génica en todo el genoma y destaca los sesgos de muestreo en las poblaciones humanas incluidas en dichos estudios.
"Una de las cosas más sorprendentes de este estudio exhaustivo de las diferencias sexuales", dijo Wilson, "es que, si bien las diferencias agregadas abarcan el genoma y contribuyen a los sesgos en la salud humana, cada gen individual varía enormemente entre las personas".
Wilson es investigadora en el Biodesign Center for Mechanisms in Evolution, perteneciente al Center for Evolution and Medicine, y en la School of Life Sciences de la ASU.
Hace una década, una empresa ambiciosa, conocida como el consorcio Genotype-Tissue Expression (GTEx), comenzó a investigar los efectos de la variación del ADN en la expresión génica en toda la gama de tejidos humanos. Hallazgos recientes, que aparecen en la edición de Science bajo revisión, indican que las disparidades ligadas al sexo en la expresión génica son mucho más generalizadas de lo que se suponía, con más de un tercio de todos los genes que muestran una expresión sesgada por el sexo en al menos un tejido. (La nueva investigación destacada en el artículo PERSPECTIVAS de Wilson describe las diferencias de regulación genética entre los sexos en cada tejido en estudio).
Las diferencias ligadas al sexo en la expresión génica se comparten entre los mamíferos, aunque sus roles relativos en la susceptibilidad a enfermedades siguen siendo especulativos. La selección natural probablemente guió el desarrollo de muchos de estos atributos. Por ejemplo, el aumento de los mamíferos placentarios hace unos 90 millones de años puede haber dado lugar a diferencias en la función inmunológica entre machos y hembras.
Tales distinciones basadas en el sexo que surgieron en el pasado distante han dejado su huella en los mamíferos actuales, incluidos los humanos, expresada en tasas más altas de trastornos autoinmunes en las hembras y mayores tasas de cáncer en los machos.
A pesar de su importancia fundamental para comprender la prevalencia y la gravedad de la enfermedad, las diferencias sexuales en la expresión génica sólo recientemente han recibido una atención seria en la comunidad de investigadores. Wilson y otros sugieren que gran parte de la investigación genética histórica, utilizando principalmente sujetos varones blancos en la mediana edad, ha arrojado una imagen incompleta.
Dichos estudios a menudo no tienen en cuenta las diferencias de sexo en el diseño y análisis de los experimentos, lo que genera una visión distorsionada de la variación de la enfermedad basada en el sexo, lo que a menudo conduce a enfoques únicos para el diagnóstico y el tratamiento. Por lo tanto, los autores aconsejan a los investigadores que tengan más cuidado con las generalizaciones basadas en bases de datos existentes de información genética, incluida GTEx.
Está surgiendo un enfoque más holístico, a medida que los investigadores investigan toda la gama de efectos relacionados con la expresión de genes masculinos y femeninos en una gama más amplia de variación humana.
Fuente:
https://www.google.com/search?q=Are+male+genes+from+Mars,+female+genes+from+Venus%3F+Review+highlights+sex+differences+in+health+and+disease&client=firefox-b-1-d&source=lnms&tbm=isch&sa=X&ved=2ahUKEwiNz5qAxuTrAhXTvZ4KHYuWCpMQ_AUoAnoECAsQBA&biw=1617&bih=771#imgrc=eg09y2dcE7syIM
Pintar con luz: los novedosos nanopilares controlan con precisión la intensidad de la luz transmitida
Pintar con luz, dibujar con luz o fotografía de arte libre (performance) con luz son términos que describen técnicas fotográficas que consiste en mover una fuente de luz mientras se toma una fotografía de larga exposición, ya sea para iluminar un sujeto o espacio, o para iluminar la cámara hacia ”un dibujo”, o moviendo la propia cámara durante la exposición de fuentes de luz. Practicada desde la década de 1880, la técnica se utiliza con fines científicos y artísticos, así como en fotografía comercial.
La pintura con luz también se refiere a una técnica de creación de imágenes que utiliza la luz directamente, como con LED en una superficie proyectiva utilizando el enfoque en el que un pintor se acerca a un lienzo. Un pionero en este campo es el proyecto Bushwick Lightbox en la ciudad de Nueva York.
Relativo a estos novedoso conceptos, nos comparte un estimado colega un artículo escrito por Ben P. Stein y publicado en boletín digital del National Institute of Standards and Technology (NIST) el 4 de septiembre de 2020; la traducción es nuestra. Veamos de qué se trata:
Al hacer brillar una luz blanca sobre un portaobjetos de vidrio punteado con millones de diminutos pilares de dióxido de titanio, los investigadores del NIST y sus colaboradores han reproducido con asombrosa fidelidad los tonos luminosos y sutiles matices de "La Joven de la perla" o “Muchacha con turbante”, obra maestra del artista holandés Johannes Vermeer. El enfoque tiene aplicaciones potenciales para mejorar las comunicaciones ópticas y hacer que el papel moneda sea más difícil de falsificar.
Por ejemplo, al agregar o eliminar un color o una longitud de onda particular de la luz que viaja en una fibra óptica, los científicos pueden controlar la cantidad de información transportada por la fibra. Al alterar la intensidad, los investigadores pueden mantener el brillo de la señal de luz mientras viaja largas distancias en la fibra.
El método también podría utilizarse para "pintar" billetes con pequeños pero intrincados detalles de color que un falsificador tendría grandes dificultades para falsificar.
Otros científicos han utilizado previamente pilares diminutos, o nanopilares, de diferentes tamaños para atrapar y emitir colores específicos cuando se iluminan con luz blanca. El ancho de los nanopilares, que tienen aproximadamente 600 nanómetros de altura, o menos de una centésima parte del diámetro de un cabello humano, determina el color específico de la luz que un pilar atrapa y emite. Para una prueba exigente de tal técnica, los investigadores examinaron qué tan bien los nanopilares reproducían los colores de una pintura familiar, como Vermeer.
Aunque varios equipos de investigadores habían dispuesto con éxito millones de nanopilares cuyos tamaños se adaptaron para transmitir luz roja, verde o azul para crear una paleta específica de colores de salida, los científicos no tenían forma de controlar la intensidad de esos colores. La intensidad, o brillo, de los colores determina la luz y la sombra de una imagen (su claroscuro) y mejora la capacidad de transmitir impresiones de perspectiva y profundidad, una característica distintiva del trabajo de Vermeer.
Ahora, al fabricar nanopilares que no sólo atrapan y emiten colores específicos de luz, sino que también cambian su polarización en diversos grados, los investigadores del NIST y sus colaboradores de la Universidad de Nanjing en China han demostrado por primera vez una forma de controlar tanto el color como la intensidad. Los investigadores, que incluyen a Amit Agrawal y Wenqi Zhu de NIST y la Universidad de Maryland en College Park, y Henri Lezec de NIST, describen sus hallazgos en la edición del 20 de septiembre de la revista Optica, publicada en línea el 4 de septiembre.
En su nuevo trabajo, el equipo del NIST fabricó en un portaobjetos de vidrio nanopilares de dióxido de titanio que tenían una sección transversal elíptica en lugar de circular. Los objetos circulares tienen un único diámetro uniforme, pero los objetos elípticos tienen un eje largo y uno corto.
Los investigadores diseñaron los nanopilares para que en diferentes ubicaciones su eje largo estuviera más alineado o menos alineado con la polarización de la luz blanca entrante. (La luz polarizada es luz cuyo campo eléctrico vibra en una dirección particular a medida que viaja por el espacio). Si el eje largo del nanopilar estaba alineado exactamente con la dirección de polarización de la luz entrante, la polarización de la luz transmitida no se vio afectada. Pero si el eje largo giraba en algún ángulo, por ejemplo 20 grados, en relación con la dirección de polarización de la luz entrante, el nanopilar giraba la polarización de la luz incidente en el doble de ese ángulo, en este caso, 40 grados.
En cada lugar del portaobjetos de vidrio, la orientación de un nanopilar hizo girar la polarización de la luz roja, verde o azul que transmitía en una cantidad específica.
Por sí misma, la rotación impartida por cada nanopilar no alteraría de ninguna manera la intensidad de la luz transmitida. Pero en conjunto con un filtro polarizador especial colocado en la parte posterior del portaobjetos de vidrio, el equipo logró ese objetivo.
El filtro se orientó de modo que impidiera que pasara la luz que había conservado su polarización original. (Las gafas de sol funcionan de la misma manera: las lentes actúan como filtros polarizados verticalmente, reduciendo la intensidad del deslumbramiento polarizado horizontalmente). Ese sería el caso para cualquier lugar del portaobjetos de vidrio donde un nanopilar hubiera dejado inalterada la polarización de la luz incidente. Una región así se proyectaría como un punto oscuro en una pantalla distante.
En lugares donde un nanopilar había rotado la polarización de la luz blanca incidente, el filtro permitió que pasara una cierta cantidad de luz roja, verde o azul. La cantidad dependía del ángulo de rotación; cuanto mayor es el ángulo, mayor es la intensidad de la luz transmitida. De esta forma, el equipo, por primera vez, controló tanto el color como el brillo.
Una vez que los investigadores del NIST demostraron el diseño básico, crearon una copia digital de una versión en miniatura de la pintura de Vermeer, de aproximadamente 1 milímetro de largo. Luego utilizaron la información digital para guiar la fabricación de una matriz de millones de nanopilares. Los investigadores representaron el color y la intensidad de cada elemento de la imagen, o píxel, del Vermeer mediante un grupo de cinco nanopilares, uno rojo, dos verdes y dos azules, orientados en ángulos específicos a la luz entrante. Al examinar la imagen de tamaño milimétrico que el equipo había creado al hacer brillar la luz blanca a través de los nanopilares, los investigadores encontraron que reproducían "La Joven de la perla" con extrema claridad, incluso capturando la textura de la pintura al óleo sobre lienzo.
"La calidad de la reproducción, que captura las sutiles gradaciones de color y los detalles de las sombras, es simplemente notable", dijo Agrawal, investigador del NIST y coautor del estudio. "Este trabajo une elegantemente los campos del arte y la nanotecnología".
Para construir los nanopilares, Agrawal y sus colegas primero depositaron una capa de un polímero ultrafino sobre vidrio, de unos pocos cientos de nanómetros de espesor. Usando un haz de electrones como un taladro en miniatura, luego excavaron una serie de millones de pequeños agujeros de diferentes dimensiones y orientaciones en el polímero.
Luego, utilizando una técnica conocida como deposición de capa atómica, rellenaron estos agujeros con dióxido de titanio. Finalmente, el equipo retiró todo el polímero que rodeaba los agujeros, dejando atrás millones de diminutos pilares de dióxido de titanio. La dimensión y orientación de cada nanopilar representaron, respectivamente, el tono y el brillo de la imagen final de tamaño milimétrico.
La técnica de nanopilares se puede adaptar fácilmente para transmitir colores específicos de luz, con intensidades particulares, para comunicar información a través de una fibra óptica o para imprimir un artículo valioso con una marca de identificación en miniatura de varios colores que sería difícil de replicar.
Fuentes:
https://en.wikipedia.org/wiki/Light_painting
Cómo se adaptaron los neandertales al cambio climático
Consultando a nuestra omnipresente Wiki encontramos que “Los neandertales u hombre de Neandertal es una especie extinta del género Homo que habitó en Europa, Próximo Oriente, Oriente Medio y Asia Central, entre 400,000 y 40,000 años antes del presente, aproximadamente; durante el final del Pleistoceno medio y casi todo el superior. Cuando tuvo lugar su descubrimiento, se le nombró Homo neanderthalensis, y fue clasificado como una especie distinta del Homo sapiens. No obstante, algunos autores lo consideran como una subespecie de Homo sapiens, y se suelen referir a dicha subespecie como Homo sapiens neanderthalensis.”
“Los estudios paleogenéticos indican un origen común para los humanos modernos y los neandertales, así como hibridaciones entre ambas especies de hominino en, al menos, dos lugares y momentos diferentes: Próximo Oriente y Europa occidental. Anatómicamente, los neandertales eran más robustos que el humano moderno, con un tórax y cadera anchos y extremidades cortas. El cráneo se caracteriza por su doble arco superciliar, frente huidiza, la ausencia de mentón y una capacidad craneal media más grande que la de Homo sapiens sapiens. Los estudios anatómicos y genéticos señalan la posibilidad de que tuvieran un lenguaje articulado.”
“El tipo de herramientas líticas que se han encontrado, y a las que se les asocia, se adscriben a la denominada cultura Musteriense, característica del Paleolítico medio. En los últimos años de existencia de los neandertales, aparecen en el registro arqueológico herramientas diferentes que se incluyen en la cultura Châtelperroniense, que algunos autores atribuyen al Homo sapiens. Los neandertales eran omnívoros y explotaban una amplia variedad de alimentos pesqueros, mariscos, vegetales, etc.”
“Se desconocen las causas exactas de su extinción. Las hipótesis consideradas guardan relación con la expansión del Homo sapiens en Eurasia, así como por los cambios climáticos. Además, hay una teoría sobre una erupción volcánica, concretamente de los Campos Flégreos, pues investigaciones datan sobre una erupción hace 39 000 años aproximadamente.”
Sobre este tema nos envía un querido colega el presente artículo publicado, entre otros, en el boletín digital de EurekaAlert! el 28 de agosto de 2020 y emitido por la Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU). Veamos de que se trata…
El cambio climático que se produjo poco antes de su desaparición provocó un cambio complejo en el comportamiento de los neandertales tardíos en Europa: desarrollaron herramientas más complejas. Esta es la conclusión a la que llegó un grupo de investigadores de Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) y Università degli Studi die Ferrara (UNIFE) a partir de los hallazgos en la cueva Sesselfelsgrotte en la Baja Baviera.
Como se comentó al inicio, los neandertales vivieron hace aproximadamente 400,000 a 40,000 años en grandes áreas de Europa y Oriente Medio, incluso hasta los bordes exteriores de Siberia. Produjeron herramientas utilizando madera y material de roca similar al vidrio, que a veces también combinaban, por ejemplo, para hacer una lanza con una punta afilada y dura de piedra.
Desde hace aproximadamente 100,000 años, su herramienta universal de corte y raspado era un cuchillo de piedra, cuyo mango consistía en un borde desafilado en la propia herramienta. Estos Keilmesser (cuchillos con respaldo, asimétricos y de forma bifacial) estaban disponibles en varias formas, lo que llevó a los investigadores a preguntarse por qué los neandertales crearon tal variedad de cuchillos. ¿Usaron diferentes cuchillos para diferentes tareas o los cuchillos provienen de diferentes subgrupos de neandertales? Esto era lo que esperaba descubrir el proyecto de investigación internacional.
Keilmesser son la respuesta
"Los Keilmesser son una reacción al estilo de vida altamente móvil durante la primera mitad de la última edad de hielo. Como se podían afilar de nuevo cuando fuera necesario, se pudieron usar durante mucho tiempo, casi como una navaja suiza en la actualidad, "dice el Prof. Dr. Thorsten Uthmeier del Institute of Prehistory and Early History de FAU. "Sin embargo, la gente a menudo olvida que los cuchillos trabajados bifacialmente no eran las únicas herramientas que tenían los neandertales. Los cuchillos con respaldo del período neandertal son sorprendentemente variados", agrega su colega italiano, el Dr. Davide Delpiano, de la Sezione di Scienze Preistoriche e Antropologiche en UNIFE. "Nuestra investigación utiliza las posibilidades que ofrece el análisis digital de modelos 3-D para descubrir similitudes y diferencias entre los distintos tipos de cuchillos utilizando métodos estadísticos".
Los dos científicos investigaron artefactos de uno de los sitios neandertales más importantes de Europa Central, la cueva Sesselfelsgrotte en la Baja Baviera. Durante las excavaciones en la cueva realizadas por el Institute of Prehistory and Early History en FAU, se han encontrado más de 100,000 artefactos e innumerables restos de caza dejados por los neandertales, incluso incluyendo evidencia de un entierro neandertal. Los investigadores ahora han analizado las herramientas más importantes en forma de cuchillo utilizando escaneos 3-D producidos en colaboración con el Prof. Dr. Marc Stamminger y el Dr. Frank Bauer de la Cátedra de Computación Visual en el Departamento de Ciencias de la Computación de FAU. Permiten registrar la forma y las propiedades de la herramienta con extrema precisión.
"El repertorio técnico utilizado para crear Keilmesser no solo es una prueba directa de las habilidades de planificación avanzada de nuestros parientes extintos, sino también una reacción estratégica a las restricciones impuestas por las condiciones naturales adversas", dice Uthmeier, profesor de Prehistoria Temprana y Arqueología de la FAU. de cazadores y recolectores prehistóricos.
Otro clima, otras herramientas
Lo que Uthmeier llama "condiciones naturales adversas" son los cambios climáticos después del final del último interglacial hace más de 100,000 años. Las fases frías particularmente severas durante el siguiente período glacial de Weichsel comenzaron hace más de 60,000 años y llevaron a una escasez de recursos naturales. Para sobrevivir, los neandertales tuvieron que volverse más móviles que antes y ajustar sus herramientas en consecuencia.
Los neandertales probablemente copiaron la funcionalidad de los cuchillos con respaldo unifacial, que solo tienen forma en un lado, y los usaron como punto de partida para desarrollar Keilmesser con forma bifacial en ambos lados. Esto se indica en particular por las similitudes en el filo, que consiste en ambos casos en un fondo plano y una parte superior convexa, que era predominantemente adecuada para cortar a lo largo, lo que significa que es correcto referirse a la herramienta como un cuchillo, "dice Davide Delpiano de UNIFE.
Ambos tipos de cuchillo, la versión anterior más simple y la versión más nueva, significativamente más compleja, obviamente tienen la misma función. La diferencia más importante entre las dos herramientas investigadas en este caso es la vida útil más larga de las herramientas bi-faciales. Por lo tanto, Keilmesser representa un concepto de alta tecnología para una herramienta multifuncional de larga duración, que podría usarse sin ningún accesorio adicional, como un mango de madera.
"Los estudios de otros grupos de investigación parecen apoyar nuestra interpretación", dice Uthmeier. "A diferencia de lo que han afirmado algunas personas, la desaparición de los neandertales no puede haber sido el resultado de una falta de innovación o de pensamiento metódico".
Fuentes:
https://es.wikipedia.org/wiki/Homo_neanderthalensis
https://www.eurekalert.org/pub_releases/2020-08/uoe-hna082820.php
Impresión de casas 3D: toda una realidad (Tercera Parte).
Cerramos nuestra pequeña serie de “Impresión de casas 3D: todo una realidad” con un tercer artículo que nuestro estimado colega, ingeniero civil, nos envía y el cual se titula: “Las casas impresas en 3D del futuro son huevos gigantes en Marte” escrito por Vanessa Bates Ramírez y publicado en el boletín digital de Singularity Hub el 9 de julio de 2020 y traducido por un servidor. Veamos de qué se trata….
Tal y como revisamos en el primer artículo, el año pasado se inició el trabajo en una comunidad de casas impresas en 3D para familias de bajos ingresos en México y en Texas. En el segundo artículo leímos que el mes pasado se presentó en Bélgica una casa impresa en 3D de dos pisos de una sola pieza. Si bien la construcción de casas con impresoras 3D es cada vez más escalable, también es una forma divertida de jugar con diseños únicos y conceptos futuristas para nuestros espacios habitables.
No hay nada más futurista que vivir en Marte, ¿y adivinen qué? También hay una casa impresa en 3D para eso. De hecho, hay algunos; el año pasado vio la conclusión un concurso organizado por la NASA llamado “3D Printed Habitat Challenge”.
La competencia de larga duración, que comenzó en 2015, asignó a los participantes la tarea de crear casas que fueran viables para construir en Marte. Los equipos tuvieron que considerar no solo la tecnología que usarían, sino también qué tipo de material estará disponible en el Planeta Rojo y qué tipo de características necesitará tener un hogar marciano para que un humano sobreviva (e idealmente, para sobrevivir cómodamente); las estructuras deben ser lo suficientemente fuertes como para sobrevivir a la colisión de un meteorito, por ejemplo, y capaces de mantener una atmósfera muy diferente a la que se encuentra justo afuera de sus paredes.
El premio mayor (500,000 dólares) fue para AI Space Factory, una empresa de tecnologías de arquitectura y construcción con sede en Nueva York centrada en la construcción para la exploración espacial. Su diseño de doble capa y cuatro niveles se llama Marsha y, a diferencia de los hábitats marcianos que hemos visto en la pantalla grande o sobre los que hemos leído en las novelas de ciencia ficción, no es ni una cúpula ni un búnker subterráneo. De hecho, se asienta completamente sobre el suelo y parece un cruce entre una colmena y un huevo gigante.
El equipo eligió la forma de huevo de colmena muy deliberadamente, diciendo que no solo está optimizada para manejar las demandas de presión y temperatura de la atmósfera marciana, sino que construirla con una impresora 3D será más fácil porque la impresora no tendrá que desplazarse mucho como lo haría para construir una estructura con unos cimientos más grandes. Eso significa menos riesgo de errores y una mayor velocidad de construcción.
"Es importante ser estructuralmente eficiente como forma, porque eso significa que puede usar menos material", dijo David Malott, fundador y CEO de AI Space Factory. “Si piensas en una cáscara de huevo en la Tierra, [es] una forma muy eficiente. La cáscara del huevo puede ser muy, muy delgada y aún así tiene la cantidad adecuada de fuerza ".
El diseño de la casa es como una casa adosada de varios niveles, excepto con algunos ajustes específicos de Marte; el primer piso es tanto un área de preparación, donde los ocupantes pueden vestirse antes de salir al exterior, como un "laboratorio húmedo" para la investigación. Hay un puerto de acoplamiento para rover justo afuera del área de preparación, adjunto a la casa.
En el segundo piso está lo que consideraría la habitación más importante, la cocina, y el tercer piso tiene un jardín, un baño y módulos para dormir que ocupan el lugar de los dormitorios (lo siento, no hay espacio para tu tocador antiguo o escritorio Ikea aquí ).
El piso superior es un área de recreación donde puede recrearse viendo la televisión o haciendo ejercicio, o quizás ambos simultáneamente.
Se necesitaron 30 horas para construir un modelo a escala de un tercio de la casa, pero esto no significa que sería necesario 90 horas para construirlo; La impresión durante el concurso se realizó en incrementos de 10 horas, y dado que el modelo contiene los mismos aspectos estructurales de la casa de tamaño completo, la impresora 3D solo necesitaría expandir su área de superficie alcanzable y altura para imprimir la cosa real.
Si todo sale según lo planeado (que, en realidad, todavía no hay planes; solo ideas), habrá mucho material disponible para construir lo real en el lugar real (Marte, claro). “AI Space Factory” colaboró con una empresa de diseño de materiales llamada Techmer PM para crear una mezcla súper fuerte de fibra de basalto, que vendría de rocas en Marte, y un bioplástico renovable que podría fabricarse a partir de plantas cultivadas en Marte. En las pruebas de la NASA, se demostró que el material es más fuerte y más duradero que el hormigón y más resistente a heladas y deshielos repetidos.
La compañía estaba preparada para abrir una versión terrestre de Marsha, llamada Tera, en el norte del estado de Nueva York en marzo pasado, y la gente aprovechó la oportunidad de pagar $175 - $500 para dormir en la estructura por una noche; pero los planes fueron descarrilados por la pandemia de coronavirus, y la compañía aún no ha anunciado una reapertura de la cabina Earthbound.
https://singularityhub.com/2020/07/09/the-3d-printed-homes-of-the-future-are-giant-eggs-on-mars/
Impresión de casas 3D: toda una realidad (Primera Parte)
En años pasados, en esta columna, se ha revisado el tema de la impresión 3D. Cuando lo hicimos comentamos que la impresión 3D es un grupo de tecnologías de fabricación por adición donde un objeto tridimensional es creado mediante la superposición de capas sucesivas de material. Cuando abordamos el tema por primera vez, los productos eran todavía muy rudimentarios. Varios años después, vemos que la tecnología se ha desarrollado excepcionalmente, bajando sus costos de producción y su aplicación se ha extendido en forma extraordinaria en campos como joyería, calzado, diseño industrial, arquitectura, ingeniería y construcción, automoción y sector aeroespacial, industrias médicas, educación, sistemas de información geográfica, ingeniería civil y muchos otros. Algunos ejemplos de estos desarrollos los hemos revisado en esta columna.
Precisamente, en lo relativo al tema de la impresión 3D, un querido colega, ingeniero civil, nos ha compartido tres artículos que versan sobre la impresión 3D de casas habitación, las cuales, actualmente ya son una realidad, con un mercado de la construcción en auge. Tuvimos dificultad en decidir cual artículo presentar de los tres que envió nuestro buen amigo, pues todos eran muy interesantes. Finalmente decidimos presentar los tres en este y los siguientes dos envíos.
Advertirán en los ejemplos que revisaremos que la tecnología de las impresoras 3D de casas son realmente diversas y van desde máquinas polares, impresoras montadas con estructuras especiales hasta robots móviles. Esto equipos son capaces de extruir hormigón o plástico, que permiten construir diferentes estructuras de diversa complejidad.
Iniciaremos nuestra jornada con el artículo denominado “Un día, podrías vivir en una casa impresa en 3D” el cual fue publicado en el boletín digital de World Changing Ideas el 28 de abril de 2020, escrito por Adele Peters y traducido por un servidor. Veamos de qué se trata...
“A finales del presente año, en una parte remota del sur de México, 50 familias se mudarán a la primera comunidad impresa en 3D del mundo. Y en las afueras de Austin, Texas, seis personas que anteriormente eran personas sin hogar se mudarán a pequeñas casas impresas en 3D este mayo. Los dos proyectos son ya ejemplos concretos a gran escala que prueban que la tecnología de impresión 3D podría ser una forma viable de construir rápidamente viviendas asequibles.
"Si queremos tener realmente control sobre la crisis mundial de la vivienda, no a lo largo de cientos de años, sino en decenas de años, necesitamos una solución altamente escalable, que no será otra que la impresión 3D", nos explica Jason Ballard, cofundador y director ejecutivo de Icon, la empresa que creó la enorme impresora 3D que construyó las nuevas casas. La empresa es la ganadora de la categoría de excelencia general en los premios World Changing Ideas Awards 2020 de Fast Company. Su impresionante impresora puede imprimir las paredes de una casa en 24 horas.
La impresora de esta empresa de reciente creación mide 33 pies de largo, funciona como una versión gigante de las impresoras 3D de escritorio, arrojando una mezcla de concreto personalizada en capas como el glaseado de un pastel.
El proceso construye las paredes de la casa, con otras partes, incluido el techo y las ventanas, agregadas más adelante. “El sistema de construcción de muros suele ser la parte más laboriosa, costosa, plagada de errores y en donde más se desperdicia en todo el proceso de construcción”, agrega Ballard. “Nuestro sistema combina la instalación de varios componentes, incluido el aislamiento, en un sólo proceso, y los ingenieros de la empresa ahora están experimentando con la incorporación de cableado eléctrico y de plomería en la impresión 3D.”
Nuestro proceso acelera la construcción de una casa; las paredes se pueden imprimir en 24 horas, lo que significa que el tiempo total de construcción de toda la casa se puede reducir a la mitad. En áreas donde hay escasez de trabajadores de la construcción, puede ayudar a resolver el problema de la falta de mano de obra.
La reducción de mano de obra, combinada con el uso de materiales baratos y que se pueden obtener fácilmente en la región, también hace que su construcción sea menos costosa. Los materiales son más resistentes que la construcción estándar en el área y pueden resistir mejor desastres como huracanes. “Casi todos los demás enfoques para la construcción utilizan material intrínsecamente no resilientes que después se debe atemperar con tratamientos o revestimientos o con un costo adicional”, dice. "Pero nosotros estamos iniciando con un material resilente". (El material, llamado Lavacrete, es una mezcla desarrollada en Icon que puede fluir fácilmente pero también puede fraguar con extrema rapidez una vez que la máquina lo bombea).
La compañía se asoció con “New Story”, una organización sin fines de lucro enfocada en encontrar mejores formas de construir viviendas que accesibles a una población de bajos recursos, a medida que se desarrolla la tecnología. En México, el equipo está construyendo viviendas para algunos de los residentes más pobres en un área rural cerca de la ciudad de Nacajuca. Las casas serán donadas a familias que actualmente viven en chozas improvisadas que se inundan cada vez que llueve mucho y que probablemente colapsarían en un terremoto. Si bien las chozas consistían de una sola habitación, con una serie de reparaciones en agujeros en las paredes y los techos, las casas nuevas tienen dos dormitorios, una cocina y una sala de estar. Para la mayoría de las familias, será la primera vez que tengan acceso a plomería y electricidad en interiores.
Las primeras casas en México se completaron en diciembre de 2019; en Texas, las primeras casas más pequeñas se terminaron en marzo de 2020. La empresa continúa desarrollando la tecnología. En el sitio cerca de Austin, intentó imprimir varias casas a la vez. “Diseñamos un experimento: ¿Qué pasa si alineamos la impresora e imprimimos tres casas a la vez? ¿Eso nos ayudaría a ir aún más rápido y reducir aún más los costos? La respuesta resulta ser sí, absolutamente. Esa es otra forma sutil en la que podemos atacar los costos, siendo más eficientes con el uso de nuestros materiales".
La empresa aún no ha compartido los costos de fabricación ya que la tecnología aún se encuentra en una etapa inicial. Pero el objetivo, dice Ballard, es tener un sistema que haga posible que cualquiera pueda descargar un diseño e imprimir una casa en la mitad del tiempo de construcción normal, a la mitad del costo.”
Fuente:
https://www.fastcompany.com/90483273/one-day-you-might-live-in-a-3d-printed-house
Investigadores emplean simulaciones del comportamiento de los arrecifes de coral
Para optimizar el uso del espacio en plantas industriales.
Se deben tener en cuenta muchos factores al diseñar un hospital, una fábrica, un centro comercial o cualquier planta industrial, y pueden surgir muchas preguntas antes de decidir sobre los planos de planta. ¿Cuál es la mejor ubicación para cada espacio diferente? ¿Qué distribución es la más adecuada para mejorar la eficiencia en estas grandes áreas?
Un estimado colega nos comporte un interesante artículo, escrito por Jeffrey B. Gurrola y publicado el 31 de julio de 2020, en el que se informa que los investigadores de la Universidad de Córdoba (UCO) en España, Laura García y Lorenzo Salas, están tratando de dar una respuesta a estas preguntas, y para hacerlo, han recurrido al mundo marino para simular el comportamiento de los arrecifes de coral. Veamos de quÉ se trata…
Dentro de estas pintorescas estructuras submarinas que albergan una amplia gama de especies de biodiversidad, hay una batalla constante por el espacio, donde los huecos disponibles están totalmente optimizados en busca de la supervivencia. Es precisamente este modelo de distribución natural el que ha abierto el camino para el equipo de investigación mencionado, que en los últimos años ha estado trabajando para responder la siguiente pregunta: ¿Cuál es la mejor solución al diseñar una distribución de una planta industrial?
El primero en incorporar el comportamiento de estos arrecifes de coral en un algoritmo
informático fue el investigador Sancho Salcedo, de la Universidad de Alcalá de Henares, en 2013. Desde entonces, y a partir de una asociación, el equipo estableció una línea de investigación inspirada en seres vivos, tomando en cuenta su reproducción y desarrollo para aprovechar al máximo el espacio. Recientemente, el grupo publicó un nuevo artículo que mejora dicho algoritmo de inspiración biológica. "En lugar de simular un arrecife de coral plano, como habíamos hecho anteriormente, pudimos replicar la estructura en tres dimensiones, lo que permitió encontrar muchas más soluciones y ofrecer mejores resultados", explica Laura García, autora principal de la investigación.
En el mundo real, el algoritmo puede ofrecer diseños novedosos que no se habían evaluado antes y nuevos planos de planta sobre cómo podría verse una planta industrial cuando el espacio se optimiza al máximo, lo que resulta en ahorro de dinero y mejora la eficiencia de estos edificios. Para hacerlo, después de validar la nueva herramienta en diferentes áreas industriales, como un rastro, plantas de reciclaje de papel y plástico y edificios de hasta 60 departamentos, el algoritmo es capaz de tener en cuenta diferentes variables como la distribución, la cantidad de material, el costo de mover dicho material de un lugar a otro, ruidos a evitar y parámetros necesarios de proximidad y lejanía.
Un algoritmo que incluye preferencias subjetivas.
A este respecto, en los últimos meses, el equipo ha publicado otro trabajo que profundiza en la misma línea de investigación en revistas científicas de gran prestigio. Recientemente, el grupo pudo incorporar una herramienta interactiva en el algoritmo que incluye preferencias subjetivas en el diseño. "Mediante un dispositivo que analiza la forma en que la persona encargada de diseñar el proyecto observa los planos de planta y el grado en que su pupila está dilatada, su opinión puede transmitirse a los planos de planta que se proponen", subraya Laura García.
La investigación realizada en los últimos meses, en la que también participaron otros profesores
de la UCO como José Antonio García, Carlos Carmona y Adoración Antolí, permitió establecer asociaciones con universidades de Portugal, Arabia Saudita y Estados Unidos, con contribuciones de José Valente de Oliveira (en la Universidad del Algarve), Sancho Salcedo Sanz (en la Universidad de Alcalá de Henares) y Ajith Abraham (en Machine Intelligence Research Labs).
Fuente:
Platón tenía razón: la Tierra está hecha, en promedio, de cubos
El antiguo filósofo Platón propuso la forma de los bloques elementales de construcción del universo. Según él, la Tierra estaba formada por cubos.
Un estimado colega nos comparte aquí un interesante artículo donde se informa que algunos investigadores modernos encuentran ahora una verdad fundamental en esa premisa. Al estudiar las formas y los patrones de fragmentación de una gran variedad de rocas, descubrieron que el promedio de todas sus formas es un cubo. El artículo, escrito por Katherine Unger Baillie, se publicó en el boletín digital de ingeniería de la University of Pennsylvania (UP) el pasado 20 de julio de 2020. Veamos de qué se trata…
Platón, el filósofo griego que vivió en el siglo V A.C., creía que el universo estaba hecho de cinco tipos de materia: tierra, aire, fuego, agua y cosmos. Cada uno fue descrito con una geometría particular, lo que se conoce como forma platónica. Para la tierra, esa forma era el cubo.
La ciencia se ha movido constantemente más allá de las conjeturas de Platón, mirando al átomo como el bloque de construcción del universo. Sin embargo, el pensamiento de Platón, en este sentido, permanece con algo más de verdad, según los investigadores.
En un artículo reciente en los Proceedings of the National Academy of Sciences, un equipo de la University of Pennsylvania (UP), la Budapest University of Technology and Economics, y la University of Debrecen utiliza matemáticas, geología y física para demostrar que la forma promedio de las rocas en la Tierra es un cubo
"Platón es ampliamente reconocido como la primera persona en desarrollar el concepto de un átomo, la idea de que la materia está compuesta de algún componente indivisible a la escala más pequeña", dice Douglas Jerolmack, geofísico en la School of Arts & Sciences Department of Earth and Environmental Science and the School of Engineering y en el Applied Science's Department of Mechanical Engineering and Applied Mechanics de la UP. "Pero esa comprensión era solo conceptual; nada de lo que conocemos actualmente de los átomos deriva de lo que nos dijo Platón.
"Lo interesante aquí es que lo que encontramos en las rocas, o en la tierra, es que hay más de una línea conceptual que nos lleva de regreso a Platón. Resulta que la concepción de Platón sobre el elemento tierra formado por cubos es, literalmente, la estadística modelo promedio para la tierra real. Y eso es simplemente alucinante ".
El hallazgo del grupo inició con modelos geométricos desarrollados por el matemático Gábor Domokos de Budapest University of Technology and Economics, cuyo trabajo predijo que las rocas naturales se fragmentarían en formas cúbicas.
"Este documento es el resultado de tres años de pensamiento y trabajo serios, pero se trata de una idea central", dice Domokos. "Si toma una forma poliédrica tridimensional, córtela al azar en dos fragmentos y luego córtela una y otra vez, obtendrá una gran cantidad de formas poliédricas diferentes. Pero en un sentido promedio, la forma resultante de los fragmentos es un cubo."
Domokos invitó a dos físicos teóricos húngaros a participar en el grupo: Ferenc Kun, un experto en fragmentación, y János Török, un experto en modelos estadísticos y computacionales. Después de discutir el potencial del descubrimiento, dice Jerolmack, los investigadores húngaros llevaron sus hallazgos a Jerolmack para trabajar juntos en las cuestiones geofísicas; en otras palabras, "¿Cómo permite la naturaleza que esto suceda?"
"Cuando le llevamos esto a Doug, dijo: 'Esto es un error o esto es algo grandioso'", recuerda Domokos. "Trabajamos hacia atrás para comprender la física que da como resultado estas formas".
Fundamentalmente, la pregunta que respondieron es qué formas se crean cuando las rocas se rompen en pedazos. Sorprendentemente, descubrieron que la conjetura matemática central une los procesos geológicos no solo en la Tierra sino también alrededor del sistema solar.
"La fragmentación es este proceso ubicuo en el que los materiales planetarios se están rompiendo continuamente", dice Jerolmack. "El sistema solar está lleno de hielo y rocas que se rompen sin cesar. Este trabajo nos da una firma de ese proceso que nunca hemos visto antes".
El entender este proceso implica que los componentes que se desprenden de un objeto anteriormente sólido deben encajar sin huecos, como un plato caído a punto de romperse. Como resultado, la única de las llamadas formas platónicas (poliedros con lados de igual longitud) que encajan sin espacios son los cubos.
"Una cosa que hemos especulado en nuestro grupo es que, posiblemente, Platón miró un afloramiento de roca y después de procesar o analizar la imagen inconscientemente en su mente, conjeturó que la forma promedio es algo así como un cubo", dice Jerolmack.
"Platón era muy sensible a la geometría", agrega Domokos. Según la tradición, la frase "Que no entre nadie ignorante de la geometría" estaba grabada en la puerta de la Academia de Platón. "Sus intuiciones, respaldadas por su amplio pensamiento sobre la ciencia, pueden haberlo llevado a esta idea sobre los cubos", dice Domokos.
Para probar si sus modelos matemáticos eran verdaderos en la naturaleza, el equipo midió una amplia variedad de rocas, cientos que recolectaron y miles más de conjuntos de datos recopilados previamente. No importa si las rocas se habían desgastado naturalmente de un gran afloramiento o si habían sido dinamitados por humanos, el equipo encontró un buen ajuste al promedio cúbico.
Sin embargo, existen formaciones rocosas especiales que parecen romper la "regla" cúbica. La Calzada del Gigante en Irlanda del Norte, con sus elevadas columnas verticales, es un ejemplo, formado por el inusual proceso de enfriamiento del basalto. Estas formaciones, aunque raras, están también enmarcadas por la concepción matemática de fragmentación del equipo; sólo se explican por procesos fuera de lo común en los procesos naturales.
"El mundo es un lugar desordenado", dice Jerolmack. "Nueve de cada 10 veces, si una roca se separa, se comprime o se corta, y por lo general estas fuerzas ocurren juntas, terminas con fragmentos que son, en promedio, formas cúbicas. Es sólo si tienes una muy especial condición de estrés que obtienes algo más. La tierra simplemente no hace esto a menudo ".
Los investigadores también exploraron la fragmentación en dos dimensiones, o en superficies delgadas que funcionan como formas bidimensionales, con una profundidad que es significativamente menor que el ancho y la longitud. Allí, los patrones de fractura son diferentes, aunque el concepto central de dividir polígonos y llegar a formas promedio predecibles aún se mantiene.
"Resulta que en dos dimensiones es igualmente probable que obtengas un rectángulo o un hexágono en la naturaleza", dice Jerolmack. "No son hexágonos verdaderos, pero son el equivalente estadístico en un sentido geométrico. Puedes pensarlo como un agrietamiento de pintura; una fuerza está actuando para separar la pintura por igual de diferentes lados, creando una forma hexagonal cuando se agrieta ".
En la naturaleza, se pueden encontrar ejemplos de estos patrones de fractura bidimensionales en capas de hielo, barro seco o incluso en la corteza terrestre, cuya profundidad es muy superior a su extensión lateral, lo que le permite funcionar como de facto ocurre en un material bidimensional. Anteriormente se sabía que la corteza terrestre se fracturaba de esta manera, pero las observaciones del grupo respaldan la idea de que el patrón de fragmentación resulta de la tectónica de placas.
La identificación de estos patrones en la roca puede ayudar a predecir fenómenos como los riesgos de caída de rocas o la probabilidad y ubicación de los flujos de fluidos, como el petróleo o el agua, en las rocas.
Para los investigadores, encontrar lo que parece ser una regla fundamental de la naturaleza que surge de ideas milenarias ha sido una experiencia intensa pero satisfactoria.
"Hay muchos granos de arena, guijarros y asteroides, y todos evolucionan astillándose de manera universal", dice Domokos, quien también es co-inventor del Gömböc, la primera forma convexa conocida con el mínimo número, sólo dos, de puntos de equilibrio estático. El astillado por colisiones elimina gradualmente los puntos de equilibrio, pero las formas no llegan a convertirse en un Gömböc; este último aparece como un punto final inalcanzable de este proceso natural.
El resultado actual muestra que el punto de partida puede ser una forma geométrica similarmente icónica: el cubo con sus 26 puntos de equilibrio. "El hecho de que la geometría pura proporcione estos soportes para un proceso natural omnipresente, me da felicidad", dice.
"Cuando recoges una roca en la naturaleza, no es un cubo perfecto, pero cada uno es una especie de sombra estadística de un cubo", agrega Jerolmack. "Recuerda la alegoría de Platón sobre la cueva. Postuló una forma idealizada que era esencial para comprender el universo, pero todo lo que vemos son sombras distorsionadas de esa forma perfecta".
Fuente: https://penntoday.upenn.edu/news/plato-was-right-earth-made-average-cubes
La intensa jornada para encontrar signos de vida ancestral en Marte
Ciertamente, ahora sabemos que Marte es un árido, helado e inhóspito desierto, pero ¿alguna vez tuvo vida el vecino más cercano de la Tierra? Es una pregunta que ha preocupado a los científicos durante siglos y ha generado innumerables documentos de ciencia ficción. Al respecto, un querido colega nos comparte hoy el presente artículo publicado por la Agence France-Presse (AFP) el pasado 11 de julio de 2020 y escrito por Juliette Collen y Kelly Macnamara en ParÍs. Veamos de qué se trata…
En estos días, tres proyectos de exploración espacial se están preparando para iniciar algunas de las iniciativas más ambiciosas hasta el momento para encontrar una respuesta.
Los científicos creen que hace cuatro mil millones de años los dos planetas, la Tierra y Marte, tenían el potencial de generar la vida, pero gran parte de la historia de Marte es un enigma.
Los nuevos equipos de exploración de Marte de Estados Unidos, Emiratos Árabes Unidos y China se lanzarán este verano.
Su objetivo no es encontrar la vida marciana (los científicos creen que nada sobreviviría allí ahora) sino buscar posibles rastros de formas de vida pasadas.
Estos vastos y costosos programas podrían resultar inútiles. Pero los astrobiólogos dicen que el planeta rojo sigue siendo nuestra mejor esperanza para encontrar un registro de la vida en otros planetas.
Marte es "el único planeta con posibilidades concretas de encontrar rastros de vida extraterrestre porque sabemos que hace miles de millones de años era habitable", dijo Jean-Yves Le Gall, presidente de la agencia espacial francesa CNES en una conferencia telefónica con periodistas esta semana.
Le Gall es uno de los arquitectos de la sonda exploratoria Mars 2020 de la NASA, cuyo lanzamiento está programado para finales de julio, cuando la Tierra y Marte permanezcan en el punto más cercano entre ellos durante más de dos años.
El proyecto de más de 2.5 mil millones de dólares es el último intento, y el más avanzado tecnológicamente, para descubrir los secretos más profundos de Marte.
Pero no está sólo, ya que el entusiasmo por la exploración espacial se ha reavivado.
Noticias de Marte
La investigación científica del planeta rojo comenzó en serio en el siglo XVII.
En 1609, el italiano Galileo Galilei observó a Marte con un telescopio primitivo y, al hacerlo, se convirtió en la primera persona en utilizar la nueva tecnología con fines astronómicos.
Cincuenta años después, el astrónomo holandés Christiaan Huygens utilizó un telescopio más avanzado de su propio diseño para hacer el primer dibujo topográfico del planeta.
Marte, en comparación con la Luna, "desolada y vacía", durante mucho tiempo parecía prometedor para la posible habitabilidad de los microorganismos, escribió el astrofísico Francis Rocard en su reciente ensayo "Últimas noticias de Marte".
Pero el Siglo XX presentó reveses.
En la década de 1960, cuando la carrera por poner a un hombre en la Luna se aceleraba hacia su deslumbrante "Salto gigante", Dian Hitchcock y James Lovelock estaban frenando las esperanzas de encontrar vida en Marte.
Su investigación analizó la atmósfera del planeta en busca de un desequilibrio químico, gases que reaccionan entre sí, lo que podría insinuar la vida.
"Si no hay reacción, probablemente no haya vida allí", dijo Lovelock a la AFP.
"Y ese fue el caso: Marte tiene una atmósfera que es completamente inactiva en lo que respecta a la química".
Su conclusión se confirmó una década después, cuando los satélites Viking amarizaron y tomaron muestras atmosféricas y de suelo que mostraban que el planeta ya no era habitable.
Este descubrimiento fue una "verdadera bomba" para la investigación de Marte, dijo Rocard a la AFP.
Los programas de Marte esencialmente se detuvieron durante 20 años.
Luego, en 2000, los científicos hicieron un descubrimiento que cambió el juego completamente: descubrieron que el agua una vez fluyó sobre su superficie.
Sigue el agua
Este hallazgo tentador ayudó a reavivar el interés latente en la exploración de Marte.
Los científicos estudiaron detenidamente imágenes de barrancos y cañones, recorriendo la superficie marciana en busca de evidencia de agua líquida.
Más de 10 años después, en 2011, la encontraron definitivamente.
La estrategia de "seguir el agua, seguir el carbono, seguir la luz" ha dado sus frutos, dijo Rocard.
Cada misión desde el descubrimiento del agua ha traído "más y más evidencia a la luz de que Marte no está tan muerto como pensábamos", dijo a la AFP Michel Viso, un astrobiólogo del CNES.
El último rover de los EUA en hacer el viaje, llamado Perseverance, está programado para aterrizar en febrero del próximo año después de un viaje de seis meses desde el momento del lanzamiento.
La sonda es quizás la más esperada hasta ahora. Su lugar de aterrizaje, el cráter Jezero, puede haber sido una vez un amplio delta de río de 45 kilómetros.
Rico en rocas sedimentarias, como arcilla y carbonatos, los mismos tipos de rocas que contienen restos fósiles en la Tierra, Jezero podría ser un tesoro.
O tal vez no.
"Sabemos que el agua fluyó una vez, pero la pregunta sigue siendo: ¿por cuánto tiempo?" preguntó Rocard. "Ni siquiera sabemos cuánto tiempo tardó la vida en aparecer en la Tierra".
Si la misión puede devolver estas rocas a la Tierra, podrían dar respuestas a las preguntas que han confundido a los científicos durante mucho tiempo.
Pero tendrán que esperar al menos 10 años para que el análisis esté disponible.
Viso dijo que los resultados probablemente serán "un conjunto de pistas" en lugar de una respuesta clara.
En el inicio
Los científicos también están considerando quizás una pregunta aún más profunda.
Si la vida nunca existió en Marte, ¿por qué no?
La respuesta a esto podría enriquecer nuestra comprensión de cómo se desarrolló la vida en nuestro propio planeta, dijo Jorge Vago, el portavoz de la Agencia Espacial Europea.
Debido al cambio de la tectónica de placas debajo del núcleo de la Tierra, es extremadamente difícil encontrar rastros de vida aquí antes de hace 3,500 millones de años.
Marte no tiene placas tectónicas, por lo que existe la posibilidad de que se conserven allí signos de vida de cuatro mil millones de años que "uno nunca podría encontrar en la Tierra", dijo Vago.
Y si los últimos programas de Marte no logran encontrar signos de la antigua vida marciana, siempre hay más fronteras para explorar.
Encelade y Europa, dos de las lunas de Saturno y Júpiter, respectivamente, se consideran contendientes prometedores.
Aunque alcanzarlos sigue siendo más ciencia ficción que realidad.
Fuente: https://mb.com.ph/2020/07/11/the-quest-to-find-signs-of-ancient-life-on-mars/
¿Por qué las plantas son verdes?
Cuando la luz del Sol brilla sobre una hoja, esta cambia rápidamente pues las plantas deben protegerse de las repentinas oleadas de energía solar. Para hacer frente a estos cambios, los organismos fotosintéticos, desde plantas hasta bacterias, han desarrollado numerosas tácticas. Sin embargo, los científicos no habían podido identificar, hasta ahora, el principio de diseño subyacente.
Un estimado colega nos comparte información sobre los hallazgos de un equipo internacional de científicos, dirigido por el físico Nathaniel M. Gabor, de la University of California en Riverside (UC- Riverside) quienes han construido un modelo que reproduce una característica general de la recolección de luz fotosintética, observada en muchos organismos fotosintéticos. Esta información se publicó en el boletín de noticias de la UC-Riverside el pasado 25 de junio en el artículo escrito por Iqbal Pittalwala aquí reproducido. Veamos de qué se trata….
El concepto de cosecha de luz se refiere aquí a la recolección de energía solar por moléculas de clorofila unidas a proteínas. En la fotosíntesis, el proceso por el cual las plantas verdes y algunos otros organismos usan la luz solar para sintetizar los alimentos a partir del dióxido de carbono y el agua, la cosecha de energía luminosa comienza con la absorción de la luz solar.
El modelo de los investigadores toma prestadas ideas de la ciencia de redes complejas, un campo de estudio que explora la operación eficiente tanto en redes de teléfonos celulares, como en las del cerebro o en las redes de distribución eléctrica. El modelo describe una red simple que es capaz de ingresar luz de dos colores diferentes y, sin embargo, generar una tasa constante de energía solar. Esta elección inusual de solo dos entradas tiene consecuencias notables.
"Nuestro modelo muestra que al absorber solo colores de luz muy específicos, los organismos fotosintéticos pueden protegerse automáticamente contra cambios repentinos, o 'ruido', en la energía solar, lo que resulta en una conversión de energía notablemente eficiente", dijo Gabor, profesor asociado de física y astronomía de la UC-Riverside, que dirigió el estudio que aparece el 25 de junio pasado apareció en la revista Science. "Las plantas verdes se muestran verdes y las bacterias púrpuras se muestran púrpuras porque solo las regiones específicas del espectro del que absorben son adecuadas para la protección contra la energía solar que cambia rápidamente".
Gabor comenzó a pensar en la investigación de la fotosíntesis hace más de una década, cuando era estudiante de doctorado en la Universidad de Cornell. Se preguntó por qué las plantas rechazaban la luz verde, la luz solar más intensa. Con los años, trabajó con físicos y biólogos de todo el mundo para aprender más sobre los métodos estadísticos y la biología cuántica de la fotosíntesis.
Richard Cogdell, botánico de la Universidad de Glasgow en el Reino Unido y coautor del trabajo de investigación, alentó a Gabor a extender el modelo para incluir una gama más amplia de organismos fotosintéticos que crecen en entornos donde el espectro solar incidente es muy diferente.
"Con gran regocijo, pudimos demostrar que el modelo funcionaba en otros organismos fotosintéticos además de las plantas verdes, y que el modelo identificaba una propiedad general y fundamental de la cosecha de luz fotosintética", dijo. "Nuestro estudio muestra cómo, al elegir dónde absorbe la energía solar en relación con el espectro solar incidente, puede minimizar el ruido en la salida, información que puede utilizarse para mejorar el rendimiento de las células solares".
El coautor Rienk van Grondelle, un influyente físico experimental de la Vrije Universiteit Amsterdam en los Países Bajos que trabaja en los procesos físicos primarios de la fotosíntesis, dijo que el equipo encontró que los espectros de absorción de ciertos sistemas fotosintéticos seleccionan ciertas regiones de excitación espectral que cancelan el ruido y maximizan la energía almacenado.
"Este principio de diseño muy simple también podría aplicarse en el diseño de células solares artificiales", dijo van Grondelle, quien tiene una vasta experiencia en la recolección de luz fotosintética.
Gabor explicó que las plantas y otros organismos fotosintéticos tienen una amplia variedad de tácticas para evitar daños debido a la sobreexposición al Sol, que van desde mecanismos moleculares de liberación de energía hasta el movimiento físico de la hoja para seguir al Sol. Las plantas incluso han desarrollado una protección efectiva contra la luz ultravioleta, al igual que en una crema protectora solar.
"En el complejo proceso de la fotosíntesis, está claro que proteger al organismo de la sobreexposición es el factor que impulsa la producción exitosa de energía, y esta es la inspiración que usamos para desarrollar nuestro modelo", dijo. "Nuestro modelo incorpora una física relativamente simple, sin embargo, es consistente con un amplio conjunto de observaciones en biología. Esto es notablemente raro. Si nuestro modelo puede soportar los exhaustivos experimentos que estamos realizando, seguramente podremos encontrar aún mayores concordancias entre la teoría y las observaciones, dando una visión rica del funcionamiento interno de la naturaleza ".
Para construir el modelo, Gabor y sus colegas aplicaron la física directa de las redes a los detalles complejos de la biología, y pudieron hacer declaraciones claras, cuantitativas y genéricas sobre organismos fotosintéticos muy diversos.
"Nuestro modelo es la primera explicación impulsada por la hipótesis de por qué las plantas son verdes, y damos una hoja de ruta para probar el modelo a través de experimentos más detallados", dijo Gabor.
Gabor agregó que la fotosíntesis puede considerarse como un fregadero de la cocina, donde un grifo ingresa agua y un desagüe permite que el agua salga. Si el flujo hacia el fregadero es mucho mayor que el flujo hacia afuera, el fregadero se desborda y el agua se derrama por todo el piso.
"En la fotosíntesis, si el flujo de energía solar hacia la red de captación de luz es significativamente mayor que el flujo de salida, la red fotosintética debe adaptarse para reducir el repentino desbordamiento de energía", dijo. "Cuando la red no logra manejar estas fluctuaciones, el organismo intenta expulsar la energía extra. Al hacerlo, el organismo sufre estrés oxidativo, que daña las células".
Los investigadores se sorprendieron por lo general y simple que es su modelo.
"La naturaleza siempre te sorprenderá", dijo Gabor. "Algo que parece tan complicado y complejo podría funcionar en base a unas pocas reglas básicas. Aplicamos el modelo a organismos en diferentes nichos fotosintéticos y continuamos reproduciendo espectros de absorción precisos. En biología, hay excepciones a cada regla, tanto que el hallazgo de una regla suele ser muy difícil. Sorprendentemente, parece que hemos encontrado una de las reglas de la vida fotosintética ".
Gabor señaló que en las últimas décadas, la investigación de la fotosíntesis se ha centrado principalmente en la estructura y función de los componentes microscópicos del proceso fotosintético.
"Los biólogos saben bien que los sistemas biológicos generalmente no están finamente ajustados dado el hecho de que los organismos tienen poco control sobre sus condiciones externas", dijo. "Esta contradicción hasta ahora no se ha abordado porque no existe un modelo que conecte los procesos microscópicos con las propiedades macroscópicas. Nuestro trabajo representa el primer modelo físico cuantitativo que aborda esta contradicción".
A continuación, con el apoyo de varias subvenciones recientes, los investigadores diseñarán una nueva técnica de microscopía para probar sus ideas y avanzar en la tecnología de los experimentos de fotobiología utilizando herramientas de óptica cuántica.
"Hay mucho que entender sobre la naturaleza, y solo se ve más hermosa a medida que desentrañamos sus misterios", dijo Gabor.
Fuente: https://news.ucr.edu/articles/2020/06/25/why-are-plants-green
Las sociedades antiguas ofrecen lecciones a las ciudades modernas
Las ciudades modernas de hoy, desde Denver hasta Dubai, podrían aprender una o dos cosas de las antiguas comunidades Pueblo, que una vez se extendieron por el suroeste de los Estados Unidos y el norte de México. Al respecto, un estimado colega nos comparte el presente artículo escrito por Daniel Strain y publicado el pasado 19 de junio (2020) en el boletín de noticias de la University of Colorado en Boulder, Co (UC-Boulder). Veamos qué nos comentan:
Uno de las primeras premisas que las comunidades antiguas fueron afirmando es que mientras más personas vivan juntas, mejores serán los niveles de vida.
Ese hallazgo proviene de un estudio publicado hoy en la revista Science Advances que fue dirigido por Scott Ortman, un arqueólogo de la Universidad de Colorado Boulder. Existe un número creciente de arqueólogos y antropólogos que argumentan que el pasado del mundo puede ser la clave de su futuro. ¿Qué lecciones pueden aprender las personas que viven hoy de los éxitos y fracasos de las civilizaciones de hace cientos o miles de años?
Recientemente, Ortman y José Lobo, de la Universidad Estatal de Arizona, se sumergieron profundamente en los datos de las ciudades agrícolas que salpicaban el Valle del Río Grande entre los siglos XIV y XVI. Las metrópolis modernas deberían tomar nota: a medida que las aldeas Pueblo se hicieron más grandes y densas, su producción per cápita de alimentos y otros bienes también pareció aumentar.
En otras palabras, calles llenas con mucho movimient, podrían conducir a ciudadanos con mejores posibilidades económicas y muy posiblemente con una mejor calidad de vida.
"Vemos aquí una situación de escala", dijo Ortman, profesor asistente en el Departamento de Antropología, que también está afiliado al Instituto Santa Fe en Nuevo México. "Mientras más personas trabajan juntas, más producen por persona".
Si lo mismo es cierto hoy en día, sigue siendo una pregunta abierta, especialmente en medio de los impactos sin precedentes de la pandemia de covid-19 en las ciudades y la proximidad humana. Pero los resultados del suroeste soleado sugieren que es una idea que vale la pena explorar.
"El registro arqueológico puede ayudarnos a aprender sobre los problemas que nos preocupan del mundo actual de tal forma que no los podríamos hacer así utilizando los datos disponibles de las sociedades modernas", dijo Ortman.
Los buenos platillos
Las investigaciones forman parte de una rama de un esfuerzo que Ortman lidera llamado Proyecto de Reactores Sociales, la cual ha explorado patrones de crecimiento en civilizaciones desde la antigua Roma hasta el mundo inca.
Es un intento de perseguir una idea propuesta por primera vez en el siglo XVIII por Adam Smith, a menudo conocido como el padre de la economía moderna. En The Wealth of Nations, Smith defendió los beneficios fundamentales del tamaño del mercado: que si se facilita el comercio de más personas, la economía crecerá.
Simplemente mire cualquier ciudad donde seguramente encontrara una peluquería junto a una panadería y una guardería para perros.
"A medida que las personas interactúan con mayor frecuencia, una persona puede realizar menos cosas por sí misma y obtener más de lo que necesita de sus contactos sociales", dijo Ortman.
El problema, explicó, es que ese crecimiento "que impulsa la concentración de personas" es difícil de aislar en las ciudades grandes y complejas de hoy. Esto mismo no resulta cierto para el Valle del Río Grande.
Antes de la llegada de los españoles en el siglo XVI, cientos de aldeas abarcaban la región cercana a lo que hoy es Santa Fe. Estos asentamientos variaron en tamaño desde unas pocas docenas de residentes hasta unas tres mil personas, la mayoría de las cuales se ganaban la vida cultivando entre otras cosas el maíz y el algodón.
Tal estilo de vida de subsistencia no significaba que estas comunidades fueran simples.
"La visión tradicional en la historia antigua era que el crecimiento económico no sucedió hasta el comienzo de la revolución industrial", dijo Ortman.
Él y Lobo decidieron poner a prueba esa suposición. El dúo estudió detenidamente una base de datos exhaustiva de hallazgos arqueológicos de la región, capturando todo, desde la cantidad y el tamaño de las habitaciones en las comunidades de Pueblo hasta la cerámica y montones de basura.
Descubrieron una tendencia clara: cuando las aldeas se volvieron más pobladas, sus residentes parecían mejorar en promedio, exactamente como Smith predijo. Los espacios habitables crecieron en tamaño y las familias recolectaron más cerámica pintada.
"Se podría considerar como más platos para compartir comidas juntos", dijo Ortman.
Conexión social
Ese crecimiento, descubrió el equipo, también parecía seguir un patrón que los investigadores del Proyecto de Reactores Sociales han visto en una variedad de civilizaciones a lo largo de la historia. Cada vez que las aldeas duplicaron su tamaño, los marcadores de crecimiento económico aumentaron aproximadamente un 16% en promedio.
Ortman dijo que el efecto no ocurre de la misma manera en todas partes. Factores como la desigualdad y el racismo, por ejemplo, pueden evitar que los residentes urbanos trabajen juntos, incluso cuando viven en espacios reducidos.
Pero, agregó Ortman, estas comunidades de Pueblo tienen una lección importante para las sociedades modernas: cuanto más personas puedan conectarse con otras, más prósperas se vuelven.
"En igualdad de condiciones, la urbanización debería conducir a mejoras en las condiciones materiales de vida para las personas en todas partes", dijo. "Sospechamos que es por eso que el mundo continúa urbanizándose, a pesar de todos los problemas asociados".
Fuente:
https://www.colorado.edu/today/2020/06/15/ancient-societies-hold-lessons-modern-cities
¿Es posible la teletransportación? Sí, en el mundo cuántico
Si usted recuerda, "Transpórtame " es una de las frases más famosas de la serie Star Trek. Es el comando que se utilizaba cuando un personaje deseaba teletransportarse desde una ubicación remota de regreso a la nave espacial Enterprise.
Si bien la teletransportación humana solo existe en la ciencia ficción, la teletransportación es posible en el mundo subatómico de la mecánica cuántica, aunque no de la manera que normalmente se representa en la televisión. En el mundo cuántico, la teletransportación implica el transporte de información, en lugar del transporte de materia. Al respecto, un estimado colega nos comparte el presente artículo escrito por Lindsey Valich y publicado en el boletín de noticias de la University of Rochester (UR) el 19 de junio pasado. Veamos de qué se trata…
El año pasado, los científicos confirmaron que la información podía pasar entre fotones en chips de computadora, incluso cuando los fotones no estaban físicamente vinculados.
Ahora, según una nueva investigación de la University of Rochester (UR) y la“Purdue University, la teletransportación también puede ser posible entre electrones.
En un artículo publicado en Nature Communications y uno que aparece en Physical Review X, los investigadores -incluidos John Nichol, profesor asistente de física en Rochester, y Andrew Jordan, profesor de física en Rochester- exploran nuevas formas de crear interacciones entre electrones distantes en mecánica cuántica. La investigación es un paso importante para mejorar la computación cuántica, que, a su vez, tiene el potencial de revolucionar la tecnología, la medicina y la ciencia al proporcionar procesadores y sensores más rápidos y eficientes.
“Acción espeluznante a distancia”
La teletransportación cuántica es una demostración de lo que Albert Einstein llamó "acción fantasmagórica a distancia", también conocida como entrelazamiento cuántico. En el entrelazamiento, uno de los conceptos básicos de la física cuántica, las propiedades de una partícula afectan las propiedades de otra, incluso cuando las partículas están separadas por una gran distancia. La teletransportación cuántica involucra dos partículas entrelazadas y distantes en las cuales el estado de una tercera partícula "teletransporta" instantáneamente su estado a las dos partículas entrelazadas.
La teletransportación cuántica es un medio importante para transmitir información en la computación cuántica. Mientras que una computadora típica consta de miles de millones de transistores, llamados bits, las computadoras cuánticas codifican la información en bits cuánticos o qubits. Un bit tiene un único valor binario, que puede ser "0" o "1", pero los qubits pueden ser "0" y "1" al mismo tiempo. La capacidad de los qubits individuales de ocupar simultáneamente múltiples estados subyace al gran poder potencial de las computadoras cuánticas.
Los científicos han demostrado recientemente la teletransportación cuántica mediante el uso de fotones electromagnéticos para crear pares de qubits entrelazados de forma remota.
Sin embargo, los Qubits hechos de electrones individuales también son prometedores para transmitir información en semiconductores.
"Los electrones individuales son qubits prometedores porque interactúan muy fácilmente entre sí, y los qubits de electrones individuales en semiconductores también son escalables", dice Nichol. "Crear de manera confiable interacciones de larga distancia entre electrones es esencial para la computación cuántica".
Sin embargo, la creación de pares de qubits entrelazados de electrones que abarquen largas distancias, lo cual es necesario para la teletransportación, ha resultado difícil: mientras que los fotones se propagan naturalmente a largas distancias, los electrones generalmente están confinados en un solo lugar.
Pares de electrones entrelazados
Para demostrar la teletransportación cuántica usando electrones, los investigadores utilizaron una técnica desarrollada recientemente basada en los principios del acoplamiento de intercambio de Heisenberg. Un electrón individual es como un imán de barra con un polo norte y un polo sur que pueden apuntar hacia arriba o hacia abajo. La dirección del polo, ya sea que el polo norte apunte hacia arriba o hacia abajo, por ejemplo, se conoce como el momento magnético del electrón o el estado de giro cuántico. Si ciertos tipos de partículas tienen el mismo momento magnético, no pueden estar en el mismo lugar al mismo tiempo. Es decir, dos electrones en el mismo estado cuántico no pueden sentarse uno encima del otro. Si lo hicieran, sus estados cambiarían de un lado a otro a tiempo.
Los investigadores utilizaron la técnica para distribuir pares de electrones entrelazados y teletransportar sus estados de espín.
"Brindamos evidencia de 'intercambio de entrelaces', en el que creamos entrelazamiento de dos electrones a pesar de que las partículas nunca interactúan, y 'teletransportación de puerta cuántica', una técnica potencialmente útil para la computación cuántica mediante teletransportación", dice Nichol. "Nuestro trabajo muestra que esto se puede hacer incluso sin fotones".
Los resultados allanan el camino para futuras investigaciones sobre teletransportación cuántica que involucren estados de espín de toda la materia, no sólo de fotones, y proporcionan más evidencia de las capacidades sorprendentemente útiles de electrones individuales en semiconductores qubit.
Fuente:
https://www.rochester.edu/newscenter/quantum-teleportation-to-improve-quantum-computing-441352/
Ingenieros del MIT avanzan en la construcción de un “cerebro-en-un-chip”.
Un querido colega y amigo, nos comparte el presente artículo escrito por Jennifer Chu y publicado el pasado 8 de junio de 2020 en el boletín digital del Massachusetts Institute of Technology (MIT). En este artículo se informa que ingenieros del MIT diseñaron una especie de “cerebro-chip”, más diminuto que un confeti, y que está integrado con decenas de miles de sinapsis cerebrales artificiales conocidas como memristors, componentes basados en silicio que imitan las sinapsis de transmisión de información en el cerebro humano. Veamos de que se trata….
Para iniciar recordemos que una sinapsis es una aproximación (funcional) intercelular especializada entre neuronas que permite a las células nerviosas comunicarse con otras a través de los axones y dendritas, transformando una señal eléctrica en otra química.
Los investigadores tomaron prestados los principios de la metalurgia para fabricar cada memristor de aleaciones de plata y cobre, junto con silicio. Cuando hicieron funcionar el chip a través de varias tareas visuales, el chip pudo "recordar" las imágenes almacenadas y reproducirlas muchas veces, en versiones que eran más nítidas y limpias en comparación con los diseños de memristor existentes hechos con elementos sin aleaciones.
Sus resultados, publicados hoy en la revista Nature Nanotechnology, demuestran un nuevo y prometedor diseño de memristores para dispositivos neuromórficos, componentes electrónicos que se basan en un nuevo tipo de circuito que procesa la información de una manera que imita la arquitectura neuronal del cerebro. Dichos circuitos inspirados en el cerebro podrían integrarse en dispositivos portátiles pequeños y llevarían a cabo tareas informáticas complejas que sólo las supercomputadoras de hoy en día pueden manejar.
"Hasta ahora, las redes de sinapsis artificiales existen como software. Estamos tratando de construir dispositivos (hardware) de red neuronal real para sistemas de inteligencia artificial portátiles", dice Jeehwan Kim, profesor asociado de ingeniería mecánica en el MIT. "Imagine conectar un dispositivo neuromórfico a una cámara en su automóvil y hacer que reconozca las luces y los objetos y tome una decisión de inmediato, sin tener que conectarse a Internet. Esperamos utilizar memorias eficientes en energía para realizar esas tareas en el sitio, en tiempo real."
Iones errantes
Los memristors, o transistores de memoria, son un elemento esencial en la computación neuromórfica. En un dispositivo neuromórfico, un memristor serviría como transistor en un circuito, aunque su funcionamiento se asemejaría más a una sinapsis cerebral: la unión entre dos neuronas. La sinapsis recibe señales de una neurona, en forma de iones, y envía una señal correspondiente a la siguiente neurona.
Un transistor en un circuito convencional transmite información al cambiar entre uno de los dos únicos valores, 0 y 1, y hacerlo solo cuando la señal que recibe, en forma de corriente eléctrica, es de una intensidad particular. En contraste, un memristor funcionaría a lo largo de un gradiente, muy parecido a una sinapsis en el cerebro. La señal que produce variará dependiendo de la intensidad de la señal que recibe. Esto permitiría que un solo memristor tenga muchos valores y, por lo tanto, lleve a cabo una gama de operaciones mucho más amplia que los transistores binarios.
Al igual que una sinapsis cerebral, un memristor también podría "recordar" el valor asociado con una intensidad de corriente dada y producir exactamente la misma señal la próxima vez que reciba una corriente similar. Esto podría garantizar que la respuesta a una ecuación compleja, o la clasificación visual de un objeto sea confiable, una hazaña que normalmente involucra múltiples transistores y condensadores.
En última instancia, los científicos imaginan que los memristores requerirían mucho menos espacio en chip que los transistores convencionales, lo que permitiría dispositivos informáticos portátiles y potentes que no dependen de supercomputadores, o incluso conexiones a Internet.
Sin embargo, los diseños de memristor existentes tienen un rendimiento limitado. Un solo memristor está hecho de un electrodo positivo y negativo, separado por un "medio de conmutación" o espacio entre los electrodos. Cuando se aplica un voltaje a un electrodo, los iones de ese electrodo fluyen a través del medio, formando un "canal de conducción" al otro electrodo. Los iones recibidos forman la señal eléctrica que el memristor transmite a través del circuito. El tamaño del canal iónico (y la señal que finalmente produce el memristor) debe ser proporcional a la fuerza del voltaje estimulante.
Kim dice que los diseños de memristor existentes funcionan bastante bien en casos en los que el voltaje estimula un gran canal de conducción o un fuerte flujo de iones de un electrodo a otro. Pero estos diseños son menos confiables cuando los memristors necesitan generar señales más sutiles, a través de canales de conducción más delgados.
Cuanto más delgado es un canal de conducción, y más liviano es el flujo de iones de un electrodo a otro, más difícil es que los iones individuales permanezcan juntos. En cambio, tienden a alejarse del grupo, disolviéndose dentro del medio. Como resultado, es difícil para el electrodo receptor capturar de manera confiable la misma cantidad de iones y, por lo tanto, transmitir la misma señal cuando se estimula con un cierto rango bajo de corriente.
Préstamo de metalurgia
Kim y sus colegas encontraron una forma de evitar esta limitación al tomar prestada una técnica de la metalurgia, la ciencia de fundir metales en aleaciones y estudiar sus propiedades combinadas.
"Tradicionalmente, los metalúrgicos intentan agregar diferentes átomos en una matriz masiva para fortalecer los materiales, y pensamos, ¿por qué no ajustar las interacciones atómicas en nuestro memristor y agregar algún elemento de aleación para controlar el movimiento de iones en nuestro medio?", dice Kim.
Los ingenieros suelen usar plata como material para el electrodo positivo de un memristor. El equipo de Kim revisó la literatura para encontrar un elemento que pudieran combinar con plata para mantener efectivamente unidos los iones de plata, mientras les permitía fluir rápidamente hacia el otro electrodo.
El equipo aterrizó en cobre como el elemento de aleación ideal, ya que es capaz de unirse tanto con plata como con silicio.
"Actúa como una especie de puente y estabiliza la interfaz plata-silicio", dice Kim.
Para hacer memristors usando su nueva aleación, el grupo primero fabricó un electrodo negativo de silicio, luego hizo un electrodo positivo depositando una pequeña cantidad de cobre, seguido de una capa de plata. Emparejaron los dos electrodos alrededor de un medio de silicio amorfo. De esta manera, modelaron un chip de silicio de milímetro cuadrado con decenas de miles de memristores.
Como primera prueba del chip, recrearon una imagen en escala de grises del escudo del Capitán América. Ellos equipararon cada píxel en la imagen a un memristor correspondiente en el chip. Luego modularon la conductancia de cada memristor que era relativa en fuerza al color en el píxel correspondiente.
El chip produjo la misma imagen nítida del escudo y pudo "recordar" la imagen y reproducirla muchas veces, en comparación con los chips hechos de otros materiales.
El equipo también operó el chip a través de una tarea de procesamiento de imágenes, programando los memristores para alterar una imagen, en este caso de Killian Court del MIT, de varias maneras específicas, incluyendo el enfoque y el desenfoque de la imagen original. Nuevamente, su diseño produjo las imágenes reprogramadas de manera más confiable que los diseños existentes de memristor.
"Estamos usando sinapsis artificiales para hacer pruebas de inferencia reales", dice Kim. "Nos gustaría desarrollar esta tecnología aún más para tener arreglos a mayor escala para realizar tareas de reconocimiento de imágenes. Y algún día, podría ser capaz de llevar cerebros artificiales para realizar este tipo de tareas, sin conectarse a supercomputadoras, Internet o la nube."
Esta investigación fue financiada, en parte, por los fondos del Comité de Apoyo a la Investigación del MIT, el Laboratorio de IA MIT-IBM Watson, el Laboratorio de Investigación Global de Samsung y la Fundación Nacional de Ciencia.
Fuente:
http://news.mit.edu/2020/thousands-artificial-brain-synapses-single-chip-0608
LED ultravioleta, eficaces para eliminar el coronavirus de las superficies
A medida que el covid-19 continúa devastando las poblaciones en todo el orbe, los científicos y especialistas de todo el mundo se centran singularmente en encontrar formas de combatir el nuevo virus. Precisamente sobre este tema, un estimado colega, que continuamente nos comparte información, nos comparte esta vez un artículo publicado el pasado 14 de abril, en el boletín de la University of California en Santa Bárbara (UCSB), donde nos informan que investigadores de Solid State Lighting & Energy Electronics Center (SSLEEC), así como empresas asociada a este centro están desarrollando un LED ultravioleta que tienen la capacidad de descontaminar superficies, y potencialmente aire y agua, que han estado en contacto con el virus SARS-CoV-2. Veamos de qué se trata….
"Una aplicación importante es en situaciones médicas: la desinfección de equipos de protección personal, superficies, pisos, dentro de los sistemas de HVAC, etc.", dijo el investigador de materiales Christian Zollner, cuyo trabajo se centra en el desarrollo de la tecnología LED de luz ultravioleta profunda para el saneamiento y fines de purificación. Agregó que ya existe un pequeño mercado para los productos de desinfección UV-C en contextos médicos.
De hecho, últimamente se ha prestado mucha atención al poder de la luz ultravioleta para inactivar el nuevo coronavirus. Como tecnología, la desinfección con luz ultravioleta ha existido por un tiempo. Y aunque es práctico, la eficacia a gran escala contra la propagación del SARS-CoV-2 aún no se ha demostrado.
La luz ultravioleta es muy prometedora: la empresa socio de SSLEEC, Seoul Semiconductor, a principios de abril informó de una "esterilización del 99.9% del coronavirus (COVID-19) en 30 segundos" con sus productos de LED UV. Su tecnología actualmente se está adoptando para uso automotriz, en lámparas LED UV que esterilizan el interior de vehículos desocupados.
Vale la pena señalar que no todas las longitudes de onda UV son iguales. Los rayos UV-A y UV-B, los tipos que recibimos aquí en la Tierra por cortesía del Sol, tienen usos importantes, pero el raro UV-C es la luz ultravioleta elegida para purificar el aire y el agua y para inactivar microbios. Estos sólo pueden generarse a través de procesos creados por el hombre.
"La luz UV-C en el rango de 260 - 285 nm, que es la que se utiliza en las tecnologías de desinfección, también es dañina para la piel humana, por lo que por ahora se usa principalmente en aplicaciones donde no hay personas presentes en el momento de la desinfección", dijo Zollner. De hecho, la Organización Mundial de la Salud (OMS) advierte contra el uso de lámparas de desinfección ultravioleta para desinfectar las manos u otras áreas de la piel; incluso una breve exposición a la luz UV-C puede causar quemaduras y lesiones oculares.
Antes de que la pandemia por covid-19 ganara impulso mundial, los científicos de materiales en SSLEEC ya estaban trabajando en el avance de la tecnología LED UV-C. Esta área del espectro electromagnético es una frontera relativamente nueva para la iluminación de estado sólido; La luz UV-C se genera más comúnmente a través de lámparas de vapor de mercurio y, según Zollner, "se necesitan muchos avances tecnológicos para que el LED UV alcance su potencial en términos de eficiencia, costo, confiabilidad y vida útil".
En un artículo publicado en la revista ACS Photonics, los investigadores informaron un método más sofisticado para fabricar LEDs de ultravioleta profundo (UV-C) de alta calidad, lo cual implica depositar una película de aleación de semiconductores compuestos por nitruro de aluminio y galio (AlGaN) en un sustrato de carburo de silicio (SiC): una variante del sustrato utilizado mas comúnmente, el zafiro
Según Zollner, el uso de carburo de silicio como sustrato permite un crecimiento más eficiente y rentable del material semiconductor UV-C de alta calidad que el zafiro. Esto, explicó, se debe a la proximidad de las estructuras atómicas de los materiales.
"Como regla general, cuanto más estructuralmente similar (en términos de estructura de cristal atómico) el sustrato y la película son entre sí, más fácil es lograr una alta calidad del material", dijo. Cuanto mejor sea la calidad, mejor será la eficiencia y el rendimiento del LED. El zafiro es estructuralmente diferente, y la producción de material sin defectos y desalineaciones a menudo requiere pasos adicionales complicados. El carburo de silicio no es una combinación perfecta, dijo Zollner, pero permite una alta calidad sin la necesidad de métodos adicionales que son costosos.
Además, el carburo de silicio es mucho menos costoso que el sustrato de nitruro de aluminio "ideal", lo que lo hace más amigable con la producción en masa, según Zollner.
La desinfección de agua portátil y de acción rápida fue una de las principales aplicaciones que los investigadores tenían en mente al desarrollar su tecnología LED UV-C; la durabilidad, confiabilidad y factor de forma pequeño de los diodos cambiarían las reglas del juego en áreas menos desarrolladas del mundo donde no hay agua limpia disponible.
La aparición de la pandemia de covid-19 ha agregado otra dimensión. A medida que el mundo corre para encontrar vacunas, terapias y curas para la enfermedad, la desinfección, la descontaminación y el aislamiento son las pocas armas que tenemos para defendernos, y las soluciones deberán implementarse en todo el mundo. Además de UV-C para fines de saneamiento del agua, la luz UV-C podría integrarse en sistemas que se encienden cuando no hay nadie presente, dijo Zollner.
"Esto proporcionaría una manera conveniente, de bajo costo, libre de químicos y para desinfectar espacios públicos, minoristas, personales y médicos", dijo.
Por el momento, sin embargo, es un juego de paciencia, ya que Zollner y sus colegas esperan la pandemia. La investigación en la UC Santa Bárbara se ha ralentizado para minimizar los esquemas de sana distancia y el contacto de persona a persona.
"Nuestros próximos pasos, una vez que se reanuden las actividades de investigación en UCSB, es continuar nuestro trabajo para mejorar nuestra plataforma AlGaN / SiC para producir los emisores de luz UV-C más eficientes del mundo", dijo.
Otros colaboradores de la investigación incluyen Burhan K. SaifAddin (autor principal), Shuji Nakamura, Steven P. DenBaars, James S. Speck, Abdullah S. Almogbel, Bastien Bonef, Michael Iza y Feng Wu, todos de SSLEEC y / o el Departamento de Materiales en la UCSB.
Fuente:
Primer taxi comercial, una parada en los pits de la búsqueda de Musk en Marte
Hace unos días, en la búsqueda de opciones de programas para ver en la televisión durante la cuarentena, nos recomendaron “Marte”, una buena serie (la recomendamos), donde se combinan documentales de las acciones que se realizan en la actualidad para iniciar un primer asentamiento en Marte, con ciencia ficción de un futuro cercano que visualiza como podrían ser estas colonias. Al respecto, un estimado colega nos comparte el siguiente artículo, escrito por Seth Borenstein, y publicado por AP el 23 de mayo de 2020. Veamos de qué se trata…
Todo comenzó con el sueño de cultivar una rosa en Marte.
Esa visión, la visión de Elon Musk, se transformó en una sacudida de la vieja industria espacial y una flota de nuevos cohetes privados. Ahora, esos cohetes lanzarán astronautas de la NASA desde Florida a la Estación Espacial Internacional, la primera vez que una compañía con fines de lucro llevará astronautas al cosmos.
Es un hito en el esfuerzo por comercializar el espacio. Pero para la empresa de Musk, SpaceX, también es el último hito en un viaje salvaje que comenzó con fracasos épicos y la amenaza de quiebra.
Si el excéntrico fundador y CEO de la empresa se sale con la suya, este es sólo el comienzo: planea construir una ciudad en el planeta rojo y vivir allí.
"Lo que realmente quiero lograr aquí es hacer que Marte parezca posible, que parezca que es algo que podemos hacer en nuestras vidas y que tú puedes ir", dijo Musk en un congreso de profesionales del espacio en México en 2016.
Musk "es un cambio revolucionario" en el mundo espacial, dice el astrofísico de la Harvard University, Jonathan McDowell, cuyo “Jonathan's Space Report” ha rastreado lanzamientos y fracasos durante décadas.
El ex astronauta y ex jefe de la Commercial Spaceflight Federation, Michael Lopez-Alegria, dice: "Creo que la historia lo mirará como ahora se ve a Leonardo da Vinci".
Musk se ha hecho más conocido por Tesla, su audaz esfuerzo por construir una compañía de vehículos eléctricos. Pero el proyecto SpaceX es anterior.
A los 30 años, Musk ya era enormemente rico por vender su compañía financiera de Internet PayPal y su predecesor Zip2. Organizó una serie de almuerzos en Silicon Valley en 2001 con G. Scott Hubbard, quien había sido el zar de Marte de la NASA y entonces dirigía la agencia Ames Research Center.
Musk quería de alguna manera cultivar una rosa en el planeta rojo, mostrársela al mundo e inspirar a los niños, recuerda Hubbard.
"Su verdadero enfoque era llevar y mantener vida en Marte", dice Hubbard, un profesor de la Universidad de Stanford que ahora preside el panel asesor de seguridad de la tripulación de SpaceX.
Hubbard le dijo que el gran problema era construir un cohete lo suficientemente asequible como para ir a Marte. Menos de un año después nació Space Exploration Technologies, llamada SpaceX.
Hay muchas compañías espaciales y, como todas, SpaceX está diseñada para obtener ganancias. Pero lo que es diferente es que detrás de esa motivación por obtener ganancias, hay un objetivo, que es simplemente "Llevar a Elon a Marte", dice McDowell. "Al tener esa visión a largo plazo, eso los empujó a ser más ambiciosos y realmente cambió las cosas".
Todos en SpaceX, desde los vicepresidentes del más alto nivel hasta el mozo que ofrece capuchinos y FroYo, "le dirán que están trabajando para hacer que los humanos sean multiplanetarios", dice el ex director de SpaceX, Garrett Reisman, un ex astronauta, ahora en la University of Southern California.
Musk fundó la compañía justo antes de que la NASA incluyera en sus planes el concepto de espacio comercial.
Tradicionalmente, las empresas privadas construían cosas o prestaban servicios para la NASA, que seguía siendo el jefe y poseía el equipo e infraestructura. La idea de roles más amplios para las empresas privadas ha existido durante más de 50 años, pero el mercado y la tecnología aún no eran los apropiados.
Los dos accidentes mortales de transbordadores espaciales de la NASA, Challenger en 1986 y Columbia en 2003, fueron fundamentales, dice W. Henry Lambright, profesor de política pública en la Universidad de Syracuse.
Cuando Columbia se desintegró, la NASA tuvo que contemplar una nueva opción post-transbordador espacial. Ahí es donde entraron las empresas privadas, dice Lambright.
Después de Columbia, la agencia se centró en volver a llevar a los astronautas a la luna, pero aún tenía que llevar carga y astronautas a la estación espacial, dice Sean O'Keefe, quien era el administrador de la NASA en ese momento. Un proyecto piloto de 2005 ayudó a las empresas privadas a desarrollar naves para llevar carga a la estación.
SpaceX obtuvo parte de ese financiamiento inicial. Los primeros tres lanzamientos de la compañía fallaron. La compañía también podría haber fallado con la misma facilidad, pero la NASA se quedó con SpaceX y comenzó a dar sus frutos, dice Lambright.
"No se puede explicar SpaceX sin comprender realmente cómo la NASA realmente lo nutrió en los primeros días", dice Lambright. "En cierto modo, SpaceX es una especie de hijo de la NASA".
Desde 2010, la NASA ha gastado seis mil millones de dólares para ayudar a las empresas privadas a poner a las personas en órbita, donde SpaceX y Boeing han sido los que han recibido mayor participación, dice Phil McAlister, director comercial de vuelos espaciales de la NASA.
La NASA planea gastar otros dos mil 500 millones para comprar 48 asientos de astronautas para la estación espacial en 12 vuelos diferentes, dice. Con un poco más de 50 millones por viaje, es mucho más barato que lo que la NASA ha pagado a Rusia por los vuelos a la estación.
Comenzar desde cero le ha dado a SpaceX una ventaja sobre las empresas más antiguas y la NASA que están atrapadas usando tecnología e infraestructura heredadas, dice O'Keefe.
Y SpaceX intenta construir todo por sí mismo, dando a la empresa más control, dice Reisman. La compañía ahorra dinero reutilizando cohetes, y tiene clientes aparte de la NASA.
Esta compañía ubicada en California ahora tiene seis mil empleados. Sus trabajadores son jóvenes, consumen enormes cantidades de café y tienen semanas de 60 a 90 horas, dicen Hubbard y Reisman. También toman más riesgos que sus contrapartes de la NASA.
Las decisiones que pueden tomar un año en la NASA se pueden tomar en una o dos reuniones en SpaceX, dice Reisman, quien aún asesora a la firma.
En 2010, un cohete Falcon 9 en la plataforma de lanzamiento tenía una extensión de boquilla rota en un motor. Normalmente eso significaría sacar el cohete de la plataforma y una solución que retrasaría el lanzamiento más de un mes.
Pero con el permiso de la NASA, la ingeniera de SpaceX Florence Li fue izada en la boquilla del cohete con una grúa y un arnés. Luego, usando lo que eran esencialmente tijeras de jardín, "cortó la cosa, la lanzamos al día siguiente y funcionó", dice Reisman.
Musk es la cara pública y poco convencional de SpaceX: fuma marihuana en un popular podcast, se pelea con los funcionarios locales por abrir su planta de Tesla durante la pandemia y nombra a su hijo recién nacido "X Æ A-12".
Pero los expertos dicen que la veterana de la industria aeroespacial Gwynne Shotwell, presidenta y directora de operaciones, también es clave para el éxito de la compañía.
"El concepto SpaceX es en realidad una combinación de la imaginación, la creatividad y el impulso de Musk y la gestión de sonido e ingeniería es responsabilidad de Shotwell", dice McDowell.
Pero todo vuelve al sueño de Musk. El ex jefe de la NASA O'Keefe dice que Musk tiene sus excentricidades, enormes dosis de autoconfianza y persistencia, y esa última parte es clave: "Usted tiene la capacidad de superar un revés y mirar ... hacia dónde estamos tratando de ir."
Para Musk, es Marte.
Fuente: https://apnews.com/6d9dbc833fb303e983c6e2abb6839843
El concepto de robo-bota promete un incremento del 50% en la velocidad del desplazamiento de las personas
No importa qué tan bien diseñado estén, no hay zapatos para correr que permitan a los corredores igualar la velocidad de los ciclistas. La bicicleta fue un invento clave que duplicó la velocidad de los humanos. Pero, ¿qué pasaría si un nuevo tipo de calzado permitiera a las personas correr más rápido imitando la mecánica del ciclismo? Sobre esta pregunta, un estimado colega, ingeniero mecánico, nos comparte el siguiente artículo escrito por David Braun y publicado en The Conversation el 15 de mayo de 2020. Veamos de qué se trata…
Braun nos explica: Esta pregunta es la que mis alumnos del Center for Rehabilitation Engineering & Assistive Technology de Vanderbilt y yo exploramos mientras desarrollamos una nueva teoría de los exoesqueletos robóticos impulsados por resortes. Se nos ocurrió un concepto para un nuevo tipo de exoesqueleto de miembros inferiores que podría permitir que el humano más rápido del mundo alcance una velocidad de 18 metros por segundo o aproximadamente 40 millas por hora.
La vanguardia de las zapatillas para correr de hoy es la Nike Vaporfly, que permite a los corredores usar un 4% menos de energía que las zapatillas estándar. El tres veces medallista olímpico Eliud Kipchoge los usó recientemente para correr un maratón en menos de dos horas. Aunque el Vaporfly volcó el mundo de la carrera profesional al aumentar la eficiencia de las zapatillas estándar, no ofrece las ventajas del ciclismo ni altera fundamentalmente la física de la carrera.
Ha habido mucha investigación y desarrollo en exoesqueletos robóticos que aumentan el poder humano. Estos utilizan actuadores y energía externa: motores y baterías. Pero no han ayudado a los humanos a correr más rápido. Los resortes también se han utilizado para fabricar prótesis de alta tecnología para corredores paralímpicos, pero no se ha demostrado que brinden una ventaja injusta en comparación con las piernas. Para la velocidad accionada por humanos, la bicicleta ha sido la campeona reinante durante más de un siglo.
Correr versus ciclismo
La primera máquina de correr fue una bicicleta sin pedales. Redujo el costo de energía de correr al soportar el peso del cuerpo en un asiento y usar ruedas para evitar la inevitable pérdida de energía cuando los corredores pisan.
Pero las primeras bicicletas no permitían a los ciclistas moverse más rápido que los corredores porque el ciclista se impulsaba empujándose contra el suelo con las piernas, al igual que correr. Lo que cambió completamente el juego para andar en bicicleta fue la invención del mecanismo de pedaleo, que permitió que las piernas impulsaran al ciclista continuamente en lugar de solo cuando el pie toca el suelo.
La ventaja de velocidad de la bicicleta sobre correr no ha perdurado por falta de intentos. La gente ha estado imaginando las patas de los muelles y refinando los muelles para correr durante generaciones, pero estos muelles no son como una bicicleta con pedales porque no permiten que las piernas suministren energía cuando están fuera del suelo.
La robo-bota
Para aplicar la ventaja de andar en bicicleta a la carrera, se nos ocurrió un concepto para un nuevo tipo de robo-bota que emula la función de los pedales de bicicleta. Usando la bota robótica, los corredores suministran energía al comprimir un resorte con cada pierna mientras está en el aire. Con cada paso, el resorte libera su energía almacenada empujando contra el suelo más rápido y más fuerte de lo que las piernas podrían hacer.
Descubrimos que una bota robótica ideal permitiría al corredor más rápido de la Tierra usar sus piernas el 96% del tiempo de paso para correr más rápido que 20 metros por segundo, comparable a la velocidad máxima del ciclismo. Una robo-bota más práctica que se usa sólo alrededor del 60% del tiempo del paso podría ayudar a un corredor a alcanzar una velocidad máxima de 18 metros por segundo. Eso es 50% más rápido que la velocidad récord mundial de 12 metros por segundo en el sprint de 100 metros.
El componente de alta tecnología de la robo-bota es un resorte de rigidez variable que puede aumentar su rigidez sin cambiar su energía almacenada. La rigidez del resorte determina la fuerza con la que puede empujar contra el suelo para acelerar el cuerpo del corredor: cuanto más rígido sea el resorte, mayor será la fuerza dada la misma compresión del resorte.
Los resortes convencionales como los de las plumas retráctiles tienen una rigidez constante basada en el material, la forma y el tamaño del resorte. Los resortes de rigidez variable son un tipo especial de resorte que puede cambiar de forma o tamaño. Un tipo de resorte de rigidez variable aumenta la rigidez al acortarse. Un mecanismo acorta el resorte moviendo el punto de fijación del resorte desde su extremo hasta su centro. El mecanismo en la bota robótica acorta el resorte cuando el corredor extiende su pierna en el aire.
Aumentar la rigidez del resorte a medida que el corredor aumenta la velocidad es análogo a cambiar a una marcha más alta en una bicicleta mientras un ciclista incrementa su velocidad. Esto permite a los corredores suministrar más energía y evitar la limitación biomecánica del suministro de energía sólo durante el corto tiempo de contacto con el suelo de la carrera de alta velocidad.
Próximos pasos
Las bicicletas de carreras modernas casi duplican la velocidad máxima de carrera. Las botas robóticas que aprovechan la mecánica de las bicicletas podrían permitir que las personas corran más rápido sin motores y baterías fuertes. Estos dispositivos más portátiles y alimentados por energía humana podrían permitir una adopción más generalizada de la tecnología robótica portátil, y podrían ampliar los límites de su uso para búsqueda, rescate, aplicación de la ley y por supuesto, para deportes.
¿Qué significaría para los socorristas poder moverse un 50% más rápido? ¿Usted cree que una zapatilla para correr que proporcione un aumento de velocidad del 50% generaría un nuevo evento en los Juegos Olímpicos similar al patinaje sobre hielo y las carreras de bicicletas?
Utilizando la ciencia y la tecnología robótica avanzada, podemos imaginar robo-botas de próxima generación que ofrezcan el primer gran impulso al movimiento impulsado por humanos desde la invención del pedal de bicicleta en el siglo XIX.
Fuente:
https://theconversation.com/robo-boot-concept-promises-50-faster-running-134105
El efecto del bloqueo sobre la contaminación del aire proporciona una rara visión del futuro bajo en carbono
Agradezco a varios colegas el envío de material tocante al COVID-19 en diversos campos de la ingeniería. En particular, agradezco el envío del presente artículo publicado en la revista The Conversation, escrito por Paul Monks, profesor de química atmosférica y ciencias de la observación terrestre en la University of Leicester, publicado el 15 de abril de 2020. Veamos de qué se trata….
La pandemia de COVID-19 ha provocado el cierre de la actividad industrial y cancelado vuelos y otros viajes, reduciendo las emisiones de gases de efecto invernadero y la contaminación del aire en todo el mundo. Si hay algo positivo que sacar de esta terrible crisis, podría ser que tenemos la oportunidad de obtener una muestra del aire que podríamos respirar en un futuro bajo en carbono.
La Organización Mundial de la Salud (OMS) estima que alrededor de tres millones de personas mueren cada año por enfermedades causadas por la contaminación del aire, y que más del 80 por ciento de las personas que viven en áreas urbanas están expuestas a niveles de calidad del aire que exceden los límites de seguridad. La situación es peor en los países de bajos ingresos, donde el 98 por ciento de las ciudades no cumple con los estándares de calidad del aire de la OMS.
Las mediciones del satélite Sentinel-5P de la Agencia Espacial Europea muestran que durante finales de enero y principios de febrero de 2020, los niveles de dióxido de nitrógeno (NO₂) en las ciudades y áreas industriales en Asia y Europa fueron más bajos que en el mismo período en 2019, tanto como 40 por ciento.
Dos semanas después de que se anunciara el cierre nacional el 23 de marzo en el Reino Unido, la contaminación por NO₂ en algunas ciudades cayó hasta un 60 por ciento en comparación con el mismo período en 2019. La NASA reveló que la contaminación por NO₂ en Nueva York y otras áreas metropolitanas importantes del norte -Oeste de los EE. UU. fue un 30 por ciento más bajo en marzo de 2020, en comparación con el promedio mensual de 2015 a 2019.
La mayor parte del NO₂ proviene del transporte por carretera y las centrales eléctricas y puede exacerbar enfermedades respiratorias como el asma. También empeora los síntomas para quienes padecen afecciones pulmonares o cardíacas. Las emisiones de NO₂ han sido un problema particularmente espinoso para Europa, ya que muchos países han incumplido los límites de la UE.
En cierto sentido, estamos llevando a cabo el mayor experimento mundial de contaminación del aire. En un período de tiempo relativamente corto, estamos reduciendo significativamente las principales fuentes de contaminantes del aire en la industria y el transporte. Solo en Wuhan, 11 millones de personas estaban encerradas en el punto álgido del brote allí. En toda China, más de quinientos millones. Normalmente, China emite más de 30 mega toneladas de óxidos de nitrógeno por año, con estimaciones para 2019 que alcanzan las 40 mega toneladas.
China emite más del 50 por ciento de todo el dióxido de nitrógeno en Asia. Cada tonelada de NO₂ que no se emite como resultado de la pandemia es el equivalente a retirar 62 automóviles por año de la carretera. Por lo tanto, podría estimar que en China, incluso una reducción moderada del 10 por ciento en las emisiones de NO₂ es equivalente a sacar 48,000 automóviles de la carretera. Pero la caída del 40 por ciento en NO₂ en los niveles de 2019 para enero y febrero en algunas áreas equivale a eliminar la friolera de 192,000 autos.
Esto es una indicación de lo que se podría lograr de forma permanente para la calidad del aire si el uso del automóvil se redujera gradualmente y se reemplazara por transporte público masivo. El transporte eléctrico de esta manera, con líneas de tren ampliadas, más vagones y estaciones de carga, reduciría la emisión de contaminantes atmosféricos como el NO₂ que emiten los tubos de escape de los autos.
Pero los vehículos eléctricos son tan limpios como la electricidad que los alimenta. Las recientes mejoras en la calidad del aire podrían hacerse permanentes al reemplazar la generación de combustibles fósiles con energía renovable y otras fuentes bajas en carbono. Reducir las emisiones mensuales de NO₂ de la generación de electricidad en un 10 por ciento sería el equivalente a cerrar 500 centrales eléctricas de carbón durante un año.
Irónicamente, al cerrar franjas de la economía global, el COVID-19 ha ayudado a exponer otra crisis de salud respiratoria. Los bloqueos posteriores han mostrado las mejoras en la calidad del aire que son posibles cuando las emisiones se reducen a escala global.
La pandemia podría mostrarnos cómo se vería el futuro con menos contaminación del aire, o simplemente podría indicar la magnitud del desafío que tenemos por delante. Como mínimo, debería desafiar a los gobiernos y las empresas a considerar cómo se pueden hacer las cosas de manera diferente después de la pandemia, para aferrarse a las mejoras temporales en la calidad del aire.
Fuente:
Ingenieros y científicos de todo el mundo aportan su conocimientos
Un estimado colega de Puerto Rico nos exterioriza que sería importante compartir reseñas sobre el desarrollo de ciertas iniciativas de algunos ingenieros en todo el mundo para colaborar con las acciones de médicos y trabajadores de la salud que día a día luchan para prevenir contagios y dar atención médica a quienes se han enfermado. Nos comenta que aunque en algunos casos los desarrollos son relativamente sencillos y quizá hasta algo rudimentarios, no obstante, la realidad es que son alternativas eficaces, eficientes y bastante económicos, con una magnifica relación de costo beneficio. Nos dice nuestro querido amigo que en la medida que los desarrollos de nuestros colegas se compartan con los compañeros académicos y que los mismos se difundan y se aprovechen ampliamente en nuestros países, contribuiremos como nos corresponde en la lucha que la humanidad libra contra la pandemia.
Como ejemplo, nuestro colega nos envía un par de desarrollos que han realizado ingenieros puertorriqueños, los cuales nos comparte a continuación. Veamos de qué se trata….
Estudiantes de la Universidad de Puerto Rico (UPR) diseñan prototipo de ventilador de emergencia
El 17 de abril de 2020, La Universidad de Puerto Rico publicó en su boletín digital un artículo escrito por Mariam Ludim Rosa acerca de que un grupo de trabajo se reunió de manera remota para la creación del concepto de un dispositivo que pudiera servir de ventilador de emergencia. La compañía Met-Pro Inc. donó y construyó los componentes mecánicos del prototipo de ventilador.
El doctor Eduardo J. Juan García, director ejecutivo del Programa de Bioingeniería y catedrático del Departamento de Ingeniería Eléctrica y Computadoras (INEL) del Recinto Universitario de Mayagüez (RUM) de la Universidad de Puerto Rico (UPR), lideró un equipo de trabajo que diseñó un prototipo de ventilador de emergencia que podría ser usado para pacientes con covid-19, en el caso de que el sistema de salud no contara con aparatos comerciales disponibles.
El grupo está compuesto por los alumnos Sergio Ruiz Vega y Esteban Juan Torres, del Departamento de Ingeniería Mecánica (INME); Miguel Ortiz López y Luis Báez Robles, de Ingeniería Eléctrica (INEL); el estudiante doctoral Jorge Castro Torres, del Programa Graduado en Bioingeniería; así como del doctor Roberto L. Bayrón Vélez, anestesiólogo del Hospital Bella Vista, quien fue el asesor clínico del proyecto; y el ingeniero Américo Rodríguez Vivaldi, presidente de Met-Pro Inc., quien donó y construyó los componentes mecánicos del prototipo de ventilador.
“Existe una preocupación genuina de que podamos tener un gran número de personas contagiadas con covid-19 que requieran ventilación artificial, y que no existan suficientes ventiladores comerciales para atender la demanda. De manera que diseñamos un equipo que cumple con los requisitos clínicos, de bajo costo, fácil de manufacturar y lo suficientemente robusto para operar dos semanas consecutivas. Este dispositivo es para ser utilizado solamente como último recurso en casos de emergencia extrema”, explicó por escrito el doctor Juan García.
Agregó que el ventilador consiste de un sistema electromecánico para comprimir un ventilador manual, conocido como Ambu Bag.
“Los Ambu Bags están mucho más disponibles en los hospitales que un ventilador. El sistema consiste de un motor eléctrico conectado a un mecanismo que convierte el movimiento rotacional continuo a un desplazamiento angular definido. El mecanismo, entonces, permite comprimir el Ambu Bag. Mientras, el volumen de aire que expulsa el ventilador manual cada vez que se comprime (conocido como Tidal Volume), se ajusta moviendo la base donde se coloca el Ambu Bag”, explicó.
Narró que el grupo de trabajo se reunió de manera remota para la creación del concepto. Los estudiantes Ruiz Vega y Juan Torres se encargaron principalmente del diseño mecánico, mientras que el resto del equipo trabajó en el componente eléctrico. Luego, el ingeniero Rodríguez Vivaldi manufacturó las piezas. Mientras, el prototipo se ensambló en la residencia del doctor Juan García.
“El objetivo de este diseño es salvar vidas. Hemos creado un concepto que se podría manufacturar con facilidad, en el caso de que sea necesario. Como Universidad, para nosotros es muy importante poder aportar soluciones para los retos que enfrente la sociedad, en este caso, una pandemia que tristemente ha tomado muchas vidas. Reconocemos la aportación de nuestros socios estratégicos en la industria y en el sector de salud que también nos han apoyado en esta misión de contribuir en este momento de emergencia”, puntualizó el también director del Programa Graduado de Bioingeniería del RUM.
El doctor Jorge Haddock, presidente de la UPR, destacó la importancia del trabajo que se está haciendo desde la academia y la comunidad científica, identificando soluciones efectivas para hacer frente a las consecuencias del covid 19, al tiempo que se busca una solución a la pandemia.
“En el contexto histórico que atravesamos apostamos a la sinergia que genera el trabajo en equipo para servir y suplir, desde la academia, una necesidad que enfrenta Puerto Rico y el mundo. En la comunidad universitaria estamos confiados en que las capacidades, talentos, aptitudes, conocimientos y experiencia de nuestra facultad y estudiantes, en unión a la clase médica de primera que labora en Puerto Rico podremos desarrollar soluciones para mitigar necesidades particulares, como es el caso de los ventiladores. Apostamos a su trabajo e impacto global. Agradezco al doctor Juan García, a sus estudiantes, y a los aliados en este proyecto por darnos esperanzas y fomentar la innovación desde el principal centro docente de Puerto Rico”, afirmó Haddock.
Por su parte, el doctor Agustín Rullán Toro, rector del Recinto Universitario de Mayagüez, agradeció el esfuerzo del equipo liderado por el doctor Juan García. “Nos sentimos honrados porque nuestra institución alberga mentes talentosas que se han conmovido para poner sus ideas e intelecto al servicio de nuestro país. Nuestros profesores, estudiantes, egresados, y aliados del Colegio de Mayagüez han dicho presente para combatir de diferentes formas los efectos de esta pandemia. Agradecemos su gran compromiso que, una vez más, coloca a la UPR al servicio de la comunidad”, indicó Rullán Toro.
A principios de este mes, el rector anunció la creación del Centro de Respuesta Técnica e Innovación (UPRM Technical Response and Innovation Center), cuya misión es facilitar la atención y gestión administrativa, de manera expedita, de cualquier propuesta que surja en la comunidad universitaria para aportar en el manejo de la crisis de salud mundial provocada por la pandemia del coronavirus.
Fabrican cajas de desinfección y esterilización de equipo médico
En la edición del miércoles del pasado abril 22, 2020 el boletín digital de Comillas.com publicó lo siguiente con redacción de ellos mismos:
Las empresas puertorriqueñas Air Logix y Technical Industrial Sales aunaron esfuerzos para fabricar cajas con luz germicida que trabaja en un espectro electromagnético de microondas logrando desinfectar y esterilizar equipo médico.
“Las necesidades de seguridad, organización y protección de nuestros profesionales de la salud son primordial para enfrentar los grandes retos que estamos viviendo debido a la atención del covid-19, teniendo presente esto en nuestra empresa nos dimos a la tarea de diseñar y construir esta caja con emisores UVC. La caja cuenta con lámparas emisoras de rayos ultravioletas tipo C, distribuidos por la empresa Technical Industrial Sales, en una caja con gaveta, para esterilizar mascarillas y equipos médicos. Esto a su vez ayuda en bajar los gastos en compras de estos equipos que actualmente están tan escasos ante esta pandemia global”, expresó Faustino García Rivera, presidente de Air Logix.
Recientemente, el Centro para el Control y la Prevención de Enfermedades (CDC, por sus siglas en inglés) publicó una nueva guía de métodos de descontaminación para situaciones de emergencia, como la que enfrentamos actualmente con el covid-19. La radiación germicida ultravioleta es uno de los métodos presentados como aceptable. Por otra parte, el fabricante de las mascarillas N95 publicó recientemente que el vapor, el peróxido de hidrogeno en vapor y la radiación UV-C, son los tres métodos efectivos para desinfectar las mascarillas y ser reutilizables.
“Nuestro negocio es de servicio de mantenimiento preventivo e instalación de aires acondicionados comerciales e industriales. Tan pronto se anunció el toque de queda, opte por organizar todos los servicios que ya ofrecemos a nuestra plantilla de clientes y crear un programa de cuatro pasos vitales para que todos ellos puedan disfrutar de una calidad de aire limpio y libre de virus y bacterias. Por tal razón creamos la unidad de trabajo para desinfección e higienización de edificios comerciales y aires acondicionados industriales”, explicó.
Fuentes:
https://www.uprm.edu/portada/2020/04/17/ventiladordeemergenciarum/
http://sincomillas.com/desarrollan-cajas-de-desinfeccion-y-esterilizacion-de-equipo-medico/
Cómo el origami está revolucionando el diseño industrial
Si recordamos, el origami o papiroflexia es un arte que consiste en el plegado de papel sin usar tijeras ni pegamento para obtener figuras de formas variadas, muchas de las cuales podrían considerarse como esculturas de papel. En un sentido específico, el origami es un tipo de papiroflexia de origen japonés que incluye ciertas restricciones, (por ejemplo, no admite cortes en el papel y se parte desde ciertas bases) con lo que el origami es papiroflexia pero no toda la papiroflexia es origami (Wiki).
Un querido colega nos comparte el presente artículo escrito por Jim Morrison y publicado digitalmente el 23 de abril de 2019 por Smithsonian Magzine, donde se nos informa que científicos e ingenieros están encontrando aplicaciones prácticas para la forma de arte japonesa en el espacio, la medicina, la robótica, la arquitectura y más. Veamos de qué se trata….
Uno de los proyectos iniciales de origami del profesor de ingeniería de la Brigham Young University (BYU), Larry Howell, fue una matriz solar que se compactó a 2.7 metros durante el lanzamiento, pero una vez desplegada en el espacio alcanzó 25 metros de diámetro con el propósito de generar energía.
Cuando Anton Willis se mudó a su departamento de San Francisco, tuvo un problema de espacio: no había lugar para su amado kayak. Había crecido remando en el Pacífico así como en las aguas locales en el condado de Mendocino. Ir hasta el almacén donde lo guardaba y traerlo para poder navegar era un inconveniente que estaba decidido a resolver.
Se inspiró en una historia neoyorquina de 2007 sobre Robert Lang, un físico de la NASA que se había convertido en un artista de origami a tiempo completo en 2001. Lang aplicó sus antecedentes matemáticos para transportar el arte de plegarse en nuevas fronteras, creando piezas que nunca antes eran posibles. Luego comenzó a explorar posibilidades prácticas como contenedores, implantes médicos y bolsas de aire.
"Empecé a pensar en si podría doblar un kayak como una hoja de papel", dice Willis, quien recientemente completó su maestría en arquitectura de la University of California at Berkeley (UCB).
Había hecho un poco de origami cuando era niño, pero nada sofisticado. Comenzó a doblar un modelo tras otro, jugando los fines de semana. Hacer una forma de kayak fue relativamente fácil, pero resultó difícil un segundo conjunto de pliegues para transformar la única hoja de material en una caja lo suficientemente pequeña como para llevarla en una mochila de gran tamaño. Dos años más tarde ya tenía 25 diseños con los que creó un prototipo funcional que lanzó Oru Kayak, una compañía de California. Oru, donde Willis es el jefe de diseño, ahora vende cuatro modelos de kayaks plegables. Uno de ellos está incluso en el Museo de Arte Moderno de San Francisco.
Si bien pensamos en el origami como arte, las empresas e investigadores lo utilizan cada vez más en el espacio, la medicina, la robótica, la arquitectura, la seguridad pública y los militares para resolver problemas de diseño molestos, a menudo para adaptar cosas grandes en espacios pequeños. La Sociedad Estadounidense de Ingenieros Mecánicos ahora incluye origami en sus conferencias anuales. También lo ha hecho la American Mathematical Society.
En el centro de esta innovación hay un pequeño número de científicos e ingenieros que promueven las aplicaciones prácticas del arte japonés. El primero de ellos es Lang, un proselitista apasionado por el arte y la ciencia del origami. Obtuvo una licenciatura en CalTech y una maestría en la Stanford University, ambas en ingeniería eléctrica, antes de terminar su doctorado en física aplicada también en CalTech. Durante sus estudios, como una forma de relajarse, se la pasó diseñando principalmente insectos y animales: un cangrejo ermitaño, un ratón en una trampa para ratones, una hormiga. Algunos le tomaron semanas para diseñar y horas para doblar. Poco después de que comenzó a trabajar en el “Jet Propulsion Laboratory” de la NASA en 1988 (Lang ha publicado más de 80 artículos científicos y tiene 50 patentes), logró doblar un reloj “CuCu” de tamaño real.
En 2001 dejó su trabajo en la empresa de fibra óptica “JDS Uniphase” para centrarse en su arte. Escribió un documento que describe un algoritmo para el diseño de origami. Siguieron más publicaciones; ha escrito libros, caprichosos y serios, y programas de computadora con nombres como TreeMaker y Tessellatica que toman modelos simples de figuras hechas con palitos de madera para crear patrones enormes a base de pliegues. Uno de sus artículos llamó la atención de los ingenieros del Lawrence Livermore National Laboratory que estaban trabajando en una lente telescópica que necesitaban plegar para su viaje al espacio.
Ayudó a diseñar una lente prototipo del tamaño de un campo de fútbol para el Eyeglass, que se habría extendido al tamaño de Manhattan si el proyecto hubiera sido financiado. También trabajó como consultor sobre un diseño similar con el Jet Propulsion Laboratory llamado Starshade, un inmenso iris plegable que bloquearía la luz de estrellas distantes para mejorar la capacidad de un telescopio espacial.
En estos días, Lang divide su tiempo entre el arte y la consultoría en una amplia variedad de proyectos con socios corporativos y académicos. "Todo buen científico es, en parte, un artista", dice.
Los trabajos de investigación de Lang atrajeron a Larry L. Howell, profesor de ingeniería e investigador de la BYU, luego de que un estudiante de doctorado sugiriera buscar origami para crear soluciones de ingeniería. "Nos dimos cuenta de que había muchas cosas que podríamos aprender de estos artistas de origami que podrían ayudarnos a hacer ingeniería de formas que no hubiéramos descubierto utilizando nuestros enfoques tradicionales", dice.
Han colaborado en varios proyectos. Howell admite que fue cauteloso al principio, especialmente cuando solicitó fondos federales. Al respecto lo visitó un senador preguntando por qué el dinero de la investigación federal iba a origami, algo que su nieto de 10 años sabía cómo hacer. Uno de los proyectos iniciales financiados por la National Science Foundation fue el diseño de una matriz solar que se compactó a 2.7 metros durante el lanzamiento, pero se desplegó a 25 metros de ancho en el espacio para generar energía. Eso proporcionó credibilidad para el origami en el diseño de alta tecnología. Siguieron más proyectos y más trabajos de investigación.
Howell y sus estudiantes investigadores se han inmerso en el diseño de equipo para medicina, donde el uso de origami para crear dispositivos compactos es particularmente útil, sobre todo en cirugía robótica. Inventaron los oríceps, pequeños sujetadores quirúrgicos basados en una idea de origami llamada chompers. Crearon un retractor para apartar un órgano durante la cirugía robótica que puede insertarse a través de una pequeña incisión y luego desplegarse dentro del cuerpo. Intuitive Surgical, la compañía que fabrica los sistemas quirúrgicos da Vinci, autorizó sus patentes.
Después de hablar con funcionarios de la Homeland Security Agency, el equipo de Howell trabajó con Lang y diseñó un escudo de Kevlar plegable que protege a dos o tres personas. Se está negociando un acuerdo de licencia.
Consultaron con una empresa ferroviaria para diseñar carenados de origami para el frente de las locomotoras que se pliegan cuando los autos están unidos, pero se despliegan cuando están al frente, lo que los hace más aerodinámicos. Los carenados ahorran un millón de dólares al año en costos de combustible, dice Howell. Y han diseñado un pañal para adultos que se ajusta mejor con origami.
Lang dice que varios investigadores estaban haciendo un trabajo similar de forma independiente. "Aunque no lo sabía en ese momento, hubo otras personas experimentado con las matemáticas, el origami y la tecnología", dice. "Creo que no fue tanto que una persona lanzara este campo, sino que llegamos a una masa crítica de ideas y personas con antecedentes matemáticos que se involucraron y que el campo floreció".
Una especialista en robots de Harvard usó origami para diseñar un instrumento para atrapar criaturas de aguas profundas de cuerpo blando como las medusas sin dañarlas. Por otro lado, investigadores de la Oxford University desarrollaron un stent cardíaco que funciona utilizando el concepto tradicional de origami de una bomba de agua. Manan Arya, ingeniero del Jet Propulsion Laboratory, tiene el título de "origamista en jefe" y escribió su tesis doctoral sobre el uso del origami en superestructuras espaciales.
Erik Demaine, profesor de ciencias de la computación en el Massachusetts Institute of Technology (MIT) e hijo de un escultor, está siguiendo el camino de Lang, buscando arte e investigación en origami. Obtuvo una beca MacArthur "genio" por su investigación sobre plegado de materiales. "En los últimos años, ha habido mucha más interés y entusiasmo en las aplicaciones de ingeniería y ciencia del origami, que pueden crear estructuras prácticas que cambien fundamentalmente su forma", dijo a un entrevistador de PBS. "El plegado te da una manera de pensar sobre la transformación de formas".
Lang cree que el atractivo va más allá de la función. "Hay una elegancia estética en las soluciones de origami para problemas que es un poco inesperada y un poco hermosa", concluye. "Cuando ves que se despliega una estructura desplegable como una matriz solar con todos estos paneles moviéndose en diferentes direcciones y de repente se expande de una manera que no parecía posible, e inevitablemente captura la imaginación de las personas".
Vean el siguiente video sobre el tema, ¡es excelente!: https://youtu.be/fEwJ6Nn5qyo
Fuentes:
https://www.smithsonianmag.com/innovation/theres-origami-revolution-industrial-design-180972019/
Contra reloj, diseñan un ventilador simplificado para pacientes con COVID-19
Un equipo internacional de físicos de partículas ha detenido su búsqueda de materia oscura para centrarse en las necesidades de las víctimas de la pandemia mundial, en particular, su necesidad de respirar. Al respecto, un estimado colega nos envía el presente artículo escrito por Liz Fuller-Wright, publicado en el boletín electrónico de Princeton University (PU) el pasado 9 de abril de 2020. Veamos de qué se trata….
En casos graves, COVID-19 puede provocar neumonía que requiere ventilación mecánica, pero el suministro mundial de ventiladores ha demostrado ser demasiado pequeño para la demanda exponencialmente creciente.
"El sistema de salud pública en Lombardía es quizás el más fuerte en Europa, pero estaba cerca del punto de inflexión", dijo Cristian Galbiati, profesor de física en PU, quien dirigió el diseño de un ventilador mecánico simplificado que puede ser producido a gran escala utilizando componentes fácilmente disponibles.
Él y sus colaboradores, más de 250 físicos, ingenieros, médicos y otros especialistas de 12 países de todo el mundo, llaman a su dispositivo el Ventilador Mecánico Milano (MVM). Su funcionamiento requiere solo electricidad y una fuente de oxígeno comprimido (o una mezcla de oxígeno y aire lavado), y la unidad de control y monitoreo en su corazón está siendo desarrollada y programada por "los mejores diseñadores" de los laboratorios nacionales de física de partículas en los Estados Unidos, Canadá, Italia y muchas otras naciones, dijo Galbiati.
Si bien puede parecer extraño que un investigador de materia oscura se haya dedicado a la fabricación médica, tiene más sentido cuando se lo expresa de otra manera: un experto en la construcción de instrumentos sensibles para argón comprimido decidió experimentar con oxígeno y nitrógeno comprimido.
Galbiati y sus colegas en el proyecto DarkSide-20k han pasado 15 años diseñando y refinando equipos que utilizan una forma líquida altamente presurizada por argón, un gas noble, para detectar una partícula de materia oscura. Pasaron de la astrofísica a la medicina solo en las últimas semanas.
Después de que los viajes de investigación a Italia atraparon a Galbiati en ese país, le envió un mensaje de texto a un amigo cuya familia es propietaria de una importante compañía de distribución de gas para felicitar a la familia por su donación para una sala rápidamente construida para pacientes con COVID-19 en Milán. Se sorprendió al saber que la orden de la familia de ventiladores en apoyo de la sala fue cancelada. Galbiati luego habló con su hermano Filippo, un médico de la sala de emergencias en el Hospital Niguarda en Milán, cuya práctica se había restringido solo a pacientes con COVID-19. El otro Dr. Galbiati explicó al profesor de física la situación cada vez más difícil que enfrentan los médicos italianos que necesitaban tratar a pacientes con falta de oxígeno con ventiladores limitados en el pico de la epidemia local.
"Estamos haciendo muchos proyectos complejos con gases técnicos", dijo el profesor Galbiati. Quise usar mi experiencia "para encontrar la mejor manera, una forma que fuera escalable, para poner oxígeno en los pulmones de las personas cuando lo necesiten".
Galbiati contactó al mismo amigo, cuya compañía también comercializa y repara ventiladores, y obtuvo el permiso del gobierno italiano para realizar pruebas en las instalaciones de su amigo. Una vez que tuvieron un diseño, obtuvo el permiso del gobierno para construir y probar un prototipo. Luego se acercó al equipo DarkSide-20k.
"Los físicos de partículas son un grupo extraño de personas", dijo Fernando Ferroni, presidente del Instituto Nacional de Física Nuclear de Italia y uno de los principales colaboradores del MVM, así como el director de comunicación del proyecto. "Tenemos una afinidad particular por los problemas intelectuales. ¿Tenemos un problema? Tenemos que resolverlo". Además, agregó, una ventaja de una colaboración global es que siempre hay alguien despierto para que el proyecto avance las 24 horas del día.
El equipo buscó la opinión de anestesiólogos italianos. "Pasaron las últimas cuatro semanas en el frente, en primera línea, atendiendo pacientes, simplemente devastados por esto", explicó Galbiati. "Tienen una experiencia increíble. Saben exactamente lo que hay que hacer para salvar a los pacientes y ayudarlos a recuperarse".
Una característica que sugirieron los médicos es el acceso con un solo botón a los procedimientos para medir parámetros que han demostrado ser cruciales para establecer la mejor ruta de recuperación para los pacientes con COVID-19. "En la mayoría de las máquinas tradicionales, diseñadas para un uso más general, estos procedimientos requieren presionar cinco o seis o siete botones, o cambiar entre diferentes modos de operación", dijo Galbiati.
"Según lo recomendado por el Dr. [Giuseppe] Foti y el Dr. [Giacomo] Bellani del Hospital San Gerardo en Monza, estamos trabajando para implementar funciones avanzadas como la medición con un solo botón de la presión, la presión alcanzada dentro de los alvéolos en el final del ciclo inspiratorio y del 'AutoPEEP', normalmente denominado captura de aire en la fase de exhalación, que puede ser cero para la mayoría de los pacientes sanos o significativamente diferente de cero para los pacientes que tienen obstrucciones en el canal de exhalación, posiblemente generado por secreciones ", dijo.
El equipo MVM ha compartido su diseño a través de los repositorios científicos de código abierto arXiv (pronunciado "archivo") y medRχiv ("archivo med"), tanto para difundir ampliamente el diseño conceptual como para acelerar la retroalimentación de la comunidad científica y médica. En este punto, han avanzado desde la fase de diseño, a través de la fase de prototipo, y en los preparativos para la fabricación en masa. Los materiales para los primeros 1,000 MVM deben llegar en una semana. Están trabajando estrechamente con la Fuerza Aérea de los Estados Unidos, la Administración de Drogas y Alimentos de los Estados Unidos, Health Canada y las agencias reguladoras italianas para asegurar las aprobaciones.
Crear algo que se construya a partir de piezas fácilmente disponibles, que sea simple pero capaz de hacer todo lo que se necesita en la forma de un ventilador, esa era la visión original de Cristian, y creo que está funcionando muy bien", dijo Arthur McDonald, un miembro clave del equipo MVM y ganador del Premio Nobel de Física 2015. Es profesor emérito de física en la Universidad de Queen en Canadá y estuvo en la facultad de Princeton de 1982 a 1989.
McDonald dijo que los primeros ventiladores irán directamente a los hospitales italianos, seguidos en breve por los de E.E.U.U. y Canadá, pero el equipo también espera obtener fondos para construir y distribuir MVM en países que no pueden permitirse el lujo de construirlos. "Todos somos muy conscientes del hecho de que, a largo plazo, las partes menos desarrolladas del mundo serán duramente afectadas por esta epidemia, y habrá una gran necesidad en todo el mundo".
Los colaboradores de Princeton en el MVM incluyen a Peter Elmer, un físico investigador sénior; Bert Harrop, técnico superior en física y el Instituto Princeton de Ciencia y Tecnología de Materiales (PRISM); Andrea Ianni, ingeniera general de Borexino en el departamento de física de Princeton; David Lange, físico computacional; Xinran Li, un estudiante graduado de física; Daniel Marlow, profesor de Física Evans Crawford 1911 de Princeton; Javier Romualdez, investigador postdoctoral en física; Mojtaba Safabakhsh, jefe del grupo de fabricación en la infraestructura técnica y de ingeniería en el Laboratorio de Física de Plasma de Princeton; y Jeff Thompson, profesor asistente de ingeniería eléctrica, facultad asociada en PRISM.
Completan simulaciones masivas de coronavirus
La situación compleja que se ha generado debido a la pandemia del coronavirus ha puesto en marcha, como nunca, iniciativas individuales o de equipos de científicos y tecnólogos enfocadas a encontrar soluciones a los diversos problemas provocados por la enfermedad o los efectos que provoca esta situación.
Buen ejemplo es la rápida secuenciación completa del genoma del COVID-19 que realizaron científicos chinos y publicada el 11 de enero pasado. Esto es importante porque servirá de base para los métodos diagnósticos que se están utilizando en todo el mundo, también para la estrategia de diseño de nuevas vacunas, y para la evaluación de nuevos antivirales.
Por su parte, científicos mexicanos de la Universidad Nacional Autónoma de México (UNAM), del Instituto Nacional de Enfermedades Respiratorias (INER), del Instituto de Diagnóstico y Referencia Epidemiológicos, y del Instituto Nacional de Nutrición Salvador Zubirán reportan que lograron secuenciar el genoma del Covid-19 del primer paciente que llegó a México con la enfermedad. Y por supuesto, este trabajo científico se sumará a una base de datos internacional donde hasta el momento 22 países diferentes han secuenciado los genomas del virus que se está presentando en sus territorios. Esto permitirá conocer las especificidades del virus y cómo afecta la salud de las personas que lo adquieran de acuerdo con las características genéticas de la población de cada país y del virus que circule.
Otro ejemplo es un profesor de la Universidad de Sonora (Unison) que- diseñó un ventilador respiratorio, similar al que se emplea en la atención de pacientes del coronavirus COVID-19 en el mundo. El profesor indica que se han comunicado con él desde Argentina y España, para conocer el modelo del ventilador y ha compartido dicha información. Según sus propias estimaciones, una persona podría crear su propio ventilador con un costo menor a los 600 pesos. Por supuesto, el uso de estos equipos debe estar manejando por un médico.
El presente envío en particular nos lo comparte un buen amigo de la UNAM. Se trata de un artículo escrito por Jorge Salazar, publicado el 24 de marzo por el Texas Advanced Computing Center de la University of Texas at Austin y trata de un modelo informático de “todos los átomos de coronavirus” (all-atom coronavirus). Este modelo se basa en el éxito de simulaciones anteriores de todos los átomos del virus de la influenza (all-atom influenza virus). Las simulaciones de dinámica molecular para las pruebas del modelo de coronavirus se ejecutaron en hasta 4,000 nodos, o alrededor de 250,000 de los núcleos de procesamiento en la supercomputadora Frontera. El modelo completo puede ayudar a los investigadores a diseñar nuevos medicamentos y vacunas para combatir el coronavirus.
Rommie Amaro lidera los esfuerzos para construir el primer modelo completo de todos los átomos de la envoltura del coronavirus SARS-COV-2, su componente exterior. "Si tenemos un buen modelo de cómo se ve el exterior de la partícula y cómo se comporta, vamos a obtener una buena visión de los diferentes componentes que están involucrados en el reconocimiento molecular".
El reconocimiento molecular implica cómo el virus interactúa con los receptores de la enzima convertidora de angiotensina 2 (ACE2) y posiblemente otros objetivos dentro de la membrana de la célula huésped.
Amaro es profesora de química y bioquímica en la University of California at San Diego y anticipa que el modelo de coronavirus contendrá aproximadamente 200 millones de átomos, una tarea desalentadora, ya que la interacción de cada átomo entre sí debe calcularse. El flujo de trabajo de su equipo adopta un enfoque de modelado híbrido o integrador.
"Estamos tratando de combinar datos en diferentes resoluciones en un modelo cohesivo que pueda simularse en instalaciones de clase de liderazgo como las supercomputadora Frontera", dijo Amaro. "Básicamente comenzamos con los componentes individuales, donde sus estructuras se han resuelto a una resolución atómica o casi atómica. Cuidadosamente ponemos cada uno de estos componentes en funcionamiento y en un estado estable. Luego podemos introducirlos en la envoltura más grande en simulaciones con moléculas vecinas ".
Del 12 al 13 de marzo de 2020, el laboratorio de Amaro realizó simulaciones de dinámica molecular en hasta 4,000 nodos, o alrededor de 250,000 núcleos de procesamiento, en Frontera. Frontera, la supercomputadora número 5 del mundo y la supercomputadora académica número 1 según la clasificación de noviembre de 2019 de la organización Top500. Es el sistema informático de alto rendimiento de clase líder respaldado por la National Science Foundation.
"Las simulaciones de ese tamaño solo se pueden ejecutar en una máquina como Frontera o quizá en una máquina del Departamento de Energía de EUA", dijo Amaro. "Inmediatamente contactamos con el equipo de Frontera, y ellos han sido muy amables al darnos el estado de prioridad para la evaluación comparativa y tratar de optimizar el código para que estas simulaciones puedan ejecutarse de la manera más eficiente posible, una vez que el sistema esté realmente en funcionamiento".
"Por supuesto que es emocionante trabajar en una de estas máquinas nuevas. Nuestra experiencia hasta ahora ha sido muy buena. Los puntos de referencia iniciales han sido realmente impresionantes para este sistema. Continuaremos optimizando los códigos para estos sistemas ultra grandes para que podamos obtener un rendimiento aún mejor. Diría que trabajar con el equipo de Frontera también ha sido fantástico. Están listos para ayudar y han sido extremadamente receptivos durante este período de tiempo crítico. Ha sido una experiencia muy positiva", dijo Amaro.
"TACC se enorgullece de apoyar esta investigación crítica e innovadora", dijo Dan Stanzione, Director Ejecutivo de TACC e investigador principal del proyecto de supercomputadora Frontera. "Continuaremos apoyando las simulaciones de Amaro y otros trabajos importantes relacionados con la comprensión y la búsqueda de una forma de vencer esta nueva amenaza".
El trabajo de Amaro con el coronavirus se basa en su éxito con una simulación de todos los átomos de la envoltura del virus de la gripe, publicada en ACS Central Science, en febrero de 2020. Ella dijo que el trabajo de la gripe tendrá una notable cantidad de similitudes con lo que ahora están buscando con el coronavirus.
"Es una prueba brillante de nuestros métodos y nuestras capacidades para adaptarnos a nuevos datos y ponerlos en marcha de inmediato", dijo Amaro. "Nos llevó un año o más construir el sobre viral de la influenza y ponerlo en funcionamiento en las supercomputadoras nacionales. Para la influenza, utilizamos la supercomputadora Blue Waters, que en cierto modo fue la predecesora de Frontera. El trabajo, sin embargo, con el coronavirus obviamente está avanzando a un ritmo mucho, mucho más rápido. Esto está habilitado, en parte debido al trabajo que hicimos en Blue Waters anteriormente ".
Amaro concluyó: "Estas simulaciones nos darán nuevas ideas sobre las diferentes partes del coronavirus que se requieren para la infectividad. Y por eso nuestra preocupación es si podemos entender estas características diferentes, entonces los científicos tendrán una mejor oportunidad de diseñar nuevos medicamentos; para comprender cómo funcionan los medicamentos actuales y las posibles combinaciones de medicamentos. La información que obtendremos de estas simulaciones es multifacética y multidimensional y será de utilidad para los científicos en primera línea de inmediato y también a largo plazo. Esperemos que el público entienda que hay muchos componentes y facetas diferentes de la ciencia para avanzar en la comprensión de este virus. Estas simulaciones en Frontera son sólo uno de esos componentes, pero con suerte uno importante y provechoso ".
Fuentes:
https://www.tacc.utexas.edu/-/coronavirus-massive-simulations-completed-on-frontera-supercomputer
Diversidad humana
Los genomas humanos globales revelan una rica diversidad genética conformada por una compleja historia evolutiva.
El presente artículo, que nos comparte un queridísimo colega, se publicó en el boletín de noticias del Wellcome Trust Sanger Instituten (WTSI) de la University of Cambridge (UC) el 19 de marzo de 2020. Veamos de quÉ trata…
Un nuevo estudio ha proporcionado el análisis más completo de la diversidad genética humana hasta la fecha, después de la secuenciación de 929 genomas humanos por científicos del WTSI de la UC y sus colaboradores. El estudio revela una gran cantidad de variaciones genéticas no descritas anteriormente y proporciona nuevos conocimientos sobre nuestro pasado evolutivo, destacando la complejidad del proceso a través del cual nuestros antepasados se diversificaron, migraron y se mezclaron en todo el mundo.
El artículo científico, publicado en Science (20 de marzo de 2020), es la representación más detallada de la diversidad genética de las poblaciones mundiales hasta la fecha. Está disponible gratuitamente para todos los investigadores para estudiar la diversidad genética humana, incluidos los estudios de susceptibilidad genética a las enfermedades en diferentes partes del mundo.
La visión consensuada de la historia humana nos dice que los antepasados de los humanos de hoy en día se separaron de los antepasados de grupos extintos de neandertales y denisovanos hace unos 500,000-700,000 años, antes de la aparición de humanos 'modernos' en África en los últimos cientos de miles de años.
Hace unos 50,000-70,000 años, algunos humanos se expandieron fuera de África y poco después se mezclaron con grupos arcaicos de Eurasia. Después de eso, las poblaciones crecieron rápidamente, con una extensa migración y mezcla, ya que muchos grupos hicieron la transición de cazadores-recolectores a productores de alimentos en los últimos 10,000 años.
Este estudio es el primero en aplicar la última tecnología de secuenciación de alta calidad a un conjunto tan grande y diverso de humanos, cubriendo 929 genomas de 54 poblaciones geográficamente, lingüísticamente y culturalmente diversas de todo el mundo. La secuenciación y el análisis de estos genomas, que forman parte del panel del Proyecto de Diversidad del Genoma Humano (HGDP) - CEPH, ahora proporciona detalles sin precedentes de nuestra historia genética.
El equipo encontró millones de variaciones de ADN previamente desconocidas que son exclusivas de una región geográfica continental o principal. Aunque la mayoría de estos eran raros, incluían variaciones comunes en ciertas poblaciones africanas y oceánicas que no habían sido identificadas por estudios previos.
Variaciones como estas pueden influir en la susceptibilidad de las diferentes poblaciones a la enfermedad. Sin embargo, los estudios de genética médica hasta ahora se han realizado predominantemente en poblaciones de ascendencia europea, lo que significa que no se conocen las implicaciones médicas que estas variantes podrían tener. La identificación de estas variantes novedosas representa un primer paso para expandir completamente el estudio de la genómica a poblaciones subrepresentadas.
Sin embargo, no se encontró ninguna variación de ADN en el 100 por ciento de los genomas de ninguna región geográfica importante, mientras que estaba ausente de todas las demás regiones. Este hallazgo subraya que la mayoría de la variación genética común se encuentra en todo el mundo.
El Dr. Anders Bergström, del Instituto Francis Crick y ex alumno del WTSI, dijo: "El detalle proporcionado por este estudio nos permite profundizar en la historia humana, particularmente en África, donde actualmente se sabe menos sobre la escala de tiempo de la evolución de los humano. Encontramos que los ancestros de las poblaciones actuales se diversificaron a través de un proceso gradual y complejo principalmente durante los últimos 250,000 años, con grandes cantidades de flujo de genes entre estos linajes tempranos. Pero también vemos evidencia de que pequeñas partes de ancestros humanos se remontan a grupos que se diversificaron mucho antes que esto".
Hélène Blanché, directora del “Biological Resource Centre” del Centre d'Etude du Polymorphisme Humain (CEPH) en París, Francia, dijo: "Los resultados del Proyecto de Diversidad del Genoma Humano ha facilitado muchos descubrimientos nuevos sobre la historia humana en las últimas dos décadas. Es emocionante ver que con la última tecnología de secuenciación genómica, estos genomas continuarán ayudándonos a comprender nuestra especie y cómo hemos evolucionado".
El estudio también proporciona evidencia de que la ascendencia neandertal de los humanos modernos puede explicarse por un solo “evento de mezcla '' importante, que probablemente involucre a varios individuos neandertales que entran en contacto con humanos modernos poco después de que este último se haya expandido fuera de África.
En contraste, se identificaron varios conjuntos diferentes de segmentos de ADN heredados de denisovanos en personas de Oceanía y Asia Oriental, lo que sugiere al menos dos eventos de mezcla distintos.
El descubrimiento de pequeñas cantidades de ADN neandertal en personas de África occidental, que probablemente reflejen un posterior flujo genético hacia África desde Eurasia, resalta aún más cómo la historia genética humana se caracteriza por múltiples capas de complejidad. Hasta hace poco, se pensaba que solo las personas fuera del África subsahariana tenían ADN de neandertal.
El Dr. Chris Tyler-Smith, recientemente retirado del Instituto Wellcome Sanger, dijo: "Aunque este recurso es solo el comienzo de muchas vías de investigación, ya podemos vislumbrar varias ideas tentadoras sobre la historia humana. Será particularmente importante para una mejor comprensión (de la) evolución humana en África, así como (para) facilitar la investigación médica para la diversidad completa de los ancestros humanos".
Fuente: https://www.sanger.ac.uk/news/view/global-human-genomes-reveal-rich-genetic-diversity-shaped-complex-evolutionary-history
Las huellas que dejaron los dinosaurios en Escocia revelan un próspero ecosistema jurásico medio
Durante el período Jurásico Medio, la Isla de Skye en Escocia fue el hogar de una próspera comunidad de dinosaurios que deambularon por la antigua costa, según información enviada por un estimado colega sobre un estudio publicado el 11 de marzo de 2020 en la revista de acceso abierto PLOS ONE en un artículo escrito por Paige dePolo, Stephen Brusatte y otros colegas, todos investigadores de la Universidad de Edimburgo, Escocia.
El Período Jurásico Medio es un momento de gran diversificación evolutiva en muchos grupos de dinosaurios, pero los fósiles de dinosaurios de este período son generalmente raros. La isla de Skye en Escocia es una excepción, ya que nos proporciona fósiles corporales y traza de diversos ecosistemas del Jurásico Medio, y sirve como un lugar valioso para la ciencia paleontológica y el turismo.
En ese documento, dePolo y sus colegas describen dos sitios fósiles recientemente descubiertos que conservan alrededor de 50 huellas de dinosaurios en antiguos pantanos costeros.
Estos incluyen el primer registro en la Isla de Skye de un tipo de huella llamado Deltapodus, probablemente creado por un dinosaurio estegosaurio (con placa).
Estas son las huellas más antiguas de Deltapodus conocidas, y la primera evidencia sólida de que los dinosaurios estegosaurios eran parte de la fauna del Jurásico Medio de la isla.
Además, las huellas de tres dedos representan múltiples tamaños de terópodos carnívoros tempranos y una serie de otras huellas grandes se identifican provisionalmente como algunas de las pruebas más antiguas de dinosaurios ornitópodos herbívoros de gran calado.
A fin de cuentas, estos dos sitios amplían la diversidad conocida de lo que aparentemente era un ecosistema próspero de dinosaurios del Jurásico Medio en Escocia, incluyendo al menos un tipo de dinosaurio (estegosaurios) no conocido previamente en la región. Estos hallazgos reflejan la importancia de las huellas como fuente de información complementaria a los fósiles corporales.
Además, los autores enfatizan la importancia de volver a visitar sitios previamente explorados; estos nuevos sitios se encontraron en un área que durante mucho tiempo ha sido popular para la prospección de fósiles, pero las rutas fueron reveladas recientemente por la actividad de la tormenta.
El autor principal, dePolo, dice: "Estos nuevos sitios de pistas nos ayudan a tener una mejor idea de la variedad de dinosaurios que vivieron cerca de la costa de Skye durante el Jurásico Medio que lo que podemos obtener del registro fósil del cuerpo de la isla. En particular, las pistas de Deltapodus dan buena evidencia de que los estegosaurios vivían en Skye en este momento".
El autor Brusatte agrega: "Estas nuevas pistas nos dan una imagen mucho más clara de los dinosaurios que vivieron en Escocia hace 170 millones de años. Sabíamos que había saurópodos gigantes de cuello largo y carnívoros del tamaño de un jeep, pero ahora podemos agregar estegosaurios con respaldo de placa a esa lista, y tal vez incluso primos primitivos de los dinosaurios con pico de pato también. Estos descubrimientos están haciendo de Skye uno de los mejores lugares del mundo para comprender la evolución de los dinosaurios en el Jurásico Medio.".
Fuente: https://phys.org/news/2020-03-dinosaur-stomping-ground-scotland-reveals.html
El puente desplegable
Nuevamente la ingeniería civil se hace presente en este espacio con material enviado por un estimado colega, cuyo contenido fue publicado en la página web de la Technischen Universität Wien (TU Wien) el 27 de febrero de 2020, en un artículo escrito por Florian Aigner. Veamos de qué se trata…
Existen muchos métodos diferentes para levantar puentes, pero la nueva técnica desarrollada por TU Wien, el método de descenso equilibrado, es bastante espectacular: el puente no se construye horizontalmente, como sería el caso, sino que se levanta en posición vertical y luego se gira a la posición horizontal. Las primeras pruebas a gran escala se llevaron a cabo en 2010; Desde entonces, el método ha sido refinado y ajustado hasta que finalmente encontró su primera aplicación por parte de ASFINAG, empresa pública austriaca, para la construcción de dos puentes de la autopista S7 de Fürstenfeld. Una vez que se concluyó exitosamente el proceso del Puente Lahnbach, el puente de 116 m de largo sobre el río Lafnitz se "desplegó" el 27 de febrero de 2020. Sin necesidad de andamios, este nuevo método de construcción del puente no solo ahorra tiempo sino también dinero y recursos.
El principio general
"Dependiendo del tamaño y la ubicación, hoy en día se utilizan una variedad de técnicas en construcción de puentes", explica el profesor Johann Kollegger, del Instituto de Ingeniería Estructural de TU Wien. Si el puente no está demasiado elevado desde el suelo, puede erigirse usando andamios. Otra técnica es erigir el muelle del puente y trabajar desde allí de manera equilibrada con precisión en ambas direcciones. A veces se construyen vigas de acero y luego se empujan hacia adelante poco a poco en posición horizontal hasta que se completa el tramo.
El método de montaje desarrollado por Johann Kollegger se basa en un principio completamente diferente: las vigas se montan en posición vertical a ambos lados de un muelle de hormigón y luego se despliegan, como un paraguas. "Las dos vigas están conectadas entre sí en la parte superior, directamente sobre el muelle", explica Johann Kollegger. "Con los sistemas hidráulicos, esta unión se baja lentamente y las vigas se despliegan a ambos lados".
Las vigas en sí consisten en elementos prefabricados de paredes delgadas con refuerzo de acero y están inicialmente huecas. Una vez que han alcanzado la posición horizontal final, se rellenan de concreto. "Erigir puentes usando andamios generalmente lleva meses. Los elementos para el método de descenso equilibrado, por otro lado, se pueden configurar en dos o tres días, y el proceso de descenso tarda alrededor de tres horas", dice Johann Kollegger.
El nuevo método de construcción de puentes no solo ahorra tiempo sino también dinero, y la durabilidad del puente es la misma, si no mejor, que la de los puentes construidos utilizando otros métodos, como subraya Kollegger. El método de descenso equilibrado (o método de elevación cuando se construyen puentes con pilares altos) es particularmente ventajoso para la construcción de puentes en terrenos difíciles o terrenos que no deben ser perturbados, por ejemplo, una reserva natural, como fue el caso del Puente Lafnitz que está ahora en el proceso de erección.
ASFINAG y TU Wien: audacia para innovar
ASFINAG está construyendo actualmente la nueva autopista S7, que pasará Fürstenfeld sobre los ríos Lahnbach y Lafnitz. "ASFINAG otorga gran importancia a la más alta calidad y siempre es muy importante para nosotros construir lo más ecológicamente posible", dice Bernhard Streit, gerente de proyectos de ASFINAG. "Con este innovador método de construcción, pudimos cumplir con nuestros dos requisitos para esta área sensible. Por lo tanto, estamos muy contentos con la exitosa cooperación con TU Wien", explica Bernhard Streit.
El puente que cruza el Lahnbach se erigió en varias fases entre octubre de 2019 y enero de 2020.
El primer proceso de descenso del puente algo más largo sobre Lafnitz tuvo lugar el 27 de febrero de 2020.
"Este es un gran éxito para nosotros, y estamos muy orgullosos y satisfechos de que ASFINAG esté asumiendo un papel pionero global aquí", dice Johann Kollegger. Él ha estado trabajando en el nuevo método de construcción de puentes durante años: la idea fue patentada en 2006, en 2010 las primeras pruebas a gran escala fueron realizadas por TU Wien. Muchas preguntas sobre el diseño de detalles tuvieron que resolverse a lo largo de los años, desde las juntas de metal, que tienen que soportar las fuerzas durante el proceso de descenso, hasta la grúa hidráulica, que son necesarios para el descenso gradual de toda la construcción.
"Ahora que hemos demostrado que el método está bien diseñado y funciona perfectamente", dice Kollegger, "esperamos que prevalezca y que pronto se convierta en uno de los métodos comunes de construcción de puentes que se utilizan en todo el mundo y que la autopista S7 se convertirá en un pionero internacional ".
Datos técnicos
Las vigas rotadas de ambos puentes tenían 36 metros de longitud, lo que da como resultado un longitud de 72 metros después de bajar o desplegarse. Cada viga pesaba aproximadamente 54 toneladas. Una vez desplegados, los espacios entre el puente desplegado y los pilares se extendieron utilizando vigas suspendidas, lo que resultó en una longitud total de aproximadamente 100 metros en el caso del puente de Lahnbach y 116 metros en el caso del puente de Lafnitz. Para cada uno de los dos puentes, cuatro de estos procesos de descenso se llevaron a cabo uno al lado del otro para obtener el ancho necesario para la calzada de la autopista.
Fuente:
https://www.tuwien.at/tu-wien/aktuelles/news/news/die-bruecke-zum-aufklappen/
Rompiendo la resistencia a los antibióticos
En 2017, la Office for National Statistics de Estados Unidos declaró que la resistencia a los antibióticos ha causado una caída en la esperanza de vida por primera vez. Si nada cambia, para 2050, las infecciones y enfermedades que anteriormente habrían sido curables con antibióticos matarán a más personas en todo el mundo que el cáncer.
Una estimada amiga, ingeniera bioquímica, nos envía el presente artículo publicado el 20 de marzo de 2018 en la página Web de la University of Southmpton (US) donde se comenta como esta universidad está tratando de resolver este complejo problema utilizando supercomputadoras y simulaciones para encontrar soluciones y combatir las infecciones.
Las bacterias se están volviendo resistentes al tratamiento con antibióticos gracias a su uso excesivo a escala mundial. Tomar estos medicamentos indiscriminadamente para tratar infecciones no graves, así como un uso excesivo en la agricultura, ha dado como resultado que las bacterias ahora están aprendiendo nuevas formas de defenderse, y nos enfrentamos a una grave amenaza de infecciones que gradualmente se vuelven más difíciles de tratar, como neumonía y tuberculosis.
La Dra. Syma Khalid, profesora de biofísica computacional de la US, explica que las bacterias han evolucionado para protegerse contra las medicinas que hemos utilizado para tratar a nuestras infecciones. “La idea errónea que tiene la gente es que somos nosotros los que nos hacemos resistentes; pero no son las personas, son las bacterias”, dice ella. “La resistencia que estamos viendo es un mecanismo de supervivencia. Es sólo evolución, pero suceden en una escala de tiempo mucho más rápida debido a su corta vida útil. Siempre van a estar un paso adelante, y ahora estas bacterias están luchando contra los antibióticos. “Es como si hubieran desarrollado una nueva armadura más fuerte y necesitamos nuevas armas ahora”, comenta la doctora Khalid.
Cerrar la brecha entre la informática y la ciencias biológicas
Estamos viendo un número creciente de campañas de marketing diseñadas para crear conciencia sobre el problema y alentar un cambio en los hábitos, con el objetivo de prevenir el uso excesivo de antibióticos y su prescripción innecesaria. Los investigadores de la US están trabajando en muchas formas diferentes e interesantes de combatir la resistencia a los antibióticos desde la raíz del problema.
Syma y su equipo son uno de estos grupos, que combinan gráficos y codificación en computadoras con biología y química a través de la química computacional para profundizar en la estructura y los procesos dentro de las bacterias.
Los métodos de química computacional utilizan la simulación por computadora junto con la química teórica para resolver problemas, predecir resultados y complementar los experimentos que tienen lugar en los laboratorios. El uso de estos métodos, que son populares en el mundo del diseño de fármacos, permite a los investigadores realizar experimentos que de otro modo serían difíciles en un entorno seguro, y pueden usarse para explicar y explorar aún más la química nueva y desconocida.
Syma y su grupo de investigación crean modelos informáticos precisos de moléculas y sistemas biofísicos para comprender mejor cómo funcionan. En el mundo de la resistencia a los antibióticos, por ejemplo, pueden usar computadoras para examinar exactamente cómo las bacterias repelen o destruyen los antibióticos, y cómo podríamos abordar esto para crear nuevos medicamentos exitosos.
Trabajar fuera del laboratorio de esta manera novedosa les da a los científicos la capacidad de estudiar más de cerca cómo la mecánica de las moléculas, como las que se encuentran dentro de las bacterias, funciona mediante la creación de simulaciones computarizadas de las bacterias y la prueba de hipótesis y conceptos.
"La química computacional le permite ver cosas que de otro modo no podría ver de otra manera", dice Syma. "Es por eso que algunas personas han comenzado a llamarlo ‘el microscopio computacional’, que me gusta bastante. Te permite acercar y ver las cosas más claramente".
Romper las defensas
Los antibióticos pueden funcionar de una de dos maneras; ya sea destruyendo la membrana de la bacteria, que posteriormente destruye la célula, o atravesando la membrana y atacando a las proteínas desde el interior.
El trabajo del equipo es utilizar simulaciones y modelos desarrollados a partir del examen estructural de estas células para evaluar dónde se enfrentan los antibióticos a los problemas y cómo exactamente las bacterias están luchando.
"Puedes pensarlo así: la membrana de la bacteria es un fuerte, o los muros del castillo. Puedes destruir el castillo haciendo un agujero masivo en esa pared o entrando sin ser visto y derrotando al enemigo desde adentro”, explica Syma.
Las bacterias saben qué esperar de nuestros antibióticos y pueden protegerse más fácilmente. Esto puede ser de varias maneras; expulsando antibióticos a través de "bombas", cambiando las características de sus membranas para protegerse, o sobreexpresando proteínas que pueden dificultar el paso de los antibióticos y destruir la célula.
Los químicos computacionales trabajan con otros expertos y grupos en un proceso iterativo para informar el desarrollo de nuevos antibióticos y opciones alternativas. Al colaborar con equipos de biólogos estructurales, informáticos, matemáticos y bioquímicos, pueden mejorar la precisión de sus simulaciones, informar experimentos, predecir resultados y proporcionar información sobre los desafíos que enfrentan los científicos que desarrollan antibióticos nuevos y alternativos.
"Es muy sinérgico. Cada proyecto en mi grupo también involucra un grupo experimental. Realmente no creo en hacer cálculos de forma aislada ", dice Syma.
“Tiene que haber algo de ancla en la realidad y algo de retroalimentación. Realizas una simulación e informas a otros equipos y los ayudas a informar sobre sus próximos experimentos; Realmente es mutuamente beneficioso”.
Impacto internacional
La resistencia a los antibióticos es un desafío a escala mundial, por lo que la investigación para combatir el problema se está llevando a cabo a nivel internacional. Syma y su equipo están trabajando con colegas de todo el mundo, incluidos Estados Unidos, los Países Bajos, Canadá y Australia.
Sus colaboraciones internacionales también llegan a la India, donde la resistencia a los antibióticos es un problema importante. El consumo de antibióticos en la India está asociado con malentendidos y uso innecesario; En una encuesta de la Organización Mundial de la Salud (OMS) en 2015, el 75 por ciento de los encuestados en India pensaba incorrectamente que los antibióticos podrían usarse para tratar los resfriados y la gripe. Sin embargo, un reciente viaje al país descubrió algunos resultados interesantes que podrían conducir a grandes avances.
"Hay científicos en India que han descubierto compuestos naturales y novedosos de plantas que no se pueden encontrar en el Reino Unido. Piensan que estos compuestos pueden usarse como antibióticos. Es mi trabajo completar algunas simulaciones para ellos y ver cómo se comportan en nuestras membranas modelo.
“Planeamos completar este trabajo con Public Health England, junto con nuestras conexiones con otras instituciones del Reino Unido y socios en India. Es muy emocionante ", dijo la Dra. Khalid.
Aprovechando la supercomputadora
Las simulaciones por computadora en esta escala no serían posibles sin la tecnología adecuada. Gracias a las instalaciones en Southampton, Syma y su equipo tienen una ventaja en el mundo de la química computacional. “Nuestras instalaciones de súper-cómputo, Iridis, es uno de los principales sitios de supercomputación en el Reino Unido”, cuyo acceso le da a Syma y su equipo una ventaja en su investigación.
"Sin estas instalaciones, no podríamos hacer lo que hacemos. Es una razón importante por la que estoy aquí ", dice ella.
"Por lo general, los cálculos que hacemos en mi grupo de investigación son a gran escala, lo cual no es la norma en química computacional, pero es posible al estar en Southampton. Las cosas que me llevan unas pocas semanas llevarán a colegas de otras universidades, tal vez meses, así que tenemos una ventaja real ”.
El uso de esta tecnología significa que los químicos computacionales como Syma juegan un papel clave en revelar más sobre la resistencia a los antibióticos y en descubrir soluciones.
"Si vamos a diseñar nuevos antibióticos, en lugar de tomar inyecciones en la oscuridad o realizar cambios aleatorios en las moléculas de manera racional, necesitamos saber a qué apuntamos".
"Necesitamos encontrar no solo nuevos antibióticos, sino nuevas estrategias"
Fuente:
https://www.southampton.ac.uk/news/2018/03/breaking-down-antibiotic-resistance.page
Investigadores usan chapulines para detectar vapores químicos explosivos
Era el año 2016 cunado los periódicos y la prensa especializada lanzaron grandes titulares dando a conocer algo denominando “Insectos Cyborg”, resultado de una nueva rama de la tecnología llamada biorrobótica. Relativo a este campo, un estimado colega, ingeniero mecatrónico, nos comparte un artículo escrito por Nancy Cohen y publicado en el boletín digital de Tech Xplore el 18 de febrero, donde se informa que la Washington University (WU) en St. Louis ha sido noticia por sus esfuerzos de investigación utilizando los insectos cyborg como máquinas de detección biorrobóticas. En otras palabras, estos ingenieros universitarios querían ver si podían aprovechar el sentido del olfato en los chapulines (también conocidos como saltamontes o langostas) para detectar explosivos y que podrían ser utilizados por áreas como la de seguridad nacional.
Barani Raman, profesor asociado de ingeniería biomédica de la WU, y su equipo han estado estudiando cómo se reciben y procesan las señales sensoriales en los cerebros de los saltamontes. El procesamiento olfativo fundamental en los chapulines fueron su centro de atención; Raman se enfocó en identificar cómo se reciben y procesan las señales sensoriales en sus cerebros relativamente simples, y con este conocimiento, su equipo diseñó un cyborg olfativo .
Dando un avance rápido pasamos de 2016 al pasado lunes 17 de febrero cuando la revista New Scientist informa que los chapulines cyborg han sido diseñados para olfatear explosivos.
¿Cómo funciona el sistema? Los chapulines detectores de bombas están equipados con mochilas. Están diseñados para transmitir datos para identificar productos químicos explosivos. Las señales se transmiten de forma inalámbrica a una computadora desde sus mochilas.
Una vez más, fue el profesor Raman y sus colegas de la WU en St. Louis quienes destacaron esta vez por haber aprovechado "los sentidos olfativos del “Schistocerca americana”, para crear rastreadores de bombas, uniendo sensores de un saltamontes con la electrónica", informó Donna Lu en New Scientist, donde escribe que estas pequeñas mochilas de sensores livianos instalados en los saltamontes "pudieron grabar y transmitir de forma inalámbrica la actividad eléctrica casi instantáneamente a una computadora".
¿Qué le da a los insectos una ventaja especial en la detección de sistemas peligrosos?
Ver video relativo al artículo: https://youtu.be/mpz9Nq-Ud8c
En el New Scientist se describe: En los insectos, las neuronas receptoras olfativas en sus antenas detectan olores químicos en el aire. A su vez, estas neuronas envían señales eléctricas a una parte del cerebro del insecto conocida como lóbulo antenal. Cada antena del chapulín tiene aproximadamente 50,000 de estas neuronas.
Para probar la capacidad de detección de bombas, el equipo expuso vapores de diferentes materiales explosivos a las antenas de saltamontes, incluidos los vapores de trinitrotolueno (TNT) y su precursor 2.4-dinitrotolueno (DNT). Como controles, utilizaron no explosivos como aire caliente y benzaldehído, el componente principal en el aceite de almendras amargas.
El último paso fue equipar a los chapulines con una 'mochila' que contenía sensores que registrarían y transmitirían su actividad neuronal en tiempo real a una computadora, donde sería interpretada.
Al implantar electrodos en los lóbulos antenales de los chapulines, los investigadores descubrieron que diferentes grupos de neuronas se activaban tras la exposición a los explosivos. Analizaron las señales eléctricas y pudieron distinguir los vapores explosivos de los no explosivos, así como entre sí.
¿Cuáles fueron los resultados de la prueba?
Las grabaciones de la actividad neuronal de siete chapulines fueron precisas en un 80 por ciento.
"Los cerebros de los saltamontes continuaron detectando explosivos con éxito hasta siete horas después de que los investigadores implantaron los electrodos, antes de que se fatigaran y finalmente murieran", dijo Lu.
No solo eso, sino también en forma impresionante: "Los saltamontes pudieron detectar dónde estaba la mayor concentración de explosivos cuando el equipo trasladó la plataforma a diferentes lugares", dijo el “New Scientist.”
El documento " Explosive sensing with insect-based biorobots" está en el servidor de preimpresión “bioRxiv”. Los autores declaran allí: "demostramos un enfoque de detección química bio-robótica donde las señales del cerebro de un insecto se utilizan directamente para detectar y distinguir varios vapores químicos explosivos".
Finalmente en su artículo comentaron que creían que su enfoque no era tan diferente del enfoque de 'canario en una mina de carbón', "donde la viabilidad de todo el organismo se usa como un indicador de ausencia / presencia de gases tóxicos".
Fuentes:
https://techxplore.com/news/2020-02-grasshoppers-explosive-chemical-vapors
Investigadores prueban con éxito un parche inteligente de insulina del tamaño de una moneda
La diabetes se reconoció por primera vez alrededor del 1500 a. C. por los antiguos egipcios, quienes observaron a personas que orinaban mucho y perdían peso. En el papiro de Ebers descubierto en Egipto se describen los síntomas y el tratamiento que se les proporcionaba: una dieta de cuatro días que incluía decocción de huesos, trigo, granos, arena, plomo verde y tierra (o bien: agua de charco de pájaro, bayas de sauco, leche fresca, cerveza, flores de pepino, y dátiles verdes).
Fue Areteo de Capadocia, médico griego, quien, entre los años 80 y 138, le dio a esta afección el nombre de diabetes, que significa en griego correr a través de, refiriéndose al signo más llamativo, que es la eliminación exagerada de agua, que atribuyó a una falla en los riñones, expresando que el agua entraba y salía del organismo del diabético sin fijarse en él. Creía que el origen de la enfermedad, «fría y húmeda», radicaba en una fusión entre la carne y los músculos que se transformaban en orina.
Actualmente ya todos sabemos que la diabetes es un conjunto de trastornos metabólicos, cuya característica común principal es la presencia de concentraciones elevadas de glucosa en la sangre de manera persistente o crónica, esto se debe ya sea a un defecto en la producción de insulina, a una resistencia a la acción de ella para utilizar la glucosa, a un aumento en la producción de glucosa o a una combinación de estas causas. También se acompaña de anormalidades en el metabolismo de los lípidos, proteínas, sales minerales y electrolitos.
En un principio se pensaba que el factor que predisponía para la enfermedad era un consumo alto de hidratos de carbono de rápida absorción. Pero después se vio que no había un aumento de las probabilidades de contraer diabetes respecto al consumo de hidratos de carbono de asimilación lenta. En 1997, después de dos años de revisión entre expertos de la OMS y la Asociación Americana de Diabetes (ADA), se dio a conocer una nueva clasificación: Diabetes tipo 1, tipo 2, diabetes gestacional y otros tipos específicos. La diabetes tipo 1 ocurre cuando el cuerpo de una persona no produce insulina de forma natural. La diabetes tipo 2 ocurre cuando el cuerpo no usa eficientemente la insulina que se produce. Una revisión de 2018 concluye que uno de los principales factores de riesgo para desarrollar tanto la diabetes tipo 1 como la diabetes tipo 2 es el consumo de gluten, presente en el trigo, el centeno, la cebada y la avena. El gluten provoca un aumento de la permeabilidad intestinal, independientemente de la predisposición genética, es decir, tanto en celíacos (persona que no tolera el glúten) como en no celíacos.
Ya sea por herencia o por una alimentación desbalanceada, cada vez hay más personas con diabetes, incluyendo queridos familiares y amigos. De hecho, en el año 2000 se estimó que alrededor de 171 millones de personas en el mundo eran diabéticas y que llegarán a 370 millones en 2030. Este padecimiento causa diversas complicaciones y daña frecuentemente a los ojos, riñones, nervios y vasos sanguíneos. Sus complicaciones agudas (hipoglucemia, cetoacidosis, coma hiperosmolar no cetósico) son consecuencia de un control inadecuado de la enfermedad, mientras sus complicaciones crónicas (cardiovasculares, nefropatías, retinopatías, neuropatías y daños microvasculares) son consecuencia del progreso de la enfermedad. Según datos de la OMS, es una de las 10 principales causas de muerte en el mundo.
La insulina es una hormona producida naturalmente en el páncreas que ayuda al cuerpo a regular la glucosa, que proviene del consumo de alimentos y proporciona energía al cuerpo. La insulina es la clave molecular que ayuda a mover la glucosa del torrente sanguíneo a las células para obtener energía y almacenamiento.
El tratamiento para la enfermedad no ha cambiado mucho en décadas en la mayor parte del mundo. Los pacientes con diabetes extraen sangre con un dispositivo que mide los niveles de glucosa. Tanto para la diabetes tipo 1, para la tipo 2, como para la gestacional, el tratamiento se enfoca en restaurar los niveles glucémicos normales. Por ello los enfermos se deben administran una dosis necesaria de insulina.
De hecho, en la diabetes tipo 1 y en la diabetes gestacional se aplica un tratamiento sustitutivo de insulina o análogos de la insulina. En la diabetes tipo 2 puede aplicarse un tratamiento sustitutivo de insulina o análogos, o bien, un tratamiento con antidiabéticos orales. En cualquier caso, se prescribe una dosis regular de insulina para controlar la enfermedad, que afecta a millones de personas en todo el mundo.
La insulina puede inyectarse con una aguja y una jeringa, un dispositivo similar a un bolígrafo, o administrarse mediante una bomba de insulina, que es un instrumento portátil del tamaño de un teléfono celular conectado al cuerpo a través de un tubo con una aguja en el extremo.
Un estimado amigo, ingeniero biomédico, nos comparte el presente artículo publicado por la Sala Digital de Noticias de la School of Engineering Samueli de la University of California at Los Angeles (UCLA) el pasado 4 de febrero, donde nos comentan que bioingenieros de la UCLA en conjunto con colegas de la Facultad de Medicina de la University of North California (UNC) y del Massachusetts Institute of Technology (MIT) han desarrollado un parche inteligente para administración de insulina que algún día podría monitorear y controlar los niveles de glucosa en personas con diabetes y administrar la dosis de insulina necesaria. El parche adhesivo, aproximadamente del tamaño de una moneda, es fácil de fabricar y está diseñado para usarse una vez al día.
El estudio, publicado en Nature Biomedical Engineering, describe la investigación realizada en ratones y cerdos. El equipo de investigación, dirigido por Zhen Gu, Ph.D., profesor de bioingeniería en la School of Engineering Samueli de la UCLA, está solicitando la aprobación de la FDA para realizar pruebas clínicas en humanos. Gu y sus colegas realizaron las pruebas iniciales exitosas del parche de insulina inteligente en ratones en 2015 en Carolina del Norte.
"Nuestro principal objetivo es mejorar la salud y la calidad de vida de las personas con diabetes", dijo Gu, ex profesor del Departamento Conjunto de Ingeniería Biomédica de la UNC / NCSU. “Por ello un parche de insulina inteligente detectaría la necesidad de insulina y la administraría. Este parche inteligente elimina la necesidad de controlar constantemente el nivel de azúcar en la sangre y luego inyectarse insulina cuando sea necesario. Imita la función reguladora del páncreas pero de una manera fácil de usar".
El parche adhesivo controla el azúcar en la sangre o glucosa. Tiene dosis de insulina precargadas en microagujas muy pequeñas, de menos de un milímetro de longitud que administran medicamentos rápidamente cuando los niveles de azúcar en la sangre alcanzan un cierto umbral. Cuando el azúcar en la sangre vuelve a la normalidad, el suministro de insulina del parche también se ralentiza. Los investigadores dijeron que la ventaja es que puede ayudar a prevenir la sobredosis de insulina, lo que puede provocar hipoglucemia, convulsiones, coma o incluso la muerte.
"Siempre ha sido un sueño lograr la administración de insulina de una manera inteligente y conveniente", dijo el coautor del estudio, John Buse, MD, Ph.D., director del Diabetes Center and the North Carolina Translational and Clinical Sciences (NC TraCS) Institute de la UNC en la Chapel Hill School of Medicine. "Este parche de insulina inteligente, si se demuestra que es seguro y efectivo en ensayos en humanos, revolucionaría la experiencia del paciente en el cuidado de la diabetes".
Las microagujas utilizadas en el parche están hechas con un polímero sensor de glucosa encapsulado con insulina. Una vez aplicadas sobre la piel, las microagujas penetran debajo de la piel y pueden detectar los niveles de azúcar en la sangre. Si los niveles de glucosa aumentan, el polímero se dispara para liberar la insulina. Cada microaguja es más pequeña que una aguja normal utilizada para extraer sangre y no llega tan profundamente, por lo que el parche es menos doloroso que un pinchazo. Cada microaguja penetra aproximadamente medio milímetro debajo de la piel, lo cual es suficiente para administrar insulina al cuerpo.
En los experimentos, un parche del tamaño de una moneda de 25 centavos de dólar controló con éxito los niveles de glucosa en cerdos con diabetes tipo I durante aproximadamente 20 horas. Los cerdos pesaron alrededor de 55 libras en promedio.
"Me alegra que el equipo haya podido llevar este parche de insulina inteligente un paso más cerca de la realidad, y esperamos verlo avanzar para algún día ayudar a las personas con diabetes", dijo Robert Langer, ScD, profesor del Instituto David H. Koch. en el MIT y uno de los coautores del artículo.
La tecnología ha sido aceptada en el Programa de Tecnología Emergente de la Administración de Alimentos y Medicamentos de E.E. U.U., que brinda asistencia a las empresas durante el proceso regulatorio. Los investigadores están solicitando la aprobación de la FDA para ensayos clínicos en humanos, que anticipan que podrían comenzar dentro de unos años. El equipo imaginó que el parche inteligente de microagujas podría adaptarse con diferentes medicamentos para controlar también otras afecciones médicas.
Fuentes:
https://samueli.ucla.edu/smart-insulin-patch/
https://es.wikipedia.org/wiki/Diabetes_mellitus
¿Ciudades inteligentes o no?
Ahora tenemos un punto de comparación en varias ciudades australianas.
La designación de ciudad inteligente se le da a una ciudad que incorpora tecnologías de información y comunicación (TIC) para mejorar la calidad y el rendimiento de los servicios urbanos, como la energía, el transporte y los servicios públicos, a fin de reducir el consumo de recursos, el desperdicio y los costos de operación generales. El objetivo fundamental de una ciudad inteligente es mejorar la calidad de vida de sus ciudadanos a través de la tecnología inteligente.
Varios países y ciudades de diversas partes del mundo han estado impulsando innovaciones encaminadas a convertir a sus ciudades en inteligentes. De hecho se ha establecido una especie de competencia para liderar a este conjunto de ciudades que tienen una visión clara sobre el futuro de sus sociedades urbanas. Canadá, Estados Unidos y Gran Bretaña actualmente compiten por los primeros lugares en ese contexto, y Australia ahora se está uniendo al grupo con un nuevo “Plan de Ciudades Inteligentes” lo cual propiciará su participación en este selecto conjunto de ciudades.
Una estimado amigo nos envía el presente artículo donde se comparan los avances del “Plan de Ciudades Inteligentes” de Australia aplicado en varias ciudades de este país y se analiza la viabilidad del proyecto. Esta información se publicó en The Conversation el 4 de febrero en un artículo escrito por 5 autores: Tan Yigitcanlar, Karen Vella, Kevin Clyde Desouza, Luke Butler y Nayomi Kankanamge. Veamos de qué se trata…..
Las áreas mejor clasificadas en una evaluación de rendimiento de ciudad inteligente en toda Australia se encuentran en zonas metropolitanas con mayores densidades de población. "Las 60 gobiernos locales de mayor desarrollo de Australia albergan a más de la cuarta parte de la población del país", se señala en el informe “Smart Cities Down Under” recientemente publicado.
Además de resaltar las principales disparidades regionales, el análisis revela que las áreas de los gobiernos locales que se evaluaron con relación a cuatro grupos de indicadores de ciudades inteligentes, generalmente tuvieron un fuerte desempeño en "habitabilidad y bienestar". Se detectaron desempeños más débiles en "Sostenibilidad y accesibilidad" así como en "Gobernanza y planificación". Y se observó que altos desempeños en "Productividad e innovación" sólo existía en las áreas con mayor desarrollo.
Se evaluaron los criterios de ciudad inteligente de 180 gobiernos locales (de 563 en Australia), que representan más del 85% de la población del país. Incluimos todos los gobiernos locales en el área metropolitana de Australia (“Greater Capital City Statistical Areas”) y áreas regionales del gobierno local con poblaciones de más de 50,000.
Este estudio es una versión ampliada del informe “Smart Cities of the Sunshine State 2018”.
No se trata solamente de tecnología
Las ciudades son sistemas complejos y deben evaluarse de manera integral. Esto significa no poner un peso excesivo en los logros tecnológicos, como la tecnología por el bien de la tecnología, en lugar de los resultados económicos, sociales, ambientales y de gobernanza.
Nuestro marco conceptual para evaluar los niveles de inteligencia se basó en los cuatro pilares de la economía, la sociedad, el medio ambiente y la gobernanza. Los criterios de evaluación se muestran a continuación.
Clasificamos las 180 áreas del gobierno local que evaluamos en tres categorías de desempeño:
· líderes, las ciudades con mejor desempeño
· seguidores, las ciudades con logros y potencial, pero no al nivel de los mejores.
· en desarrollo, las ciudades con cierto progreso y potencial, pero no tan importantes como las otras dos categorías.
¿Quién lidera el camino?
Todas las áreas en la categoría líder estaban completamente contenidas dentro de las áreas metropolitanas de la ciudad capital.
Nueva Gales del Sur ocupó el primer lugar con 20 áreas de gobierno local. Luego vinieron Australia Occidental (14), Victoria (12), Australia del Sur (9), Territorio del Norte (2) y Queensland, Territorio de la Capital Australiana y Tasmania (1 cada una). En términos de población en las principales áreas, la clasificación cambió a: NSW (2,348,388 personas), Victoria (1,477,964), Queensland (1,131,155), WA (557,163), ACT (397,397), SA (370,719), NT (112,590) y Tasmania (50,439).
Puede ver a continuación cómo los resultados combinados para cada uno de los principales, siguientes y en desarrollo se comparan con las cuatro áreas de indicadores de ciudades inteligentes.
Puede ver la matriz de rendimiento de la ciudad inteligente de su área de gobierno local aquí.
Pasos claves para lograr ciudades inteligentes
Las áreas de gobierno local metropolitano dominan la categoría de desempeño líder. Mecanismos como los acuerdos municipales y regionales del gobierno australiano y el financiamiento a través del programa “Smart Cities and Suburbs” han tenido algunos efectos tangibles.
El rendimiento es menos fuerte en Australia regional. Se necesitan una estrategia y pautas nacionales de ciudades inteligentes para ayudar a que estas localidades y comunidades sean más inteligentes.
Esta política debería asumir los siguientes hallazgos de nuestro estudio internacional de ciudades inteligentes:
ü las ciudades inteligentes que se centran sólo en la tecnología rara vez funcionan;
ü los gobiernos locales deben adoptar el rol de facilitador;
ü los riesgos deben compartirse con el sector privado;
ü Los gobiernos locales deben estar abiertos a las innovaciones y aprender de los errores;
ü las ciudades inteligentes deberían centrarse en ser inclusivas;
ü se debe considerar el consumo de recursos, particularmente en relación con la longevidad de la infraestructura tecnológica;
ü la sostenibilidad a largo plazo depende de los recursos renovables;
ü Las ciudades inteligentes requieren una comunidad inteligente que esté bien informada, consciente, con visión de futuro, comprometida, unida y activa;
El Laboratorio de Estudios Urbanos de la Universidad Tecnológica de Queensland preparó el informe en asociación con el Departamento de Infraestructura, Transporte, Desarrollo Regional y Comunicación de la Commonwealth.
El equipo de investigación de Smart City ha tenido conversaciones con gerentes de la ciudad, alcaldes, profesionales del gobierno local y partes interesadas clave de la comunidad (por ejemplo, empresas, organizaciones sin fines de lucro, ONG e instituciones académicas, entre otros). Estas conversaciones confirman que los gobiernos locales tienen un papel fundamental que desempeñar si Australia quiere atender los problemas sociales críticos generados por el cambio climático, si quiere acceder a las oportunidades económicas, e incluso lidiar con las transformaciones impulsadas por las tecnologías de la información, como la automatización, la innovación y la inteligencia artificial.
Los gobiernos locales no funcionan bien en forma aislada. Cualquier gobierno local es tan fuerte como los otros gobiernos locales en su vecindad. Deben interactuar para compartir y acceder a los recursos públicos.
Las ciudades líderes pueden aprender de las innovaciones frugales de sus pares menos afortunados. Nuestras ciudades de mejor desempeño son similares a las empresas establecidas en el sector industrial en el sentido de que enfrentan sus propios desafíos para modernizarse.
Con demasiada frecuencia, estas ciudades buscan soluciones que no sean frugales y que no puedan aprovechar el conocimiento indígena. Las comunidades con menos recursos deben participar en diferentes modos de innovación. Creemos que se deben establecer mejores redes para fomentar el diálogo y el intercambio de prácticas entre las comunidades.
La buena noticia en el informe es que a nuestras ciudades líderes les va bien. La noticia no tan buena es que los otros gobiernos locales necesitan ser llevados de la mano en un proceso de transformación. Ninguna ciudad es una isla, y ningún país puede tratar a las ciudades como elementos independientes.
Creemos que Australia debe consolidar su cultura de gobernanza y planificación local para liderar el cambio, puntualizan los autores.
Fuentes:
http://theconversation.com/smart-city-or-not-now-you-can-see-how-yours-compares-130881
https://www.techopedia.com/definition/31494/smart-city
Cómo las supercomputadoras nos ayudan a vincular el entrelazamiento cuántico con el café frío
Los físicos teóricos del Trinity College de Dublín han encontrado un vínculo profundo entre una de las características más llamativas de la mecánica cuántica, el entrelazamiento cuántico, y la termalización, que es el proceso en el que algo entra en equilibrio térmico con su entorno. Un querido amigo, ingeniero en sistemas, nos comparte el presente artículo. Veamos de qué se trata…
Sus resultados se publicaron el viernes 31 de enero de 2020 en la prestigiosa revista Physical Review Letters.
Todos estamos familiarizados con la termalización: solo piense cómo su café alcanza la temperatura ambiente con el tiempo. El entrelazamiento cuántico, por otro lado, es una historia diferente.
Sin embargo, el trabajo realizado por Marlon Brenes, estudiante de doctorado y el profesor John Goold de Trinity, en colaboración con Silvia Pappalardi y el profesor Alessandro Silva en SISSA en Italia, muestran cómo los dos están inextricablemente vinculados.
Al comentar la importancia del descubrimiento, el profesor Goold, líder del grupo QuSys de Trinity, explica:
"El entrelazamiento cuántico es una característica contraintuitiva de la mecánica cuántica, que permite que las partículas que han interactuado entre sí en algún momento se correlacionen de una manera que no es posible en la física clásica. Las mediciones en una partícula afectan los resultados de las mediciones de la otra— incluso si están a años luz de distancia. Einstein llamó a este efecto "acción espeluznante a distancia".
"Resulta que el entrelazamiento no sólo es espeluznante, sino que en realidad es omnipresente y, de hecho, lo que es aún más sorprendente es que vivimos en una era en la que la tecnología está comenzando a explotar esta característica para realizar hazañas que se creían imposibles sólo hace unos años. Estas tecnologías cuánticas se están desarrollando rápidamente en el sector privado con empresas como Google e IBM liderando la carrera ".
Pero, ¿qué tiene que ver todo esto con el café frío?
El profesor Goold explica: "Cuando preparas una taza de café y la dejas por un tiempo, se enfriará hasta que alcance la temperatura de su entorno. Esto es la termalización. En física decimos que el proceso es irreversible, como sabemos, nuestro café una vez caliente no se enfriará y luego por artes mágicas se calentará. La forma en que emerge la irreversibilidad y el comportamiento térmico en los sistemas físicos es algo que me fascina como científico, ya que se aplica en escalas tan pequeñas como átomos, tazas de café e incluso a la evolución del universo mismo. En física, la mecánica estadística es la teoría que tiene como objetivo comprender este proceso desde una perspectiva microscópica. Para los sistemas cuánticos, la aparición de la termalización es notoriamente complicada y es un foco central de esta investigación actual ".
Entonces, ¿qué tiene que ver todo esto con el entrelazamiento y qué dicen sus resultados?
"En la mecánica estadística hay varias formas diferentes, conocidas como conjuntos, en las que se puede describir cómo se termaliza un sistema, todo lo cual se considera equivalente cuando se tiene un sistema grande (aproximadamente en escalas de 10 ^ 23 átomos). Sin embargo , lo que mostramos en nuestro trabajo es que no sólo el entrelazado está presente en el proceso, sino que su estructura es muy diferente según la forma en que elija describir su sistema, por lo que nos brinda una forma de evaluar las preguntas fundamentales en mecánica estadística. La idea es general y puede aplicarse a una gama de sistemas tan pequeños como unos pocos átomos y tan grandes como agujeros negros ".
Marlon Brenes, candidato a doctor en Trinity y primer autor del artículo, utilizó supercomputadoras para simular sistemas cuánticos para probar la idea.
Brenes, un especialista en modelaje numérico, dijo: "Las simulaciones numéricas que realicé para este proyecto están en el límite de lo que se puede lograr actualmente en el nivel más alto con computación de alto rendimiento. Para ejecutar el código utilicé las instalaciones nacionales del ICHEC y la nueva maquina KAY. Entonces, además de tener un excelente resultado esencial para la investigación, el trabajo nos ayudó a superar los límites de este tipo de enfoque computacional y dejar establecido que nuestros códigos y la arquitectura están funcionando como un proyecto de vanguardia con el mayor avance a nivel mundial".
Fuente:
Un equipo de investigadores expande significativamente la diversidad global de virus grandes y gigantes
Con la reciente aparición del coronavirus (2019-nCoV) en China y su potencial peligro de generar una pandemia mundial, hay un renovado interés de la gente por conocer más sobre los virus. Precisamente sobre este tema un estimado colega nos comparte un artículo publicado por Lawrence Berkeley National Laboratory sobre virus enormes y hasta gigantes. Veamos de qué trata…
Si bien los microbios en una sola gota de agua podrían superar en número a la población de una ciudad pequeña, la cantidad de virus en la misma gota, la gran mayoría no dañina para los humanos, podría ser aún mayor. Los virus infectan bacterias, arqueas y eucariotas, y varían sus tamaños y sus genomas en rangos que van desde muy pequeños hasta muy grandes e incluso gigantes. Los genomas de los virus gigantes son del orden de 100 veces el tamaño de lo que generalmente se ha asociado con los virus, mientras que los genomas de los virus grandes pueden ser solo 10 veces más grandes. Y, sin embargo, aunque los virus se encuentran en todas partes, se sabe relativamente poco acerca de ellos, y mucho menos los que se consideran grandes y gigantes.
En un estudio reciente publicado en la revista Nature, un equipo de instituciones liderados por investigadores del Joint Genome Institute (JGI) ubicado en el Lawrence Berkeley National Laboratory (Berkeley Lab) y que forman parte del Departamento de Energía de Estados Unidos, descubrió un amplia diversidad de virus grandes y gigantes que pertenecen al supergrupo de virus de ADN grande denominado nucleocitoplasmático (NCLDV).
La expansión de la diversidad por esta variedad de virus grandes y gigantes ofreció a los investigadores información sobre cómo podrían estos interactuar con sus huéspedes, y cómo esas interacciones a su vez pueden afectar a las comunidades anfitrionas y el papel que juegan en el carbono y otros ciclos de nutrientes.
"Este es el primer estudio que nos permite tener una visión más global de los virus gigantes a través del análisis de genomas de virus gigantes no cultivados de secuencias ambientales en todo el mundo, y luego usar estas secuencias para hacer inferencias sobre la distribución biogeográfica de estos virus en los diversos ecosistemas, su diversidad , sus características metabólicas pronosticadas y los huéspedes potenciales ", señaló la autora principal del estudio, Tanja Woyke, quien dirige el Programa Microbiano del JGI.
El equipo extrajo más de 8,500 conjuntos de datos de metagenomas disponibles públicamente generados a partir de sitios de muestreo en todo el mundo, incluidos datos de varias propuestas relevantes de la misión del DOE a través del Programa de Ciencias Comunitarias de JGI. Las propuestas de los investigadores de la Concordia University (Canadá), la University of Michigan, la University of Wisconsin-Madison y el Georgia Institute of Technology se centraron en las comunidades microbianas de los ecosistemas de agua dulce, incluidos, respectivamente, los lagos del norte de Canadá, los Grandes Lagos Laurentian, el lago Mendota y el lago Lanier fueron de particular interés.
La ilustración artística presentada aquí captura la diversidad genómica del virus gigante. Esta imagen complementa el artículo de Nature publicado el 22 de enero de 2020, mencionado anteriormente. Crédito: Zosia Rostomian / Berkeley Lab
Tamizar y reconstruir genomas de virus
Gran parte de lo que se sabe sobre el grupo NCLDV proviene de virus que han sido co-cultivados con ameba o con sus huéspedes, aunque la metagenómica ahora permite buscar y caracterizar virus no cultivados. Por ejemplo, un estudio de 2018 de un equipo liderado por JGI descubrió virus gigantes directamente en el suelo por primera vez. Este estudio aplicó un proceso de pasos múltiples para extraer, almacenar y luego filtrar los datos de la proteína principal de la cápside (MCP) para identificar los virus NCLDV. Los investigadores de JGI aplicaron previamente este enfoque para descubrir un nuevo grupo de virus gigantes denominados "Klosneuviruses".
Miembros previamente conocidos de los linajes virales en el grupo NCLDV infectan principalmente protistas y algas, y algunos de ellos tienen genomas en el rango de megabase. El autor principal y coautor del estudio, Frederik Schulz, científico investigador del grupo de Woyke, utilizó el MCP como código de barras para filtrar fragmentos de virus, reconstruyendo 2,074 genomas de virus grandes y gigantes. Se identificaron más de 50,000 copias del MCP en los datos metagenómicos, dos tercios de los cuales podrían asignarse a linajes virales, y predominantemente en muestras de ambientes marinos (55%) y de agua dulce (40%). Como resultado, el espacio de proteínas del virus gigante creció de 123,000 a más de 900,000 proteínas, y la diversidad de virus en este grupo se expandió 10 veces de solo 205 genomas, redefiniendo el árbol filogenético de los virus gigantes.
Reprogramación metabólica de una estrategia común para virus grandes y gigantes
Otro hallazgo significativo del estudio fue una estrategia común empleada por virus grandes y gigantes. La reprogramación metabólica, explicó Schulz, hace que el huésped funcione mejor bajo ciertas condiciones, lo que luego ayuda al virus a replicarse más rápido y producir más progenie. Esto puede proporcionar un impacto a corto y largo plazo en el metabolismo del huésped en general, o en las poblaciones de huéspedes afectadas por condiciones ambientales adversas.
La predicción de las funciones en los 2,000 nuevos genomas de virus gigantes llevó al equipo a descubrir una prevalencia de funciones codificadas que podrían impulsar el metabolismo del huésped, como los genes que juegan un papel en la absorción y el transporte de diversos sustratos, y también genes de fotosíntesis, incluidas potenciales bombas de protones impulsadas por luz. "Estamos viendo que esta es probablemente una estrategia común entre los virus grandes y gigantes basada en el metabolismo predicho que está codificado en los genomas virales", dijo. "Parece ser mucho más común de lo que se había pensado anteriormente".
Woyke señaló que a pesar de la cantidad de genomas ensamblados con metagenoma (MAG) reconstruidos a partir de este esfuerzo, el equipo aún no pudo vincular 20,000 proteínas de cápside principales de virus grandes y gigantes a ningún linaje de virus conocido. "Reconstruir genomas de virus gigantes completos, casi completos o parciales reconstruidos a partir de secuencias ambientales sigue siendo un desafío e incluso con este estudio es probable que solo arañemos la superficie de lo que hay allá afuera. Más allá de estos 2,000 MAG extraídos de 8,000 metagenomas, todavía hay mucha diversidad de virus gigantes que nos estamos perdiendo en los diversos ecosistemas. Podemos detectar muchos más MCP de los que podemos extraer MAG, y aún no encajan en el árbol genómico de la diversidad viral ".
"Esperamos que esto cambie no sólo con la disponibilidad de nuevos conjuntos de datos de metagenomas, sino también con la clasificación y secuenciación complementaria de virus de células individuales junto con sus huéspedes unicelulares", agregó Schulz.
Fuente: https://jgi.doe.gov/here-there-everywhere-large-giant-viruses-abound-globally/
Puentes biodegradables: estructuras vivas que responden al medio ambiente.
ETH Zurich es una universidad de ciencia y tecnología cuya creación se remonta al año 1855, pero actualmente se auto-concibe como un centro de innovación y generación de conocimiento basado en los valores suizos de libertad y responsabilidad individual, espíritu emprendedor y mentalidad abierta. En ETH Zurich, los estudiantes descubren un entorno ideal para el pensamiento independiente y los investigadores un clima que inspira el máximo rendimiento. Situada en el corazón de Europa, pero forjando conexiones en todo el mundo, ETH Zurich es pionera en soluciones efectivas para los desafíos globales de hoy y de mañana.
Un estimado colega nos ha enviado ejemplos del trabajo de investigación de esta universidad plasmados en un artículo de difusión publicado el 3 de enero de 2020 en su boletín digital y escrito por Samuel Schlaefli. Veamos de qué se trata…
Entre otras muchas cosas, los investigadores de ETH Zurich están buscando nuevos materiales para sentar las bases de estructuras vivas que respondan a su entorno. Su objetivo es crear infraestructuras autosuficientes que puedan controlar su estado e incluso repararse a sí mismos.
Cuando Eleni Chatzi no está ocupada leyendo documentos técnicos sobre puentes vibrantes, infraestructuras inteligentes e ingeniería basada en datos, disfruta sumergirse en novelas de ciencia ficción. "Me gusta reflexionar sobre ideas no convencionales e imaginar un mundo que está por venir", dice Chatzi, profesora de mecánica estructural en ETH Zurich. De hecho, hay un halo de ciencia ficción cuando habla de aplicaciones que su investigación podría llevar algún día. Una de esas visiones futuristas son los puentes que crecen de un puñado de semillas y consisten completamente en material orgánico.
Esta ingeniera civil de 38 años, cuyo cátedra recibió recursos del fondo Albert Lück-Stiftung desde 2010, se especializa en monitoreo de salud estructural. Chatzi diagnostica la salud de presas, puentes, turbinas eólicas, aviones y vehículos utilizando sensores, algoritmos que convierten y procesan señales, y aprendizaje automático. Actualmente, los ingenieros tienen que instalar externamente los sensores necesarios para medir la tensión, la deformación, la aceleración, el viento y la tensión, o incorporar estos dispositivos en el diseño estructural inicial. "Sin embargo, esto suele ser un gasto adicional y un factor disruptivo, especialmente en los sitios de construcción", explica Chatzi. Los equipos tienen que instalar innumerables cables para transmitir los datos medidos a una computadora central para su análisis. "Es por eso que nos gustaría desarrollar infraestructuras y máquinas con inteligencia intrínseca que sean conscientes de su estado incluso sin sensores montados externamente", dice Chatzi.
Hormigón consciente
Una clase de materiales sin precedentes proporciona la base para este tipo de infraestructura autoconsciente, y los investigadores de todo el mundo han estado ocupados explorando sus misterios durante los últimos años. Un ejemplo es el hormigón intrínseco auto-sensorial. Mezclado con fibras de carbono, nanotubos de carbono y polvo de níquel, este material controla su estado de forma autónoma para proporcionar información sobre grietas, humedad o cargas inusualmente pesadas. Estos datos se obtienen de la estructura aplicando voltaje y midiendo constantemente la resistencia eléctrica.
Una segunda línea de investigación en materiales con propiedades de autocuración apunta en una dirección similar. El año pasado, en un proyecto inspirado en la fotosíntesis de las plantas, los investigadores estadounidenses presentaron un polímero que puede repararse a sí mismo al reaccionar con dióxido de carbono en el aire circundante. Otros grupos están trabajando con bacterias que forman cal cuando se exponen al agua de lluvia y otra humedad. Agregados al concreto, pueden sellar pequeñas grietas por sí mismos. Se están realizando experimentos con redes microvasculares que liberan fluidos "curativos" cuando ocurre una lesión. Respondiendo como el organismo humano a una herida en la piel, se polimerizan para llenar las fracturas.
Incorporando funciones biológicas
"Estamos viendo una fusión de la ciencia de los materiales y la biología", dice Mark Tibbitt, profesor del Laboratorio de Ingeniería Macromolecular de ETH Zurich. Señala que en el pasado, los ingenieros químicos y otros habían buscado en la naturaleza principalmente la inspiración para imitar propiedades como la capacidad de la flor de loto para repeler el agua. "Hoy, estamos tratando de incorporar funciones biológicas en los materiales".
Estos esfuerzos son impulsados por los avances en la ciencia de los materiales y la biotecnología. La ingeniería del ADN y los nuevos métodos de biología molecular, como la edición del gen CRISPR / Cas, ahora pueden servir para introducir nuevas funciones biológicas en las células con fines muy específicos. La fabricación aditiva con impresoras 3D permite un diseño de material basado en datos de alta resolución. Combinando conceptos de varios campos (ingeniería química, química de polímeros, ciencia de materiales y biología de sistemas), la investigación de Tibbitt tiene como objetivo desarrollar polímeros blandos similares a tejidos para aplicaciones biomédicas.
"Lo fascinante de los organismos vivos es que perciben su entorno, reaccionan a él e incluso se curan a sí mismos cuando se lesionan. Queremos inculcar estas cualidades en materiales e infraestructuras", dice Tibbitt. Él cree que las aplicaciones futuras podrían incluir plantas de interior que limpian el aire y cambian el color de sus hojas para llamar la atención sobre la calidad del aire, y edificios que cambian con las estaciones para mantener un clima interior confortable.
Tibbitt se reunió con Eleni Chatzi hace un año en un evento para explorar vías de investigación radicalmente nuevas. Aunque los dos trabajan en escalas muy diferentes, a menudo hablan de los mismos conceptos. Los temas recurrentes incluyen materiales que pueden "curarse" a sí mismos. Recientemente, comenzaron a fomentar el diálogo entre los investigadores de ETH sobre materiales e infraestructuras de vida, autodetección y autocuración. Científicos de materiales, ingenieros químicos, civiles y eléctricos, biólogos e informáticos se han unido con el objetivo de desarrollar materiales que funcionen a diferentes escalas desde el principio en lugar de escalarlos en una etapa posterior. "ETH Zurich es el centro perfecto para este ambicioso proyecto porque tiene mucha experiencia en todas las áreas clave", dice Tibbitt. Un taller inicial y un simposio están programados para la primavera de 2020 para que los expertos discutan el asunto. La idea es definir preguntas de investigación y luego lanzar los primeros proyectos transdisciplinarios.
Vivir con ambientes animados.
Esta es una nueva vía de investigación en la que Chatzi y Tibbitt se han embarcado, y en esta etapa hay muchas más preguntas que respuestas. Una gran pregunta es cómo garantizar la seguridad y la estabilidad cuando las infraestructuras desarrollan una vida propia. Otra es la forma en que los humanos y los animales reaccionarán a un entorno diseñado que consiste en organismos vivos. ¿Y qué sucede si un organismo sintético de un nuevo material de construcción se filtra a las aguas circundantes? "Tenemos que pensar en preguntas bioéticas y preocupaciones de seguridad desde el primer día", dice Tibbitt.
Tales riesgos también presentan grandes oportunidades: la producción de concreto representa alrededor del ocho por ciento de las emisiones globales de CO2 de la actualidad. Franjas enteras de playas arenosas están siendo sacrificadas por el auge global de la construcción. Muchos vertederos están llenos de escombros de edificios demolidos. Las infraestructuras orgánicas con ciclos de material cerrados, como puentes hechos de fibra vegetal notablemente robusta, ofrecen una alternativa sostenible. Si están dañados, podrían repararse a sí mismos. Al final de su vida útil, podrían simplemente dividirse en componentes compostables individuales.
Fuente:
https://ethz.ch/en/news-and-events/eth-news/news/2020/01/biodegradable-bridges.html
Suministro sostenible de minerales y metales, clave para un futuro energético bajo en carbono
La revolución mundial baja en carbono podría estar en riesgo a menos que se establezcan nuevos acuerdos internacionales y mecanismos de gobernanza para garantizar un suministro sostenible de minerales y metales raros, nos advierte un nuevo estudio académico. Un estimado colega nos comparte el presente artículo escrito por Neil Vowles y publicado el 3 de enero de 2020 en el boletín de noticias de la University of Sussex. Veamos quÉ nos dicen al respecto….
La cantidad de cobalto, cobre, litio, cadmio y elementos de tierras raras necesarios para la fabricación de equipos de energía solar fotovoltaica, baterías, motores de vehículos eléctricos (EV), turbinas eólicas, celdas de combustible y reactores nucleares probablemente crecerá a un ritmo muy rápido en los próximos años. Incluso si se encuentran alternativas para un metal, dependerá de otro, ya que el alcance de las posibilidades está inherentemente limitado por las propiedades físicas y químicas de los elementos.
Sin embargo, con los suministros mundiales a menudo fuertemente monopolizados por un sólo país, confrontados por conflictos sociales y ambientales, o concentrados en mercados que funcionan mal, existe una posibilidad real de que la escasez de minerales pueda frenar la necesidad urgente de una rápido incremento en el uso de las tecnologías para generar niveles bajos de carbono. En algunos casos, los mercados están proporcionando señales engañosas a los inversionistas, lo cual pueden conducir a malas decisiones. En otros casos, los países o regiones que suministran minerales son políticamente inestables.
En un artículo recién publicado en Science el 3 de enero pasado, un equipo internacional de investigadores ha hecho una serie de recomendaciones para ayudar a gestionar la demanda de tales minerales con tecnología baja en carbono, así como para limitar el daño ambiental y de salud pública de su extracción y procesamiento, respaldar los beneficios sociales y garantizar también que los beneficios se compartan de manera más universal y equitativa.
Benjamin K. Sovacool, profesor de Política Energética de la University of Sussex, dijo: "La extracción minera de metales y materiales es la base oculta de la transición baja en carbono, pero desafortunadamente, es demasiado sucia, peligrosa y dañina para continuar su trayectoria actual”.
"Los impactos a la minería alarman legítimamente a muchos activistas ambientales como un gran precio a pagar para salvaguardar un futuro bajo en carbono. Pero a medida que la extracción a través de la minería terrestre se vuelve más desafiante, las reservas terrestres de algunos minerales disminuyen o la resistencia social en algunos países aumentan, incluso las reservas minerales oceánicas o incluso espaciales se convertirán en una fuente plausible ".
Aunque el nuevo estudio no convoca a poner una especial atención para mejorar las condiciones existentes de extracción y procesamiento terrestre de metales, también afirma que hay importantes perspectivas de cobalto y níquel en la plataforma continental dentro de las Zonas Económicas Exclusivas de los estados, así como en las regiones de la plataforma continental exterior.
Dentro de las aguas internacionales, los nódulos metálicos que se encuentran en la vasta zona Clarion-Clipperton del Pacífico, así como en las costras de cobalto y telurio que se encuentran en montañas submarinas de todo el mundo, proporcionan algunos de los depósitos más ricos de metales para tecnologías ecológicas. Pero los minerales en ecosistemas más prístinos y distintivos cerca de respiraderos hidrotermales deberían permanecer fuera de los límites para la extracción de minerales en el futuro previsible, agregan los investigadores.
Morgan Bazilian, profesor y director del Payne Institute for Public Policy en la Colorado School of Mines, dijo: "A medida que cambia el panorama energético global, se está volviendo más intensivo en minerales y metales. Por lo tanto, la sostenibilidad y la seguridad de las cadenas de suministro de materiales es esencial para apoyar la transición energética. La forma en que formemos ese camino tendrá consecuencias importantes para todo, desde el medio ambiente hasta el desarrollo y la geopolítica ".
Los autores del estudio también recomiendan:
- Mejorar y coordinar acuerdos internacionales sobre minería responsable y trazabilidad para establecer tratos justos en el suministro de minerales.
- Ampliar en gran medida el reciclaje y la reutilización de minerales raros para extender la vida útil de los productos y conservar las reservas.
- Diversificar la escala de suministro de minerales para incorporar operaciones tanto a pequeña como a gran escala al tiempo que permita a la industria minera tener control sobre los ingresos minerales a través de mecanismos claros y sólidos de distribución de beneficios y acceso a los mercados.
- Promover la generación de políticas del desarrollo para reconocer el potencial de la minería en áreas de extrema pobreza en lugar de sólo regular el sector por los ingresos fiscales.
- Estipular una mayor responsabilidad de los productores para los productos que utilizan minerales raros valiosos. Esto puede garantizar la responsabilidad sobre la vida útil de un producto, por ejemplo que al final de la vida útil de los productos pasen de los usuarios o gestores de residuos a los principales productores como podrían ser Apple, Samsung y Toshiba.
- La seguridad de los materiales de minerales y metales esenciales se deberá incorporar activamente en la planificación climática formal, incluyendo el establecimiento de una lista de "minerales críticos" para la seguridad energética (que ya se ha hecho en cierta medida por la Unión Europea y Estados Unidos).
Saleem Ali, profesor distinguido con el reconocimiento “Blue & Gold” de Energía y Medio Ambiente de la University of Delaware, dijo: "Nuestro análisis tiene como objetivo convencer a los responsables políticos internacionales para que incluyan las preocupaciones sobre el suministro de minerales para las tecnologías verdes en las negociaciones sobre el cambio climático. Necesitamos construir sobre la resolución sobre gobernanza de minerales aprobada en la Asamblea de las Naciones Unidas para el Medio Ambiente en 2019 y operacionalizar un plan de acción claro sobre seguridad de la cadena de suministro para una transición baja en carbono "
Benoit Nemery, profesor emérito del Center for Environment and Health en KU Leuven, dijo: "No logremos un futuro bajo en carbono a expensas de los mineros y la salud pública".
Archivo de datos: las crecientes demandas esperadas para un futuro descarbonizado
Entre 2015 y 2050, las existencias mundiales de vehículos eléctricos deben pasar de 1,2 millones de turismos ligeros a 965 millones de turismos.
Para el mismo período, la capacidad de almacenamiento de la batería debe subir de 0.5 gigavatios-hora (GWh) a 12,380 GWh, mientras que la cantidad de capacidad fotovoltaica solar instalada debe aumentar de 223 GW a más de 7100 GW.
Otro estudio de investigación ha pronosticado aumentos en la demanda de materiales para baterías EV de 87,000%, 1000% para energía eólica y 3000% para células solares y fotovoltaicas entre 2015 y 2060.
Fuente:
http://www.sussex.ac.uk/broadcast/read/50598
Los científicos dan un gran paso para lograr una espuma (giste) de cerveza perfecta
A unas horas de que finalice la primera década del Siglo XXI, les deseo que el próximo año 2020 venga acompañado de bienestar, pero sobre todo de buena salud. En esta ocasión, un estimado colega, ingeniero químico, nos comparte una interesante noticia lanzada el 21 de diciembre pasado en el boletín digital de la University of Manchester (UM) donde se informa que un equipo de sus científicos han dado un gran paso para resolver el rompecabezas de cómo lograr una espuma de cerveza perfecta. Veamos de qué se trata…
El investigador principal, el doctor Richard Campbell, de la Universidad de Manchester, dice que sus hallazgos resuelven un misterio de larga data relacionado con la vida útil de las espumas.
Y esto podría ser útil para el desarrollo de una gama de productos que mejoran la cobertura cremosa de un café con leche, la cabeza en una pinta de cerveza, los champús que usamos todos los días, las espumas contra incendios o incluso las espumas absorbentes de aceite utilizadas para hacer frente a los desastres ambientales.
El científico, cuyo estudio se publicó en la revista Chemical Communications, recurrió al Institut Laue-Langevin” en Francia para obtener una de las fuentes de neutrones más intensas del mundo.
En las instalaciones de investigación, disparó rayos de neutrones a los líquidos utilizados para hacer espumas.
Campebell dijo: "Al igual que cuando vemos que la luz se refleja en un objeto brillante y nuestros cerebros nos ayudan a identificarlo por su apariencia, cuando los neutrones se reflejan en un líquido al que se les dispara, podemos usar una computadora para revelar información crucial sobre su superficie. La diferencia es que la información está en un nivel molecular que no podemos ver con nuestros propios ojos ".
Si bien el comportamiento de las espumas hechas de líquidos que contienen solo un aditivo se conoce relativamente bien, las formas de entender el comportamiento de los líquidos que contienen más aditivos como los utilizados en productos reales han sido mucho más difíciles de entender.
El equipo estudió las mezclas que contienen tensioactivo, un compuesto que reduce la tensión superficial, y un polímero, utilizado en champús, para encontrar una nueva forma de entender las muestras que podrían ayudar a los desarrolladores de productos a formular la espuma ideal.
En una aplicación potencial especial, los bebedores de cerveza podrán disfrutar de su bebida favorita con cabeza (giste) que dure hasta el fondo del su vaso de cerveza.
En otro, la tecnología podría mejorar la formulación de detergentes utilizados en lavadoras, donde la producción de espumas no es deseable.
Y también podría usarse para desarrollar productos más efectivos para limpiar nuestros océanos al mejorar la acción de los detergentes para limpieza de manchas de aceite o potencialmente incluso salvar vidas al hacer que la espuma contra incendios sea más efectiva.
El Dr. Campbell dijo: "Durante décadas, los científicos han tratado de controlar de manera confiable la vida útil y la estabilidad de las espumas hechas de líquidos que contienen aditivos mixtos".
"Si bien el comportamiento de las espumas formadas con un solo aditivo se entiende bastante bien. Pero tan pronto cuando se estudiaron mezclas como las que se usan en otros productos que generan espuma, los resultados de los estudios de investigación no lograron dar una imagen coherente".
"Esto es importante, ya que algunos productos se benefician de espumas que son ultraestables y otros de espumas que son muy inestables".
Los científicos abordaron el problema estudiando los bloques de construcción de las burbujas, conocidas como películas de espuma.
Al reflejar los neutrones de sus muestras líquidas, idearon una nueva forma de relacionar la estabilidad de las películas de espuma con la forma en que los aditivos se disponen en la superficie del recubrimiento líquido de las burbujas para proporcionar la estabilidad necesaria para evitar que exploten.
"Las espumas se usan en muchos productos, y los desarrolladores de productos han tratado de mejorarlas durante mucho tiempo para que estén mejor equipadas para la tarea que están diseñadas para abordar", agregó el Dr. Campbell.
"Pero los investigadores simplemente han estado en un camino diferente, pensando en las propiedades generales de la superficie y no en las estructuras creadas cuando las diferentes moléculas se ensamblan en la superficie de las burbujas".
"Fue solo a través del uso de neutrones en una instalación líder en el mundo que fue posible hacer este avance porque solo esta técnica de medición podría decirnos cómo los diferentes aditivos se organizan en la superficie del líquido para proporcionar estabilidad a la película de espuma.
"Hay una serie de instalaciones en el Reino Unido y en toda Europa que producen neutrones, y estas instalaciones de investigación son esenciales para este tipo de trabajo.
"Creemos que este trabajo representa una primera indicación clara de que nuestro nuevo enfoque podría aplicarse a una gama de sistemas para ayudar al desarrollo de productos que puedan tener un impacto en la ciencia de los materiales y el medio ambiente".
Envases hechos de plantas de plátano, una opción muy atractiva
En el envío de la semana anterior revisamos el origen del actual plátano de mesa, así como los grandes beneficios que conlleva el comer este maravilloso fruto. Hoy, nuestro amigo ingeniero agrónomo nos comparte un segundo artículo escrito por Lachlan Gilbert sobre estudios realizados por investigadoras de la University of New South Wales (UNSW) quienes proponen una nueva forma de convertir los desechos de las plantaciones de plátanos en material de empaque, el cual no sólo sería biodegradables, sino también reciclable. Veamos de que se trata…
En 29 de noviembre pasado en el boletín digital de la UNSW se publicó una idea que parece un poco descabellada, fabricar bolsas de “plástico” biodegradables hechas de plantas de plátano, lo cual podría resolver dos problemas de desechos industriales en uno. Aquí transcribimos dicho artículo.
La profesora asociada Jayashree Arcot y la profesora Martina Stenzel estaban buscando formas de convertir los desechos agrícolas en algo que pudiera agregar valor a la industria de la que provenía y al mismo tiempo resolver problemas a los productores.
Encontraron que un buen candidato era la industria de cultivo de banano que, según la Dra. Arcot, produce grandes cantidades de desechos orgánicos, pues sólo el 12% de la planta es utilizada (la fruta), mientras que el resto se desecha después de la cosecha.
"Lo que hace que el negocio de cultivo de plátano sea particularmente ineficiente en comparación con otros cultivos de frutas es el hecho de que la planta muere después de cada cosecha", dijo el profesora Arcot, de la Escuela de Ingeniería Química de la UNSW.
"Estábamos particularmente interesados en los pseudotallos, básicamente el tronco carnoso en capas de la planta, que se corta después de cada cosecha y se descarta principalmente en el campo. Parte se usa para textiles, algunos como composta, pero aparte de eso, todo lo demás es un gran desperdicio ".
Las profesoras Arcot y Stenzel se preguntaron si los pseudotallos serían fuentes valiosas de celulosa, un componente estructural importante de las paredes celulares de las plantas, que podrían usarse en envases, productos de papel, textiles e incluso aplicaciones médicas como la cicatrización de heridas y administración de medicamentos.
Utilizando un suministro confiable de material del pseudotallo de las plantas de plátano cultivadas en el Royal Botanic Garden de Sydney, el dúo de investigadoras se puso a trabajar en la extracción de celulosa para probar su idoneidad como alternativa de empaque.
"El contenido del seudotallo es 90% de agua, por lo que el material sólido termina reduciéndose hasta aproximadamente un 10%", dijo la profesora Arcot. "Trajimos el seudotallo al laboratorio y lo cortamos en pedazos, lo secamos a temperaturas muy bajas en un horno de secado y luego lo molimos en un polvo muy fino".
La profesora Stenzel continuó:
"Enseguida tomamos este polvo y lo lavamos con un tratamiento químico muy suave. Esto aísla lo que llamamos nanocelulosa, que es un material de alto valor con una amplia gama de aplicaciones. Una de esas aplicaciones que nos interesó mucho fue el empaque, particularmente "envases de alimentos de un sólo uso donde la mayoría termina en el basurero".
Cuando se procesa, el material tiene una consistencia similar al papel de hornear.
La profesora Arcot dijo que dependiendo del grosor deseado, el material podría usarse en varios formatos diferentes en el empaque de alimentos. "Hay algunas opciones en este momento, podríamos hacer una bolsa de compras, por ejemplo", dijo.
"O dependiendo de cómo vertimos el material y de cuán grueso lo hagamos, podríamos hacer las bandejas que se usan para la carne y la fruta. Excepto, por supuesto, en lugar de ser espuma, es un material que no es tóxico, es biodegradable y reciclable ".
La profesora asociada Arcot dijo que ella y la profesora Stenzel han confirmado en diferentes pruebas que el material se descompone orgánicamente después de poner “películas” del material de celulosa en el suelo durante seis meses. Los resultados mostraron que las láminas de celulosa estaban en camino de desintegrarse en las muestras de suelo.
"El material también es reciclable. Uno de nuestros estudiantes de doctorado demostró que podemos reciclar esto tres veces sin ningún cambio en las propiedades", dijo la profesora Arcot.
Las pruebas con alimentos han demostrado que no presenta riesgos de contaminación.
"Probamos el material con muestras de alimentos para ver si había alguna filtración en las células", dijo el profesor Stenzel. "No vimos nada de eso. También lo probé en células de mamíferos, células cancerosas, células T y no es tóxico para ellos. Entonces, si las células T son felices, porque generalmente son sensibles a cualquier cosa eso es tóxico, entonces quiere decir que es muy benigno ".
Otros usos de los desechos agrícolas que el dúo ha analizado son la industria del algodón y la industria del cultivo de arroz: han extraído celulosa de los desechos de algodón recolectados de las desmotadoras de algodón y las cáscaras de arroz.
"En teoría, puedes obtener nanocelulosa de cada planta, es sólo que algunas plantas son mejores que otras porque tienen un mayor contenido de celulosa", dijo la profesora Stenzel.
"Lo que hace que las plantas de plátano sean tan atractivas, además de la calidad del contenido de celulosa, es el hecho de que son una planta anual", agregó la profesora Arcot.
Las investigadores dicen que para que el pseudotallo de plátano sea una alternativa realista para la fabricación de bolsas de plástico y el envasado de alimentos, tendría sentido que la industria del plátano comience el procesamiento de los seudotallo en polvo que luego podrían vender a los proveedores de envases.
"Si esta industria pudiera unirse, y les dicen a sus agricultores o productores que hay un gran valor en el uso de esos pseudotallos para convertirlos en un polvo que luego podrían vender, esa sería una opción excelente para ellos y para nosotros ", dijo la profesora Arcot.
Y en el otro extremo de la cadena de suministro, si los fabricantes de envases actualizan sus máquinas para poder fabricar la película de nanocelulosa en bolsas y otros materiales de envasado de alimentos, entonces los pseudoartículos de plátano tendrían una posibilidad real de hacer que el envasado de alimentos sea mucho más sustentable.
"Lo que realmente queremos en esta etapa es un socio de la industria que pueda analizar cómo podría mejorarse esto y cuán barato podemos hacerlo", dijo el profesor Stenzel.
La profesora Arcot estuvo de acuerdo. "Creo que las compañías de embalaje estarían más dispuestas a probar este material si supieran que el material está disponible de inmediato".
Fuente:
https://newsroom.unsw.edu.au/news/science-tech/packaging-made-banana-plants-peeling-alternative
Los plátanos, con larga historia
Nuevo material captura y convierte contaminantes tóxicos del aire en químicos industriales
El Dióxido de Nitrógeno (NO2), que está formado por nitrógeno y oxígeno, es un gas tóxico, irritante y precursor de la formación de partículas de nitrato. Estas llevan a la producción de ácido y elevados niveles de finas partículas (PM-2.5) en el ambiente. Afecta principalmente al sistema respiratorio. Este compuesto químico de color marrón-amarillento se genera como subproducto en los procesos de combustión a altas temperaturas, tales como en los vehículos motorizados y las plantas eléctricas. Por ello es un contaminante muy frecuente en zonas urbanas.
Un equipo internacional de científicos, dirigido por la University of Manchester (UM), ha desarrollado un marco de metal orgánico, o MOF, material que proporciona una capacidad selectiva, totalmente reversible y repetible para capturar dióxido de nitrógeno. Esta información nos la envía para compartir un colega, ingeniero químico, en un artículo escrito por Paul L Boisvert y publicado en el boletín digital del Oak Ridge National Laboratory (ORNL).
El material solo requiere agua y aire para convertir el gas capturado en ácido nítrico para uso industrial. El mecanismo para la absorción de gas en tiempo récord por parte del MOF, caracterizado por investigadores que utilizan la dispersión de neutrones en el ORNL del Departamento de Energía de EUA, podría conducir a tecnologías de control y remediación de la contaminación del aire que eliminen de manera rentable el contaminante del aire y lo conviertan en ácido nítrico para su uso en la producción de fertilizantes, propulsores de cohetes, nylon y otros productos.
Como se informó en Nature Chemistry, el material, denominado MFM-520, puede capturar dióxido de nitrógeno atmosférico a presiones y temperaturas ambientales, incluso a bajas concentraciones y durante el flujo, en presencia de humedad, dióxido de azufre y dióxido de carbono. A pesar de la naturaleza altamente reactiva del contaminante, el MFM-520 demostró ser capaz de regenerarse por completo varias veces por desgasificación o por tratamiento con agua del aire, un proceso que también convierte el dióxido de nitrógeno en ácido nítrico.
"Hasta donde sabemos, este es el primer MOF que captura y convierte un contaminante tóxico y gaseoso del aire en un producto industrial útil", dijo Sihai Yang, uno de los autores principales del estudio y profesor titular en el Departamento de Química de UM. "También es interesante que la tasa más alta de absorción de NO2 por este material se produce a alrededor de 113 grados Fahrenheit (45 grados centígrados), la cual es la temperatura de tienen regularmente los gases de escape de los automóviles".
Martin Schröder, autor principal del estudio, profesor de química y vicepresidente de la UM, dijo: "El mercado mundial de ácido nítrico en 2016 fue de $ 2.5 mil millones de dólares (USD), por lo que existe un gran potencial para los fabricantes de esta tecnología MOF para recuperar sus costos y beneficiarse de la producción resultante de ácido nítrico. Especialmente porque los únicos aditivos requeridos son agua y aire ".
Como parte de la investigación, los científicos utilizaron espectroscopía de neutrones y técnicas computacionales en ORNL para caracterizar con precisión cómo MFM-520 captura moléculas de dióxido de nitrógeno.
"Este proyecto es un excelente ejemplo del uso de la ciencia de neutrones para estudiar la estructura y la actividad de las moléculas dentro de los materiales porosos", dijo Timmy Ramirez-Cuesta, coautor y coordinador de la iniciativa de química y catálisis en la Dirección de Ciencias de Neutrones de ORNL. "Gracias al poder de penetración de los neutrones, rastreamos cómo las moléculas de dióxido de nitrógeno se organizaron y se movieron dentro de los poros del material, y estudiamos los efectos que tenían en toda la estructura MOF. Lo que hizo posible estas observaciones es el espectrómetro vibratorio VISION en ORNL Spallation Neutron Source, que tiene la mayor sensibilidad y resolución de este tipo en el mundo ".
La capacidad de los neutrones para penetrar en el metal sólido para sondear las interacciones entre las moléculas de dióxido de nitrógeno y MFM-520 está ayudando a los investigadores a validar un modelo informático de procesos de conversión y separación de gases MOF. Tal modelo podría ayudar a predecir cómo producir y adaptar otros materiales para capturar una variedad de gases diferentes.
"La espectroscopía vibracional de neutrones es una herramienta única para estudiar los mecanismos de adsorción y reacción e interacciones huésped-huésped a nivel molecular, especialmente cuando se combina con la simulación por computadora", dijo Yongqiang Cheng, científico y coautor de dispersión de neutrones ORNL. "La interacción entre las moléculas de dióxido de nitrógeno y MOF causa cambios extremadamente pequeños en su comportamiento vibratorio. Tales cambios solo pueden reconocerse cuando el modelo de computadora los predice con precisión".
"La caracterización del mecanismo responsable de la alta y rápida absorción de NO2 informará los diseños futuros de materiales mejorados para capturar contaminantes del aire", dijo Jiangnan Li, primer autor y estudiante de doctorado en la Universidad de Manchester. "El tratamiento posterior del dióxido de nitrógeno capturado evita la necesidad de secuestrar o procesar el gas y proporciona una dirección futura para las tecnologías de aire limpio".
La captura de gases de efecto invernadero y tóxicos de la atmósfera ha sido un desafío debido a sus concentraciones relativamente bajas y porque el agua en el aire compite y a menudo puede afectar negativamente la separación de las moléculas de gas objetivo de otros gases. Otro problema fue encontrar una forma práctica de filtrar y convertir los gases capturados en productos útiles y de valor agregado. El material MFM-520 MOF ofrece soluciones a muchos de estos desafíos.
Otros coautores del artículo, titulado "Captura de dióxido de nitrógeno y conversión a ácido nítrico en un marco de metal orgánico poroso", incluyen Xue Han, Xinran Zhang, Alena M. Sheveleva, Floriana Tuna, Eric JL Mcinnes, Laura J. McCormick McPherson, Simon J. Teat y Luke L. Daemen.
Fuente:
“Pregúntenle a los mexicanos”
Así es la innovación ‘Azteca’ en el mundo tecnológico – Parte I.
La Academia de Ingeniería de México señala que de acuerdo estudios que ha realizado recientemente, el número de ingenieros en el país se ha ido incrementando paulatinamente. Efectivamente, en forma aproximada, se podría contabilizar un ingeniero por cada 100 mexicanos, y en la década pasada el número de ingenieros respecto al número de habitantes ha crecido de 8.8 ingenieros por cada mil habitantes en 2002 a 10.8 en 2012. De hecho, México se encuentra entre los primeros diez países en el mundo que gradúan mas ingenieros, con más de 110 mil estudiantes por año. Aunque todavía falta mucho qué hacer en la formación de ingenieros, el avance en los últimos 100 años ha sido clave para el desarrollo del país. También el nivel y calidad de los ingenieros formados ha crecido de forma tangible.
Al respecto, una querida colega, ingeniera industrial, nos ha compartido el presente artículo, escrito por Uriel Blanco y Gonzalo Soto y publicado en El Financiero el pasado 14 de noviembre, donde señala que algunas empresas tecnológicas han dejando de ver a los ingenieros y desarrolladores mexicanos como simples apoyos y, a manera de ejemplo, nos informan que firmas como Intel están generando sus patentes e inventos con talento mexicano. Debido a la extensión de este artículo lo transcribiremos en dos partes. He aquí la primera….
Un hombre lee en voz alta un texto en inglés, pero en realidad nadie escucha su voz. Detrás de él, una bocina retumba con fuerza y opaca por completo sus palabras; la música lo envuelve absolutamente todo, no hay manera de saber qué trata de decir. Luego, ese mismo hombre se coloca unos lentes con un par de sensores en las plaquetas nasales, esas pequeñas piezas que se posan sobre el tabique de la nariz y ayudan a sostener las gafas. La voz del hombre de pronto se torna completamente clara, la música sigue a todo volumen, pero no se escucha el rock pesado de hace unos instantes. La lectura se comprende a la perfección.
El hombre que lee es Héctor Cordouvier, un ingeniero e inventor de Intel México, y los lentes son una de las creaciones más impresionantes que el llamado ‘Dream Team’ mexicano de la compañía estadounidense ha desarrollado en su laboratorio de Guadalajara. Cordouvier, junto a sus colegas Julio Zamora, Rodrigo Camacho, Alejandro Ibarra y Paolo López Meyer identificaron un día que cada una de las palabras que pronunciamos al hablar se convierten en vibraciones distintas que podían ser aisladas a través de unos sensores colocados en las plaquetas nasales de los lentes. De esa manera, cada vez que Cordouvier, o quien sea que tuviera puestas las gafas, hablaba, las palabras se entendían a la perfección, quizá únicamente con un tono nasal que se corrige por medio de un software.
“Al no haber micrófonos, lo único que se capturan son las vibraciones nasales, podrías recibir una llamada en los lentes, estar en medio de un antro, y tu interlocutor podría pensar que estas en la biblioteca”, menciona López Meyer entre risas. “Se abre la posibilidad de hacer muchas cosas”.
Los lentes desarrollados por el ‘Dream Team’ generaron el interés de otras empresas tecnológicas para incorporar esa innovación en algunos de sus productos y, en total, el equipo registró casi una decena de patentes. Los ingenieros de Intel Labs en Guadalajara son, probablemente, el mejor ejemplo de uno de los cambios más profundos en el sector tecnológico que está ocurriendo en este preciso instante.
Desde hace casi una década, una pregunta ha rondado en el sector de la tecnología y la innovación digital del país: ¿existe un ‘Silicon Valley mexicano’?
“Antes de contestar eso, te diré algo. Hace unos años las empresas de tecnología decían ‘nosotros desarrollamos en nuestros países la innovación y el resto que lo hagan los mexicanos’”, dice López Meyer en un espacio de pruebas para drones inteligentes. “Ahora, cuando tienen un problema, dicen ‘pregúntenle a los mexicanos’”.
Textualmente parece no haber mucha diferencia, pero el cambio ha sido radical. Cuando a Guadalajara y la zona circundante a la capital jalisciense se le comenzó a comparar con la región de innovación más importante del mundo, todo parecía ser parte de la ‘mentefactura’ global: mexicanos brindando principalmente servicios de apoyo a las tecnológicas extranjeras, sin que realmente se desarrollaran inventos importantes cuyos beneficios se quedaran en México.
“Eran sobre todo jóvenes que daban servicio de apoyo a empresas del verdadero Silicon Valley, arreglaban líneas de código, generaban una que otra solución para esas compañías”, recuerda Antonio Yáñez, un ingeniero de Guadalajara que desarrolla una aplicación de seguridad para hogares y negocios. “Aquí no se generaban tantas patentes, no se construían tantos prototipos, no vendíamos la tecnología a otros lados”.
Pero eso es el pasado.
Impulsado principalmente por el desarrollo de aplicaciones digitales e innovaciones tecnológicas, México incrementó significativamente en los últimos años las solicitudes de patentes. Según cifras del Instituto Mexicano de la Propiedad Industrial (IMPI), en 2018 se realizaron mil 555 requerimientos de patente, mientras que una década atrás la cifra era de apenas 685.
Intel es un microcosmos de ese fenómeno. De 2000 a 2014, el número de patentes de los ingenieros mexicanos en sus laboratorios promediaba apenas una por año. Sin embargo, a partir de que los ingenieros del ‘Dream Team’ se unieron a sus campos de especialidad en 2015, Intel ha generado más de 90 patentes.
La tecnología desarrollada por los ingenieros mexicanos de Intel incluye las llamadas telefónicas por vibración nasal, conducción de vehículos autónomos, manejo de dispositivos por voz y ondas electromagnéticas, drones verdaderamente inteligentes, entro otras innovaciones que eventualmente pueden ser adquiridas por otras empresas a nivel internacional y de las cuales sus creadores son también beneficiarios.
La creatividad y el ritmo de generación de nueva tecnología de los ingenieros mexicanos le dieron a Intel la confianza de entregar a ellos la responsabilidad de la habilitación del primer chip 5G en el mundo. Una vez que esa red sea habilitada para uso generalizado en el planeta, las señales que usen chips de Intel pasarán eventualmente por Guadalajara.
(Continuaremos con la transcripción de este artículo la próxima semana).
Fuentes:
https://www.merca20.com/los-paises-con-mas-ingenieros-graduados-al-ano/
https://www.milenio.com/estados/mexico-produce-110-mil-ingenieros-ano
https://www.elfinanciero.com.mx/bloomberg-businessweek/preguntenle-a-los-mexicanos-asi-es-la-innovacion-azteca-en-el-mundo-tecnologico
Estudian depósitos de agua de deshielo en la Antártida
Es ya bien conocido que las amenazas de deshielo del arcaico hielo antártico auguran un futuro con un nivel de los océanos con un rápido crecimiento. Sobre este tema, un estimado colega nos comparte información sobre un nuevo estudio que pudiera atenuar otro persistente temor: que los depósitos de agua de deshielo fracturen el hielo debajo de ellos pudiendo causar reacciones en cadena prolongadas que colapsen inesperadamente los bancos o plataformas de hielo flotantes. Sobre esta investigación se publicó en el boletín digital del Georgia Institute of Technology (Georgia Tec), el 29 de octubre pasado, un artículo de difusión escrito por Ben Brumfield. Veamos de qué se trata:
Brumfield explica que en estos estudios se encontró que aunque el agua de deshielo fracturara el hielo, las reacciones en cadena resultantes parecerían ser de corto alcance. Sin embargo, los aumentos masivos en el deshielo de la superficie debido a un clima inusualmente cálido pueden desencadenar colapsos de hielo catastróficos como el que ocurrió con la icónica plataforma "Larsen B", que se hizo añicos en 2002. Ahora, en el presente estudio, dirigido por un investigador del Georgia Tec ha modelado reacciones en cadena de fractura y deshielo así como la cantidad de agua que se necesitaría para repetir ese raro colapso épico.
La desintegración de “Larsen B” fue precedida por una ola de calor atípica que la acribilló por medio de múltiples depósitos de agua de deshielo, centrando la atención de los investigadores en las fracturas derivadas por los acumulamientos de agua, también llamadas hidrofracturas. Descubrieron que un depósito de agua de deshielo que hidrofractura los glaciares pudiera provocar que los almacenamientos vecinos hagan lo mismo. De ahí que aumentara la preocupación de posibles reacciones en cadena extensas, lo cual fue lo que el estudio abordó.
Demasiada agua de deshielo
"Las reacciones en cadena no se extenderán tanto en los glaciares existentes", dijo Alex Robel, profesor asistente en la Escuela de Ciencias de la Tierra y Atmosféricas de Georgia Tech. "Normalmente, tomaría muchos años para que las reacciones en cadena tengan un efecto sobre la integridad de los mantos de hielo. Pero hay una advertencia. Los depósitos que están muy juntos y crecen rápidamente sí podrían destruir la integridad del hielo".
"Hay un límite de velocidad en el estudio que muestra que una plataforma de hielo no puede colapsar ridículamente rápido", dijo la coautora Alison Banwell, investigadora de glaciología de la Universidad de Colorado Boulder. "Sin embargo, si no ocurre tan rápidamente en los depósitos de agua de deshielo como ocurrió en “Larsen B”, puede colapsar de manera similar". Agregó: "Las múltiples cadenas de hidrofractura que se originan en diferentes áreas de un banco de hielo también podrían conducir a una ruptura de la plataforma a mayor escala".
Los investigadores publicaron sus resultados en la revista Geophysical Research Letters el 24 de octubre de 2019. La investigación fue financiada por la National Science Foundation y el “Cooperative Institute for Research in Environmental Sciences en CU Boulder. Un estudio reciente no relacionado informó un número récord de depósitos de agua de deshielo en la Antártida.
"Actualmente no hay suficientes depósitos en ninguna plataforma de hielo para una repetición de “Larsen B”, pero mucha agua de deshielo hace presión en los mantos de hielo y les está causando daños", dijo Banwell, quien ayudó como pionero en la investigación de las hidrofracturas en bancos de hielo.
Q&A
Las bancos de hielo rotos no agregan mucho al nivel del mar. Entonces, ¿por qué es tan importante este fenómeno?
Los bancos o plataformas de hielo flotan en el océano, donde ya contribuyen al nivel del mar, por lo que cuando se rompen o se derriten, no le agregan mucho más. Pero muchos bancos de hielo empujan hacia atrás contra los glaciares en tierra, que sí aumentan el nivel del mar cuando ingresan al océano.
Una vez que el depósito desaparece, la velocidad del flujo glacial puede aumentar de cuatro a diez veces. Los glaciólogos no se dieron cuenta de esto hasta que “Larsen B”, que tenía un kilómetro de espesor (0.62 millas) con una superficie de 3,250 kilómetros cuadrados (1,250 millas cuadradas) se astilló en pocas semanas y el flujo glacial detrás de él aumentó.
"En nuestro campo de investigación se pensaba que las plataformas de hielo no eran demasiado importantes, entonces “Larsen B” nos mostró que eso era incorrecto. El refuerzo de las plataformas de hielo es lo que realmente estabiliza los glaciares. Pocos problemas son más importantes que los que aborda este estudio", dijo Brent Minchew, profesor asistente de geofísica en el Massachusetts Institute of Technology (MIT).
Minchew no participó en el estudio, pero recientemente coeditó otro estudio relacionado con él. El estudio del MIT descarta un escenario absolutamente de pesadilla de fractura rápida de glaciares debido a la desaparición de las plataformas de hielo. Pero él y los otros investigadores reiteraron que el flujo glacial se acelera notablemente cuando desaparecen las plataformas de hielo.
Además, la mayoría de las plataformas de hielo antárticas probablemente se formaron en la última edad de hielo, y podría tomar otra edad de hielo reemplazarlas.
¿Cómo funciona la hidrofractura y cómo el estudio modeló sus efectos?
Cuando los depósitos de agua de deshielo en la parte superior de las grietas en el hielo se vuelven pesados, pueden hidrofracturar el hielo.
"La presión del agua se concentra hasta un punto llamado punta de grieta. Trata de separar la grieta y hacerla más profunda, y el hielo empuja hacia atrás. Cuando el agua se vuelve lo suficientemente profunda, puede ganar y propagar la grieta hacia el fondo de la plataforma de hielo ", dijo Robel.
El agua drena por la grieta, hacia el océano, luego el hielo vuelve a saltar, creando nuevas grietas que también pueden provocar la hidrofractura de los depósitos vecinos. El estudio mostró que esto abarcaría sólo un pequeño número de estanques.
Convenientemente para Robel, que explora la dinámica del hielo con las matemáticas, la física y la informática, a medida que se forman plataformas de hielo, en ellas aparecen matrices regimentadas de abolladuras superficiales, y ahí es donde se acumulan estos depósitos de agua de deshielo.
Robel podría aplicar modelos informáticos llamados autómatas celulares, conocidos por los videojuegos pixelados tipo matriz, para modelar las reacciones en cadena de la hidrofractura. El modelo incluso genera animaciones que los investigadores llamaron "tramas de buscaminas" después del clásico juego de computadora de la década de 1990.
¿Significa el estudio que hay menos peligro que antes de que se acelere el flujo glacial?
No, el estudio simplemente aumenta el conocimiento científico y, de hecho, el flujo de algunos glaciares en la Antártida ya se ha acelerado mucho.
"Quizás este mecanismo no es algo de lo que debamos preocuparnos tanto. Pero no deberíamos dar un suspiro de alivio porque hay muchas otras formas de sacar rápidamente mucho hielo de la Antártida occidental", dijo Minchew.
Quizás el mayor potencial para la pérdida de glaciares es la inestabilidad donde los glaciares descansan en el suelo junto al agua de mar. Un estudio que Robel publicó en julio proyectó que la inestabilidad es extremadamente probable que acelere el aumento del nivel del mar.
¿Cómo ayuda este estudio a avanzar en la investigación de los glaciares?
Facilita la búsqueda de presagios de daños en la plataforma de hielo.
"Observar el volumen de agua en la superficie del hielo es mucho más fácil que buscar fallas de estrés dentro del hielo", dijo Banwell, quien visitará la Antártida en noviembre para estudiar los depósitos de fusión en la plataforma de hielo “George IV.”
Fuente:
Las mantas contra incendios pueden proteger los edificios de los incendios forestales
Un estimado colega, (ingeniero) materialista, nos envía información publicada por “Frontiers” en su boletín de difusión del 15 de octubre de 2019, donde se comenta sobre un primer estudio que evalúa científicamente que el cubrir edificios con una manta protectora ignífuga (no combustible) encuentra que es una forma viable de protegerlos contra incendios forestales. Veamos de que se trata...
El probar rigurosamente diferentes materiales de telas en el laboratorio y ver su posible comportamiento al usarlos para proteger estructuras que fueron expuestas a incendios de magnitud creciente, fue una investigación, publicada en “Frontiers in Mechanical Engineering”, que confirma que la tecnología de mantas jgnífugas existente efectivamente puede proteger las estructuras de incendios forestales breves. Para un despliegue exitoso contra incendios severos y en áreas de alta densidad de viviendas, se necesitan mayores avances tecnológicos de materiales de cobertura y métodos de despliegue más complejos, así como estrategias de protección de estructuras múltiples que están todavía por desarrollarse.
"Mantas contra incendios que cubran toda la casa es un método viable de protección contra incendios en la interfaz urbano-forestal", dice el autor principal del estudio, Fumiaki Takahashi, profesor de la Case Western Reserve University, ubicada en Cleveland, Ohio, E.E.U.U., quien se asoció con NASA Glenn Research Center, US Forest Service, New Jersey Forest Fire Service y Cuyahoga Community College para este estudio.
El doctor Takahashi continúa diciendo: "La tecnología actual puede proteger una estructura aislada contra un ataque de incendios forestales relativamente corto y es probable que los desarrollos tecnológicos posteriores permitan que este método se aplique en el futuro a situaciones graves".
Una necesidad ardiente
Los incendios forestales en entornos urbanos y suburbanos pueden tener un efecto devastador en las comunidades y plantear uno de los mayores desafíos de incendios de nuestro tiempo.
Las personas que viven y trabajan en áreas de riesgo de incendio se comunicaron con el profesor Takahashi para averiguar si hay productos comerciales disponibles para ayudar a reducir la probabilidad de ignición de la estructura, lo que reduciría el daño por incendio y mejoraría la seguridad pública y la de los bomberos. Estas solicitudes motivaron la investigación y un resultado inicial reveló que el concepto de mantas contra incendios de estructura completa ha existido durante bastante tiempo.
"Pensé en un medio para reducir el daño causado por los incendios forestales y encontré una 'cortina ignífuga' patentada por los Estados Unidos, es decir, una manta contra incendios, fabricada durante la Segunda Guerra Mundial. Además encontré que bomberos del Servicio Forestal de los Estados Unidos han logrado salvar cabañas forestales históricas envolviéndolas con mantas de materiales contra incendios ", comentó Takahashi.
Un viejo material ignífugo
Si bien hay informes anecdóticos sobre la capacidad de resistencia de las mantas contra incendios para proteger los edificios de los incendios, la investigación de Takahashi destacó una grave falta de evidencia científica para respaldar estas afirmaciones. Para rectificar esto, financiado por una subvención de investigación del U.S. Department of Homeland Security, el equipo realizó varios experimentos para probar la capacidad de diferentes materiales de cobertura para proteger las estructuras contra incendios de magnitud creciente.
"Las pruebas de exposición al fuego determinaron qué tan bien las mantas protegían varias estructuras de madera, desde una casa para pájaros en una habitación en llamas hasta un cobertizo grande en un incendio forestal real.
Probamos cuatro tipos de materiales de tela: aramida, fibra de vidrio, sílice amorfa, y carbono pre-oxidado, cada uno con y sin una superficie de aluminio. Además, realizamos experimentos de laboratorio bajo exposición controlada al calor y medimos las capacidades de aislamiento térmico de estos materiales contra el contacto directo con la llama o el calor de radiación ".
Una nueva industria caliente
Las evaluaciones de laboratorio y de incendios reales demuestran que las mantas contra incendios podrían proteger las estructuras de una corta exposición a un incendio forestal, pero también resaltan las limitaciones técnicas de su forma existente. Se necesitan más avances tecnológicos en las áreas de composición de materiales, métodos de despliegue y estrategias de protección de múltiples estructuras.
Takahashi explica: "Las telas de fibra de vidrio o sílice amorfa laminadas con papel de aluminio se desempeñaron mejor, debido a la alta reflexión / emisión de radiación y al buen aislamiento térmico de la tela. Se necesita nueva tecnología para mejorar la capacidad de bloqueo térmico de las mantas contra incendios para una mayor duración para evitar la ignición de estructura a estructura. Además, será más efectivo si docenas o cientos de hogares están protegidos por mantas antiincendios de alta tecnología al mismo tiempo, particularmente en comunidades de Interfaz Urbana-Silvestre de alta densidad de viviendas ".
Concluye sugiriendo que las comunidades potencialmente afectadas por incendios forestales trabajen juntas para hacer realidad el concepto de mantas contra incendios para edificios enteros.
"La protección contra incendios será importante para aquellos que viven y combaten incendios en la Interfaz Urbana-Silvestre y presenta oportunidades de negocios a empresarios e inversores. La implicación de los hallazgos actuales es que la comunidad técnica, el público en general y el servicio de bomberos deben trabajar juntos para adoptar un enfoque paso a paso hacia la aplicación exitosa de esta tecnología ".
Fuente:
https://techxplore.com/news/2019-10-blankets-wildfires.html
Cosechando genes para mejorar las sandías
Seguramente cuando las personas piensan en la sandía, probablemente piensan en la que lleva por nombre científico “Citrullus lanatus”. Claro, nos referimos a esta planta cultivada con un fruto rojo, dulce y jugoso que se disfruta en todo el mundo como postre o refrigerio. De hecho, la sandía es una de las frutas más populares del mundo, sólo superada por el tomate, que muchos consideran un vegetal.
Sin embargo, no se si usted sabía que hay otras seis especies silvestres de sandía, todas las cuales tienen frutos pálidos, duros y amargos, pero con otras características muy interesantes. Sobre estas siete especies un estimado colega, biotecnólogo, nos comparte el presente artículo publicado el pasado primero de noviembre en la página Web del Boyce Thompson Institute (BTI) y escrito por Aaron J. Bouchie. Veamos qué se nos informa…
El señor Bouchine nos dice que investigadores del BTI han analizado los genomas de las siete especies, creando un recurso que podría ayudar a los fitomejoradores a encontrar genes de sandías silvestres que brinden resistencia a las plagas, enfermedades, sequías y otras dificultades, y mejorar aún más la calidad de la fruta. La introducción de estos genes en la sandía cultivada podría producir sandías dulces de alta calidad que pueden crecer en climas más diversos, lo que será especialmente importante a medida que el cambio climático desafíe cada vez más a los agricultores.
"A medida que los humanos domesticaron la sandía en los últimos 4,000 años, seleccionaron frutos rojos, dulces y menos amargos", dijo Zhangjun Fei, miembro de la facultad Boyce Thompson Institute (BTI) y co-líder de un grupo de investigación internacional.
"Desafortunadamente, a medida que la gente hacía las sandías más dulces y rojas, la fruta perdió algunas habilidades para resistir enfermedades y otros tipos de estrés", dijo Fei, quien también es profesor adjunto en la School of Integrative Plant Science de Cornell University.
Tal y como se describe en un artículo publicado en Nature Genetics el 1 de noviembre, los investigadores generaron estas ideas utilizando un proceso de dos pasos. Primero, crearon una versión mejorada de un "genoma de referencia", que es utilizado por científicos y fitomejoradores para encontrar versiones nuevas e interesantes de genes de sus especímenes.
Fei lideró la creación del primer genoma de referencia de sandía utilizando una variedad cultivada de Asia oriental llamada '97103', que se publicó en 2013.
"Ese primer genoma de referencia se hizo usando tecnologías de secuenciación de lectura corta más antiguas", dijo Fei. "Utilizando las actuales tecnologías de secuenciación de lectura larga, pudimos crear un genoma de calidad mucho más alta que será una referencia mucho mejor para la comunidad que investigamos la sandía".
Luego, el grupo secuenció los genomas de 414 sandías diferentes que representan las siete especies. Al comparar estos genomas tanto con el nuevo genoma de referencia como entre sí, los investigadores pudieron determinar la relación evolutiva de las diferentes especies de sandía.
"Un descubrimiento importante de nuestro análisis es que una especie silvestre que se usa ampliamente en los programas de reproducción actuales, C. amarus, es una especie hermana y no un ancestro como se creía ampliamente", dijo Fei.
De hecho, los investigadores descubrieron que la sandía cultivada fue domesticada al reducir el amargor y aumentar la dulzura, el tamaño de la fruta y el color de la carne. Las variedades modernas se han mejorado aún más en los últimos cientos de años al aumentar la dulzura, el sabor y la textura crujiente. Los investigadores también descubrieron regiones del genoma de la sandía que podrían extraerse para continuar mejorando la calidad de la fruta, por ejemplo, haciéndolas más grandes, dulces y crujientes.
En los últimos 20 a 30 años, los fitomejoradores han cruzado la sandía cultivada con la especie hermana C. amarus y otros dos parientes silvestres, C. mucusospermus y C. colocynthis, para hacer que la sandía sea más resistente a las plagas de nematodos, la sequía o a enfermedades tales como marchitamiento por Fusarium o por mildiú polvoroso.
Este tipo de mejoras con parientes silvestres es lo que entusiasma a Amnon Levi, un investigador genetista y desarrollador de nuevos tipos de sandías del Department of Agriculture de los Estados Unidos, que trabaja en Vegetable Laboratory en Charleston , Carolina del Sur. Levi es coautor del artículo y proporcionó el material genético para muchas de las sandías utilizadas en el estudio.
"La sandía dulce tiene una base genética muy estrecha", dice Levi. "Pero existe una gran diversidad genética entre las especies silvestres, lo que les da un gran potencial para contener genes que les brindan tolerancia a las plagas y el estrés ambiental".
Levi planea trabajar con BTI para descubrir algunos de estos genes de las especies salvajes que podrían usarse para mejorar la sandía que conocemos, especialmente para la resistencia a las enfermedades.
"La sandía es susceptible a muchas enfermedades y plagas tropicales, cuyos rangos continuarán expandiéndose junto con el cambio climático", dice Levi. "Queremos ver si podemos recuperar algunos de estos genes de resistencia a enfermedades salvajes que se perdieron durante la domesticación".
Otros coautores que participaron en la investigación fueron investigadores de la Academy of Agriculture and Forestry Sciences and the Chinese Academy of Agricultural Sciences de Beijing.
El estudio fue apoyado en parte por fondos de la USDA National Institute of Food and Agriculture Specialty Crop Research Initiative (2015-51181-24285), y por el US National Science Foundation (IOS-1339287 and IOS-1539831).
En el mismo número de “Nature Genetics” donde se publicó este artículo, Fei y sus colegas también publicaron un artículo similar que analiza 1,175 melones, incluidas las variedades de melón catalupo y melón invernal. Los investigadores encontraron 208 regiones genómicas asociadas con la masa, la calidad y las características morfológicas de la fruta, que podrían ser útiles para la reproducción del melón.
A principios de este año, Fei, Levi y sus colegas publicaron un genoma de referencia de la sandía 'Charleston Gray', la principal variedad estadounidense de C. lanatus para complementar el genoma '97103' del este asiático.
Rufino Tamayo
Fuente: https://btiscience.org/explore-bti/news/post/harvesting-genes-to-improve-watermelons/
¿Está relacionado el tiempo que los adolecentes pasan en las redes sociales con su salud mental?
Una querida amiga nos envía información publicada en la Brigham Young University (BYU) el pasado 22 de octubre en un artículo escrito por Cami Buckley, donde se revela que una nueva investigación realizada en esa universidad encontró que no hay indicios que la cantidad de tiempo que pasan los adolecentes en las redes sociales aumente directamente problemas de ansiedad o depresión. Veamos de que se trata….
La cantidad de tiempo que los adolescentes pasan en los sitios de redes sociales ha aumentado un 62.5 por ciento desde 2012 y continúa creciendo. El año pasado, el tiempo promedio que los adolescentes pasaron en las redes sociales se estimó en 2.6 horas por día. Los críticos han afirmado que más tiempo frente a la pantalla aumenta la depresión y la ansiedad en los adolescentes.
Sin embargo, una nueva investigación dirigida por Sarah Coyne, profesora de vida familiar en la BYU, descubrió que la cantidad de tiempo que pasan en las redes sociales no aumenta directamente la ansiedad o la depresión en los adolescentes.
"Pasamos ocho años tratando de comprender realmente la relación entre el tiempo dedicado a las redes sociales y la depresión para los adolescentes en desarrollo", dijo Coyne sobre su estudio publicado en “Computers in Human Behavior”. "Si aumentaran su tiempo en las redes sociales, ¿los deprimiría más? Además, si redujeran su tiempo en las redes sociales, ¿estarían menos deprimidos? La respuesta es no. Descubrimos que el tiempo dedicado a las redes sociales no era lo que estaba afectando la ansiedad o depresión ".
La salud mental es un síndrome multiproceso en el que probablemente ningún factor estresante sea la causa de la depresión o la ansiedad. Este estudio muestra que no es solo la cantidad de tiempo que se pasa en las redes sociales lo que lleva a un aumento de la depresión o la ansiedad entre los adolescentes.
"No es sólo la cantidad de tiempo lo que es importante para la mayoría de los niños. Por ejemplo, dos adolescentes podrían usar las redes sociales por exactamente la misma cantidad de tiempo, sino que podrían tener resultados muy diferentes como resultado de la forma en que lo usan", comentó Coyne.
El objetivo de este estudio es ayudar a la sociedad en su conjunto a ir más allá del debate sobre el tiempo de pantalla y, en su lugar, examinar el contexto y el contenido que rodea el uso de las redes sociales.
Coyne tiene tres sugerencias para usar las redes sociales de manera más saludable.
Sea un usuario activo en lugar de un usuario pasivo. En lugar de sólo desplazarse, comenta activamente, publica y dale me gusta a otro contenido.
Limite el uso de las redes sociales al menos una hora antes de quedarse dormido. Dormir lo suficiente es uno de los factores más protectores para la salud mental.
Se intencional. Mira tus motivaciones para interactuar con las redes sociales en primer lugar.
"Si sigues específicamente para buscar información o conectarte con otros, eso puede tener un efecto más positivo que seguir sólo porque estás aburrido", dijo Coyne.
En un esfuerzo por comprender la salud mental de los adolescentes y su uso de las redes sociales, los investigadores trabajaron con 500 jóvenes de entre 13 y 20 años que completaron cuestionarios una vez al año durante un período de ocho años. El uso de las redes sociales se midió preguntando a los participantes cuánto tiempo pasaron en los sitios de redes sociales en un día típico. Para medir la depresión y la ansiedad, los participantes respondieron preguntas con diferentes escalas para indicar síntomas depresivos y niveles de ansiedad. Estos resultados fueron analizados a nivel individual para ver si había una fuerte correlación entre las dos variables.
A los 13 años, los adolescentes informaron un uso promedio de las redes sociales de 31-60 minutos por día. Estos niveles promedio aumentaron de manera constante, de modo que en la edad adulta joven, informaban más de dos horas por día. Sin embargo, este aumento de las redes sociales no predijo la salud mental futura. Es decir, los aumentos de los adolescentes en las redes sociales más allá de sus niveles típicos no predijeron cambios en la ansiedad o la depresión un año después.
Los coautores del estudio incluyen a los profesores de BYU Adam Rogers, Laura Stockdale, Jessica Zurcher y el estudiante graduado de BYU McCall Booth.
La impresora 3-D de alto rendimiento va ser el futuro de la producción industrial
A lo largo de los últimos años en esta columna hemos seguido muy de cerca el desarrollo de la tecnología de impresión 3-D. Precisamente sobre este tema, en el presente artículo, compartido por un estimado colega, se nos proporciona información del desarrollo de una nueva y futurista impresora 3D que es tan grande y tan rápida que puede imprimir un objeto del tamaño de un humano adulto en sólo un par de horas. Este desarrollo lo realizaron investigadores de la Northwestern University (NU) y lo dieron a conocer en su boletín digital el 17 de octubre de 2019 en un documento de difusión escrito por Amanda Morris. Veamos de qué se trata…
Llamada HARP (impresión rápida de área grande) la nueva tecnología permite un rendimiento récord que la convierte ya en estos momentos en un equipo con el potencial de fabricar productos bajo demanda. En los últimos 30 años, la mayoría de los esfuerzos en la impresión 3D se han enfocado a superar los límites de las tecnologías heredadas. A menudo, el buscar fabricar piezas más grandes ha tenido un costo reflejado en una disminución de velocidad, rendimiento y resolución. Con la tecnología HARP, estas desventajas se superan, lo que le permite competir con la resolución y el rendimiento de las técnicas de fabricación tradicionales.
El prototipo de tecnología HARP mide 3.96 metros de altura con una cama de impresión de 2322 centímetros cuadrados y puede imprimir aproximadamente medio metro en una hora, un rendimiento récord para el campo de impresión 3D. Esto significa que puede imprimir partes individuales, grandes o muchas partes pequeñas diferentes a la vez.
"La impresión 3D es conceptualmente poderosa pero se ha limitado ya en la práctica", dijo Chad A. Mirkin de UN, quien dirigió el desarrollo del producto. "Si pudiéramos imprimir rápidamente sin limitaciones en cuanto a materiales y tamaño, podríamos revolucionar la fabricación. HARP está preparada para hacerlo".
Mirkin predice que HARP estará comercialmente disponible en los próximos 18 meses.
El trabajo de investigación será (fue) publicado el 18 de octubre en la revista Science. Mirkin es profesor de química de la Cátedra George B. Rathmann en el Weinberg College of Arts and Sciences de NU y director del International Institute of Nanotechnology. David Walker y James Hedrick, ambos investigadores que trabajan en el laboratorio de Mirkin, fueron coautores del artículo.
Manteniéndolo fresco
HARP utiliza una nueva versión de estereolitografía pendiente de patente, un tipo de impresión 3D que convierte el plástico líquido en objetos sólidos. HARP imprime verticalmente y utiliza luz ultravioleta que se proyecta para curar las resinas líquidas en el plástico endurecido. Este proceso puede imprimir piezas duras, elásticas o incluso cerámicas. Estas piezas impresas en forma continua son mecánicamente robustas en comparación con las estructuras laminadas comunes en otras tecnologías de impresión 3D. Se pueden usar como piezas para automóviles, aviones, odontología, aparatos ortopédicos, moda y mucho más.
Un factor limitante importante para las impresoras 3D actuales es el calor. Las impresoras 3D a base de resina generan mucho calor cuando se ejecuta a altas velocidades, a veces superior a 180 grados centígrados. Esto no sólo conduce a temperaturas peligrosamente altas en la superficie, sino que también puede hacer que las piezas impresas se agrieten y se deformen. Cuanto más rápido es, más calor genera la impresora. Y si es grande y rápido, el calor es increíblemente intenso.
Este problema ha convencido a la mayoría de las empresas de impresión 3D a permanecer pequeñas. "Cuando estas impresoras funcionan a altas velocidades, se genera una gran cantidad de calor a partir de la polimerización de la resina", dijo Walker. "No tienen forma de disiparlo".
'Teflón líquido'
La tecnología Northwestern evita este problema con un líquido antiadherente que se comporta como el teflón líquido. HARP proyecta luz a través de una ventana para solidificar la resina sobre una placa que se mueve verticalmente. El teflón líquido fluye sobre la ventana para eliminar el calor y luego lo circula a través de una unidad de enfriamiento.
"Nuestra tecnología genera calor al igual que los demás", dijo Mirkin. "Pero tenemos una interfaz que elimina el calor".
"La interfaz también es antiadherente, lo que evita que la resina se adhiera a la impresora", agregó Hedrick. "Esto aumenta la velocidad de la impresora en cien veces porque las piezas no tienen que ser cortadas repetidamente desde la parte inferior del tanque de impresión".
Adiós almacenes
Los métodos de fabricación actuales pueden ser procesos engorrosos. A menudo requieren el llenado de moldes prediseñados, que son caros, estáticos y ocupan un valioso espacio de almacenamiento. Mediante el uso de moldes, los fabricantes imprimen piezas con anticipación, a menudo adivinando cuántas se podrían necesitar, y las almacenan en almacenes gigantes.
Aunque la impresión 3D está pasando de la creación de prototipos a la fabricación industrial, el tamaño y la velocidad actuales de las impresoras 3D los han limitado a la producción en lotes pequeños. HARP es la primera impresora que puede manejar lotes grandes y piezas grandes además de piezas pequeñas.
" Dado que puede imprimir en gran formato y además muy rápido, realmente puede cambiar la forma en que pensamos sobre la fabricación industrial", dijo Mirkin. "Con HARP, puedes construir lo que quieras sin moldes y sin un almacén lleno de piezas. Puedes imprimir cualquier cosa que puedas imaginar a pedido".
La más grande en su clase
Mientras que otras tecnologías de impresión han ralentizado o reducido su resolución para hacerse grande, HARP no hace tales concesiones.
"Obviamente, hay muchos tipos de impresoras 3D: se observa ya impresoras construyendo edificios, puentes y carrocerías, y también se observa impresoras que pueden hacer piezas pequeñas a resoluciones muy altas", dijo Walker. "Estamos entusiasmados porque esta es la impresora más grande y de mayor rendimiento en su clase".
Las impresoras en la escala de HARP a menudo producen piezas que deben lijarse o mecanizarse hasta su geometría final. Esto agrega un gran costo laboral al proceso de producción. HARP pertenece a una clase de impresoras 3D que utilizan patrones de luz de alta resolución para lograr piezas listas para usar sin un procesamiento posterior extenso. El resultado es una ruta comercialmente viable para la fabricación de bienes de consumo.
Nano se vuelve grande
Mirkin, un experto de renombre mundial en nanotecnología, inventó la impresora más pequeña del mundo en 1999. Llamada nanolitografía de pluma sumergida, la tecnología utiliza una pluma pequeña para modelar las características a nanoescala. Luego hizo la transición a una serie de bolígrafos pequeños que canalizan la luz a través de cada bolígrafo para generar localmente características de materiales fotosensibles. La interfaz especial antiadherente utilizada en HARP se originó al trabajar para desarrollar esta tecnología en una impresora 3D a nanoescala.
"Desde un punto de vista volumétrico, hemos abarcado más de 18 órdenes de magnitud", dijo Mirkin.
El estudio, "Impresión 3D rápida, de gran volumen y controlada térmicamente utilizando una interfaz líquida móvil", fue fondeado por la Air Force Office of Scientific Research (número de proyecto FA9550-16-1-0150), el Department of Energy de los EUA (número de proyecto DE-SC0000989) así como por la Fundación Sherman Fairchild.
Fuente:
https://news.northwestern.edu/stories/2019/10/biggest-fastest-3d-printer-is-future-of-manufacturing/
Beipanjiang Bridge Duge, el puente más alto del mundo.
Un estimado colega y amigo nos comparte la siguiente extraordinaria información publicada en el boletín digital de highestbridges.com. Démosle un vistazo.
Barriendo con todas la marcas anteriores en cuestión de altura de puentes, el nuevo Beipanjiang Bridge Duge se inauguró en diciembre de 2016 como el primer puente que supera la barrera de 500 metros de altura, convirtiéndose así en el primer puente atirantado en tener el título del “puente más alto del mundo”.
El Puente Duge es un puente atirantado en la frontera entre las provincias de Guizhou y Yunnan. A partir de 2016, el puente es el más alto del mundo con la sobrecubierta de la carretera situada a más de 565 metros sobre el Río Beipan. El puente es parte de la autopista G56 Hangzhou – Ruili entre Qujing y Liupanshui. La torre este mide 269 m, por lo que es una de las más altas del mundo.
El puente abarca 1,340 entre la ciudad de Xuanwei, Yunnan y el condado de Shuicheng, Guizhou. Acorta el viaje entre los dos lugares de más de cuatro horas en coche a aproximadamente una hora de acuerdo con la televisión estatal CCTV.
Ninguna otra región en la Tierra tiene tantos puentes altos como la remota provincia occidental de Guizhou en China y no hay vías fluviales dentro de sus fronteras con una mayor colección de tramos de puentes súper altos que el poderoso río Beipan. Traducido como el río North Winding, el BeipanJiang fluye en un cañón norte-sur que divide las mitades occidental y oriental de Guizhou. Los acantilados verticales de piedra caliza caen tan profundo que gran parte del río tiene una sombra permanente durante casi todo el día. Espaciados aproximadamente cada 50 kilómetros a lo largo de su longitud hay una colección de puentes épicos de carreteras y ferrocarriles que han empujado a los extremos del diseño a la comunidad de ingenieros de puentes de China.
La autopista G56, que se terminó en 2016, es la última de las grandes rutas Este-Oeste de Guizhou y permitirá un fácil acceso a la cercana provincia de Yunnan a través de un terreno que antes era inaccesible para los automóviles y camiones normales. Toda la carretera dividida por cuatro carriles se extiende a lo largo de 2,935 increíbles kilómetros desde la ciudad de Hanghzou, cerca de Shanghai, hasta la frontera de Birmania, cerca del Tíbet. La geografía extrema a lo largo del G56 ha producido no sólo el puente más alto del mundo sobre el río Beipanjiang cerca de Duge, Guizhou, sino también el puente colgante más alto del mundo, varios kilómetros más al oeste cerca de Puli, Yunnan.
Toda esta locura de puentes súper altos comenzó en 2001 cuando para poder atravesar el poderoso río Beipan obligó a la construcción del puente ferroviario más alto del mundo a unos 275 metros sobre un cañón cubierto de rocas en el ferrocarril Shuibai. Dos años más tarde, ese triunfo fue seguido por el primer récord de puentes de carretera sobre ríos, cuando el puente Beipanjiang Huajiang se inauguró en 2003 superando el umbral de 300 metros de altura y se convirtió en el primer puente colgante en el mundo en superar la altura del puente Royal Gorge de Colorado después de un reinado de 74 años.
Esto fue seguido por una sucesión de puentes tanto altos como súper altos, incluido el puente Beipanjiang Hukun en la autopista G60, el puente Beipanjiang en la autopista Shuipan con el puente de vigas de alto nivel más largo del mundo, la autopista Wang'an del puente Beipanjiang y El puente Beipanjiang Zhenfeng.
Pero en 2016, Beipan entregó sus dos mayores obsequios de puentes altos en la forma del puente ferroviario de Beipanjiang Qinglong: el puente ferroviario de "alta velocidad" más alto del mundo a 295 metros y el colosal puente Duge de Beipanjiang a 564 metros de altura. Otros honores de ingeniería que Duge puede reclamar incluyen tener el segundo tramo de cable atirantado de acero más largo y la décima torre de puente más alta del mundo con 269 metros.
Hasta el año 2000, la experiencia de viajar por Guizhou era tan agotadora y ardua que a menudo llevaba días a lo largo de una antigua y peligrosa red de carreteras nacionales de dos carriles a pesar de ocupar un territorio un poco más pequeño que Gran Bretaña o el estado de Washington de EUA. Esta infraestructura anticuada limitó el tipo de crecimiento que había desarrollado las provincias orientales, donde la accesibilidad había mejorado de manera constante y rápida desde principios de la década de 1990.
El primer indicio de las aspiraciones de construir puentes de gran calado fue en Guizhou. Ahí se 2001 el puente de vigas de Liuguanghe se abrió como el puente más alto del mundo en una autopista de dos carriles entre la ciudad capital de Guiyang y el condado más pequeño de Bijie en la esquina noroeste de la provincia.
En los 15 años que siguieron, la construcción de la autopista se puso en marcha con cuatro y ahora con seis carriles que conectan ciudades grandes y pequeñas, independientemente de lo difícil que pueda ser el terreno montañoso. Un viejo dicho dice que en Guizhou no hay tres días sin lluvia, ni tres acres sin una montaña, ni tres monedas en el bolsillo. ¡Es posible que tengan que enmendar eso y agregar que no hay tres kilómetros de autopista sin un puente alto!
Hoy, la provincia de Guizhou es el hogar de más puentes altos que todos los demás países del mundo combinados. Para 2020 Guizhou tendrá más de 250 puentes de más de 100 metros de altura, medidos desde la cubierta de la carretera o el ferrocarril hasta el agua. Compare eso con Italia, que tiene el segundo mayor número de puentes altos del mundo con sólo 40 calados que superan los 100 metros de altura. De los 20 súper calados de puentes más altos del mundo que superan los 300 metros desde la cubierta hasta el agua, todos se encuentran en China, excepto tres y uno de ellos es el puente Baluarte, entre Sinaloa y Durango, México con 403 metros.
Fuente :
http://www.highestbridges.com/wiki/index.php?title=Beipanjiang_Bridge_Duge
Descubren la interacción entre hongos benignos y malignos que impulsa la biodiversidad forestal
Estimados lectores, con la columna de hoy alcanzamos ya seis años de estar compartiendo interesantes artículos con ustedes. Agradecemos su amable atención y también agradecemos a todos los colegas que nos comparten continuamente, desde diferentes partes del contiene, importantes noticias y curiosidades de sus áreas de trabajo. A todos ¡Muchas gracias!
Los científicos han entendido durante mucho tiempo que la biodiversidad forestal está impulsada en parte por algo llamado ventaja de especies raras, es decir, un árbol individual tiene una mejor oportunidad de supervivencia si sólo hay unos pocos árboles de la misma especie. Como resultado, cuando el número de árboles de cualquier especie aumenta, las tasas de supervivencia entre los árboles individuales de esa especie disminuyen. Los científicos coinciden en que la ventaja de las especies raras promueve la diversidad forestal al evitar que una especie de árbol domine el bosque, pero los mecanismos subyacentes a la ventaja de las especies raras han sido difíciles de identificar.
Al respecto un querido colega, ingeniero agrónomo, nos comparte el presente artículo escrito por Kimbra Cutlip y publicado el pasado 3 de octubre de 2019 en el boletín digital de noticias y eventos del College of Computer, Mathematical and Natural Sciences de la “
University of Maryland (UM). Veamos de qué se trata…
Un nuevo estudio realizado por investigadores de la UM y la Chinese Academy of Sciences revela que una interacción compleja entre los hongos del suelo y las raíces de los árboles podría ser la causa de la ventaja de las especies raras. Los investigadores encontraron que el tipo de hongos benéficos del suelo que viven alrededor de las raíces de los árboles en un bosque subtropical en China determinó la rapidez con la que los árboles acumulaban hongos patógenos y dañinos a medida que crecían. La tasa de acumulación de hongos patógenos influyó fuertemente en qué tan
bien sobrevivieron los árboles al crecer cerca de árboles de la misma especie. El estudio fue publicado en la edición del 4 de octubre de 2019 de la revista Science.
"Durante años, se presumió que los herbívoros eran los principales impulsores de la ventaja de las especies raras", dijo el profesor de biología de la UMD, Nathan Swenson, coautor del artículo. "Pero el importante papel de los hongos patógenos se ha hecho evidente en los últimos años. Esta es la primera vez que alguien profundiza en ese rol de los hongos, observando las tasas de acumulación de hongos patógenos en los árboles junto con las relaciones que los árboles tienen con los hongos beneficiosos. Se encontró que los dos están fuertemente correlacionado, y la relación entre esos dos factores es un fuerte indicador de cómo la densidad de especies afecta la supervivencia. No esperábamos una correlación tan determinante".
Entre los diferentes tipos de hongos beneficiosos que proporcionan nutrientes a las raíces de los árboles, dos resultaron significativos en este estudio: hongos ectomicorrícicos que crecen en el exterior de las raíces de los árboles y hongos micorrícicos arbusculares que se canalizan hacia las raíces. Los investigadores encontraron que las raíces de los árboles asociadas con hongos micorrícicos arbusculares acumularon hongos patógenos dañinos más rápido que aquellos con hongos ectomicorrícicos.
Swenson sugirió que los hongos ectomicorrícicos que rodean las raíces en el exterior pueden proteger las raíces de los hongos patógenos, mientras que los hongos arbusculares que perforan las raíces pueden ofrecer una vía para que los hongos dañinos entren al árbol.
A lo largo del estudio, las tasas de supervivencia de los árboles variaron con la ubicación y las especies, al igual que las cantidades de árboles de hongos y la fuerza de la ventaja de las especies raras. Esa variación es típica de los bosques, y es lo que hace difícil descubrir los mecanismos detrás de la ventaja de las especies raras. Al observar los hongos beneficiosos y patógenos en combinación con qué tan bien sobrevivieron los árboles cerca de vecinos de la misma especie, Swenson y sus colegas pudieron identificar patrones claros.
"En nuestro estudio, los árboles que obtuvieron mejores resultados en los grupos de mayor densidad tenían niveles más altos de hongos ectomicorrícicos", dijo Swenson. "Además, vimos que los árboles que acumulan hongos patógenos más rápido sufren más cuando sus poblaciones son más densas".
Los investigadores postulan que los árboles con tasas más rápidas de acumulación de patógenos acumulan mayores cargas de patógenos a medida que envejecen, lo que los hace más infecciosos para las plántulas cercanas y los árboles más pequeños de la misma especie. La propagación de la infección de árboles más grandes con altas cargas de patógenos a las plántulas de la misma especie podría ser una causa subyacente de la ventaja de especies raras.
Los árboles con hongos ectomicorrícicos pueden estar más protegidos de la infección, incluso cuando están cerca de vecinos infectados de la misma especie, lo que podría explicar por qué les va mejor en grupos más densos.
Para llevar a cabo el estudio, los investigadores recolectaron tierra alrededor de las raíces de 322 árboles de 34 especies en una parcela forestal en la Reserva Natural Nacional Gutianshan en la provincia de Zhejiang, China. Swenson y sus colegas secuenciaron el ADN de hongos de sus muestras y luego correlacionaron el tipo de hongos asociados con cada especie de árbol con la cantidad de hongos acumulados por árboles de diferentes edades. También analizaron los datos de supervivencia de plántulas a largo plazo del mismo bosque de 2006 a 2014, observando qué tan bien sobrevivieron las plántulas de cada especie a medida que aumentó el número de árboles de la misma especie.
El análisis reveló que las variaciones en el nivel de ventaja de especies raras entre especies y ubicaciones podrían explicarse por el tipo de hongos beneficiosos en el suelo que rodea las raíces de los árboles. Las especies arbóreas asociadas con hongos ectomicorrícicos tuvieron tasas de acumulación de hongos patógenos más lentas y una ventaja más débil para las especies raras. Los árboles asociados con hongos micorrícicos arbusculares tenían mayores tasas de acumulación de hongos patógenos y una ventaja más fuerte de las especies raras.
"Todos entendemos que la ventaja de las especies raras es realmente importante para la diversidad forestal", dijo Swenson. "Con este estudio, realmente estamos comenzando a ver la compleja batalla que se libra en el componente microbiano de estos ecosistemas y los roles de duelo entre los diferentes hongos".
Fuente:
https://cmns.umd.edu/news-events/features/4489
La tecnología eléctrica moderna podría ayudar a revertir la calvicie
Pocas cosas en la Tierra infunden un miedo tan profundo en los corazones de los hombres que la pérdida de su cabello.
Una colega que se desempeña en el área de materiales nos comparte para este envío un artículo escrito por Sam Million-Weaver y publicado el 13 de septiembre pasado en el boletín digital de noticias de la University of Wisconsin-Madison (UW-M), donde se asegura que revertir la calvicie algún día podría ser tan fácil como usar un sombrero, esto gracias a una tecnología no invasiva y de bajo costo que estimula el crecimiento del cabello y que fue desarrollada por ingenieros precisamente de esta universidad (UW-M).
"Creo que esta será una solución muy práctica para la regeneración del cabello", dice Xudong Wang, profesor de ciencia e ingeniería de materiales en UW-Madison.
Wang y sus colegas publicaron una descripción de la tecnología en la revista “ACS Nano”.
Basado en dispositivos que recolectan energía del movimiento diario del cuerpo, la tecnología de crecimiento del cabello estimula la piel con pulsos eléctricos suaves y de baja frecuencia, que inducen a los folículos inactivos a reactivar la producción de cabello.
El dispositivo en cuestión no hace que los folículos pilosos broten nuevamente en una piel suave. En cambio, reactivan las estructuras productoras de cabello que han quedado inactivas. Esto significa que podrían usarse como una ayuda clave para las personas que observen las primeras etapas de un proceso que los llevaría eventualmente a la calvicie, pero definitivamente no otorgarían frondosas trenzas a alguien que ha sido tan calvo como una bola de billar durante varios años.
Debido a que los dispositivos funcionan con el movimiento del usuario, no requieren una batería voluminosa o componentes electrónicos complicados. De hecho, son tan discretos que se pueden usar discretamente debajo del forro de una cachucha de béisbol común y corriente.
Wang es un experto mundial en el diseño y creación de dispositivos de recolección de energía. Ha sido pionero en vendajes eléctricos que estimulan la cicatrización de heridas y un implante para bajar de peso que usa electricidad suave para engañar al estómago para que se sienta lleno.
La tecnología de crecimiento del cabello se basa en una premisa similar: los dispositivos pequeños llamados nanogeneradores recolectan energía pasivamente de los movimientos diarios y luego transmiten pulsos de electricidad de baja frecuencia a la piel. Esa suave estimulación eléctrica hace que los folículos inactivos se "despierten".
"Las estimulaciones eléctricas pueden ayudar a muchas funciones corporales diferentes", dice Wang. "Pero antes de nuestro trabajo no había una solución realmente buena para dispositivos de bajo perfil que proporcionaran estimulaciones suaves pero efectivas".
Debido a que los pulsos eléctricos son increíblemente suaves y no penetran más profundo que las capas más externas del cuero cabelludo, los dispositivos no parecen causar ningún efecto secundario desagradable. Esa es una marcada ventaja sobre otros tratamientos para la calvicie, como el medicamento Propecia, que conlleva riesgos de disfunción sexual, depresión y ansiedad.
Además, en pruebas paralelas en ratones sin pelo, los dispositivos estimularon el crecimiento del cabello con la misma eficacia que dos compuestos diferentes que se encuentran en los medicamentos para la calvicie.
"Es un sistema autoactivado, muy simple y fácil de usar", dice Wang. "La energía es muy baja, por lo que causará efectos secundarios mínimos".
Los investigadores han patentado el concepto con la Wisconsin Alumni Research Foundation, y esperan seguir adelante con las pruebas en humanos pronto.
Fuente: https://news.wisc.edu/electric-tech-could-help-reverse-baldness/
Cómo fabricar vidrio más fuerte: la fuerza secreta del rechinar de dientes
Hay un método para modelar elementos finitos para microarquitectura de materiales que permite fabricar vidrio ultra-fuerte. Los investigadores usan modelos complejos para estudiar el punto de ruptura de los materiales quebradizos; el secreto se encuentra en el rechinar de dientes.
Un colega, ingeniero mecánico, nos ha compartido el presente artículo escrito por Allison Mills, y publicado en el boletín digital del Michigan Technological University el 3 de septiembre de 2019.
La fuerza de los dientes se mide en la escala de milímetros. Las “sonrisas de porcelana” son algo así como cerámica, excepto que si bien los platos de porcelana se rompen cuando se chocan entre sí, nuestros dientes no lo hacen, y es porque están llenos de defectos.
Esos defectos son lo que inspiró la investigación dirigida por Susanta Ghosh, profesor asistente en el Departamento de Ingeniería Mecánica en la Michigan Technological University.
El trabajo se publicó recientemente en la revista Mechanics of Materials haciendo equipo con los estudiantes de posgrado cuya investigación está enfocada en este tema: Upendra Yadav, Mark Coldren y Praveen Bulusu, así como su colega ingeniera mecánica Trisha Sain Ghosh, quienes examinaron lo que se llama la microarquitectura de materiales frágiles como el vidrio y la cerámica.
"Desde la época de los alquimistas, la gente ha intentado crear nuevos materiales", dijo Ghosh.
"Nuestro trabajo fue a nivel químico y trabajamos a microescala. Cambiar las geometrías (la microarquitectura) de un material es un nuevo paradigma y abre muchas posibilidades nuevas porque estamos trabajando con materiales conocidos".
El vidrio es uno de esos materiales. Hacer vidrio más resistente nos llevó necesariamente a estudiar los dientes y a las conchas marinas. En el nivel micro, los componentes primarios duros y quebradizos de los dientes y las carcasas de las conchas tienen interfaces débiles o defectos. Estas interfaces están llenas de polímeros blandos.
A medida que los dientes rechinan y las conchas chocan, las partes blandas amortiguan las placas duras, dejándolas deslizarse una sobre la otra. Bajo una mayor deformación, se enclavan como cierres de velcro, llevando así enormes cargas. Pero mientras mastica, nadie podría ver la forma de un diente cambiar a simple vista. La microarquitectura cambiante ocurre en la escala de micras, y su estructura de enclavamiento rebota hasta que un caramelo pegajoso o un grano de palomitas de maíz deshuesado empuja las placas deslizantes hasta el punto de ruptura.
Ese punto de quiebre es lo que estudia Ghosh. Los investigadores en el campo han descubierto en experimentos que agregar pequeños defectos al vidrio puede aumentar la resistencia del material 200 veces. Eso significa que los defectos suaves ralentizan la falla, guían la propagación de grietas y aumentan la absorción de energía en el material frágil.
"El proceso de falla es irreversible y complicado porque las arquitecturas que atrapan la grieta a través de una ruta predeterminada pueden ser curvas y complejas", dijo Ghosh. "Los modelos con los que trabajamos intentan describir la propagación de fracturas y la mecánica de contacto en la interfaz entre dos bloques de construcción quebradizos".
El equipo de Ghosh desarrolló dos modelos. El primero usa modelado de elementos finitos (FEM) y es detallado y altamente preciso, pero costoso. El segundo es sorprendentemente preciso, aunque menos que las técnicas FEM, y es mucho más barato de calcular.
FEM es un modelo numérico que separa un todo complejo mediante la evaluación de piezas separadas, llamadas elementos finitos, y luego vuelve a unir todo utilizando el cálculo de variaciones.
A Humpty Dumpty y a todos los hombres del rey les hubiera gustado FEM, pero no es un truco rápido en la carretera. Para ejecutar cálculos tan complejos se requiere una supercomputadora, como la existente en Michigan Tech, y garantizar que las entradas correctas se conecten requiere diligencia, paciencia y un buen ojo para codificar los detalles. Usar FEM para un vidrio súper fuerte significa modelar todas las posibles interacciones entre las placas duras y los puntos blandos del material. El modelado analítico ofrece una alternativa.
"Queríamos un modelo simple y aproximado para describir el material", dijo Ghosh, explicando que el equipo utilizó ecuaciones matemáticas más básicas que los cálculos FEM para delinear y describir las formas dentro del material y cómo podrían interactuar. "Por supuesto, un experimento es la prueba definitiva, pero un modelado más eficiente nos ayuda a acelerar el proceso de desarrollo y ahorrar dinero al enfocarnos en materiales que funcionan bien en los modelos".
Tanto el FEM como el modelado analítico de microarquitectura del laboratorio de Ghosh pueden ayudar a hacer que la cerámica, los implantes biomédicos y el vidrio en los edificios sean tan duros como nuestros dientes.
Fuente de la historia:
https://www.mtu.edu/unscripted/stories/2019/august/the-secret-strength-of-gnashing-teeth.html
Dándole un sentido a la rotación imposible de Saturno
Como todos sabemos, Saturno es el sexto planeta del sistema solar con relación al Sol, el segundo en tamaño y masa después de Júpiter y el único con un sistema de anillos visible desde la Tierra. Su nombre proviene del dios romano Saturno. Forma parte de los denominados planetas exteriores o gaseosos. El aspecto más característico de Saturno son precisamente sus brillantes anillos. Saturno es un planeta impresionante, no sólo por estos anillos pero por muchas otras características sorprendentes. Una cosa curiosa de este planeta es que el periodo de rotación no se ha podido determinar con exactitud. En forma aproximada se considera que este período es entre 10 y 11 horas. Al respecto, un estimado colega nos ha enviado el presente artículo escrito por Larry O'hanlon, de la American Geophysical Union, y publicado en el boletín de Geospace el 5 de septiembre de 2019. Veamos qué nos dice…
Según un nuevo estudio, Saturno puede estar haciendo un pequeño giro electromagnético que ha estado interfiriendo con los intentos de los científicos de determinar en forma exacta cuánto tiempo tarda el planeta en girar sobre su eje,
Descubrir la duración de un día en cualquier planeta parece una tarea sencilla: primero, encontrar alguna característica física en el planeta y luego, registrarla a medida que gira una vez. O, si se trata de un gigante gaseoso como Júpiter, que no tiene características de superficie sólida, los científicos pueden escuchar modulaciones periódicas en la intensidad de las señales de radio creadas dentro del campo magnético giratorio del planeta.
Y luego esta Saturno, que durante décadas ha desafiado los intentos de precisar su periodo de rotación exacto. Ahora, un nuevo estudio publicado en la edición de agosto del Journal of Geophysical Research: Space Physics parece que nos está proporcionando finalmente indicios de una clave que nos debe llevar a develar cuál era el truco del gigante gaseoso para ocultar su rotación, lo que proporcionaría un avance en la indagación de su secreto.
La nueva investigación muestra cómo los cambios estacionales en Saturno pueden ser intentos confusos de los científicos para calcular su período de rotación exacto.
El período de rotación es una de los características fundamentales de un planeta, junto con su tamaño, composición, período orbital y otras tipologías que no sólo describen un planeta sino que ayudan a explicar su comportamiento, historia e incluso proporcionan pistas de su formación.
Saturno tímido
Saturno emite solo patrones de radio de baja frecuencia que están bloqueados por la atmósfera de la Tierra, lo que dificulta el estudio de su rotación desde la superficie de nuestro planeta. En contraste, Júpiter emite patrones de radio a frecuencias más altas, que permitieron a los radio astrónomos calcular su período de rotación antes de que iniciara la era espacial.
No fue hasta que se enviaron las naves espaciales a Saturno que los científicos pudieron recopilar datos sobre su rotación. Los Voyagers 1 y 2 enviaron a casa los primeros indicios de la rotación de Saturno en 1980 y 1981. Detectaron una modulación de la intensidad de radio que sugería que el planeta giraba una vez cada 10 horas y 40 minutos.
"Así que eso fue lo que se llamó el período de rotación", dijo Duane Pontius del Birmingham-Southern College, en Alabama, y coautor del nuevo estudio.
Cuando la nave espacial Cassini llegó a Saturno 23 años después para estudiar el planeta durante 13 años, encontró algo sorprendente.
"Alrededor de 2004 vimos que el período había cambiado en 6 minutos, alrededor del 1 por ciento", dijo Pontius.
Un modelo analógico mecánico de lo que podría estar sucediendo con los hemisferios norte y sur de la atmósfera de Saturno y el plasma magnetosférico para crear señales engañosas de la velocidad de rotación del planeta. El "freno" es la desaceleración del plasma a medida que vuela más lejos del planeta, de la misma manera que los brazos de un bailarín giratorio se mueven más despacio cuando están estirados que cuando se mantienen cerca del cuerpo. Crédito: E. L. Brooks, et al, 2019, JGR: Física espacial
Pero, ¿cómo puede cambiar un planeta entero la velocidad de su rotación en 20 años? Ese es el tipo de cambio que lleva cientos de millones de años. Aún más misteriosa fue la detección de Cassini de patrones electromagnéticos que sugirieron que la rotación del planeta es diferente en los hemisferios norte y sur.
"Durante mucho tiempo, supuse que había algo mal con la interpretación de los datos", recordó Pontius. "Simplemente no es posible".
Estaciones de Saturno
Para descubrir lo que realmente estaba sucediendo, Pontius y sus coautores comenzaron observando cómo Saturno es diferente de su hermano más cercano, Júpiter.
"¿Qué tiene Saturno que le falta a Júpiter, además de los anillos obvios?" Pontius preguntó. La respuesta: estaciones. El eje de Saturno está inclinado unos 27 grados, similar a la inclinación de 23 grados de la Tierra. Júpiter apenas tiene inclinación, sólo 3 grados.
La inclinación significa que los hemisferios norte y sur de Saturno reciben diferentes cantidades de radiación del Sol dependiendo de la estación. Las diferentes dosis de luz ultravioleta afectan los átomos despojados, llamados plasma, en el borde de la atmósfera de Saturno.
Según el modelo propuesto por Pontius y sus colegas, las variaciones en los rayos UV de verano a invierno en los diferentes hemisferios afectan el plasma, de modo que crea más o menos resistencia en las altitudes donde se encuentra con la atmósfera gaseosa del planeta.
Esa diferencia en la resistencia hace que la atmósfera
se ralentice, que es lo que establece el período visto en las señales de radio.
Cambia el plasma estacionalmente y cambia el período de las emisiones de radio, que es lo que se ve en Saturno.
El nuevo modelo proporciona una solución al enigma de los imposibles períodos de rotación cambiantes de Saturno. También muestra que los períodos observados no son el período de rotación del núcleo de Saturno, que permanece sin medir.
Pontius presentó el modelo a principios de este año en una reunión de científicos de Saturno y dijo que fue bien recibido. Ahora espera que otros investigadores den el siguiente paso para refinar el modelo explorando qué tan bien encaja con 13 años de datos de Saturno recopilados por Cassini.
Fuente:
https://es.wikipedia.org/wiki/Saturno_(planeta)
https://blogs.agu.org/geospace/2019/09/05/making-sense-of-saturns-impossible-rotation/
El rover que viajará a Marte en 2020
Un estimado colega, ingeniero industrial del estado grande, nos envía esta rápida mirada al vehículo robotizado (rover) que viajara a Marte en el 2020, el cual está equipado con un taladro con el que perforará hasta dos metros de la superficie marciana en busca de signos de vida. El material enviado fue publicado en la edicion del 27 de marzo de 2019 del newsletter de MANUFACTURA en un artículo escrito por Víctor Lomelí. Veamos de qué se trata…
El rover ExoMars cada vez está más cerca de emprender su viaje a Marte. El vehículo robótico de 300 kilogramos, desarrollado en la planta de Airbus Defence and Space, Stevenage, en Reino Unido; forma parte del programa ExoMars, creado en marzo de 2016 y desarrollado por la Agencia Espacial Europea en cooperación con la Agencia Espacial Rusa Roscosmos y el apoyo de la NASA.
El viaje a Marte del rover ExoMars está programado para julio del siguiente año y se espera que aterrice en la superficie marciana en 2021, según información de Airbus.
En un comunicado, el fabricante detalló que en breve la unidad llegará a las instalaciones que tiene en Toulouse, donde se someterá a una serie de pruebas cruciales antes de su entrega a Thales Alenia Space, en Italia.
Thales Alenia Space es el contratista principal de la misión y está a cargo del diseño, desarrollo y verificación del sistema al completo, del desarrollo del sistema de navegación y guiado del módulo de transporte, y de la instrumentación de entrada, descenso y aterrizaje (EDL, por sus siglas en inglés) y el sistema de orientación, navegación y control (GNC por sus siglas en ingles). Asimismo está encargado del sistema del rover, incluyendo el laboratorio analítico y del suministro de otros elementos básicos para la misión.
El ExoMars “Rosalind Franklin” sera el primer rover planetario de Europa y tendrá la encomienda de buscar signos de vida pasada o presente en Marte. Fue nombrado así en honor a Rosalind Elsie Franklin, científica británica y co-descubridora de la estructura del ADN.
La unidad está equipada con un taladro de dos metros desarrollado por Leonardo, el fabricante italiano de soluciones para la industria aeroespacial, con el cual podrá tomar muestras del subsuelo, donde los “indicios de vida” podrían haber estado protegidas de la severa radiación ambiental del planeta.
Otros involucrados en el programa ExoMars son ALTEC –Aerospace Logistics Technology Engineering, empresa controlada al 63.75% por Thales Alenia Space y de ASI (con representatividad de la compañía de 36.25%)– las cuales serán responsables del diseñoo, desarrollo y mantenimiento del ROCC (centro de control de operaciones del rover) y de controlar la unidad en la superficie de Marte.
EQUIPO SOFISTICADO
La unidad dispone de nueve instrumentos que ayudarán a los científicos a realizar una exploración paso a paso de Marte, comenzando a una escala panorámica y avanzando progresivamente hacia análisis más reducidos (a nivel submilimétrico) para finalizar con la identificación molecular de compuestos orgánicos.
También está equipado con un sistema de navegación autónomo desarrollado por Airbus, que le permitirá trasladarse entre puntos de interés más rápido que si se controlara de modo remoto en tiempo real desde la Tierra. Ello evita el desfase natural que existe en términos de comunicación.
Y es que entre Marte y la Tierra hay un retraso de hasta 10 minutos, en cada sentido (20 minutos en total) debido a que la luz viaja más rápido que el sonido, según dijo Emmanuel Urquieta Ordoñez, primer mexicano en participar en misiones de simulación al planeta rojo, durante un foro sobre medicina espacial realizado en 2017, en la Universidad Anáhuac.
El rover “Rosalind Franklin” fue instalado en su contenedor especial de protección en Stevenage para trasladarlo a Toulouse el pasado sábado 28 de agosto.
Fuente:
https://manufactura.mx/innovacion/2019/08/27/el-rover-que-viajara-a-marte-en-2020?utm_source=Suscriptores+Manufactura&utm_campaign=b9e4064e50-EMAIL_CAMPAIGN_2019_08_27_10_12&utm_medium=email&utm_term=0_95b6c46df2-b9e4064e50-170606693
ADN antiguo muestra como los europeos barren con nuestros ancestros americanos
Dentro del mismo campo que revisamos la semana pasada, la ingeniería genética, nuestro estimado colega nos envía ahora un sorprendente artículo publicado 2 de abril de 2016 en el boletín digital de la University of Adelaide en el que nos muestra como el primer estudio a gran escala del ADN arcaico de los primeros americanos confirma el impacto devastador de la colonización europea en las poblaciones indígenas de la época. Veamos de qué se trata….
Dirigidos por el Australian Centre for Ancient DNA (ACAD) de la University of Adelaide (UA) los investigadores han reconstruido una historia genética de las poblaciones indígenas estadounidenses al observar directamente el ADN de 92 momias y esqueletos precolombinos, entre 500 y 8600 años de edad.
Publicado en Science Advances, el estudio revela una sorprendente ausencia de los linajes genéticos precolombinos en los indígenas estadounidenses modernos; mostrando la extinción de estos linajes con la llegada de los españoles.
"Sorprendentemente, ninguno de los linajes genéticos que encontramos en casi 100 humanos antiguos estaba presente, o mostró evidencia de descendientes, en las poblaciones indígenas de hoy", dice el autor principal adjunto, el Dr. Bastien Llamas, principal investigador asociado del ACAD.
"Esta separación parece haberse establecido ya hace 9000 años y era completamente inesperada, por lo que examinamos muchos escenarios demográficos para tratar de explicar el patrón".
"El único escenario que se ajustaba a nuestras observaciones fue que, poco después de la colonización inicial, se establecieron poblaciones que posteriormente se mantuvieron geográficamente aisladas unas de otras, y que una gran parte de estas poblaciones se extinguieron luego del contacto europeo.
Esto coincide estrechamente con los informes históricos de un colapso demográfico importante inmediatamente después de la llegada de los españoles a fines de la década de 1400 ".
El equipo de investigación, que también incluye miembros de la University of California at Santa Cruz (UCSC) y la Harvard Medical School(HMS), estudió los linajes genéticos maternos mediante la secuenciación de genomas mitocondriales completos extraídos de muestras de huesos y dientes de 92 momias y esqueletos humanos precolombinos, principalmente sudamericanos.
Las antiguas señales genéticas también proporcionan un momento más preciso de las primeras personas que ingresan a las Américas, a través del puente terrestre de Estrecho de Bering que conectaba Asia y el extremo noroeste de América del Norte durante la última Edad de Hielo.
"Nuestra reconstrucción genética confirma que los primeros americanos ingresaron hace unos 16,000 años a través de la costa del Pacífico, bordeando las enormes capas de hielo que bloquearon la ruta del corredor interior que solo se abrió mucho más tarde", dice el profesor Alan Cooper, Director de ACAD. "Se extendieron hacia el sur notablemente rápido, llegando al sur de Chile hace 14.600 años".
"La diversidad genética en estas primeras personas de Asia estuvo limitada por las pequeñas poblaciones fundadoras que estuvieron aisladas en el puente terrestre de Beringia durante aproximadamente 2,400 a 9,000 años", dice el autor principal adjunto, el Dr. Lars Fehren-Schmitz, de la “UCSC”. "Fue en la cima de la última Edad de Hielo, cuando los desiertos fríos y las capas de hielo bloquearon el movimiento humano, y los recursos limitados habrían limitado el tamaño de la población. Este largo aislamiento de un pequeño grupo de personas generó la diversidad genética única observada en los primeros americanos".
El Dr. Wolfgang Haak, anteriormente investigador del ACAD y actualmente trabajando en el Institute for the Science of Human History, dice: "Nuestro estudio es el primer registro genético en tiempo real de estas preguntas clave sobre el momento y el proceso de la población de las Américas. Para obtener una imagen aún más completa, sin embargo, necesitaremos un esfuerzo concertado para construir un conjunto de datos integral del ADN de las personas vivas hoy y sus ancestros precolombinos, para comparar aún más la diversidad antigua y moderna".
Fuente de la historia: https://www.adelaide.edu.au/news/news83922.html
Once motivos para arrepentirse…
Los autos prototipo están íntimamente relacionados con las grandes Exhibiciones de Autos (Auto Shows) que se realizan en todo el mundo. Sin embargo, típicamente estos coches se ven muy diferentes cuando llegan a producirse en serie. Para el presente envío un colega nos comparte, extraído de Mecánica Popular, 11 ejemplos de cuando modificar un auto prototipo, o simplemente el no haberlo producido ha sido un error garrafal.
Vamos a repasar rápidamente estos casos:
Y-Job Buick 1938
Los autos prototipo han sido un eje fundamental en la plantación y mercadeo del diseño automotriz por más de un siglo. Si bien el Cadillac Osceola de Henry Leland (fundador de esa marca) es considerado el primer prototipo de automóvil que fue producido en serie, el Y-Job Buick 1938 es otro ejemplo temprano de un verdadero prototipo.
El Y-Job fue construido bajo la dirección del primer director de diseño de la General Motors, Harley Earl, y nunca se intentó producirlo en serie, pero en cambio, anticipaba algunas ideas sobre el estilo y la ingeniería que Earl y su equipo esperaban utilizar en futuros vehículos de la GM. En esos días, el Y-Job gano popularidad por su estilo moderno que incluía guardafangos integrados, faros frontales ocultos y ausencia de estribos. La reacción positiva a su presentación ayudó a que varias innovaciones de diseño se introdujeran en las nuevas generaciones de coches, incluyendo las robustas aletas traseras que aparecieron en el icónico Cadillac de 1948, así como el diseño de la parrilla que hasta la fecha continua influenciando al diseño del Buick.
Aunque, como ya se menciono, el Y-Job nunca se envió a producción, queda como ejemplo de lo que un buen prototipo puede hacer para una compañía y en general para la industria automotriz.
Sin embargo, no podemos menos que preguntarnos que hubiera pasado si la Buick hubiera producido en serie al Y-Job y concluimos que seguramente hubiera ayudado a esta marca a obtener una inmejorable posición en la post-guerra.
Prototipo Deora Dodge 1967
La primera corrida de “Hot Wheels” incluyo una futurista camioneta dorada llamada 'Deora'. Mientras que esta “pick-up” (camioneta de reparto) se veía como un extravagante interpretación de un diseñador de carros de juguete, fue, de hecho, un modelo a escala de un vehículo real.
Construido en Detroit por los famosos hermanos Alexander (Mike y Larry, quien también ayudaron a Chili Catealo con el diseño del famoso “Little Deuce Coupe”) la Deora se baso en un Dodge A100 (una van de cabina avanzada) y fue provista de un motor Slant-6, 2.8 litros y 101 hp,
La Dodge promovió en 1967 la Deora como un prototipo de camioneta del futuro. ¡Todavía estamos esperándola!
Prototipo Astro III Chevrolet 1969
Para realmente apreciar el prototipo Astro III de la GM, usted lo tendría que ver con los ojos de una persona viviendo en 1969. Imagínese el escenario: el programa espacial de la NASA era la envidia de todo el mundo pues había llegado a la Luna, los transistores estaban remplazando a los bulbos en los radios y las turbinas remplazaban a los motores de hélice en los aviones comerciales. Había un ambiente con sabor a alta tecnología y temas espaciales. Para muestra un botón. ¿Recuerda aquella canción de Frank Sinatra que dice...?
Fly me to the moon
Let me play among the stars
Let me see what spring is like
On a, Jupiter and Mars
In other words, hold my hand
In other words, baby, kiss me
¿Se le antoja escucharla? Sólo busque en (o dele click si nos lee en la versión digital): http://www.youtube.com/watch?v=oCW9Hey6IVY
El elegante Chevrolet Astro III 1969 de dos plazas presagia alternativas tanto en el tren motriz como en una avanzada tecnología automotriz. La turbina pesaba solo 65 kg generando una potencia de 317 hp. Las anchas llantas traseras y las angostas al frente adelantaba por cuatro décadas al carro de carreras DeltaWing. La televisión de circuito cerrado de sus espejos retrovisores, la dirección asistida electrónicamente, así como el toldo que se abría automáticamente con deslizamiento hacia el frente, dejaban ver el pensamiento avanzado del prototipo.
Prototipo AeroVette Chevrolet 1973
Si tan solo una cosa hubiera cambiado a principios de 1970, hoy el Corvette hubiera sido de motor central.
En 1969, Zora Arkus-Duntov (el padre del Corvette) construyó el auto experimental XP-882, un prototipo Corvette de motor central. Desafortunadamente, John DeLorean, en ese tiempo Gerente General de la Chevrolet, por razones hasta ahora desconocidas, archivo el proyecto. Sin embargo, en 1972, para contrarrestar el impacto que en los medios causo la introducción, por parte de la Ford, de su 'Pantera' de motor central, DeLorean autorizo finalmente reabrir el proyecto XP-882. El carro emergió como el XP-895, en donde su motor original V-8 transversal fue remplazado por un motor Wankel de cuatro rotores que producían 420 hp.
Mientras que la GM cancelaba en 1973 el programa de desarrollo de su motor rotativo, la idea de un Corvette de motor central era bien recibida. No obstante, el Corvette permaneció con motor frontal/tracción trasera por razones de costo. Si el XP de motor central se hubiera producido en serie, ¡Hoy el Corvette seguramente sería un fuerte competidor del Ferrari o del Porsche!
Prototipo Aztek Pontiac 1999
Allá en los malos viejos días de la GM, la gente encargada de producción tenía un enorme poder sobre como los vehículos finalmente aparecían en público. Así que, aunque el área de diseño de la GM sabía perfectamente cómo debería ser el primer todo-terreno de esta marca, en el convulso mundo corporativo de los 90, el propio equipo de manufactura de la GM no les dio el gusto. ¿La excusa? Hubiera sido muy costoso.
Esa decisión le costó muy caro a GM.... y no solo en dólares.
El espantoso bodoque de horror con lados como losas que finalmente se produjo en el 2001 comparte muy poco con el prototipo que ve usted en la fotografía arriba. Sus proporciones son completamente diferentes. La alteración más visible fue al techo angular del prototipo, el cual se veía muy similar la producción del Chevrolet Equinox.
Si el prototipo hubiera llegado a producirse, el destino del Aztek hubiera sido muy diferente. En lugar de ello, el Aztek ganó el título del carro más horrible del mundo, y sin duda ayudo a borrar del mapa a la marca Pontiac.
Prototipo Microbus Volkswagen 2001
Algunos vehículos te hacen sonreír con solo verlos, ¿verdad? El prototipo “Microbús” que la VW presentó en la Exhibición de Detroit en el 2001 es uno de ellos.
Diseñado (¿dónde más?) en el Estudio de Diseño Surf-Central en el Simi Valley, California, el Microbús le dio un aire renovado al original de 1950, durante la era posterior al Y2K cuando estaba en plena popularidad las minivans en Norte América. El espacioso exterior presupone un cómodo manejo sobre sus rines de 20 pulgadas. El tren motriz fue tomado de lo que se tenía a mano en el almacén de la VW, en este caso un motor VW-V6 con ángulo estrecho y 3.2 litros. En la parte interior, una agradable vestidura retro genera un espacio completamente moderno y funcional.
El hecho que la VW desarrollara este gran prototipo hace que la cruda realidad materializada en la EuroVan y la Routan sean una tremenda la desilusión. Se asegura que el Prototipo “Microbús” fue una oportunidad perdida muy significativa, y quizá la VW piensa lo mismo, ¿será? Lo decimos porque presentaron en 2011 un segundo prototipo de un pequeño microbús denominado Bulli. ¡La esperanza es lo que muere al último!... ¡lo mismo que las flores silvestres!
Prototipo Continental Lincoln, 2002
Poco coches han envejecido tan orgullosa y elegantemente como el Continental Lincoln 1961-63. Las líneas limpias y sobrias de este sedan se han tornado un icono del diseño moderno y han definido el 'estilo Lincoln' por décadas.
El prototipo Continental Lincoln 2002 que debutó en la Exhibición de Autos de los Ángeles en enero del 2002 prueba que alguien en la Lincoln todavía sabe algo de estilo y legado. ¿Líneas sobrias? Obsérvelo. ¿Puertas para suicidas (con bisagras en el extremo izquierdo)? Obsérvelo. ¿Se reconoce inmediatamente como un Lincoln pero no es notoriamente retro? Obsérvelo.
Sin embargo, en las dos semanas que separan el debut de la Exhibición de L.A. a la Exhibición de Autos en Detroit, Ford Motor Company anunció el resultado de uno más de sus muchos planes de restructuración: la producción del Continental estaba cancelada, resultando este prototipo una pesadilla para el área de Relaciones Públicas de la compañía. Durante la Exhibición de Detroit, el prototipo recién dado de baja fue ignorado y rehuido; se le estaciono en una oscura esquina del área de exhibición de la Lincoln y ahí permaneció mas con pena que con gloria.
Prototipo Shelby Ford GR1 2006
El fantástico Ford GT canceló su producción en 2006, dejando a la Ford sin ningún superauto genuino en su portafolio. El GR-1 podría haber sido ese auto. El poderoso cupe plateado, propulsado con un motor V-10 de 6.4 litros y una potencia de 605 hp, se inspiro en el cupe Shelby Daytona de 1964. Su carrocería de aluminio finamente pulida anuncia orgullosamente su excelente terminado.
En este tiempo, el Jefe de Diseño de la Ford, J. Mays, opinaba que la compañía podía permitirse producir el GR-1 gracias al uso extensivo, en su diseño, de partes del Ford GT. Pero no hubo tal suerte --el auto nunca se envió a producción.
A pesar de que el GT-500 Shelby 2012 es un maravilloso y potente auto, definitivamente no es un superauto. Ford: aun con el Sr. Shelby paseando por ahí, ¡todavía es tiempo de que ustedes construyan este coche! ¡Caray!
Prototipo A-BAT Toyota 2008
Las camionetas se siguen fabricando cada vez mas grandes. Los precios del combustible permanecen altísimos nivel mundial o si no, se incrementan paulatina pero constantemente como en el caso de México. De ahí que los amantes de las camionetas requieran urgentemente una 'pick up' pequeña y poderosa --algo similar a las minicamionetas de los años 70s y 80s.
En el 2008 la Toyota diseñó un prototipo justamente con estas características y lo denominó A-BAT Toyota. Es difícil imaginarse el tamaño del A-BAT solamente viendo la fotografía, sin embargo, en realidad tiene una longitud de solo 4.61 m, lo que la hace 30 cm mas pequeña que un sedan mediano típico. Esta pick-up ligera y compacta utiliza el sistema de tracción híbrido gas-eléctrico del Toyota Prius.
Para dar a espacio para carga a tan pequeño vehiculo (y permitir que cargue materiales hasta de 2.3 m de largo), el A-BAT tiene un caja profunda estilo pick-up y una compuerta central en la parte posterior de la cabina lo cual permite tener un vano que va desde la parte interior de la cabina hasta la cama exterior (como la de la Avalanche de la Chevrolet).
Esta es una de esas ideas que urge la pregunta ¿Pues que están esperando?
Cadillac Dieciséis 2003
La actual esquizofrenia corporativa se puede ver claramente en el hecho que el ex-Jefe de Diseño de la GM fue responsable tanto de la producción del Aztek Pontiac así como del prototipo Cadillac Dieciséis, el sedan de lujo que se puede apreciar en la fotografía.
Diseñado para ser la punta de lanza para que, como Ave Fénix resurge de sus cenizas, sacara a la Cadillac del abismo provocado por el marasmo en diseño y ausencia de ventas. El Dieciséis evoca el legado de la Cadillac de una manera moderna con llantas de 24 pulgadas, una cabina súper-lujosa de cuatro plazas, techo totalmente de vidrio, pilares B invisibles, un extensivo uso de cristal genuino en la decoración tanto en interiores como exteriores. Bajo su cofre que parece a las de gaviota ronronea un motor V-16 desplazando 13.6 litros y produciendo increíblemente 1000 caballos de fuerza y 1000 libras-pie de torque.
La Cadillac nunca produjo el grandioso Dieciséis, pero similarmente al Y-Job Buick de 1938 inspiro al diseño de coches que le precedieron; usted puede ver la influencia del Dieciséis en toda las nuevas generaciones de Cadillacs. Quizá veamos algún día es coche en la Cadillac, sin embargo, es muy probable que nunca veamos un motor como el descrito ya que, como todos sabemos, la actual conciencia por el ahorro de combustible va forzar a que el tamaño de los motores decrezca dramáticamente.
Tomahawk Dodge 2003
Con la sensación de pertenecer, por derecho propio, a un escenario de la película Blade Runner, la estrambótica Tomahawk de Tracción Viperina (Viper-powered) representa lo mejor y lo peor de los autos prototipo.
Los prototipos están en su peor momento cuando, como la Tomahawk, son completamente extravagantes. Si alguna vez la Chrysler considero seriamente construir este animal, sus abogados de seguro hubieran de inmediato abortado el proyecto por miedo a que la opinión publica hubiera concluido que los líderes de la compañía habían perdido completamente la chaveta.
Pero, solo por un segundo, deje a un lado su pragmatismo y considere lo siguiente: El motor V-10 de 8.3 litros de la Tomahawk nos proporciona una potencia de 500 hp. Esta maquina, que trabaja a través de una caja de engranes de dos velocidades, proporciona suficiente poder a esta moto de 680 kg para alcanzar 100 kph en solo 2.5 segundos, con un máximo aproximado de 480 kph.
Con esto, y considerando que la Nissan sigue produciendo un numero limitado de Juke Rs, es claro que, hay por ahí un interesante nicho de mercado para lo insensato. ¿Chrysler, estas escuchando?
Fuente: http://www.popularmechanics.com/cars/news/preview-concept/11-concept-cars-that-should-have-made-it#slide-1
Imposible aplastar a este robot inspirado en las cucarachas
Un estimado colega nos envía la presente información que aparece en el boletín digital de la University of California en Berkeley (UC-Berkely) publicada el 31 de julio de 2019 donde se comenta de un nuevo robot del tamaño de un insecto que puede correr por el piso casi a la velocidad de una cucaracha cuando salen disparadas, y que también es casi tan resistente como la misma cucaracha: intente aplastar a este robot debajo de su pie, y lo más probable es que simplemente siga caminado. Los robots pequeños y duraderos como estos podrían tener varias ventajas en misiones de búsqueda y rescate, dicen los creadores. Veamos de qué se trata…
Si la vista de un insecto que se desliza te hace retorcer, es posible que desees mirar con mayor detenimiento a este nuevo robot del tamaño de un insecto, creado por investigadores de la UC- Berkeley.
"La mayoría de los robots a esta pequeña escala en particular son muy frágiles. Si los pisa, prácticamente destruye el robot", dijo Liwei Lin, profesor de ingeniería mecánica en UC-Berkeley y autor principal de un nuevo estudio que describe el robot. "Descubrimos que si le damos peso a nuestro robot, aún funciona más o menos bien".
Los robots pequeños y duraderos como estos podrían ser ventajosos en misiones de búsqueda y rescate, introduciéndose y apretándose en recovecos y lugares donde los perros o los humanos no pueden caber, o donde puede ser demasiado peligroso para que ellos mismos vayan.
"Por ejemplo, si ocurre un terremoto, es muy difícil para las grandes máquinas, o los grandes perros, encontrar vida debajo de los escombros, por eso necesitamos un robot de tamaño pequeño que sea ágil y robusto", dijo Yichuan Wu. autor del artículo, quien completó el trabajo como estudiante graduado en ingeniería mecánica en UC-Berkeley a través de la asociación del Instituto Tsinghua-Berkeley Shenzhen. Wu ahora es profesor asistente en la Universidad de Ciencia y Tecnología Electrónica de China.
El estudio apareció el pasado miércoles 31 de julio en la revista Science Robotics.
El robot, que es aproximadamente del tamaño de un sello de correos grande, está hecho de una lámina delgada de un material piezoeléctrico llamado fluoruro de polivinilideno, o PVDF. Los materiales piezoeléctricos son únicos, ya que la aplicación de voltaje eléctrico hace que los materiales se expandan o contraigan.
Los investigadores cubrieron el PVDF en una capa de un polímero elástico, lo que hace que la lámina entera se doble, en lugar de expandirse o contraerse. Luego agregaron una pata delantera para que, a medida que el material se dobla y se endereza bajo un campo eléctrico, las oscilaciones impulsan el dispositivo hacia adelante en un movimiento de "salto en salto".
El robot resultante puede ser simple de ver, pero tiene algunas habilidades notables. Puede navegar por el suelo a una velocidad de 20 longitudes de cuerpo por segundo, una velocidad comparable a la de una cucaracha, y se informa que es el ritmo más rápido entre los robots a escala de insectos. Puede atravesar tubos, subir pequeñas pendientes y transportar pequeñas cargas, como un maní.
Quizás lo más impresionante es que el robot, que pesa menos de una décima parte de un gramo, puede soportar un peso de alrededor de 60 kg, aproximadamente el peso de un humano promedio, que es aproximadamente 1 millón de veces el peso del robot.
"La gente puede haber experimentado que, si pisas la cucaracha, es posible que tengas que molerla un poco, de lo contrario la cucaracha aún puede sobrevivir y escapar", dijo Lin. "Alguien que pisa nuestro robot está aplicando un peso extraordinariamente grande, pero [el robot] todavía funciona a pesar de. Entonces, en ese sentido particular, es muy similar a una cucaracha".
El robot está actualmente "atado" a un cable delgado que lleva un voltaje eléctrico que impulsa las oscilaciones. El equipo está experimentando con agregar una batería para que el robot pueda deambular independientemente. También están trabajando para agregar sensores de gas y están mejorando el diseño del robot para que pueda evitar obstáculos.
Este trabajo es apoyado en parte por Berkeley Sensor and Actuator Center, un Centro de Investigación de Cooperación Industria-Universidad.
Fuente:
https://news.berkeley.edu/2019/07/31/you-cant-squash-this-roach-inspired-robot/
Al igual que los editores de cine y los arqueólogos, los bioquímicos reconstruyen la historia del genoma
Los editores de Hollywood de la vieja escuela cortan cuadros de celuloide no deseados y los arreglan en los cuadros deseados para hacer una película. El cuerpo humano hace algo similar, billones de veces por segundo, a través de un proceso de edición bioquímico llamado empalme de ARN (ácido ribonucleico). En lugar de cortar celuloide, edita al ARN mensajero (ARNm) que es el modelo para producir muchas de las proteínas que se encuentran en las células.
Al respecto, un colega, ingeniero químico, nos envía el presente artículo publicado el 25 de julio de 2019, en el boletín digital de la University of California en San Diego (UC-San Diego) donde se informa que Navtej Toor y Daniel Haack, bioquímicos de esta universidad, en su exploración de los orígenes evolutivos y la historia del empalme de ARN y el genoma humano, combinaron imágenes bidimensionales (2-D) de moléculas individuales para reconstruir una imagen tridimensional (3-D) de una porción de ARN, lo que los científicos llaman intrones del grupo II. Al hacerlo, descubrieron un movimiento molecular a gran escala asociado con la catálisis de ARN que proporciona evidencia del origen del empalme de ARN y su papel en la diversidad de la vida en la Tierra. Su investigación innovadora se describe en la edición actual de “Cell”.
"Estamos tratando de entender cómo ha evolucionado el genoma humano a partir de antepasados primitivos. Cada gen humano tiene marcos no deseados que no son codificantes y deben eliminarse antes de la expresión génica. Este es el proceso de empalme de ARN", declaró Toor, un Profesor Asociado del Departamento de Química y Bioquímica de la UC-San Diego, quien agregó que el 15 por ciento de las enfermedades humanas son el resultado de defectos en este proceso.
Toor explicó que su equipo trabaja para comprender los orígenes evolutivos del 70 por ciento del ADN humano, una porción compuesta por dos tipos de elementos genéticos, que se cree que evolucionaron a partir de intrones del grupo II. Específicamente, los intrones “spliceosomales”, que constituyen aproximadamente el 25 por ciento del genoma humano, son secuencias no codificantes que deben eliminarse antes de la expresión génica. El otro 45 por ciento está compuesto por secuencias derivadas de lo que se llama retroelementos. Estos son elementos genéticos que se insertan en el ADN y saltan alrededor del genoma para replicarse a través de un intermediario de ARN.
"Estudiar los intrones del grupo II nos da una idea de la evolución de una gran parte del genoma humano", señaló Toor.
Al trabajar con la nanomáquina de ARN del intrón del grupo II, Toor y Haack, un erudito estudiante postdoctoral en la UC-San Diego y también primer autor del artículo, pudieron aislar los complejos de intrón del grupo II de una especie de alga azul-verde que vive a altas temperaturas.
"El uso de un intrón del grupo II de un organismo de alta temperatura facilitó la determinación de la estructura debido a la estabilidad innata del complejo de esta especie", dijo Haack. "La evolución de este tipo de empalme de ARN probablemente condujo a la diversificación de la vida en la Tierra".
Hack explicó además que él y Toor descubrieron que el intrón del grupo II y el spliceosoma comparten un mecanismo dinámico común de mover sus componentes catalíticos durante el empalme de ARN.
"Esta es la evidencia más fuerte hasta la fecha de que el spliceosoma evolucionó de un intrón bacteriano del grupo II", dijo.
Además, los hallazgos revelan cómo los intrones del grupo II pueden insertarse en el ADN a través de un proceso llamado retrotransposición. Este proceso de copiar y pegar ha dado lugar a la proliferación de retroelementos egoístas en el ADN humano para comprender una gran parte del genoma.
"La replicación de estos retroelementos ha jugado un papel importante en la configuración de la arquitectura del genoma humano moderno e incluso se ha implicado en la especiación de los primates", señaló Toor.
Los investigadores utilizaron microscopía crioelectrónica (cryo-EM) para extraer una estructura molecular del intrón del grupo II. Congelaron el ARN en una capa de hielo delgado y luego dispararon electrones a través de esta muestra. Según los científicos, el microscopio electrónico puede ampliar la imagen 39,000 veces. Las imágenes en 2-D resultantes de moléculas individuales se juntaron para obtener una vista en 3-D del intrón del grupo II.
"Esto es como la arqueología molecular", describió Haack. "Los intrones del Grupo II son fósiles vivos que nos dan una idea de cómo la vida compleja evolucionó por primera vez en la Tierra".
Fuente:
Genetistas refutan la analogía racista generalizada al comparar razas humanas con razas de perros
De acuerdo a nuestra ahora indispensable Wiki, la definición de racismo, “según el diccionario de la Real Academia Española, es un sentimiento exacerbado del ’sentido racial’ de un grupo étnico, que habitualmente causa discriminación o persecución contra otros grupos étnicos. De hecho, la palabra designa también la doctrina antropológica o la ideología política basada en ese sentimiento. Pero conforme a la Convención Internacional sobre la Eliminación de todas las Formas de Discriminación Racial aprobada por la Asamblea General de la Organización de las Naciones Unidas el 21 de diciembre de 1965, “la doctrina de la superioridad basada en diferenciación racial es científicamente falsa, moralmente condenable, socialmente injusta y peligrosa, y [...] nada en la teoría o en la práctica permite justificar, en ninguna parte, la discriminación racial’”.
Sin embargo, desafortunadamente sigue siendo común que cuando se menciona que alguien es blanco o negro, se piense que pertenece a una categoría biológica definida por su color. De hecho, mucha gente todavía cree que la pigmentación de la piel refleja la pertenencia a una raza, concepto que define la RAE como "cada uno de los grupos en que se subdividen algunas especies biológicas y cuyos caracteres diferenciales se perpetúan por herencia”. Esa noción, como ya se mencionó antes, en el caso de nuestra especie, carece de sentido. Desde un punto de vista biológico, las razas humanas no existen.
Al respecto, un colega nos envía una nota publicada el 17 de julio en el boletín digital de la University of Rhode Island (URI) escrita por Tony Laroche, sobre como la investigadora y profesora Holly Dunsworth se empeña en desmentir y desmantelar los conceptos erróneos sobre la evolución humana que sus estudiantes traen al aula.
Esta vez, Dunsworth está enfocada a una analogía evolutiva popular recurrente que compara razas humanas con razas de perros, una que puede parecer inocente y con bases científica en la superficie pero que tiene profundos matices racistas.
Dunsworth, profesora de antropología de la URI, ha visto surgir repetidamente la analogía de las razas de perros en las redes sociales e incluso lo escuchó durante las discusiones sobre la variación biológica de los humanos en su clase de evolución humana. Ella sintió que era necesario refutarlo, y no sólo con un tweet o una publicación de blog.
Dunsworth ha respondido con un estudio interdisciplinario de 10,000 palabras que muestra "cómo el supuesto de que las razas humanas son lo mismo que las razas de perros es una estrategia racista para justificar la desigualdad social, política y económica". El artículo "Las razas humanas no son como las razas de perros: refutando una analogía racista", fue publicado la semana pasada por la revista en línea Evolution: Education and Outreach.
Fue co-escrito con los genetistas Heather L. Norton, profesora asociada de antropología molecular en la University of Cincinnati (UD); Ellen E. Quillen, profesora asistente de medicina molecular en la Wake Forest School of Medicine (WFSM); Abigail W. Bigham, profesora asistente de antropología en la University of Michigan; y Laurel N. Pearson, profesora asistente de antropología en la Pennsylvania State University (Penn State).
"Me reuní con ellas y les dije: '¿Has escuchado esta analogía antes?'", comentó Dunsworth. "Y luego les propuse: ‘¿Qué les parece si refutamos este idea por completo?’. Ellas me contestaron: '¡Absolutamente, por supuesto!' ".
Las cinco investigadoras, quienes asistieron en el mismo tiempo a la escuela de posgrado de Penn State, decidieron que la mejor manera de refutarla era con un trabajo académico revisado por pares que reprendía "el uso ilegítimo de la ciencia y la lógica errónea de la analogía generalizada". La analogía utiliza la variación percibida en las razas de perros para apoyar la superioridad de una raza humana sobre otra.
"En los Estados Unidos, y probablemente en otras partes, la analogía de la raza humana y de perros no es simplemente una pregunta académica relativa a los patrones de variación; hoy en día influye sustancialmente en el debate popular sobre si el concepto de raza es fundamentalmente biológica en oposición a una construcción social, y lleva adelante una grotesca concepción estadounidense ", dicen los periódicos. "Inherente a la analogía es la transferencia de creencias sobre perros de raza pura a nociones de pureza racial humana", que ayudaron a los legisladores de los Estados Unidos a aprobar leyes contra el mestizaje a principios del siglo XX ".
La analogía, dijo Dunsworth, "lleva a la gente a dudar del consenso entre científicos y académicos sobre el significado sociocultural de la raza, donde se enfatiza la construcción de la raza sobre patrones de variación biológica (que por supuesto no son sinónimos de raza). Esta es una discusión difícil de entender para los neófitos dado que existe una variación perceptible en los rasgos humanos en todo el mundo que se puede usar para adivinar el lugar geográfico de alguna parte de los antepasados recientes de alguien, y dado que la ascendencia es un factor en la construcción sociocultural de la raza. Esta mala analogía aprovecha la confusión o la frustración que resulta de la desconexión entre lo que las personas ven y lo que oyen acerca de que la raza no es un concepto biológico.
"Esta comparación de razas de perros no es válida para la ciencia y todo lo que sabemos sobre qué es 'raza' y qué no lo es. Lo que es peor, las personas que están sacando esta mala analogía no tienen intenciones inocentes. No son objetivamente curiosas. Acerca de las maravillas de la biología, no están confundidos acerca de la construcción sociocultural de la raza, están interesados en justificar el racismo y convencer a otros para que hagan lo mismo".
El artículo ataca la analogía demostrando las diferencias en los patrones de variación genética y biológica entre humanos y perros, contrastándolos y explicando cómo las diferencias entre los dos no son sorprendentes dado que las dos especies evolucionaron de manera muy diferente. Los perros son domesticados y diferentes razas han evolucionado a través de una cría altamente controlada que ha reducido drásticamente la variación dentro de las razas. El documento presenta décadas de trabajo interdisciplinario más allá de la genética y la biología que ha documentado cómo el fenómeno de la "raza" en los seres humanos es muy diferente de cualquier grupo que imponemos a otros animales.
"La historia nos dice cómo las personas que usan la analogía de raza de perro para la raza están perpetuando el racismo", dijo Dunsworth. "Es mala ciencia, todo es malo. "La raza"como la conocemos en nuestra vida diaria, y como la hemos conocido a lo largo de la historia, va más allá de la ciencia. La raza es sociocultural, política e históricamente construida, pero las razas de perros son ... perros ".
Dunsworth y sus colegas aseguraron que el documento sería fácilmente accesible, lo que lo hace fácilmente legible en línea sin suscripción. Para el lector lego, hay un glosario de términos para facilitar la comprensión del argumento científico.
"Queríamos que fuera de acceso abierto para que cuando busques esto en Google, puedas leer un artículo erudito revisado por expertos que lo explique", dijo Dunsworth, una investigadora ampliamente publicada cuyos intereses incluyen la evolución de los humanos y otros primates. "Hay mucho en este documento. Cuando lo comparto en Twitter, solo voy a decir que tienes que leerlo todo. Es por eso que esto es una realidad".
Fuentes:
https://es.wikipedia.org/wiki/Racismo
https://www.eldiario.es/sociedad/razas-humanas-existen_0_902210052.html
Físicos por primera vez calculan la distribución de la presión del protón
Las estrellas de neutrones se encuentran entre los objetos más densos conocidos del universo, y soportan presiones tan grandes que una cucharadita de material de una de estas estrellas equivaldría a aproximadamente 15 veces el peso de la luna. Sin embargo, resulta que los protones, las partículas fundamentales que constituyen la mayor parte de la materia visible en el universo, contienen presiones aún más altas.
Bueno, relacionado con este tema, un amigo físico, nos envía un artículo escrito por Jennifer Chu y publicado en un boletín digital del “Massachusetts Institute of Technology (MIT)” en donde se informa cómo por primera vez científicos del MIT calcularon la distribución de la presión de un protón y encontraron que la partícula contiene un núcleo altamente presurizado que, en su punto más intenso, está generando mayores presiones que las que se encuentran dentro de una estrella de neutrones.
Este núcleo empuja hacia afuera desde el centro del protón, mientras que la región circundante empuja hacia adentro. (Imagine una pelota de béisbol que intenta expandirse dentro de una pelota de fútbol que está colapsando). Las presiones compitiendo una contra otra actúan para estabilizar la estructura general del protón.
Los resultados generados por estos investigadores, publicados el 22 de febrero pasado en “Physical Review Letters”, representa la primera vez que los científicos calculan la distribución de la presión de un protón teniendo en cuenta las contribuciones de los quarks y los gluones, los componentes fundamentales y subnucleares del protón.
"La presión es un aspecto fundamental del protón del que sabemos muy poco en este momento", dice la autora principal Phiala Shanahan, profesora asistente de física en el MIT. "Ahora hemos encontrado que los quarks y los gluones en el centro del protón están generando una presión externa significativa, y ya cerca de los bordes, hay una presión extrema de confinamiento. Con este resultado, estamos acordándonos hacia una imagen completa de la estructura del protón. "
Shanahan realizó el estudio con el coautor William Detmold, profesor asociado de física en el MIT.
Los notables quarks
En mayo de 2018, los físicos del “Thomas Jefferson National Accelerator” del Departamento de Energía de los Estados Unidos anunciaron que habían medido la distribución de la presión del protón por primera vez, utilizando un haz de electrones que dispararon a un objetivo hecho de hidrógeno. Los electrones interactuaron con los quarks dentro de los protones en el objetivo. Luego, los físicos determinaron la distribución de la presión en todo el protón, según la forma en que los electrones se dispersaron del objetivo. Sus resultados mostraron un centro de alta presión en el protón que en su punto de mayor presión medía aproximadamente 1035 pascales, o 10 veces la presión dentro de una estrella de neutrones.
Sin embargo, Shanahan dice que su imagen de la presión del protón era incompleta.
"Encontraron un resultado bastante notable", dice Shanahan. "Pero ese resultado estuvo sujeto a una serie de suposiciones importantes que fueron necesarias debido a nuestra comprensión incompleta del fenómeno".
Específicamente, los investigadores basaron sus estimaciones de presión en las interacciones de los quarks de un protón, pero no en sus gluones. Los protones están formados por quarks y gluones, que interactúan continuamente de forma dinámica y fluctuante dentro del protón. El equipo de “Jefferson Lab” sólo pudo determinar las contribuciones de los quarks con su detector, lo que, según Shanahan, deja fuera gran parte de la contribución de la presión de un protón.
"En los últimos 60 años, hemos desarrollado una buena comprensión del papel de los quarks en la estructura del protón", dice. "Pero la estructura del gluón es mucho más difícil de entender, ya que es muy difícil de medir o calcular".
Una voltereta del gluon
En lugar de medir la presión de un protón utilizando aceleradores de partículas, Shanahan y Detmold intentaron incluir el papel de los gluones mediante el uso de supercomputadoras para calcular las interacciones entre los quarks y los gluones que contribuyen a la presión de un protón.
"Dentro de un protón, hay un vacío cuántico burbujeante de pares de quarks y antiquarks, así como gluones, que aparecen y desaparecen", dice Shanahan. "Nuestros cálculos incluyen todas estas fluctuaciones dinámicas".
Para hacer esto, el equipo empleó una técnica en física conocida como QCD de celosía, para la cromodinámica cuántica, que es un conjunto de ecuaciones que describe la fuerza fuerte, una de las tres fuerzas fundamentales del Modelo Estándar de la física de partículas. (Las otras dos son la fuerza débil y la electromagnética). La fuerza fuerte es lo que une a los quarks y los gluones para finalmente hacer un protón.
Los cálculos de QCD de celosía utilizan una matriz de cuatro dimensiones, o, valga la redundancia, celosía, de puntos para representar las tres dimensiones del espacio y una del tiempo. Los investigadores calcularon la presión dentro del protón usando las ecuaciones de la cromodinámica cuántica definidas en la red.
"Es enormemente exigente desde el punto de vista computacional, por lo que usamos las supercomputadoras más poderosas del mundo para hacer estos cálculos", explica Shanahan.
El equipo pasó unos 18 meses ejecutando varias configuraciones de quarks y gluones a través de varias supercomputadoras diferentes, luego determinó la presión promedio en cada punto desde el centro del protón, hasta su borde.
En comparación con los resultados de “Jefferson Lab”, Shanahan y Detmold encontraron que, al incluir la contribución de los gluones, la distribución de la presión en el protón cambió significativamente.
"Hemos visto la contribución del gluón a la distribución de la presión por primera vez, y podemos ver que, en relación con los resultados anteriores, el pico se ha vuelto más fuerte y la distribución de la presión se extiende más allá del centro del protón", dijo Shanahan.
En otras palabras, parece que la presión más alta en el protón es de alrededor de 1035 pascales, o 10 veces la de una estrella de neutrones, similar a lo que informaron los investigadores del Laboratorio Jefferson. La región circundante de baja presión se extiende más lejos de lo estimado previamente.
Confirmar estos nuevos cálculos requerirá detectores mucho más potentes, como “Electron-Ion Collider”, un acelerador de partículas propuesto que los físicos intentan usar para sondear las estructuras internas de protones y neutrones, con más detalle que nunca, incluidos los gluones.
"Estamos apenas iniciando la compresión cuantitativa del papel de los gluones en un protón", dice Shanahan. "Al combinar la contribución de los quarks medidos experimentalmente con nuestro nuevo cálculo de la pieza de gluón, tenemos la primera imagen completa de la presión del protón, que es una predicción que se puede probar en el nuevo colisionador en los próximos 10 años".
Fuente: http://news.mit.edu/2019/physicists-calculate-proton-pressure-distribution-0222
Hace 100 años, el primer correo aéreo internacional comercial emprendió el vuelo
Estimado lector, esperamos que haya disfrutado con los suyos las fiestas decembrinas y que tenga un excelente año 2019. Entrando en materia y de acuerdo con la omnisapiente Wikipedia, considerando como un capítulo aparte que las palomas mensajeras habían sido utilizadas por largo tiempo para enviar mensajes “aéreos”, el primer correo en ser llevado por el aire en un vehículo hecho por el hombre fue el 7 de enero de 1785, en un vuelo en globo de Dover (Inglaterra) a Francia, cerca de Calais. Ocho años más tarde, durante el primer vuelo en globo en Estados Unidos en 1793, de Filadelfia a Deptford, Nueva Jersey, Jean Pierre Blanchard llevó una carta personal de George Washington para ser entregada al dueño de la propiedad, cualquiera que este fuere, en la que Blanchard aterrizara, convirtiendo a este vuelo en la primera entrega de correo aéreo de los Estados Unidos.
La primera entrega oficial de correo aéreo en los Estados Unidos se llevó a cabo el 17 de agosto de 1859, cuando John Wise piloteó un globo partiendo de Lafayette, Indiana con destino a Nueva York. Sin embargo, a causa de problemas meteorológicos se vio forzado a aterrizar en Crawfordsville, Indiana y el correo llegó a su destino final vía tren. Cien años más tarde, en 1959, el Servicio Postal de los Estados Unidos emitió un sello postal de 7 centavos conmemorando el evento. También se llevó correo de Paris y Metz en globo durante la Guerra Franco-prusiana (1870), volando sobre las cabezas de los alemanes que asediaban aquellas ciudades. El correo por globo también se utilizó en un vuelo en 1877 en Nashville, Tennessee.
La introducción del aeroplano en 1903 generó interés inmediato en su utilización como transporte para el correo, y el primer vuelo oficial de correo aéreo en avión se llevó a cabo el 18 de febrero de 1911 en Allahabad, India, cuando Henri Pequet trasladó 6,500 cartas a una distancia de 13 kilómetros. Después de este evento se establecieron por primera vez servicios de correo aéreo regulares en varios países. Al respecto, un estimado colega, piloto aficionado, nos envía un artículo escrito por Pascale Juilliard, publicado en París, Francia, el pasado 20 de diciembre por la Agence France-Presse (AFP) en sus sección de Arte y Cultura. Veamos que lo que nos dice este medio al respecto…
El 25 de diciembre de 1918, un atrevido industrial francés lanzó el primer servicio de correo aéreo internacional, volando entre la ciudad de Toulouse, al suroeste de Francia, y Barcelona, en el noreste de España. Fue el comienzo de una aventura que pronto vería a pilotos pioneros de la compañía, mejor conocidos como Aeropostale, que entregarían cartas a Marruecos, Senegal en África y luego a América Latina.
El plan para un servicio regular de correo aéreo fue ideado en los últimos meses de la Primera Guerra Mundial por el visionario capitán de la industria, Pierre-Georges Latecoere. Si fuera a funcionar, tendría que construir aviones más eficientes en su fábrica de Toulouse. Parecía una locura en una época en la que los pilotos navegaban por la vista, sin sofisticados instrumentos a bordo, y ni siquiera tenían cabinas selladas, con la cabeza al aire libre a merced de los elementos.
"He rehecho todos los cálculos, y confirman la opinión de los especialistas. Nuestra idea es inalcanzable", dijo Latecoere. "Sólo nos queda una cosa por hacer, llevarlo a cabo".
'Insano' e 'irrazonable'
Cuando su biplano Salmson partió para Barcelona el día de Navidad de 1918, Latecoere se sentó detrás del piloto, René Cornemont, según el libro "Aeropostale" (2010). El avión hizo el viaje en dos horas y 20 minutos con su saco de cartas y paquetes. Así nació el correo aéreo civil.
Nueve meses después, en septiembre de 1919 y utilizando los aviones Breguet 14, se lanzó el enlace de correo aéreo entre Francia y su colonia Marruecos, dirigido por el ex piloto de caza Didier Daurat. Bajo un contrato con el estado francés, se realizarían ocho vuelos mensuales de Toulouse a Rabat.
Sin embargo, en octubre de 1920, la compañía perdió sus primeros pilotos, cuando su avión se estrelló. Más accidentes fatales se produjeron en los meses siguientes. La prensa escribió sobre una "empresa insana" y un "sacrificio irrazonable".
Drama de rehenes y leyendas literarias.
Pero a medida que los aviones y la organización evolucionaron, el enlace se extendió a Casablanca. A fines de 1923, la compañía, por entonces llamada Compagnie Generale d'entreprises Aeronautiques (CGA), usaba alrededor de 100 aviones y ya había transportado tres millones de cartas y 1,344 atrevidos pasajeros.
La compañía puso su mirada en Dakar en Senegal, también una colonia francesa. Eso implicaría volar sobre cientos de kilómetros de desierto, donde vivían tribus moras rebeldes. Esto significaba dos aviones para esa ruta, uno para proporcionar asistencia al otro en el caso de un aterrizaje forzoso.
En 1926, la compañía asignó a Jean Mermoz al enlace de correo aéreo Casablanca-Dakar.
Se convirtió en una leyenda cuando, después de una falla en el motor, Moors lo tomó como rehén y lo liberó luego de recibir un rescate varios días después.
Otra leyenda de la aviación postal internacional fue el autor francés Antoine de Saint-Exupery, quien escribió su primera novela "Courrier sud" (Correo del Sur) cuando trabajaba a fines de la década de 1920 en el aeródromo de Cape Juby, en la zona española del sur de Marruecos.
Fue allí, entre el océano Atlántico y las dunas ocres del Sahara, donde encontró el escenario para su futura obra "Le Petit Prince" (El Principito), que habla de un piloto cuyo avión se estrella en el Sahara, donde conoce a un chico joven.
Se alcanza Latinoamérica
En 1927, Latecoere vendió la empresa al industrial francés Marcel Bouilloux-Lafont, que tenía su sede en América Latina, donde introdujo el servicio y cambió su nombre por Aeropostale. En mayo de 1930, Jean Mermoz realizó la primera travesía aérea comercial a través del Atlántico sur, entre Saint-Louis en Senegal y Natal en Brasil con un hidroavión de fines del 28.
Henri Guillaumet de Aeropostale cruzó regularmente las peligrosas montañas de los Andes, entregando correo entre Buenos Aires y Santiago en Chile. En junio de 1930, su Potez 25 hizo un aterrizaje de emergencia en las montañas. Fue recogido por un aldeano después de caminar durante varios días en la nieve. "Lo que hice, ningún idiota lo habría hecho", le dijo a Saint-Exupery cuando se encontraron varios días después.
Aeropostale estaba en este momento financieramente comprometido. En 1933, sus activos fueron comprados por un grupo de compañías de aviación que más tarde se convertirían en Air France.
Mermoz se perdió en el mar en 1936. Varias décadas después, su correspondencia con su familia y amigos se publicó bajo el título "Defricheur du ciel" (Pionero del cielo).
La saga Aeropostale fue sólo el comienzo de una larga lista de hazañas aéreas en todo el mundo entre las dos guerras mundiales.
Entre ellos se encontraba el primer vuelo transatlántico sin escalas de los aviadores británicos John Alcock y Arthur Brown en 1919. Las primeras aerolíneas nacionales importantes comenzaron a formarse ese año con el KLM holandés, seguido de la alemana Lufthansa en 1926 y la estadounidense Pan Am en 1927.
Fuentes:
https://es.wikipedia.org/wiki/Correo_a%C3%A9reo
https://www.thejakartapost.com/life/2018/12/20/100-years-ago-airmail-took-flight.html
Nuevo sistema recupera agua potable de plantas generadoras de energía.
Hace poco se publicó en el boletín digital de noticias de la BBC que casi dos millones de personas se mueren al año por falta de agua potable. De hecho, apuntaba, es probable que en 15 años la mitad de la población mundial viva en áreas en las que no habrá suficiente agua para todos.
Y daban el siguiente dato: nuestro planeta contiene más de mil millones de billones de litros de H2O, pero poca se puede tomar. Más del 97% del agua en la Tierra es salada. Dos tercios del agua dulce está retenida en glaciares y capas de hielo polar. De lo que queda, la mayor parte está atrapada en el suelo o en acuíferos subterráneos. Eso deja disponible para la mayoría de los seres vivos una fracción mínima. Y la humanidad no sólo la necesita para tomar: casi todo lo que hace involucra al agua de alguna manera.
Por lo anterior cualquier esfuerzo para incrementar la disponibilidad de agua es de vital importancia para todos. Un querido amigo, ingeniero civil, nos comparte la descripción de un sistema que sin duda se sumará a los esfuerzos mundiales por contender con el grave problema de falta de agua potable. Veamos de qué se trata….
El nuevo sistema ideado por los ingenieros del MIT podría proporcionar una fuente de bajo costo de agua potable para las ciudades con problemas de agua de todo el mundo, al tiempo que reduce los costos de operación de las plantas generadoras de energía.
Alrededor del 39 por ciento del agua dulce extraída de ríos, lagos y embalses en los E.E. U.U. se destina a las necesidades de refrigeración de las centrales eléctricas que utilizan combustibles fósiles o energía nuclear, y gran parte de esa agua termina en la atmósfera convertido en nubes de vapor. Pero el nuevo sistema del MIT podría ahorrar una fracción sustancial de esa pérdida de agua, e incluso podría convertirse en una fuente importante de agua potable limpia y segura para las ciudades costeras donde el agua de mar se utiliza para enfriar las plantas de energía locales.
El principio detrás del nuevo concepto es engañosamente simple: cuando aire (brisa) rico en humedad (como la niebla) se pasa por un haz de partículas cargadas eléctricamente, conocidas como iones, las gotas de agua se cargan eléctricamente y pueden ser atraídas por una malla metálica, similar a los mosquiteros de las ventanas, colocada en su trayectoria. Luego, las gotas se acumulan en esa malla, se escurren hacia un colector y pueden reutilizarse en la planta de energía o enviarse al sistema de suministro de agua de una ciudad.
El sistema, que es la base de una empresa emergente llamada “Infinite Cooling“ la cual ganó el mes pasado la Competencia Empresarial “100K” del MIT, se describe en un artículo publicado el 8 de junio de 2018, en la revista “Science Advances”, en coautoría con el Dr. Maher Damak y con el profesor asociado de ingeniería mecánica Kripa Varanasi. Damak y Varanasi se encuentran entre los cofundadores de la nueva empresa tecnológica.
La visión de Varanasi era desarrollar sistemas de recuperación de agua altamente eficientes mediante la captura de gotas de agua tanto de niebla natural como de columnas de vapor de las torres de enfriamiento industriales. El proyecto comenzó como parte de la tesis doctoral de Damak, cuyo objetivo era mejorar la eficiencia de los sistemas de recolección de niebla que se utilizan en muchas regiones costeras con escasez de agua potable. Esos sistemas, que generalmente consisten en algún tipo de malla de plástico o metal colgada verticalmente en medio de la trayectoria de bancos de niebla que regularmente vienen desde el mar, son extremadamente ineficientes, capturando solo alrededor del 1 al 3 por ciento de las gotas de agua que pasan a través de ellos. Varanasi y Damak se preguntaron si había alguna manera de hacer que la malla atrapara más gotitas, y encontraron una forma muy simple y efectiva de hacerlo.
La razón de la ineficiencia de los sistemas existentes se hizo evidente en los experimentos de laboratorio detallados del equipo: el problema está en la aerodinámica del sistema. Cuando una corriente de aire pasa por un obstáculo, como es el caso los alambres en estas pantallas de malla, el flujo de aire se desvía naturalmente alrededor del obstáculo, del mismo modo que el aire que fluye alrededor del ala del avión se separa en corrientes que pasan por encima y por debajo de la estructura del ala. Así estas corrientes de aire se desvían llevándose las gotas que originalmente se dirigían hacia el alambre hacia un lado en lugar de pasar por el centro del mismo.
El resultado es que la fracción de gotitas capturadas es mucho menor que la fracción del área de recolección ocupada por los alambres, ya que las gotitas se están apartando de los alambres que se encuentran frente a ellas. Simplemente hacer los alambres más gruesos o los espacios en la malla más pequeños tiende a ser contraproducente porque dificulta el flujo de aire total, lo que resulta en una disminución neta en la recolección.
Pero cuando la niebla entrante se le pasa primero con un haz de iones, ocurre el efecto contrario. No sólo caen sobre ellos todas las gotas que están en el camino de los alambres, sino que incluso las gotitas que apuntaban a los orificios de la malla son atraídas hacia los alambres. Este sistema puede capturar una fracción mucho más grande de las gotitas que pasan. Como tal, podría mejorar drásticamente la eficiencia de los sistemas de captura de niebla, y a un costo sorprendentemente bajo. El equipo es simple y la cantidad de energía requerida es mínima.
Luego, el equipo se concentró en capturar el agua de las columnas de las torres de enfriamiento de la planta de energía. Allí, la corriente de vapor de agua está mucho más concentrada que cualquier niebla natural, y eso hace que el sistema sea aún más eficiente. Y dado que la captura de agua evaporada es en sí misma un proceso de destilación, el agua capturada es pura, incluso si el agua de refrigeración es salada o está contaminada. En este punto, Karim Khalil, otro estudiante graduado del laboratorio de Varanasi se unió al equipo.
"Es agua destilada, que es de mayor calidad, que ahora se desperdicia", dice Varanasi. "Eso es lo que intentamos capturar". El agua podría ser conducida al sistema de agua potable de una ciudad, o usarse en procesos que requieren agua pura, como en las calderas de una central eléctrica, en lugar de usarse en su sistema de enfriamiento donde la calidad del agua no importa demasiado.
Una planta generadora de energía típica de 600 megavatios, dice Varanasi, podría capturar 150 millones de galones de agua al año, lo que representa un valor de millones de dólares. Esto representa alrededor del 20 al 30 por ciento del agua perdida de las torres de enfriamiento. Con más refinamientos, el sistema puede capturar aún más de la salida, dice.
Además, dado que las plantas de energía ya están instaladas a lo largo de muchas costas áridas, y muchas de ellas se enfrían con agua de mar, esto permite una forma muy simple de proporcionar servicios de desalinización de agua a una pequeña fracción del costo de construir una planta desaladora independiente. Damak y Varanasi estiman que el costo de instalación de tal conversión sería aproximadamente un tercio del de una nueva planta de desalinización, y sus costos de operación serían de aproximadamente 1/50. Según Varanasi, el tiempo de recuperación de la inversión para la instalación de un sistema de este tipo sería de unos dos años, y esencialmente no tendría una huella ambiental, sin agregar nada al de la planta original.
"Esta puede ser una gran solución para abordar la crisis mundial del agua", dice Varanasi. "Podría compensar la necesidad de aproximadamente el 70 por ciento de las nuevas instalaciones de plantas de desalinización en la próxima década".
En una serie de dramáticos experimentos de prueba de concepto, Damak, Khalil y Varanasi demostraron el concepto construyendo una pequeña versión de laboratorio de una pila que emite una nube de gotas de agua, similar a las que se ven en las torres de enfriamiento de la planta generadora de energía real, y colocada su haz de iones y su pantalla de malla. En el video del experimento, se ve una gruesa nube de gotas de niebla saliendo del dispositivo, y casi instantáneamente desaparece tan pronto como se enciende el sistema.
El equipo actualmente está construyendo una versión de prueba completa de su sistema para colocarla en la torre de enfriamiento de Central Utility Plant de MIT, una planta de cogeneración de gas natural que proporciona la mayor parte de la electricidad, calefacción y refrigeración del campus. Se espera que la instalación esté lista para el final del verano y se someterá a pruebas en el otoño. Las pruebas incluirán probar diferentes variaciones de la malla y su estructura de soporte, dice Damak.
Eso debería proporcionar la evidencia necesaria para permitir que los operadores de plantas generadoras de energía, que tienden a ser conservadores en sus elecciones de tecnología, adopten el sistema. Debido a que las centrales eléctricas tienen una vida útil operativa de décadas, sus operadores tienden a "ser muy reacios al riesgo" y quieren saber "¿esto se ha hecho en otro lugar?" dice Varanasi. Las pruebas de la planta de energía del campus no solo "reducirán el riesgo" de la tecnología, sino que también ayudarán al campus de MIT a mejorar su huella hídrica, afirma. "Esto puede tener un gran impacto en el uso del agua en el campus".
Fuentes:
http://news.mit.edu/2018/new-system-recovers-fresh-water-power-plants-0608
http://www.bbc.com/mundo/noticias/2014/08/140821_tierra_agua_escasez_finde_dv
Transformando los residuos humanos en plástico; los nutrientes
Del día a la noche y de nuevo al día: La ionosfera de la Tierra durante el eclipse solar total
Elaborando baterías con botellas de vidrio recicladas
Cada vez con mayor frecuencia, la aplicación de conocimientos científicos está siendo el motor fundamental del desarrollo sostenible de la humanidad, y la ingeniería y el ingenio humano juegan un papel esencial en este proceso.
Un buen ejemplo es el proporcionado por un estimado colega, ingeniero mecánico, quién nos envía información generada en el boletín de la University of California, Riverside (UCR) donde el 19 de abril se publicó que investigadores del su “Bourns College of Engineering” han utilizado botellas de vidrio reciclables y un proceso químico de bajo costo para crear ánodos de nanosilicio, los cuales se utilizaron para fabricar baterías de iones de litio de alto rendimiento. Las baterías ampliarán la gama de vehículos eléctricos e híbridos, y proporcionarán más energía a menor costo para los dispositivos electrónicos personales tales como teléfonos celulares y computadoras portátiles.
Esta investigación se documentó en el artículo "Silicon Derived from Glass Bottles as Anode Materials for Lithium Ion Full Cell Batteries," el cual se publicó en la revista “Nature Scientific Reports”. Cengiz Ozkan, profesor de ingeniería mecánica, y Mihri Ozkan, profesora de ingeniería eléctrica de la UCR lideraron el proyecto.
Aún con todos los programas de reciclaje de hoy en día, miles de millones de botellas de vidrio terminan en basureros cada año, lo que llevó a los investigadores a preguntarse si el dióxido de silicio en las botellas de bebidas reciclables podría proporcionar nanopartículas de silicio de alta pureza para elaborar baterías de iones de litio.
Los ánodos de silicio pueden almacenar hasta 10 veces más energía que los ánodos de grafito convencionales, pero la expansión y la contracción durante la carga y la descarga los hacen inestables. La reducción del silicio a nanoescala ha demostrado minimizar este problema, y al combinar una forma abundante y relativamente pura de dióxido de silicio y una reacción química de bajo costo, los investigadores crearon baterías de iones de litio de media celda que almacenan casi cuatro veces más energía que los ánodos de grafito convencionales.
Para crear los ánodos, el equipo utilizó un proceso de tres pasos que implicó, primero triturar y moler los frascos de cristal hasta obtener un fino polvo blanco, luego con una reducción magnesiotérmica se transformar el dióxido de silicio en silicio nanoestructurado, y finalmente se recubrieron las nanopartículas de silicio con carbón para mejorar su estabilidad y propiedades de almacenamiento de energía.
Como era de esperar, las baterías de células tipo botón fabricadas con ánodos de silicio a base de botellas de vidrio superaron en gran medida a las baterías tradicionales en las pruebas de laboratorio. Los electrodos derivados de silicio de vidrio recubierto con carbono (gSi @ C) demostraron un excelente rendimiento electroquímico con una capacidad de ~ 1420 mAh/g a una velocidad de C/2 después de 400 ciclos.
Changling Li, estudiante de postgrado en ciencias de los materiales e ingeniería y autor principal del artículo de la investigación, dijo que una botella de vidrio proporciona suficiente nanosilicio para cientos de baterías de celdas de botón o de tres a cinco baterías de celdas.
"Comenzamos con un producto de desecho que terminaría en el basurero y creamos baterías que almacenan más energía, se cargan más rápido y son más estables que las baterías comerciales de celdas tipo botón, por lo que tenemos los candidatos más promisorios para la nueva generación de baterías de iones de litio, dijo Li.
Esta investigación es la última de una serie de proyectos dirigidos por Mihri y Cengiz Ozkan para crear ánodos de batería de iones de litio de materiales ecológicos. La investigación anterior se centró en el desarrollo y la prueba de ánodos a base de hongos portabella, arena y tierra de diatomeas (ricos en fósiles).
Fuente:
https://ucrtoday.ucr.edu/46307