viernes, 31 de mayo de 2013

Satélite Fermi escapó a una colisión

Los satélites fuera de servicio pero que siguen en órbita, pueden ser una amenaza para cualquier nave espacial que se cruce con ellos. Sin posibilidad de maniobrar, los satélites muertos son como kamikazes, o como balas moviéndose a una velocidad muy superior a las disparadas en la Tierra y también con un peso muchísimo mayor que las de aquí abajo.

El Telescopio Espacial Fermi de rayos gamma, de la NASA, está pensado para observar el cosmos, no para esquivar a otros vehículos como sí sería típico en un avión caza eludiendo a un avión enemigo al tiempo que su piloto intenta tenerle a tiro. Sin embargo, el Fermi, como la NASA ha rememorado recientemente, se topó hace un año con una situación que le exigió hacer una maniobra evasiva.



Todo empezó cuando Julie McEnery, científica del equipo del Telescopio Espacial Fermi de rayos gamma, de la NASA, recibió un aviso que indicaba que el Fermi estaba a tan sólo una semana de tener un inusual encuentro cercano con el Cosmos 1805, un difunto satélite espía de la época de la Guerra Fría. Este satélite espía pasaría peligrosamente cerca del Fermi. Se calculaba que los dos objetos, viajando alrededor de la Tierra a miles de kilómetros por hora en órbitas casi perpendiculares, se evitaran por apenas 213 metros (700 pies). Todo apuntaba a que ambas naves espaciales ocuparían el mismo punto en el espacio con 30 milisegundos de diferencia una con respecto de la otra.

Estaba claro que el Fermi tenía que hacer una maniobra evasiva. Pero no es tan fácil como hacerlo y asunto arreglado. En la historia de la astronáutica, el personal de los centros de control de vuelo de naves espaciales ha aprendido del modo más duro que tampoco se puede hacer caso al pie de la letra a una predicción de colisión. Los márgenes de incertidumbre en las predicciones de las posiciones de naves espaciales con una semana de antelación pueden ser mucho más grandes que la propia distancia pronosticada para el momento de máxima cercanía. Dicho de otro modo, hacer una maniobra para esquivar al Cosmos 1805 no garantizaba evitar la colisión; e incluso, paradójicamente, podía provocarla.

Por otro lado, no hacer nada también es peligroso. Los encuentros cercanos pueden acabar mal, porque la distancia de seguridad no es inamovible.

Esto se demostró dramáticamente el 10 de febrero de 2009, cuando según un estudio, el Cosmos 2251, un satélite de comunicaciones ruso muerto, pasaría a unos 580 metros (unos 1.900 pies) del satélite de comunicaciones Iridium 33 (en funcionamiento por aquel entonces). A la hora prevista de aproximación, se perdió todo contacto con el Iridium 33. El radar reveló nubes de escombros viajando a lo largo de las órbitas de los dos satélites, lo que confirmó la colisión entre ambos.

El accidente generó miles de pedazos lo suficientemente grandes como para ser rastreados, y muchos trocitos pequeños que no se pueden detectar. Muchos de esos restos siguen siendo un peligro para las naves espaciales en funcionamiento, ya que aproximadamente sólo el 20 por ciento de los fragmentos rastreables han hecho su reentrada a la atmósfera.

Con una velocidad relativa hacia el Fermi de unos 43.000 kilómetros por hora (27.000 millas por hora), un impacto directo del Cosmos 1805, de 1.406 kilogramos (3.100 libras), liberaría tanta energía como dos toneladas y media de explosivos de alta potencia, destruyendo ambas naves.

A pesar del aparente hacinamiento de objetos en la órbita terrestre, por lo general hay una gran cantidad de espacio vacío entre cada objeto y el más cercano. Las aproximaciones entre fragmentos de naves, fases de cohetes y cargas activas continúan siendo eventos poco frecuentes. Por otra parte, sólo algunos de los posibles acercamientos que son identificados alrededor de una semana antes que cuando podrían ocurrir, llegan a materializarse.

"Es similar al pronóstico de lluvia en un momento y lugar específico con una semana de anticipación", explica Eric Stoneking, del Centro Goddard de Vuelos Espaciales de la NASA, ingeniero jefe de control de posición del Fermi. "A medida que se acerca la fecha, las incertidumbres de la predicción decrecen y la previsión inicial puede cambiar drásticamente".

En dos ocasiones anteriores, el equipo del Fermi había sido alertado de posibles encuentros cercanos, y en ambas ocasiones las amenazas se evaporaron sin tener que hacer nada. Era posible que el encuentro de Cosmos 1805 se desvaneciera también, y que el Fermi pudiera continuar con sus observaciones astronómicas sin tener que interrumpirlas.

Pero la actualización del día siguiente no disipó en absoluto la amenaza.

"Estaba claro que teníamos que estar listos para sacar al Fermi fuera del camino y fue entonces cuando avisé a nuestro equipo de Dinámica de Vuelo", recuerda McEnery.

La única manera de lograr ese cambio crucial de trayectoria era recurriendo al encendido temporal de los propulsores diseñados originalmente para asegurar que el Fermi no representase una amenaza para otros satélites cuando terminase su vida útil. Pensados para su uso cuando el Fermi dejara de estar en servicio, los propulsores fueron diseñados para sacarlo de la órbita y empujarlo hacia la atmósfera terrestre, en la que se quemaría y desharía.

Debido a que un fallo de este sistema de propulsores, como por ejemplo una fuga de propergol o una explosión, podría haber terminado prematuramente la misión del Fermi, dichos propulsores nunca habían sido probados, lo que agregaba una nueva fuente de ansiedad para McEnery y sus colegas. Los propulsores deberían funcionar a la perfección en su primer uso, y además para hacer algo que no se había contemplado en su diseño.

Se calculó cuán grande debería ser el empuje a darle al Fermi para que esquivase la amenaza. Trabajando con especialistas de la base Vandenberg, que la Fuerza Aérea estadounidense (USAF) tiene en California, los científicos de la NASA también comprobaron que la nueva órbita proyectada no pusiera al Fermi en curso de un encuentro cercano con otro objeto.

El día antes de la fecha del encuentro, la amenaza aún no había desaparecido, y en consecuencia todos los planes estaban activos para encender los propulsores del Fermi. Poco después del mediodía, horario EDT, la nave dejó de escrutar el firmamento y se orientó a lo largo de la dirección de su marcha. Luego aseguró sus paneles solares y retrajo su antena de alta ganancia para protegerlos de los gases de escape de los propulsores.

La maniobra, que fue ejecutada por la propia nave, sobre la base de los procedimientos desarrollados por el equipo técnico mucho tiempo atrás, consistió en disparar todos los propulsores durante un segundo. "Había mucho suspense y tensión, pero una vez que terminó la maniobra, suspiramos con alivio al ver que todo había salido bien", explica Stoneking.

Una hora después, Fermi ya estaba de nuevo haciendo su trabajo científico. Varias horas más tarde, los diferentes equipos se reunieron para evaluar los resultados de la maniobra y determinar si se necesitaría otra. Se confirmó que el pronóstico era bueno.

Cuando las dos naves llegaron a su encuentro cercano al día siguiente, la mayor aproximación entre ambas fue de más de 9 kilómetros (unas 6 millas). La maniobra de evasión del Fermi había logrado que el telescopio espacial eludiera a la amenazante reliquia de la Guerra Fría. El alivio invadió a los científicos tras una semana de máxima tensión.

Via

La revolucion de los Dinosaurios

El esqueleto completo y muy bien conservado de un nuevo dinosaurio emplumado del Jurásico Medio cambia algunas ideas previas sobre el origen y evolución de las aves. Este nuevo fósil, llamado Aurornis xui, es el más antiguo de los avialanos que incluye aves y dinosaurios cercanos y vuelve a incluir a Archaeopteryx en este grupo.



Aurornis xui –del latín Aurora y Ornis, pájaro del amanecer es el nombre con el que han bautizado al dinosaurio avialano más antiguo encontrado hasta la fecha, gracias a un fósil completo, perteneciente al Jurásico Medio y descubierto en la provincia de Liaoning (China).

El descubrimiento, publicado hoy en Nature, también devuelve a Archaeopteryx al grupo Avialae que incluye a las aves y a sus parientes más cercanos–. Este nuevo fósil también aclara la clasificación de otros dinosaurios parecidos a aves como Troodon.

Científicos del Real Instituto Belga de Ciencias Naturales han analizado este dinosaurio y, tras compararlo con otros avialanos, han confirmado que tanto el nuevo Aurornis xui como el clásico Archaeopteryx pertenecen al grupo Avialae.

Además, el estudio coloca a Troodontidae, otra familia de dinosaurios parecidos a aves, como grupo hermano de los avialanos. Los autores también sugieren que la diversificación de las aves tuvo lugar en Asia durante el final del Jurásico Medio.

El dilema de Archaeopteryx

No existe un consenso entre los paleontólogos sobre la posición de Archaeopteryx, ya que según la definición de ave que se elija este famoso animal podría o no ser un ave.

La comparación de Aurornis con Archaeopteryx sitúa a ambos dentro del grupo Avialae. Este grupo, definido por Gauthier en 1986, engloba aquellas especies que están más cerca de las aves que del dinosaurio Deinonychus.

De esta forma, Aurornis sería el avialano más antiguo, y Archaeopteryx uno de los puntos de divergencia más antiguos dentro del grupo.

El Auge de los Biocombustibles

La demanda global de energía, siempre creciente, combinada con la necesidad de reducir las emisiones y disminuir los efectos del cambio climático, ha aumentado el interés en fuentes de energía que sean renovables y más limpias. Los biocombustibles tienen el atractivo de poder reemplazar con relativa facilidad a la gasolina, mientras que constituyen una  fuente de energía renovable, y, en principio, tienen un balance neutro de carbono, es decir que liberan a la atmósfera una cantidad de carbono igual a la absorbida por la materia prima (vegetales), con lo cual el uso de los biocombustibles no acarrea un aumento neto de CO2 en la atmósfera.

¿Pero podría haber otras consecuencias para el clima derivadas de un uso extenso de biocombustibles, como por ejemplo las de pasar a dedicar grandes porciones de tierra agrícola a plantaciones de vegetales aptos para elaborar biocombustibles?

Es factible elaborar biocombustibles a partir de algas marinas, pero una parte importante de la actividad industrial en biocombustibles se centra por ahora en vegetales terrestres, cultivados en tierras de diverso valor agrícola.

Unos investigadores del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos, tienen ahora algunas respuestas a esa pregunta. Su investigación, centrada en el uso de biocombustibles elaborados a partir de cultivos terrestres, arroja como resultado que los cambios en el uso de la tierra causados por un gran aumento en las plantaciones destinadas a producir biocombustibles, en cantidad suficiente para abastecer al mundo con el 10 por ciento de la energía que consume la humanidad, podría causar que algunas regiones se volvieran más calurosas de lo que ya lo son.

"Como todas las acciones tienen consecuencias, es importante considerar que incluso acciones bien intencionadas pueden tener consecuencias negativas no deseadas", comenta Willow Hallgren, coautora del estudio e investigadora del Programa Conjunto de Ciencias y Políticas del Cambio Global en el MIT. "Resulta muy fácil evaluar una nueva y más limpia fuente de energía, ver cómo mejorará de modo directo el clima, y detenerse allí, sin considerar todas las ramificaciones que pueda tener. Pero cuando se trata de mitigar el cambio climático, hay que considerar muchas más cosas que la simple sustitución de un combustible fósil por una fuente más limpia de energía".

Hallgren y sus colegas exploraron algunas de esas consecuencias poco visibles, considerando para ello dos escenarios: uno en el cual se talan bosques para sembrar cultivos destinados a elaborar biocombustibles, y otro donde se mantienen los bosques y se intensifica la productividad agrícola a través del uso de fertilizantes y la irrigación.

En ambos casos, los investigadores encontraron que a escala global, las emisiones de gases de efecto invernadero aumentan, en forma de más dióxido de carbono, cuando, en el primer escenario, se talan los bosques, absorbentes naturales de CO2, y en forma de más óxido nitroso proveniente de los fertilizantes cuando, en el segundo escenario, se intensifica el uso del suelo.

Ahora bien, este calentamiento global derivado de dicho incremento de gases con efecto invernadero es parcialmente contrarrestado en aquellos casos en los que las tierras adicionales de cultivo reflejan más luz solar que antes de su nuevo uso, lo que provoca un cierto efecto refrescante. Además, los nuevos cultivos también absorben CO2. Por otra parte, un aumento en los biocombustibles reemplazaría algunas fuentes de energía basadas en combustibles fósiles, grandes emisores netos de CO2, lo que refrenaría aún más la acumulación de gases con efecto invernadero que alimenta al calentamiento global.




Puede parecer un contrasentido que la vegetación provoque un aumento de temperatura, pero en algunas zonas del mundo eso es lo que podría ocurrir, según las conclusiones del estudio, si se sustituyen los bosques naturales por plantaciones agrícolas destinadas a la elaboración de biocombustibles, o si se abusa de fertilizantes en áreas agrícolas ya establecidas. (Foto: Amazings / NCYT / JMC)

Aunque los efectos de la introducción de biocombustibles a gran escala parecen compensarse mutuamente unos a otros a escala global, el nuevo estudio señala la presencia de efectos regionales significativos, con resultados netos negativos, en algunos casos incluso bien lejos de las regiones donde estén las nuevas plantaciones destinadas a biocombustibles. En los trópicos, por ejemplo, la deforestación de las selvas para dedicar esos terrenos a plantaciones de biocombustibles causaría un clima más seco, lo que a la larga implicaría con muchas probabilidades un mayor calentamiento. Por ejemplo, se estima que la Cuenca Amazónica y el África central se podrían calentar hasta 1,5 grados centígrados más.

Un grado y medio extra puede parecer poco, pero, sumado al resto del calentamiento puede constituir la gota que colma el vaso, iniciando una serie de desastres ecológicos en cadena.

La propia deforestación de selvas para destinar sus terrenos a plantaciones de biocombustibles comporta una liberación masiva del carbono que estaba atrapado en los árboles, contribuyendo así a un mayor calentamiento global del planeta.

Información adicional

Transistores con Sensibilidad Tactil

Usando haces de nanocables de óxido de zinc alineados verticalmente, unos investigadores han fabricado conjuntos de transistores piezotrónicos capaces de convertir directamente el movimiento mecánico en señales de control electrónicas. Estos conjuntos podrían ayudar a dotar a los robots de un sentido más adaptable del tacto, proporcionar mayor seguridad con las firmas escritas a mano, y ofrecer nuevas formas de que las personas interactúen con los dispositivos electrónicos.



Los conjuntos incluyen más de 8.000 transistores piezotrónicos, cada uno de los cuales puede producir de modo independiente una señal de control electrónica cuando se le aplica tensión mecánica. Estos transistores sensibles al tacto podrían brindar mejoras importantes en cuanto a resolución, sensibilidad y capacidad de efectuar operaciones, en comparación con las técnicas existentes de percepción táctil. Su sensibilidad es comparable a la de la yema de un dedo humano.

Estos transistores con sensibilidad táctil alineados verticalmente operan con transistores de dos terminales. En lugar de la tercera terminal (puerta) usada por los transistores convencionales para controlar el flujo de corriente que pasa a través de ellos, los transistores con sensibilidad táctil controlan la corriente mediante una técnica que está basada en el efecto piezotrónico y que utiliza las cargas eléctricas generadas por el efecto piezoeléctrico cuando una fuerza aplica tensión mecánica a los nanocables.

Con estos nuevos transistores, cualquier movimiento mecánico, como por ejemplo el movimiento de los brazos o dedos de un robot, podría ser traducido fácilmente a señales de control. Esto podría hacer que la piel artificial sea más inteligente y parecida a la piel humana, permitiendo que perciba la actividad sobre su superficie y transmita esa información a la unidad de procesamiento central o cerebro del robot.

Imitar electrónicamente el sentido del tacto ha sido un reto difícil en la historia de la robótica, y en la actualidad se lleva a cabo midiendo cambios en la resistencia producidos por contacto mecánico. En cambio, los dispositivos desarrollados por Zhong Lin Wang, Wenzhuo Wu y Xiaonan Wen de la Escuela de Ciencia e Ingeniería de los Materiales del Instituto Tecnológico de Georgia (Georgia Tech), en la ciudad estadounidense de Atlanta, se basan en un fenómeno físico diferente: Pequeñas cargas de polarización formadas cuando materiales piezoeléctricos, como por ejemplo el óxido de zinc, son sometidos a tensión mecánica. En los transistores piezotrónicos, las cargas piezoeléctricas controlan la corriente que fluye por los cables, como hacen los voltajes aplicados a la puerta en los transistores convencionales de tres terminales.

La técnica sólo funciona en materiales que tienen propiedades tanto piezoeléctricas como semiconductoras.

jueves, 30 de mayo de 2013

Distante de rayos gamma de muy alta energía

Los blazares son los más brillantes de entre los núcleos galácticos activos, y muchos emiten rayos gamma de muy alta energía. Las nuevas observaciones del blazar conocido como PKS 1424+240 muestran que es la fuente más lejana conocida de rayos gamma de muy alta energía, pero su espectro de emisión ahora parece muy inusual a la luz de los nuevos datos.



Un equipo dirigido por físicos de la Universidad de California en Santa Cruz, usó datos reunidos por el Telescopio Espacial Hubble para estimar que este blazar está a una distancia de por lo menos 7.400 millones de años-luz. A través de una distancia tan grande, una proporción sustancial de los rayos gamma debería ser absorbida por la luz de fondo extragaláctica, pero los cálculos sobre la absorción esperada produjeron un inesperado espectro de emisión del blazar.

"Estamos viendo una fuente extraordinariamente brillante que no muestra la emisión característica que se espera de un blazar de muy alta energía", advierte Amy Furniss, coautora del estudio.

Tal como señala David Williams, del equipo de investigación, los resultados pueden indicar algo nuevo acerca de los mecanismos de emisión de los blazares, o sobre la luz de fondo extragaláctica, o sobre la propagación de fotones de rayos gamma a través de largas distancias.

La luz de fondo extragaláctica es la radiación difusa de todas las estrellas y galaxias, una luz tenue pero penetrante que llena el universo. Cuando un fotón de rayos gamma de alta energía choca con un fotón de baja energía de ese fondo luminoso, se aniquilan mutuamente y se crea un par electrón-positrón. Cuanto más lejos tienen que viajar los rayos gamma, más probabilidades hay de que sean absorbidos por este mecanismo. Esto limita la distancia a la que se pueden detectar las fuentes de rayos gamma de muy alta energía.

Se cree que las emisiones de los blazares son el resultado de un chorro relativista de partículas disparado como consecuencia del proceso de caída de materia hacia un agujero negro supermasivo en el centro de su galaxia.

En la investigación también han trabajado J. Xavier Prochaska y Joel Primack de la Universidad de California en Santa Cruz, Michele Fumagalli de la Universidad de Princeton, Charles Danforth y John Stocke de la Universidad de Colorado, Meg Urry de la Universidad de Yale en New Haven, Connecticut; Alex Filippenko de la Universidad de California en Berkeley y William Neely del Observatorio NFO, todas estas instituciones en Estados Unidos.


 

Las teorías estelares se tambalean

Los astrónomos esperarían que estrellas como el Sol expulsasen la mayor parte de sus atmósferas al espacio durante la fase final de sus vidas. Pero nuevas observaciones de un enorme cúmulo estelar llevadas a cabo con el telescopio VLT (Very Large Telescope) de ESO han demostrado — contra todo pronóstico — que la mayor parte de las estrellas estudiadas sencillamente nunca alcanza esa fase. El equipo internacional ha descubierto que la mejor forma de predecir cómo acaban sus vidas es conociendo la cantidad de sodio de las estrellas.



Durante mucho tiempo se pensó que la forma en que evolucionan y mueren las estrellas era un campo bien comprendido. Detallados modelos predecían que las estrellas con una masa similar a la del Sol tendrían un periodo, hacia el final de sus vidas — denominado de rama gigante asintótica o AGB — en el que pasaría por una explosión final del núcleo y gran parte de su masa sería expulsada en forma de gas y polvo hacia el exterior.

Este material expelido forma después nuevas generaciones de estrellas y este ciclo de pérdida de masa y renacimiento es vital para explicar la evolución química del universo. Este proceso es a su vez el que proporciona el material requerido para la formación de planetas — e incluso los ingredientes para la vida orgánica.

Pero cuando el experto australiano en teoría estelar Simon Campbell, del Centro de Astrofísica de la Universidad de Monash (Melbourne) revisó antiguos artículos, encontró abrumadoras evidencias que sugerían que algunas estrellas se saltaban estas reglas y obviaban por completo esta fase. Nos cuenta la historia:

“Para un científico que trabaja con modelos estelares ¡esta sugerencia era una locura! Según nuestros modelos, todas las estrellas pasan por la fase AGB. Revisé de nuevo todos los estudios antiguos, y descubrí que no había sido investigado adecuadamente. Decidí investigar por mi cuenta, a pesar de tener muy poca experiencia observacional”.

Campbell y su equipo utilizaron el telescopio VLT (Very Large Telescope) de ESO para estudiar con mucho cuidado la luz proveniente de las estrellas ubicadas en el cúmulo globular de estrellas NGC 6752, en la constelación austral del Pavo. Esta inmensa bola de estrellas viejas contiene tanto estrellas de primera generación como estrellas de segunda generación que se formaron más tarde. Las dos generaciones pueden distinguirse por la cantidad de sodio que contienen — los datos de alta calidad obtenidos por el VLT permiten hacer estas medidas.

“FLAMES, el espectrógrafo multiobjeto de alta resolución del VLT, era el único instrumento que podía permitirnos obtener datos de tan alta calidad para 130 estrellas al mismo tiempo. Y nos permitió observar gran parte del cúmulo globular de una vez”, añade Campbell.

Los resultados fueron sorprendentes — todas las estrellas AGB del estudio eran de primera generación, con bajos niveles de sodio, y ninguna de las de segunda generación, con mayor cantidad de sodio, había pasado por la fase de estrella AGB. Un 70% de las estrellas no había pasado por la fase final de pérdida de masa y quemado del núcleo.

“Parece que las estrellas necesitan tener una “dieta” baja en sodio para alcanzar la fase de AGB en su edad anciana. Estas observaciones son importantes por varios motivos. Estas estrellas son las más brillantes de los cúmulos globulares — por tanto habrá un 70% menos de estrellas brillantes de lo que predice la teoría. ¡Esto también significa que nuestros modelos de estrellas están incompletos y deben ser revisados!”, concluye Campbell.

El equipo espera encontrar resultados parecidos para otros cúmulos de estrellas y tienen previsto llevar a cabo más observaciones.

Nuevo hallazgo sobre cómo el flúor combate la caries

En un avance decisivo hacia el esclarecimiento de un misterio con medio siglo de existencia, unos científicos han presentado nuevas evidencias sobre cómo el flúor (en forma de ciertos fluoruros) presente en pastas de dientes, agua potable, líquidos para enjuagues dentales, y otros productos para el cuidado bucal, previene contra la caries.


A pesar de medio siglo de investigaciones científicas, durante todo este tiempo no ha cesado la controversia sobre cómo exactamente los compuestos de flúor reducen el riesgo de caries. Dichas investigaciones establecieron hace bastante tiempo que el flúor ayuda a endurecer la capa de esmalte que protege a los dientes del ácido producido por las bacterias que causan caries. Estudios más recientes han encontrado que el flúor penetra en una capa de esmalte mucho más delgada de lo que se creía y la endurece, lo que respalda a otras teorías sobre cómo actúa el flúor.

El equipo de Karin Jacobs, de la Universidad de Saarland en Alemania, ha encontrado ahora nuevas evidencias de que el flúor también merma la fuerza de adhesión de las bacterias que se pegan a los dientes y producen el ácido que crea las caries.

Los experimentos, realizados en dientes artificiales (bolitas de hidroxiapatita) para permitir la aplicación de técnicas de análisis de alta precisión, revelaron que el flúor reduce la capacidad de las bacterias que causan caries para pegarse a esas bolitas, lo cual, por tanto, también debe ocurrir en el caso de los dientes naturales. El resultado es que, gracias al flúor, resulta más fácil deshacerse de las bacterias mediante la saliva, el cepillado u otra acción comparable.

En el estudio también han trabajado Peter Loskill, Christian Zeitz, Samuel Grandthyll, Nicolas Thewes, Frank Müller, Markus Bischoff y Mathias Herrmann, todos de la Universidad de Saarland.

El informe técnico de la investigación ha sido presentado públicamente a través de una publicación de la ACS (American Chemical Society, o Sociedad Química Estadounidense).

Información adicional

miércoles, 29 de mayo de 2013

Estiman el aumento del nivel del mar en el Caribe

El aumento del nivel del mar amenaza a pueblos y ciudades costeras. La profundización de las aguas filtra la luz que necesitan los arrecifes de coral y los pastos marinos. Del 2 al 16 de marzo, un equipo de científicos del Smithsonian y el U.S. National Oceanic and Atmospheric Administration (NOAA) instalaron nuevos equipos de vigilancia en la estación de investigación del Smithsonian en Bocas del Toro, Panamá, para medir con precisión la velocidad del aumento del nivel del mar en esa región.

La medición de las mareas y los niveles del agua con un calibrador montado en una plataforma es esencial. Pero, ¿qué tal si la tierra debajo de la plataforma se está hundiendo? Para controlar la velocidad del aumento el nivel del mar, hay que comparar el nivel del agua hasta el nivel del terreno circundante.



Rachel Collin, directora de la estación de investigación de Bocas del Toro y Steve Paton, director del Programa de Monitoreo Físico, solicitó fondos a la oficina del director del Smithsonian en Panamá para reemplazar la antigua plataforma de vigilancia marina, apoyada sobre troncos de palmas en la Bahía de Almirante.

Mientras tanto, un equipo dirigido por Patrick Megonigal del Smithsonian Environmental Research Center (Centro de Investigación Ambiental Smithsonian) en Maryland y Marguerite Toscano del Departamento de Paleobiología del Museo Nacional de Historia Natural del Smithsonian recibió para iniciar este trabajo una beca Grand Challenges por $100,000 del Consorcio Smithsonian para la Comprensión y la Sostenibilidad un Planeta Biodiverso: Sea Level Observations for Understanding Coastal Marine Ecological Change: Advancing MarineGEO through Networked Sentinel Instrumentation.

La donación permitirá a colaboradores instalar redes geodésicas y de monitoreo marino similares en todas las estaciones marinas del Smithsonian. La instalación de nuevos equipos de vigilancia, incluyendo una red de observación de funcionamiento continuo (COCONet) con receptor GPS de UNAVCO en Panamá, representa el primer paso para establecer los verdaderos vínculos entre todos los sitios de las nuevos Observatorios Marinos Tennenbaum del Smithsonian. (Fuente: STRI/DICYT)

Creación de un agujero negro

Cuando una estrella de masa muy grande agota su combustible nuclear, es incapaz de mantenerse hinchada y se derrumba sobre sí misma por efecto de su gravedad, en un proceso que acaba convirtiendo su núcleo en un agujero negro, un objeto con una gravedad tan intensa que nada, ni siquiera la luz, puede escapar de él una vez cae dentro.



Aunque algunas estrellas moribundas que acaban produciendo un agujero negro emiten en el proceso un potente estallido de rayos gamma, puede que éste no sea el caso más común, sino tan solo el único detectable con facilidad por nuestra tecnología. Quizá en la mayoría de casos, según una hipótesis, una estrella de masa muy grande que muere genera un agujero negro sin ningún estallido o destello: La estrella simplemente desaparece del firmamento y ya está, un evento cósmico que en cierto modo sería lo contrario de una nova.

¿Sería pues del todo indetectable un nacimiento de agujero negro por este mecanismo? ¿No sucedería nada detectable en forma de emisión de luz o de otra radiación del espectro electromagnético?

Según los resultados de un nuevo análisis efectuado por el astrofísico Tony Piro, del Instituto Tecnológico de California (Caltech), justo antes de que el agujero negro se forme, la estrella agonizante sí podría generar una señal, sutil pero reconocible si los observadores saben qué deben buscar. Esa señal delataría que acaba de nacer un agujero negro.

Según la teoría más aceptada, cuando una estrella masiva agota su combustible nuclear, su núcleo se contrae bajo su propio peso. A medida que se contrae, más prensada está la materia, hasta que llega un punto en el que los protones y los electrones del núcleo de la estrella se fusionan y producen neutrones. Si la masa de la estrella no es muy grande, puede permanecer estable en este estado, y en tal caso ha nacido lo que se conoce como estrella de neutrones o púlsar. Se trata de un objeto muy denso, tanto como lo sería el Sol si se le comprimiera para hacerle caber en una esfera de unos 10 kilómetros (6 millas) de radio.

Pero si la masa estelar es demasiado grande, el núcleo de la estrella muerta sigue comprimiéndose.

Durante unos segundos, antes de que la creciente compresión lo convierta en un agujero negro, el núcleo de la estrella muerta es una estrella de neutrones.

Este proceso de compresión colosal también crea neutrinos, que son partículas que casi siempre atraviesan la materia sin interactuar con ella y a una velocidad próxima a la de la luz. A medida que los neutrinos fluyen del núcleo estelar, transportan una gran cantidad de energía, que representa una décima parte de la masa de la estrella (ya que la energía y la masa son equivalentes, por E = mc2).

Según lo expuesto en un poco conocido artículo académico escrito en 1980 por Dmitry Nadezhin del Instituto Alikhanov de Física Teórica y Experimental en Rusia, esta rápida pérdida de masa implica que la fuerza gravitacional del núcleo de la estrella moribunda se reduzca de manera brusca. Cuando eso sucede, las capas gaseosas externas de la estrella, compuestas principalmente por hidrógeno, salen disparadas hacia el exterior, generando una onda de choque que suele atravesar las capas más exteriores a unos 1.000 kilómetros por segundo (unos 3 millones y medio de kilómetros por hora, o más de 2 millones de millas por hora).

Usando simulaciones por ordenador, dos astrónomos de la Universidad de California en Santa Cruz, Elizabeth Lovegrove y Stan Woosley, encontraron recientemente que cuando la onda de choque golpea la superficie exterior de las capas gaseosas, debe calentar el gas de la superficie, produciendo un brillo que duraría cerca de un año, una señal prometedora como indicativo fiable del nacimiento de un agujero negro. Aunque casi un millón de veces más brillante que el Sol, este resplandor sería relativamente débil en comparación con otras estrellas. Sería difícil de ver, incluso en galaxias que están relativamente cerca de nosotros.

Pero ahora Piro ha encontrado una señal más prometedora. En su nuevo estudio, analiza con más detalle lo que puede ocurrir en el momento en el que la onda expansiva golpea la superficie de la estrella, y ha calculado que el impacto en sí mismo produciría un destello de 10 a 100 veces más brillante que la luz predicha por Lovegrove y Woosley. Ese fogonazo sería muy brillante, y es la señal que ofrece la mejor oportunidad de ser detectada. Por tanto, según Piro, ésta es la señal que hay que buscar en el firmamento.

Tal destello sería tenue en comparación con las estrellas en explosión llamadas supernovas, pero sería lo bastante luminoso como para ser detectado en las galaxias cercanas. El destello, que duraría entre 3 y 10 días, antes de desvanecerse, sería muy luminoso en longitudes de onda ópticas, y su brillo máximo estaría en la banda ultravioleta.

Piro estima que los astrónomos serían capaces de ver, en promedio, uno de estos eventos cada año.

Información adicional

martes, 28 de mayo de 2013

Dan Vida a plantas enterradas bajo el hielo durante 400 años

Musgos congelados bajo el glaciar Teardrop (Canadá) desde la Pequeña Edad de Hielo (1550-1850) han sido capaces de volver a crecer en manos de los científicos, que los han cultivado in vitro. Esta capacidad  regeneradora es fundamental para la recolonización y el mantenimiento de ecosistemas terrestres polares.

En los últimos años, el retroceso de los glaciares se está acelerando, y deja al descubierto terrenos que llevaban años enterrados bajo el hielo. Científicos de la Universidad de Alberta (Canadá) han demostrado que plantas briofitas, es decir, aquellas no vasculares, como por ejemplo el musgo, son capaces de volver a crecer tras 400 años enterradas bajo un glaciar.



Un estudio publicado hoy en PNAS detalla el trabajo de los investigadores. La datación con radiocarbono de tres de las muestras extraídas del fondo del glaciar Teardrop de la isla Ellesmere (Canadá) confirmó que las plantas quedaron enterradas bajo el hielo hace entre 404,5 y 614,5 años, durante la Pequeña Edad de Hielo. La gran variedad de briofitas exhumadas (60 especies) muestra la enorme diversidad de la flora de la época.

Once cultivos de briófitas consiguieron ser recrecidas in vitro a partir de las muestras exhumadas de las profundidades del glaciar. Las plantas pertenecen a cuatro especies diferentes: Aulacomnium turgidum, Distichium capillaceum, Encalypta procera y Syntrichia rurales.

Según los autores, este trabajo “demuestra la capacidad totipotente de las briofitas, la habilidad de sus células para ‘desdiferenciarse’ a un estado meristemático análogo al de las células madre, y de desarrollar una nueva planta”.

Además, las briófitas son poiquilohídricas, es decir, no tienen mecanismos para controlar el contenido de agua. Esto les permite permanecer dormidas en caso de desecación y revivir cuando las condiciones vuelven a ser favorables.

Los autores aseguran que los terrenos expuestos por el retroceso de los glaciares “no deben ser considerados estériles de plantas terrestres”. Las plantas subglaciales son importantes para la recolonización y el mantenimiento de los ecosistemas terrestres polares. (Fuente: SINC)

Energía eólica de aerogeneradores marítimos

El viento que sopla en las costas es capaz de proporcionar abundante electricidad, pero, tal como sucede con la energía solar, la energía eólica puede ser intermitente e impredecible.

Ahora, un nuevo concepto propuesto por investigadores del  Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos, podría ser la clave para mitigar de manera notable ese problema, permitiendo que la electricidad generada por parques eólicos flotantes sea almacenada y luego usada según se la necesite.



Este concepto, desarrollado por el equipo de Alexander Slocum y Brian Hodder, se basa en emplazar esferas enormes de hormigón en el fondo marino, bajo las turbinas eólicas. Estas estructuras de hormigón, cuyo peso sería de miles de toneladas cada una, podrían servir para el anclaje de las turbinas flotantes y para almacenar la energía producida por éstas últimas.

Siempre que estas turbinas produjesen más energía que la necesaria en ese momento, la energía excedente sería usada por una bomba, conectada a la estructura submarina de hormigón, para extraer agua de mar de dicha estructura esférica hueca, de 30 metros de diámetro, y bombearla al exterior. Más tarde, cuando se necesitase energía, se dejaría fluir el agua nuevamente hacia dentro de la esfera. Este flujo de agua movería una turbina conectada a un generador, y la energía eléctrica resultante sería enviada a tierra.

El peso del hormigón de las paredes de 3 metros de espesor de las esferas sería suficiente para mantener estas estructuras en el fondo marino, incluso cuando estuvieran vacías de agua.

Los investigadores han calculado que una esfera de esas, que tenga 25 metros de diámetro y esté a 400 metros de profundidad, podría almacenar hasta 6 megavatios-hora; ello significa que 1.000 de dichas esferas podrían suministrar tanta energía como una central nuclear durante varias horas, lo suficiente como para ofrecer un suministro energético lo bastante estable. Así pues, las 1.000 turbinas eólicas y sus respectivas esferas podrían, como promedio, reemplazar a una central nuclear o de carbón convencional, gracias a su energía directa o a la almacenada. Además, a diferencia de las centrales nucleares o de carbón, las cuales necesitan horas para comenzar a suministrar energía, esta fuente de energía podría estar disponible en cuestión de minutos para atender una demanda energética dada, y luego ser desactivada con la misma rapidez.

El sistema estaría conectado a la red eléctrica, por lo que las esferas también podrían ser usadas para almacenar energía de otras fuentes, incluyendo paneles solares en tierra.

Información adicional

lunes, 27 de mayo de 2013

Alumbrado Publico Mediante LED`s

Las luces del alumbrado público impiden que reine la oscuridad en calles de todas partes del mundo durante la noche, pero estos elementos omnipresentes del entorno urbano son notoriamente ineficientes, por cuanto desperdician mucha luz que en vez de ser proyectada hacia el suelo lo hace hacia el cielo, lo cual provoca a su vez el fenómeno de la contaminación lumínica que impide ver el firmamento desde las ciudades y sus alrededores.



Innovaciones recientes en los diodos emisores de luz (LEDs) han permitido mejorar la eficiencia energética del alumbrado público, pero, hasta ahora, parecía inevitable perder una parte importante de esta luz al irradiarse hacia direcciones que no son la del lugar deseado.

Un equipo de investigadores de Taiwán y México ha desarrollado un nuevo sistema de iluminación que aprovecha la alta eficiencia energética de los LEDs y asegura que alumbren sólo hacia el lugar deseado, evitando así que luz se proyecte hacia el cielo o moleste en viviendas circundantes (como por ejemplo cuando en verano la gente duerme con la ventana del dormitorio abierta para combatir el calor y esa ventana queda justo ante una farola).

El 98 por ciento de la energía del nuevo sistema de alumbrado público se emplea en iluminar la calle, mientras que sólo un 2 por ciento se desperdicia en forma de contaminación lumínica.

Una característica única del nuevo sistema LED es su adaptabilidad a diferentes ubicaciones de las farolas del alumbrado público y a todo tipo de calles y carreteras, proporcionando una iluminación uniforme con una alta eficiencia energética.

La lámpara propuesta para las farolas se basa en la combinación de tres componentes. El primero contiene un grupo de LEDs, cada uno de los cuales está equipado con una lente especial, denominada Lente de Reflexión Interna Total, la cual enfoca la luz de manera que los rayos son paralelos entre sí (un proceso denominado colimación), en vez de intersecarse. Estos LEDs cubiertos con lentes se instalan dentro de una cavidad reflectante, la cual "recicla" la luz y asegura que de ésta se utilice tanta como sea posible para iluminar el objetivo deseado. Por último, cuando la luz sale de la lámpara, atraviesa un difusor o filtro que reduce el resplandor no deseado. La combinación de colimación y filtrado también permite a los investigadores controlar la forma del haz: El diseño actual produce un patrón rectangular de luz que, según afirman los investigadores, es idóneo para el alumbrado público.

Además de reducir el resplandor no deseado y la contaminación lumínica, el nuevo diseño de alumbrado público también podría ahorrar energía. En comparación con lámparas tradicionales, una lámpara LED común para alumbrado público permite reducir el consumo de energía entre un 40 y un 60 por ciento. Es un buen ahorro, pero la mayor eficiencia del nuevo diseño propuesto por el equipo de Ching-Cherng Sun, de la Universidad Central Nacional de Taiwán, probablemente ahorraría entre un 10 y un 50 por ciento más. Además, el módulo sería fácil de fabricar, ya que sólo comprende cuatro partes, incluyendo un tipo de lámpara LED que ya es de uso común en la industria de la iluminación.

El equipo de Ching-Cherng Sun espera terminar un prototipo de su diseño en los próximos meses, y comenzar instalaciones prácticas del nuevo sistema de alumbrado el próximo año.

El nuevo sistema de alumbrado público se ha presentado a través de la Sociedad Óptica de América (OSA), una organización fundada en Estados Unidos en 1916, con sede en Washington, D.C., y que reúne a unos 17.000 científicos, ingenieros, y demás profesionales de la óptica y la fotónica de más de 100 naciones. Aproximadamente el 52 por ciento de los miembros de esta sociedad reside fuera de Estados Unidos.

Información adicional

La NASA quiere crear una impresora 3D de alimentos

La NASA ha otorgado una beca Small Business Innovation Research (SBIR) en fase I a la compañía texana Systems and Materials Research Consultancy para explorar la posibilidad de usar la denominada ‘fabricación aditiva’, más conocida como impresión 3D, en la elaboración de alimentos en el espacio.

Para desarrollar el prototipo la empresa cuenta con una subvención de 125.000 dólares y un plazo de seis meses, según informa la revista Quartz.



La NASA, por su parte, subraya que las propuestas SBIR en fase I “son conceptos en fase muy temprana, que pueden o no madurar en sistemas reales”.

Si esta tecnología de impresión de alimentos tuviera éxito, podría derivar en un estudio en fase II, que todavía llevaría varios años de desarrollo hasta ser probado en algún vuelo espacial real.

En cualquier caso, la empresa desarrollará el sistema de impresión 3D para sintetizar los productos alimenticios pensando en las misiones espaciales de larga duración, que pueden prolongarse durante más de una década.

"La forma en que estamos trabajando en esto es que todos los hidratos de carbono, proteínas y nutrientes estén en forma de polvo, retirando la humedad, y así, de esta forma, los componentes quizá puedan durar 30 años", plantea Anjan Contractor, el ingeniero mecánico encargado del proyecto.

Después, con un sistema de mezcladores y válvulas se podrá hidratar e ‘imprimir’ la comida según se vaya necesitando. La NASA contempla esta fórmula como una de las posibles mejoras a introducir en los ‘sistemas de soporte de vida’ de las futuras misiones.

Los sistemas de alimentación actuales –al margen de los alimentos frescos perecederos– no satisfacen las necesidades nutricionales y las buenas condiciones biológicas que se requerirían durante los cinco años que, por ejemplo, duraría una misión a Marte. La idea es consumir pocos recursos de las naves y que la tripulación no pierda mucho tiempo en el procesado.

Ahora la refrigeración y congelación de los alimentos consumen importantes recursos en el espacio, y las provisiones actuales que utiliza la NASA consisten únicamente en comida perecedera individual y envasada, procesada, además, ​​con un tipo de tecnología que va degradando sus micronutrientes.

Los promotores de las impresoras 3D de alimentos confían en demostrar su viabilidad para las misiones de la NASA, aunque si no triunfaran en el espacio, consideran que también se podrían usar en la Tierra como una nueva forma de fabricar alimentos, incluso a la carta. “Tenemos que cambiar nuestra percepción de lo que vemos como comida", apunta Contractor. (Fuente: NASA/Quartz)

Descubren el mecanismo exacto que confiere a un fármaco su propiedad anticáncer

Se ha descubierto por qué un fármaco específico contra el cáncer es tan eficaz para matar células cancerosas. El hallazgo podría ser usado para ayudar al diseño de futuros tratamientos contra el cáncer.

El equipo del profesor Daniel Davis, del Centro Colaborativo para Investigación de la Inflamación (MCCIR por sus siglas en inglés), dependiente de la Universidad de Manchester en el Reino Unido, utilizó vídeo de alta calidad para investigar por qué el rituximab es tan eficaz para matar células B cancerosas. Este fármaco se utiliza ampliamente en el tratamiento de neoplasias de células B, como el linfoma y la leucemia.

Usando microscopios láser de alta potencia, los investigadores grabaron vídeos del proceso mediante el cual el rituximab se enlaza a una célula enferma y luego atrae a glóbulos blancos llamados células asesinas naturales, conocidos también como células citolíticas naturales, para que ataquen a la célula. A través de las observaciones, los investigadores descubrieron que el rituximab tendía a adherirse a un lado de la célula cancerosa, formando allí una protuberancia. Este fármaco hizo que la célula tuviera dos partes diferenciadas, a modo de parte frontal y parte trasera, con un cúmulo de moléculas proteicas concentradas en un lado.

Pero lo que más sorprendió a los científicos fue cómo esto cambió la eficacia de las células asesinas naturales para destruir a estas células enfermas. Cuando una célula asesina natural se adhería a la protuberancia en la célula B, su tasa de éxito para matar a dicha célula era del 80 por ciento. Por el contrario, cuando la célula B no tenía este cúmulo de proteínas en un lado, sólo era eliminada el 40 por ciento de las veces.



Esta imagen muestra células B cancerosas que han sido tratadas con rituximab. La proteína CD20, mostrada en verde, ha sido atraída hacia un lado de las células. Cuando los glóbulos blancos conocidos como células asesinas naturales se aproximen a las células, tendrán un 80 por ciento de probabilidad de matarlas si se adhieren en el lado donde se han acumulado las proteínas. (Imagen: MCCIR)

Lo que este hallazgo demuestra es que esta capacidad de "polarizar" una célula moviendo proteínas dentro de ella, debe ser tomada en cuenta al poner a prueba nuevos anticuerpos como tratamientos potenciales contra células cancerosas.

La investigación se llevó a cabo en colaboración con MedImmune, una sección de la compañía farmacéutica AstraZeneca.

Información adicional

Movimientos moleculares que desafían las leyes de la física clásica

Una nueva investigación ha mostrado que el movimiento de una molécula de pirrol, de forma similar a un anillo, sobre una superficie metálica, va en contra de las leyes de la física "clásica" que gobiernan nuestro mundo cotidiano.

Usando técnicas experimentales singularmente sensibles, unos científicos han descubierto que las leyes de la física cuántica, que mayormente se pensaba que actuaban sólo a escala subatómica, en realidad pueden actuar a escala molecular.



Los investigadores, de la Universidad de Cambridge en el Reino Unido, y la Universidad Rutgers de Nueva Jersey en Estados Unidos, han obtenido evidencias de que, en el caso del pirrol, las leyes cuánticas que afectan los movimientos internos de la molécula, modifican la naturaleza de su mapa energético. Así pues, este "movimiento cuántico" es esencial para comprender en su totalidad la distribución energética de la molécula completa.

Basándose en experimentos llevados a cabo por Barbara Lechner en el Laboratorio Cavendish de la Universidad de Cambridge, Reino Unido, con el objetivo de determinar la energía requerida para el movimiento del pirrol por una superficie de cobre, el equipo descubrió una discrepancia que los condujo por una "pista cuántica" hasta un hallazgo inusual.

En un trabajo previo con moléculas más simples, los científicos pudieron calcular con precisión la "barrera de activación" (la energía necesaria para romper el enlace de una molécula con una superficie y permitir que se mueva).

Sorprendentemente, las "barreras de activación" predichas para el pirrol resultaron no concordar con otros datos. Después de darle muchas vueltas al enigma, sin encontrar ningún error, los científicos comenzaron a considerar el posible papel de un fenómeno exclusivamente cuántico, la Energía del Punto Cero.

En la física clásica, un objeto que pierde energía puede continuar haciéndolo hasta alcanzar lo que puede ser considerado como un estado de reposo absoluto. En el mundo cuántico, esto nunca sucede: Siempre se retiene cierta forma remanente (incluso indetectable) de energía, conocida como la Energía del Punto Cero.

Aunque es bien conocido que la Energía del Punto Cero está asociada con el movimiento de los átomos presentes en las moléculas, se creía que estas minúsculas cantidades de energía no afectaban de forma detectable a la molécula como un todo, a menos que la molécula se descompusiera.

Pero ahora, el equipo de Lechner, Marco Sacchi y Stephen Jenkins, director del Grupo de Ciencia de Superficies en el Departamento de Química de la Universidad de Cambridge, ha descubierto que la naturaleza cuántica del movimiento interno de la molécula en realidad sí afecta la molécula como un todo a medida que se mueve por la superficie, yendo en contra de las leyes clásicas que establecen que la molécula es demasiado grande como para ser afectada por efectos cuánticos.

En la investigación también han trabajado Bill Allison, John Ellis, Holly Hedgeland y Jane Hinch.

Información adicional

domingo, 26 de mayo de 2013

Bit cuántico basado en un defecto atómico

Usando la luz, un equipo de investigadores ha manipulado el estado cuántico de un defecto de dimensiones atómicas (concretamente un centro nitrógeno-vacante) en una estructura de diamante. El método empleado no sólo permite un control más unificado que el brindado por los procesos convencionales, sino que es más versátil y abre la posibilidad de explorar nuevos sistemas cuánticos de estado sólido.



A diferencia de lo que se hace en la electrónica convencional, el equipo del físico e ingeniero electrónico David Awschalom, director de Centro para la Espintrónica y la Computación Cuántica de la Universidad de California en Santa Bárbara, desarrolló un sistema totalmente óptico para el control de bits cuánticos individuales en semiconductores, usando pulsos de luz.

El centro nitrógeno-vacante es un defecto en la estructura atómica del diamante donde un átomo de carbono en la retícula es reemplazado por un átomo de nitrógeno y queda vacante un espacio adyacente de la retícula. El espín electrónico resultante alrededor del defecto forma un bit cuántico o "qubit", la unidad básica de una computadora cuántica. Los procesos actuales requieren que este qubit se inicialice en un estado de energía bien definido antes de establecer una interfaz con él. A diferencia de los ordenadores clásicos, donde la unidad básica de información, el bit, es 0 ó 1, los qubits pueden ser 0, 1, o cualquier superposición matemática de ambos estados, permitiendo así operaciones mucho más complejas.

Aunque las computadoras cuánticas prácticas todavía están a muchos años de distancia en el futuro, esta investigación reciente abre nuevos y prometedores caminos hacia su construcción.

En el trabajo de investigación y desarrollo también han intervenido Christopher Yale, Bob Buckley, David Christle, F. Joseph Heremans y Lee Bassett, de la Universidad de California en Santa Bárbara, así como el físico Guido Burkard, profesor en la Universidad de Constanza en Alemania.

Información adicional
 

El Very Large Telescope de ESO celebra 15 años de éxitos

Con esta nueva visión de una espectacular guardería de estrellas (la imagen inferior derecha) ESO celebra los 15 años del telescopio VLT (Very Large Telescope) — el instrumento óptico más avanzado del mundo. Esta imagen revela espesas aglomeraciones de polvo silueteadas contra una nube de brillante gas rosado llamada IC 2944. Estas manchas borrosas y opacas parecen gotas de tinta flotando en un cóctel de fresas, cuyas caprichosas formas han sido esculpidas por las potentes radiaciones procedentes de estrellas jóvenes brillantes cercanas.



Esta nueva imagen celebra un importante aniversario para el VLT (Very Large Telescope) – hace quince años, el 25 de mayo de 1998, se celebraba la primera luz con el primero de sus Telescopios Unitarios. Desde entonces, se han unido a los cuatro telescopios gigantes los cuatro Telescopios Auxiliares, más pequeños, que forman parte del interferómetro VLTI (VLT Interferometer). El VLT es una de las instalaciones astronómicas basadas en tierra más potentes y productivas que existen. En 2012 se publicaron más de 600 artículos científicos con arbitraje basados en datos del VLT y el VLTI.

Las nubes interestelares de polvo y gas son las guarderías en las que nacen y crecen las estrellas. La nueva imagen muestra una de ellas, IC 2944, que aparece con ese color rosado de fondo, ligeramente brillante. Esta imagen es la más nítida de este objeto que se ha obtenido hasta el momento desde tierra. La nube se encuentra a unos 6.500 años luz, en la constelación austral de Centaurus (El Centauro). Esta parte del cielo alberga muchas otras nebulosas similares que son escrutadas por los astrónomos para estudiar los mecanismos de formación estelar.

Las nebulosas de emisión como IC 2944 están compuestas en su mayor parte por gas de hidrógeno que brilla en característicos tonos rojizos debido a la intensa radiación procedente de las numerosas y brillantes estrellas recién nacidas. Destacando claramente sobre el fondo brillante vemos misteriosos grumos oscuros de polvo opaco, nubes frías conocidas como glóbulos de Bok. Se llaman así en honor al astrónomo holandés-americano Bart Bok, quien fue el primero en fijarse en ellas en los años 40 del siglo pasado, señalándolas como posibles lugares de formación estelar. Este conjunto en concreto se apoda con el nombre de Glóbulos de Thackeray.

Los glóbulos de Bok de mayor tamaño en lugares más tranquilos a menudo colapsan para formar nuevas estrellas, pero las de esta imagen están siendo bombardeadas violentamente por la radiación ultravioleta procedente de jóvenes estrellas calientes cercanas. Ambos están siendo erosionados y fragmentados, algo parecido a lo que ocurre cuando soltamos un trozo de mantequilla sobre una sartén caliente. Es probable que los Glóbulos de Thackeray se destruyan antes de que colapsen y formen estrellas.

Los glóbulos de Bok no son fáciles de estudiar. Dado que son opacos a la luz visible es difícil para los astrónomos observar lo que ocurre en su interior, por lo que se necesitan otros instrumentos para desvelar sus secretos — observaciones en el rango infrarrojo o en las partes submilimétricas del espectro, por ejemplo, en las que las nubes de polvo, que se encuentran solo unos pocos grados por encima del cero absoluto, se ven brillantes. Este tipo de estudios de los glóbulos de Thackeray han confirmado que no hay formación estelar actualmente en su interior.

El Evento Còsmico que Cambio el Sistema Climatico en la Tierra

Científicos de la Universidad de Cincinnati (Estados Unidos) han determinado que "cerca del final de la Edad de Hielo" se produjo un evento cósmico que provocó un cambio climático que obligó a la vegetación y a los animales a adaptarse a un nuevo entorno.



Los expertos que han llevado a cabo este trabajo, publicado en PNAS, han estudiado la cueva Sheriden en Ohio, situada a 100 metros bajo la superficie, donde pueden observarse capas geológicas que datan de hace unos 13.000 años. Allí, se han encontrado evidencias que avalan la teoría de que se produjo un evento cósmico lo suficientemente cerca de la Tierra como para derretir la roca y producir fenómenos geológicos poco frecuentes.

Concretamente, los geólogos han hallado esférulas de carbono, que se forman cuando las sustancias se queman a temperaturas muy altas. Estos cuerpos presentan características que indican su origen, que puede ser la quema de carbón, la caída de rayos, incendios forestales o algo más extremo.

Para el autor principal del estudio, Kenneth Tankersley, las rocas que su equipo está estudiando "sólo podrían haber sido formadas por la combustión de roca".

Además, también ha destacado como "hallazgos importantes" de su equipo los micrometeoritos (pequeños trozos de meteoritos o partículas de polvo cósmico que se han puesto en contacto con la superficie de la Tierra); nanodiamantes (diamantes microscópicos que se forman cuando una fuente de carbono se somete a un impacto extremo, y que a menudo se encuentran en los cráteres de meteoritos); y Lonsdaleita (un tipo raro de diamante, también llamado un diamante hexagonal, que sólo se encuentran en zonas como cráteres de meteoritos).

El investigador cree que el evento cósmico que ocurrió hace unos 12.800 años tuvo un efecto "inmediato y mortal" y los efectos secundarios a largo plazo fueron "devastadores". A su juicio, un cometa que rozó la atmósfera de la Tierra o un asteroide que se estrelló contra su superficie causó una combustión a escala global. La explosión produjo un gas tóxico que nubló el cielo y causó que las temperaturas cayeran en picado.

Este clima puso en duda la existencia de poblaciones de plantas y animales y se produjo lo que Tankersley ha clasificado como "ganadores" y "perdedores". Para Tankersley, los seres vivos de este período tenían tres opciones: reubicarse en otro entorno donde podían ganarse la vida de forma similar; ajustar su estilo de vida para adaptarse al entorno actual o extinguirse rápidamente.

"Los 'ganadores' eligieron una de las dos primeras opciones, mientras que los 'perdedores', como el mamut lanudo, se decantaron por la última", ha explicado el experto. "Sea lo que fuese, no causó la extinción", dice Tankersley, quien ha añadido que, "más bien, esto sea probablemente el primer caso de cambio climático forzado".

Matemático resolvió un problema de 271 años

Harald Andrés Helfgott es un matemático peruano que se hizo famoso en todo el mundo después de resolver un problema que tenía 271 años. Se trata de la Teoría de Goldbach que planteaba que todo número impar mayor que cinco puede expresarse como suma de tres números primos.
 
Helfgott trabaja actualmente en el Centro Nacional para la Investigación Científica de Francia y publicó el trabajo que comprobó el complicado problema. Le tomó nada menos que 133 páginas.
Según informan desde El Comercio el hombre fue siempre una persona muy inteligente. De hecho de niño, con solo 12 años, ya iba a diferentes universidades para aumentar su conocimiento. De grande fue a Princeton y Yale, dos de las universidades más prestigiosas de Estados Unidos, y su trabajo logró ganar varios premios.
“Me parece que lo importante es -más allá de donde vivamos o trabajemos- mantener un compromiso con la educación y la ciencias en Sudamérica, y con la matemática local en particular. Como varios de mis amigos que trabajan por aquí, vuelvo regularmente a mi lugar de origen para dar cursillos, organizar conferencias y ocuparme de los estudiantes. Quisiera que esto sirva para que el trabajo que muchas generaciones han hecho por la matemática peruana sea apreciado”, escribió el genio en su Facebook.

sábado, 25 de mayo de 2013

El Hubble Mejor Fotografia Nebular

El telescopio espacial Hubble ha conseguido la imagen más detallada jamás captada de la famosa Nebulosa del Anillo, también conocida como Messier 57. Esta imagen revela la estructura intrincada de la nebulosa, solo insinuada en las observaciones anteriores, y ha permitido a los científicos construir un modelo en 3D que muestra la verdadera forma de este llamativo objeto.



Formada por una estrella que pierde sus capas exteriores, ya que se queda sin combustible, la Nebulosa del Anillo está relativamente cerca de la Tierra y es bastante brillante, por lo que es fácil de ver y se registró por primera vez en el siglo XVIII. Como es común en los objetos astronómicos, la distancia exacta no se conoce, pero se cree que se encuentra a poco más de 2.000 años luz de la Tierra.

Desde la perspectiva de la Tierra, la nebulosa se ve más o menos elíptica. Sin embargo, los astrónomos han combinado los datos terrestres con las nuevas observaciones realizadas con el Hubble, de la NASA y la Agencia Espacial Europea (ESA), para observar la nebulosa de nuevo, en busca de pistas sobre su estructura, evolución, condiciones físicas y movimiento.

Resulta que la nebulosa tiene la forma de una rosquilla distorsionada. En la imagen, miramos casi directamente a uno de los polos de esta estructura, con un cañón de material de colores brillantes que se extiende lejos de nosotros. Aunque el centro de la rosquilla puede parecer vacío, en realidad está lleno de material de baja densidad que se extiende tanto hacia nosotros como hacia el lado opuesto, creando una forma similar a una pelota de rugby.

La parte más brillante de la nebulosa es lo que vemos como el colorido anillo principal. Este se compone de gas expulsado por la estrella moribunda en el centro de la nebulosa. Esta estrella está en camino de convertirse en una enana blanca, un cuerpo muy pequeño, denso y caliente que es la etapa evolutiva final para una estrella como nuestro Sol.

La Nebulosa del Anillo es uno de los objetos más notables en nuestros cielos. Fue descubierto en 1779 por el astrónomo Antoine Darquier de Pellepoix, y observado más tarde ese mismo mes por Charles Messier. Ambos astrónomos toparon con la nebulosa cuando trataban de seguir la trayectoria de un cometa a través de la constelación de Lyra.

jueves, 23 de mayo de 2013

Meteoros Colisionando el Grandioso Anillo de Saturno

La nave espacial Cassini de la NASA ha proporcionado la primera evidencia directa de pequeños meteoroides fragmentándose en flujos de "escombros" y chocando contra los anillos de Saturno.

Estas observaciones hacen de los anillos de Saturno un nuevo lugar, aparte de la Tierra, la Luna y Júpiter, en donde los científicos y los astrónomos aficionados han podido observar impactos de cuerpos cósmicos justo cuando están ocurriendo.


El sistema solar está lleno de objetos pequeños y veloces. Estos objetos frecuentemente impactan contra los cuerpos planetarios. Se estima que el tamaño de los meteoroides detectados en Saturno oscilaba entre un centímetro y varios metros. Les ha tomado bastante tiempo a los científicos distinguir las huellas dejadas por nueve meteoroides en 2005, 2009 y 2012.

Los resultados obtenidos gracias a la sonda espacial Cassini han mostrado que los anillos de Saturno actúan como detectores muy eficaces de muchos tipos de estructuras y fenómenos circundantes, incluyendo la estructura interior del planeta y el trazado orbital de sus lunas. Por ejemplo, una sutil pero extensa ondulación por los anillos más internos delata un gran impacto de un meteoroide en 1983.

Estos nuevos resultados implican que las tasas de impacto actuales de pequeñas partículas contra Saturno son aproximadamente las mismas que las del caso de la Tierra, pese a ocupar ambos planetas vecindarios muy diferentes en nuestro sistema solar, tal como indica Linda Spilker, científica del equipo de la Cassini en el Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California.

En el análisis de las observaciones también han trabajado Matt Tiscareno, científico del equipo de la Cassini en la Universidad de Cornell en Ithaca, estado de Nueva York, y Jeff Cuzzi, también del equipo, en el Centro Ames de Investigación de la NASA, en Moffett Field, California.

Información adicional
 

Evolucion de las Galaxias

El observatorio espacial Herschel de la ESA ha observado un inusual encuentro entre dos galaxias ricas en gas que presenta la solución al antiguo problema de cómo se formaron las grandes galaxias pasivas en el Universo primigenio.

La mayor parte de las grandes galaxias pertenece a una de estas dos categorías: las galaxias espirales, como nuestra Vía Láctea, con una gran cantidad de gas y actividad de formación de estrellas; o las galaxias elípticas, pobres en gas, pobladas de viejas estrellas rojas y frías y con pocos signos de actividad. 



Durante mucho tiempo se asumió que las grandes galaxias elípticas que vemos en el Universo actual se formaron lentamente a través de la fusión gravitatoria de galaxias más pequeñas. Esta hipótesis sugería que el gas contenido en estas galaxias se transformaría progresivamente en estrellas frías de baja masa, hasta agotar todas sus reservas, dejando una galaxia ‘roja y muerta’.

Cuando en la última década se descubrió que las grandes galaxias elípticas se habían logrado formar en los primeros 3-4 mil millones de años de historia del Universo, esta hipótesis se tambaleó. De alguna forma, en un plazo de tiempo muy corto en términos cosmológicos, estas galaxias habían sido capaces de reunir rápidamente una gran cantidad de estrellas y luego se habían ‘apagado’.

Una posible explicación sería que dos galaxias espirales chocasen y se fusionasen, dando lugar a una gran galaxia elíptica. La colisión desencadenaría un brote masivo de formación estelar que agotaría rápidamente todas las reservas de gas. Gracias a las observaciones de Herschel, un equipo de astrónomos ha sido capaz de capturar el inicio de este proceso entre dos galaxias masivas cuando el Universo apenas tenía 3.000 millones de años.

Esta pareja de galaxias fue identificada inicialmente en los datos de Herschel como una única fuente, bautizada como HXMM01. Un estudio más detallado desveló que en realidad se trataba de dos galaxias, cada una con una masa estelar equivalente a 100.000 veces nuestro Sol y con una cantidad equivalente de gas.

Las galaxias están unidas por un puente de gas, lo que indica que se están fusionando.

“Este monstruoso sistema de galaxias en interacción es la fábrica de estrellas más eficiente jamás detectada en el Universo primitivo, cuando éste apenas tenía 3.000 millones de años”, explica Hai Fui de la Universidad de California, Irvine, Estados Unidos, autor del estudio publicado enNature.

“El sistema HXMM01 es muy especial, no sólo por su gran masa e intensa actividad de formación de estrellas, sino porque también se encuentra en una fase intermedia y fundamental del proceso de fusión, lo que nos ayudará a perfeccionar los modelos actuales que describen la formación y la evolución de las galaxias”, añade Asantha Cooray, coautor de la publicación y también profesor en la Universidad de California, Irvine.

El comienzo de la fusión ha desencadenado una frenética actividad de formación de estrellas, alcanzando una tasa equivalente a unas 2.000 estrellas como nuestro Sol al año. En comparación, una galaxia como la Vía Láctea actual sólo forma el equivalente a un Sol cada año.

La eficiencia con la que el gas se está convirtiendo en nuevas estrellas en este sistema es unas diez veces mayor a la observada en las galaxias convencionales, que forman estrellas a una tasa mucho más lenta.

El sistema no será capaz de sostener semejante tasa de formación de estrellas durante mucho tiempo, y terminará agotando todas sus reservas de gas, deteniendo la producción y convirtiéndose en una población envejecida de estrellas rojas, frías y de baja masa.

El equipo de Fu calcula que HXMM01 tardará unos 200 millones de años en convertir todo su gas en estrellas, mientras que el proceso de fusión tardará unos mil millones de años en completarse. El resultado final será una galaxia elíptica masiva, roja y muerta, con unos 400.000 millones de masas solares.

“Tuvimos mucha suerte al detectar este sistema tan especial en una fase de transición tan crítica. El descubrimiento deja constancia de que la fusión de galaxias ricas en gas y con una considerable actividad de formación de estrellas es uno de los mecanismos para la formación de las galaxias elípticas masivas que podemos observar en el Universo primitivo”, explica Seb Oliver de la Universidad de Sussex, Reino Unido, Investigador Principal del Programa Clave HerMES dentro del que se han realizado estas observaciones.

“Este descubrimiento pone de manifiesto la importancia de los estudios realizados con Herschel. En este caso, permitieron descubrir la excepcional fuente HXMM01, que puede contener la clave para desvelar el misterio de cómo se formaron y cómo han evolucionado las galaxias súper masivas cuando el Universo todavía era muy joven”, añade Göran Pilbratt, Científico del Proyecto Herschel para la ESA.

La ciencia Aplicada a las NanoFibras

Unos ingenieros especializados en ciencia de los materiales han desarrollado una nanofibra que es muy dura y también muy robusta, un hallazgo que podría conducir a la fabricación de mejores piezas para infinidad de máquinas, enseres y vehículos, desde aviones hasta puentes, pasando por bicicletas e incluso armaduras corporales.



Parece lógico, y es verdad hasta cierto punto, que la robustez de un material se consigue a expensas de su dureza, y viceversa. En este caso, un material duro es aquel que no se puede rayar con facilidad ni abollar o deformar de otras maneras, y un material robusto aquel que no se rompe aunque reciba golpes. Un plato de vidrio es duro, ya que no es fácil rayarlo ni se abolla o tuerce. Sin embargo, es fácil que se rompa si cae al suelo. Lo contrario ocurre por ejemplo con una goma de borrar. Podemos rayarla con las uñas y basta presionarla un poco para que se doble o deforme, aunque en este caso recupere luego su forma inicial. Sin embargo, a diferencia del plato de vidrio, si cae al suelo no se rompe.

Lo normal es que robustez y dureza sean mutuamente excluyentes.

El equipo de Yuris Dzenis, del Centro de Materiales y Nanociencia, adscrito a la Universidad de Nebraska-Lincoln en Estados Unidos, ha desarrollado una nanofibra excepcionalmente delgada de poliacrilonitrilo, un tipo de polímero sintético relacionado con el acrílico, usando una técnica llamada electrohilado.

Dzenis y sus colegas descubrieron que haciendo que la nanofibra fuera más delgada de lo que se había obtenido anteriormente, no sólo se volvía más robusta, como esperaban, sino también más dura.

En el trabajo de investigación y desarrollo también han intervenido los ingenieros Dimitry Papkov, Yan Zou, Mohammad Nahid Andalib y Alexander Goponenko de la Universidad de Nebraska-Lincoln, así como Stephen Z.D. Cheng de la Universidad de Akron, en Ohio, Estados Unidos.

Información adicional