jueves, 31 de octubre de 2013

Uniformidad, el secreto de una mejor ignición de fusión nuclear

Una de las maneras de conseguir la fusión termonuclear es a través de una reacción controlada entre dos variantes o isótopos del hidrógeno, específicamente el deuterio y el tritio. Un equipo de físicos teóricos ha hecho ahora una serie de cálculos teóricos que indican cómo se podría mejorar la fase de ignición de la reacción de fusión.

La estrategia del grupo de Mauro Temporal, de la Escuela Normal Superior de Cachan en Francia, pasa por incrementar la uniformidad de la irradiación usando haces láser de alta potencia en la envoltura externa de una cápsula esférica que contiene una mezcla de deuterio y tritio.



Alcanzar la uniformidad de la irradiación es crucial. Si se logra, la cápsula se calienta con suma rapidez e implosiona, comprimiendo el combustible nuclear del interior hasta que alcanza una densidad elevadísima. Esto, a su vez, induce la compresión y calentamiento de una pequeña cantidad del combustible nuclear en el punto crítico, lo cual es un requisito ineludible para alcanzar las condiciones requeridas por la ignición de la fusión termonuclear, y lograr con ésta generar enormes cantidades de energía aprovechable.

Temporal y sus colegas están ahora considerando la posibilidad de utilizar las instalaciones del sistema Orión (Orion) de láser de alta potencia, emplazadas en el Reino Unido, para estudiar más a fondo la uniformidad. El sistema Orión puede emitir un pulso de unos pocos nanosegundos de duración y 5 kilojulios de energía, incapaz de lograr la ignición de fusión nuclear pero que sí sirve para poner a prueba formas de generar una irradiación uniforme a partir de haces distribuidos sin uniformidad.

En la investigación también han trabajado Benoit Canaud, Warren J. Garbett, Franck Philippe y Rafael Ramis.

Información adicional

Un exoplaneta presenta el tamaño, la masa y la densidad de la Tierra

Kepler-78b es un planeta extra solar en órbita alrededor de una estrella parecida al Sol, Kepler 78, en la constelación del Cisne, a unos 400 años luz de distancia. Ahora, según dos investigaciones publicadas en la revista Nature, se informa de que presenta una masa y densidad muy parecidas a las de la Tierra.

Los autores de los trabajos, uno liderado por Francesco Pepe desde la Universidad de Ginebra y otro por Andrew W. Howard desde la de Hawaii en Manoa, muestran que Kepler-78b está compuesto de hierro en el núcleo y rocas en su interior, como la Tierra. Por este motivo, se trata del exoplaneta más pequeño del que se conoce el radio y la masa con gran precisión.



Kepler-78b fue observado por primera vez por el satélite Kepler de la NASA. Kepler detectó la débil variación en la luz de la estrella causada por el paso del planeta frente a ella. Poco después del descubrimiento, el telescopio italiano Telescopio Nazionale Galileo (TNG) en La Palma (Canarias) apuntó a la estrella que alberga el planeta.

Luego, el equipo científico de HARPS-N, uno de los espectrógrafos más precisos del mundo instalado en el TNG, midió la ligera oscilación de la estrella causada por la presencia del planeta. Así se identificaron las características ‘terrestres’ de Kepler-78b.

Emilio Molinari, director del TNG y coautor de uno de los artículos, enfatiza la importancia del uso de HARPS-N: “Estamos muy orgullosos del desempeño del TNG y HARPS-N, porque muestra que el descubrimiento de un planeta gemelo a la Tierra es factible”.

Kepler-78b tiene un radio de tan solo 1,16 veces el radio de la Tierra, mientras la masa es 1,86 masas terrestres. Estas cantidades dan una densidad de 5,57 gramos por centímetro cúbico, lo que implica una composición rocosa y férrica.

Sin embargo, Kepler-78b tiene un periodo orbital tan corto, de apenas 8,5 horas, por lo que gira muy cerca de su estrella. Esto significa que la temperatura en la superficie del planeta debe estar entre 3.000 y 5.000 grados, lo que descarta completamente cualquier posibilidad de vida.

El destino del exoplaneta es desaparecer, dado que las fuerzas mareales lo arrastrarán cada vez más cerca de su estrella. En algún momento se acercará tanto que la fuerza de gravedad de la estrella lo romperá. Según modelos teóricos esto podría ocurrir dentro de tres mil millones de años.

“Curiosamente, nuestro sistema solar podría haber tenido un planeta como Kepler-78b. De ser así, el planeta habría sido destruido en época temprana en la evolución del sistema, sin dejar rastros hoy en día”, plantea Molinari. (Fuente: Fundación Galileo Galilei - INAF) 

miércoles, 30 de octubre de 2013

Identifican al material más fuerte conocido

El carbino es una cadena de átomos de carbono mantenidos juntos por enlaces atómicos dobles, o bien en alternancia entre triple e individual. Un equipo de teóricos de la Universidad Rice, de Houston, Texas, Estados Unidos, ha calculado que las cadenas de carbino, de un átomo de espesor, pueden constituir el material más fuerte conocido.

Si se logra fabricar a este singular material en grandes cantidades, las nanovarillas o nanocuerdas de carbino tendrán un sinnúmero de propiedades destacables y útiles, tal como subraya Boris Yakobson, del equipo de investigación.



Los cálculos que han permitido determinar los rasgos básicos del carbino fueron ejecutados en la supercomputadora DaVinci, de la que se ocupa el Instituto Ken Kennedy de Tecnologías de la Información, dependiente de la Universidad Rice.

He aquí algunas de las características del carbino comprobadas por el equipo de Yakobson, Mingjie Liu, Vasilii I. Artyukhov, Hoonkyung Lee y Fangbo Xu:

La tensión de rotura (la capacidad de soportar el estiramiento) que posee el carbino sobrepasa a la de cualquier otro material conocido y es el doble de la del grafeno.

Su rigidez a la tracción es el doble de la del grafeno y de la de los nanotubos de carbono, y cerca del triple de la del diamante.

Al estirar el carbino tan poco como un 10 por ciento, se altera significativamente una de sus bandas de energía, concretamente la banda prohibida, que es la que está entre la banda de conducción y la banda de valencia.

Si se le agregan asas moleculares en los extremos, al carbino se le puede retorcer para alterar su banda prohibida. Con una rotación de extremo a extremo de 90 grados se convierte en un semiconductor magnético.

Las cadenas de carbino pueden acoger moléculas en los laterales, las cuales posibilitan que las cadenas se vuelvan adecuadas para el almacenamiento de energía.

El material es estable a temperatura ambiente.

A juzgar por los cálculos efectuados, el carbino puede representar el estado energético más alto para el carbono estable.

Las primeras teorías acerca del carbino aparecieron en el siglo XIX, y una versión aproximada del material fue sintetizada en la antigua URSS en 1960. El carbino ha sido visto desde entonces en grafito comprimido, se le ha detectado en polvo interestelar y ha sido creado en pequeñas cantidades durante experimentos de laboratorio.

Información adicional

Ver a través del silicio

Una nueva y revolucionaria técnica de microscopía permite visualizar células a través de las paredes de dispositivos microfluídicos de silicio. La nueva tecnología, apta para la luz de la banda infrarroja cercana, podría ayudar a los científicos a lograr un mejor conocimiento sobre los rasgos que exhiben las células enfermas o infectadas, al poder observarlas mientras fluyen por dispositivos microfluídicos de silicio.

El silicio es comúnmente utilizado para construir dispositivos microelectrónicos. Y también para fabricar dispositivos microfluídicos del tipo popularmente conocido como "laboratorio de un chip", que pueden clasificar y analizar células basándose en sus propiedades moleculares. Los dispositivos de este tipo tienen muchas aplicaciones potenciales en investigación y para hacer diagnósticos, y su pequeño tamaño (el de un chip) es una gran ventaja, pero podrían ser aún más útiles si los científicos pudieran observar las células presentes dentro de los dispositivos.

Gracias al nuevo tipo de microscopio inventado por expertos del Instituto Tecnológico de Massachusetts (MIT) en Cambridge y de la Universidad de Texas en Arlington, ambas instituciones en Estados Unidos, ahora ya es factible medir con precisión y fiabilidad muy elevadas el tamaño y la conducta mecánica de las células ubicadas al otro lado de la oblea de silicio que sirve de soporte para el dispositivo microfluídico.

La estrategia del equipo de Ishan Barman que lo ha hecho posible ha sido aprovecharse de que el silicio es transparente a los rayos infrarrojos y en especial a los de la banda infrarroja cercana. Los científicos adoptaron una técnica de microscopía que funciona enviando un haz láser a través de una muestra y luego dividiendo el haz en dos. Mediante la recombinación de esos dos haces y comparando la información transportada por cada uno, los investigadores pueden determinar la altura de la muestra y su índice de refracción, una medida de cuánto un material fuerza a la luz a desviarse al pasar a través de él.



Usando el nuevo sistema de captación de imágenes infrarrojas atravesando el silicio, los creadores de la técnica han obtenido esta imagen de glóbulos rojos de la sangre. (Gráfico: Cortesía de los investigadores)

La modalidad tradicional de esta técnica utiliza un láser de helio-neón, el cual produce luz visible, pero para la nueva modalidad los investigadores utilizaron un laser de titanio-zafiro que puede ser ajustado a longitudes de onda infrarrojas y en particular de la banda infrarroja cercana. Para este estudio, los científicos encontraron que la luz con una longitud de onda de 980 nanómetros es la que les funcionó mejor.

En el trabajo de investigación y desarrollo también han participado Narahara Chari Dingari, Bipin Joshi, Nelson Cardenas, Samarendra Mohanty, Jaqueline Soares y Ramachandra Rao Dasari.

Información adicional

martes, 29 de octubre de 2013

Arcilla, la clave para lograr supercondensadores resistentes al calor

La arcilla, un material natural, barato y abundante, es el ingrediente clave para un supercondensador que puede operar a temperaturas muy altas y que ha sido desarrollado por el equipo de Pulickel Ajayan, de la Universidad Rice en Houston, Texas, Estados Unidos.

Ajayan y sus colegas han determinado que el supercondensador mantiene su eficiencia a temperaturas de hasta 200 grados centígrados (392 grados Fahrenheit) y posiblemente más allá.

El supercondensador podría ser utilizado para energizar dispositivos que se emplean en trabajos en los que son comunes las condiciones ambientales extremas, como por ejemplo las que debe soportar la maquinaria que hace perforaciones petroleras, las que afrontan los vehículos espaciales, e incluso las reinantes en un campo de batalla.

El propósito al diseñar este nuevo supercondensador es apartarse de los diseños clásicos que han estado limitados a operaciones que no impliquen altas temperaturas en los dispositivos electroquímicos.

Un supercondensador combina cualidades típicas de los condensadores con otras que son propias de las pilas eléctricas recargables.



Una pasta hecha con la arcilla y un electrolito especial permitió al equipo de Ajayan preparar láminas de material que pueden servir de electrolito así como de separador en el nuevo tipo de supercondensador de altas temperaturas. (Imagen: Grupo de Ajayan / Universidad Rice)

Los condensadores almacenan energía en forma de carga eléctrica, a diferencia de las pilas o baterías que la almacenan en forma química. Los supercondensadores son parecidos a los condensadores, pero poseen una capacidad muy superior de almacenar carga eléctrica en un espacio reducido. Los supercondensadores son ideales para aplicaciones en las que se necesite almacenar energía eléctrica en grandes cantidades, lo más cercano posible a las de una batería, pero también poder liberarla de manera rápida si así se requiere, como en un condensador.

La arcilla tiene una alta estabilidad térmica, una amplia área de superficie activa y una alta permeabilidad.

Aparte de una ligera caída en la capacidad observada en los ciclos de carga/descarga inicial, los supercondensadores se mantuvieron estables durante 10.000 ciclos de prueba en los experimentos. Tanto la densidad de potencia como la de energía mejoraron en dos órdenes de magnitud cuando la temperatura de operación se incrementó desde la temperatura ambiente hasta los 200 grados centígrados.

En el trabajo de investigación y desarrollo también han intervenido Arava Leela Mohana Reddy (ahora en la Universidad Estatal de Wayne en Detroit, Estados Unidos), Marco-Tulio Rodrigues, Hemtej Gullapalli y Kaushik Balakrishnan, de la Universidad Rice, así como Glaura Silva y Rachel Borges de la Universidad Federal de Minas Gerais en Brasil.

Información adicional

Descubren un nuevo asteroide semanas después de pasar cerca de la Tierra

El asteroide 2013 TV135, descubierto el pasado 8 de octubre por astrónomos trabajando en el Observatorio Astrofísico de Crimea en Ucrania, resulta que semanas antes de su hallazgo pasó bastante cerca de la Tierra.

El 16 de septiembre de 2013, el asteroide se acercó hasta 6,7 millones de kilómetros (4,2 millones de millas) de distancia respecto a nuestro planeta. Según las estimaciones preliminares de su tamaño, mide unos 400 metros (1.300 pies) y su órbita le lleva tan lejos como las tres cuartas partes de la distancia de la órbita de Júpiter, y tan cerca al Sol como la distancia que separa a éste de la órbita terrestre.



El asteroide 2013 TV135 se une por tanto al grupo de más de diez mil cuerpos celestes conocidos capaces de pasar cerca de la Tierra.

El periodo orbital del nuevo asteroide es de casi cuatro años. Como se le ha observado en su trayectoria orbital tan solo una ínfima parte de ese periodo de cuatro años, su futuro trazado orbital aún no está muy claro, sobre todo teniendo en cuenta que los cuerpos celestes tan pequeños son muy influenciables por la gravedad de otros astros y por eso su rumbo puede sufrir cambios significativos. Por lo que se sabe, 2013 TV135 podría regresar a las inmediaciones de la Tierra en el año 2032. Nadie debería alarmarse ante esa nueva visita, ya que el equipo científico del Programa de Objetos Próximos a la Tierra (NEOs por sus siglas en inglés), dependiente del Laboratorio de Propulsión a Chorro de la NASA, en Pasadena, California, ha calculado que la probabilidad de que este asteroide colisione contra la Tierra es de tan solo una entre 63.000.

El objeto debería ser fácilmente observable durante los próximos meses, y cuando las observaciones adicionales se hayan analizado, los cálculos orbitales iniciales se ajustarán con mayor precisión y fiabilidad. El resultado más plausible de esos ajustes es que la probabilidad de un impacto contra la Tierra disminuya aún más o incluso llegue a cero.

Información adicional

lunes, 28 de octubre de 2013

Las variaciones de gravedad en la Tierra son mucho mayores de lo creído

Se ha conseguido crear los mapas del campo gravitatorio de la Tierra de mayor resolución hasta la fecha. Y una de las cosas más llamativas que han mostrado estos nuevos mapas es que las variaciones gravitacionales de nuestro planeta son hasta un 40 por ciento mayores que lo previamente asumido.

Utilizando la información topográfica detallada obtenida desde el espacio por el transbordador espacial estadounidense, un equipo de especialistas germano-australiano, dirigido por Christian Hirt de la Universidad Curtin en Australia, ha mejorado la resolución de los anteriores mapas globales del campo gravitacional, haciéndolos varias decenas de veces más precisos.



El equipo de Hirt, Michael Kuhn, Sten Claessens y Moritz Rexer del Centro Geodésico de Australia Occidental adscrito a la Universidad Curtin, así como Roland Pail y Thomas Fecher de la Universidad Técnica de Múnich en Alemania, calcularon la gravedad en un punto por cada 200 metros de la Tierra para crear estos mapas gravitacionales con la más alta resolución. Muestran los cambios sutiles en la gravedad sobre la mayoría de las áreas terrestres de la Tierra.

Los nuevos mapas revelan que las variaciones de la gravedad sobre la Tierra son mucho más grandes de lo que se pensaba. El tirón gravitacional más pequeño de la superficie terrestre se experimenta en la cima del Monte Huascarán, del macizo del mismo nombre, en la parte peruana de Los Andes. El tirón gravitacional más fuerte de la superficie terrestre se experimenta cerca del Polo Norte.

Los mapas gravitacionales de alta resolución son necesarios en la ingeniería civil, por ejemplo, para la construcción de canales, puentes y túneles. A la industria minera también le pueden ser útiles.

Información adicional

domingo, 27 de octubre de 2013

El fósil más completo de una cría del dinosaurio Parasaurolophus

Un grupo de investigadores estadounidenses ha analizado el fósil más completo de una cría del dinosaurio Parasaurolophus. Un adolescente había encontrado por casualidad el pequeño esqueleto en 2009 durante su visita a un parque natural de Utah (EE UU).

Investigadores estadounidenses han podido analizar el fósil de un bebé de Parasaurolophus, un dinosaurio que vivió hace más de 75 millones de años. Son los restos más jóvenes y completos de este animal encontrados hasta la fecha y han servido a los científicos para describir por primera vez cómo desarrolló la peculiar estructura ósea de su cabeza.



Los descubrimientos de este grupo de expertos del museo Raymond M. Alf de Paleontología y la Universidad de California, publicados en la revista PeerJ, “han permitido, por primera vez entender exactamente cómo estos ejemplares desarrollan su inusual ‘sombrero”, señala a SINC Andrew Farke, uno de los autores del estudio.

“Joe –como los científicos han bautizado al bebé– medía unos dos metros cuando murió y podía caminar durante horas”, explica el investigador del museo.

Los ejemplares de esta especie herbívora tenían un pequeño bulto de hueso que se transformaba en una cresta cuando se hacían adultos.

Además, “Parasaurolophus crecía con una rapidez ridícula. El análisis microscópico de sus huesos revela que el animal pasaba de ser tan pequeño como un niño a medir dos metros en menos de un año”, recalca Farke.

Tras años de análisis de Joe, los expertos han descubierto que la dirección del crecimiento del cráneo del Parasaurolophus es diferente a la de sus congéneres más cercanos. “Comienza a desarrollar su cresta mucho antes y crece durante más tiempo. Esta alteración le permite tener ese cráneo tan característico”, indica el investigador.

Un pequeño gran hallazgo

Las investigaciones no hubieran sido posibles si Kevin Terris, un estudiante de 17 años, no hubiera encontrado por causalidad el fósil en 2009.

El joven paseaba por el Monumento Nacional de Grand Staircase-Escalante, un parque natural del sur de Utah (EE UU) plagado de formaciones geológicas, cuando observó un pequeño saliente en una pared rocosa.

Terris comenzó a escarbar hasta lograr extraer la pieza que resultó ser el cráneo en miniatura de este dinosaurio.

viernes, 25 de octubre de 2013

Nueva clase de cámara para captar imágenes fluorescentes de moléculas

La obtención de imágenes por fluorescencia es el método más utilizado para el análisis de la composición molecular de especímenes biológicos. Las moléculas que se pretende observar, cuando están presentes, pueden ser "marcadas" con una "etiqueta" fluorescente y de este modo se hacen lo bastante visibles.

Esta técnica de alta sensibilidad, que se utiliza en análisis de sangre para detectar células cancerosas y estudiar las reacciones bioquímicas, es muy buena para detectar moléculas presentes en concentraciones extremadamente bajas.



Sin embargo, debido a la muy pequeña cantidad de luz producida por las moléculas fluorescentes, las cámaras con la tecnología actual deben exponerse a esa tenue luz durante períodos prolongados de tiempo, a fin de recolectar suficientes fotones para generar una imagen. Además, estas cámaras suelen leer píxeles individuales de uno en uno para crear una imagen. Estos dos factores limitan la velocidad a la que se generan las imágenes por fluorescencia.

Inspirado por la forma en la que las redes de comunicación inalámbrica usan múltiples frecuencias de radio para comunicarse con múltiples usuarios, el equipo de Bahram Jalali, Eric Diebold, Brandon Buckley, y Daniel R. Gossett, de la Universidad de California en Los Ángeles (UCLA), ha desarrollado una nueva técnica de microscopía de alta velocidad que es un orden de magnitud más rápida que las tecnologías actuales para la obtención de imágenes por fluorescencia.

Mientras que las cámaras actuales forman imágenes de muestras fluorescentes píxel por píxel, la cámara creada por el equipo de la UCLA forma una imagen mediante la lectura de una fila completas de píxeles cada vez. Lo hace mediante la codificación de la fluorescencia de cada píxel en una frecuencia de radio diferente.

Información adicional

jueves, 24 de octubre de 2013

Exitosa teleportación cuántica de fotones

Gracias a una tecnología híbrida, es posible realizar una transmisión muy fiable de bits cuánticos fotónicos, como se ha demostrado en un experimento cuyos resultados han sido analizados cuidadosamente.

Mediante el entrelazamiento cuántico de campos de luz separados en el espacio, unos investigadores japoneses y alemanes han conseguido teleportar qubits (bits cuánticos) fotónicos con notable fiabilidad. Esto significa que se ha logrado dar un paso decisivo una década y media después de los primeros experimentos en el campo de la teleportación óptica. El éxito del experimento llevado a cabo en la ciudad japonesa de Tokio es atribuible al uso de una técnica híbrida en la cual se han combinado dos enfoques tecnológicos conceptualmente distintos y que antes se consideraban del todo incompatibles.

En la teleportación cuántica se transfieren estados cuánticos arbitrarios desde un emisor, a quien aquí podemos referirnos como Isabel, hasta un receptor, a quien podemos llamar Miguel, que está alejado en el espacio. Esto requiere que Isabel y Miguel inicialmente compartan un estado de entrelazamiento cuántico a través del espacio que les separa, un entrelazamiento cuántico que puede por ejemplo estar en la forma de fotones entrelazados cuánticamente.

La teleportación cuántica es de importancia fundamental para el procesamiento de información cuántica (la base de la computación cuántica) y la comunicación cuántica. Los fotones son particularmente valiosos como portadores de información ideales para la comunicación cuántica, ya que se les puede usar para transmitir señales a la velocidad de la luz. Un fotón puede representar un bit cuántico, al que se llama abreviadamente "qubit" y que es comparable a un dígito binario (bit) de un sistema clásico de procesamiento de información.

Los primeros intentos de teleportar fotones (partículas de luz) individuales fueron realizados por el físico austriaco Anton Zeilinger. Desde entonces, se han realizado varios experimentos relacionados con este concepto. Sin embargo, la teleportación de bits cuánticos fotónicos utilizando métodos convencionales ha demostrado tener limitaciones debido a deficiencias experimentales y dificultades con principios fundamentales.



Teleportación cuántica determinista de un bit cuántico fotónico. Cada qubit que vuela desde la izquierda y hacia dentro del teleportador, sale de éste por el lado derecho y con una pérdida de calidad de tan sólo un 20 por ciento, un valor que no se puede alcanzar bajo condiciones clásicas, o sea sin entrelazamiento cuántico. (Imagen: Universidad de Tokio)

Lo que hace que el experimento realizado en Tokio sea tan diferente es el uso de una técnica híbrida. Con su ayuda se ha logrado la teleportación cuántica completamente determinista, y de fiabilidad bastante buena, de qubits fotónicos. La precisión de la transferencia fue de entre un 79 y un 82 por ciento para cuatro qubits diferentes. Además, se teleportaron los qubits con una eficiencia mucho mayor que en experimentos anteriores, incluso con un grado bajo de entrelazamiento cuántico.

El concepto de entrelazamiento cuántico fue formulado por primera vez por Erwin Schrödinger, y describe una situación en la que dos sistemas cuánticos, como por ejemplo dos partículas de luz, están en un estado conjunto, por lo que sus comportamientos son mutuamente dependientes a un nivel mayor del que es posible normalmente (bajo condiciones clásicas). En el experimento de Tokio, se consiguió el entrelazamiento continuo mediante la estrategia de entrelazar muchos fotones en "parejas".

Los experimentos previos sólo tuvieron un fotón entrelazado cuánticamente con otro fotón, una solución menos eficiente.

"El entrelazamiento de fotones funcionó muy bien en el experimento realizado en Tokio, prácticamente al pulsar un botón, tan pronto como el láser se encendía", destaca el profesor Peter van Loock de la Universidad Johannes Gutenberg en Maguncia, Alemania. Como físico teórico, van Loock asesoró a los físicos experimentales del equipo de investigación dirigido por el profesor Akira Furusawa, de la Universidad de Tokio, sobre cómo podían realizar más eficientemente el experimento de teleportación para poder lograr el éxito de la teleportación cuántica.

Este entrelazamiento continuo se logró con la ayuda de "luz comprimida".

La galaxia más lejana conocida

Un equipo de astrónomos estadounidenses ha descubierto la galaxia más lejana conocida, cuya luz fue emitida cuando el Universo sólo tenía un 5 por ciento de su edad actual de 13.800 millones de años.


La galaxia, bautizada z8-GND-5296, data de cuando el Universo resultante del Big Bang tenía sólo 700 millones de años, "y lo que la hace única comparada con otros descubrimientos similares es que su distancia ha podido ser confirmada por un espectrógrafo", afirma el astrónomo Bahram Mobasher de la Universidad de California, uno de los miembros del equipo que publica su hallazgo en la revista Nature.

La galaxia fue detectada entre 43 candidatas, mediante imágenes infrarrojas tomadas por el Telescopio Espacial Hubble, y su distancia fue confirmada por las observaciones realizadas con el sofisticado espectrógrafo MOSFIRE del Telescopio Keck en Hawai.

Estudiar las primeras galaxias resulta difícil porque cuando su luz llega a la Tierra se ha desplazado hacia la parte infrarroja del espectro debido a la expansión del Universo, en un fenómeno llamado desplazamiento al rojo (redshift).

Por ello, los astrónomos recurren a espectrógrafos cada vez más sensibles situados en telescopios en la Tierra, capaces de medir el desplazamiento al rojo de la luz de la galaxia, que es proporcional a su distancia.

El equipo, liderado por Steven Finkelstein, de la Universidad de Texas, y Dominik Riechers, de la Universidad de Cornell (Nueva York), observó también que la nueva galaxia tiene una tasa de formación de estrellas "sorprendentemente alta", unas 300 veces al año la masa de nuestro sol, en comparación con la Vía Láctea, que forma sólo entre dos y tres estrellas al año.

"Estos descubrimientos aportan pistas sobre el nacimiento del Universo y sugieren que puede albergar zonas con una formación de estrellas más intensa de la que se creía", afirmó Finkelstein. Con la construcción de telescopios cada vez más grandes en Hawai y Chile y del telescopio James Webb en el espacio, a finales de esta década los astrónomos esperan descubrir muchas más galaxias a distancias aún mayores, según Mobasher.

miércoles, 23 de octubre de 2013

Utilizan ADN para el montaje semiautomático de un transistor de grafeno

El ADN es el plano de construcción de la vida. ¿Podría también podría convertirse en la plantilla para fabricar una nueva generación de chips que en vez de estar basados en el silicio estuvieran basados en un material experimental conocido como grafeno?

Esa es la teoría a partir de la cual el equipo de la ingeniera química Zhenan Bao, de la Universidad de Stanford en California, ha desarrollado un revolucionario proceso de fabricación.

Bao, Anatoliy Sokolov y Fung Ling Yap, esperan resolver un problema que oscurece el futuro de la electrónica: Los consumidores esperan que los chips de silicio sean cada vez más pequeños, más rápidos y más baratos, pero los ingenieros temen que este ciclo acabe deteniéndose en un callejón tecnológico sin salida.

Esto se debe a cómo trabajan los chips de silicio.

Todo comienza con la noción de lo que es un semiconductor, un tipo de material que puede ser inducido a conducir o detener el flujo de electricidad. El silicio ha sido el material semiconductor más popular utilizado para fabricar chips.

La unidad básica de trabajo de un chip es el transistor. Los transistores son como pequeñas puertas que dejan pasar a la electricidad o impiden su paso, creando los ceros y unos que permiten la ejecución de un software.

Para producir chips más potentes, los diseñadores han hecho dos cosas simultáneamente: Reducir el tamaño de los transistores y lograr que esas puertas se abran y se cierren cada vez más rápido.

El resultado neto de estas acciones ha sido concentrar más electricidad en un espacio más reducido. Hasta el momento, esta filosofía de diseño ha permitido producir chips más pequeños, más rápidos, y más baratos. Pero tarde o temprano se llegará a un límite, a partir del cual el calor excesivo y otras condiciones indeseables perturbarán el funcionamiento interno de los chips de silicio más allá de lo tolerable.

Se necesita, por tanto, un material que permita fabricar transistores más pequeños, que operen más rápido y que usen menos energía.

El grafeno tiene las propiedades físicas y eléctricas necesarias para convertirse en el material semiconductor principal para esa nueva generación de chips, si se consigue desarrollar un modo eficaz de trabajar con él en cantidades industriales.

El grafeno es una lámina de carbono con un átomo de espesor. En ella, los átomos de carbono conforman una celosía hexagonal, similar a la de un panal de miel. Eléctricamente este enrejado de átomos de carbono es un conductor muy eficiente.


A la derecha se observa un "panal" de átomos de grafeno. A la izquierda, una doble hebra de ADN. Las esferas blancas representan iones de cobre, parte fundamental del proceso químico del ensamblaje. El fuego representa el calor que es un ingrediente esencial en la técnica. (Imagen: Anatoliy Sokolov)

Bao y otros investigadores creen que cintas de grafeno, colocadas extendidas una al lado de otra, podrían crear circuitos semiconductores. Teniendo en cuenta las pequeñas dimensiones del material y sus propiedades eléctricas favorables, las nanocintas de grafeno permitirían obtener chips muy rápidos, que además trabajarían con un consumo muy bajo de energía.

Sin embargo, como se puede imaginar, producir algo que tiene sólo un átomo de espesor y de 20 a 50 átomos de ancho es un desafío importante.

Para superar este desafío, el equipo de la Universidad de Stanford concibió la idea de usar el ADN como mecanismo de montaje.

Físicamente, las hebras de ADN son largas y delgadas, y tienen aproximadamente las mismas dimensiones que las cintas de grafeno que los investigadores quieren ensamblar de la manera más eficiente posible.

Químicamente, las moléculas de ADN contienen átomos de carbono, el material que forma el grafeno.

El equipo de Bao comenzó con un diminuto disco de silicio, a fin de tener el substrato para su transistor experimental. El disco fue sumergido en una solución de ADN de origen bacteriano y se usó una técnica ya conocida para "peinar" las hebras de ADN hasta dejarlas en forma de líneas relativamente rectas.

A continuación, el ADN sobre el disco fue expuesto a una solución de sal de cobre. Las propiedades químicas de la solución permitieron que los iones de cobre fueran absorbidos dentro del ADN.

El paso siguiente fue calentar el disco y bañarlo en gas metano, el cual contiene átomos de carbono. Una vez más, las fuerzas químicas entraron en escena y ayudaron de manera decisiva a llevar adelante el proceso de ensamblaje. El calor provocó una reacción química que liberó algunos de los átomos de carbono en el ADN y en el metano. Estos átomos de carbono libres se unieron rápidamente unos con otros formando "panales" estables de grafeno.

Los átomos sueltos permanecieron cerca de los respectivos sitios desde donde se desprendieron de las hebras de ADN, y de este modo conformaron cintas que siguieron la estructura del ADN.

El proceso con ADN agiliza de manera enorme la fabricación de las estructuras de grafeno, y a partir de aquí es fácil preparar un transistor. La nueva técnica demuestra por vez primera la viabilidad de emplear ADN para el montaje rápido de cintas de grafeno y para la fabricación subsiguiente de transistores plenamente funcionales.

Información adicional

La astronave Cygnus deja la estación espacial internacional

La nave de carga Cygnus fue desenganchada del módulo Harmony de la estación espacial internacional a las 10:04 UTC del 22 de octubre, y liberada en una órbita independiente a las 11:31 UTC gracias al brazo robótico Canadarm-2, manipulado por los astronautas. La Cygnus se pasó 23 días junto a la ISS, permitiendo descargar 589 Kg de comida, ropa y experimentos. Cargada de basura, será destruida el 23 de octubre.


La energía sucia no es más barata que la limpia y renovable

Los resultados de un estudio realizado por expertos de la Universidad de Cambridge en el Reino Unido y del Consejo de Defensa de los Recursos Naturales indican que, cuando se toman en cuenta los costos sanitarios asociados a la contaminación del medio ambiente por las energías sucias, y los costos asociados a los efectos nocivos del cambio climático, se llega a la conclusión de que en realidad es menos costoso producir electricidad con turbinas eólicas y paneles solares que con centrales eléctricas alimentadas con carbón.

De hecho, y usando las estimaciones oficiales del gobierno estadounidense sobre los costos medioambientales y sanitarios de la quema de combustibles fósiles, los autores del nuevo estudio muestran que a largo plazo resulta más barato sustituir una central eléctrica de carbón típica por un parque eólico que mantener en marcha la vieja central.

El trabajo hecho por Chris Hope de la Universidad de Cambridge, así como Laurie Johnson y Starla Yeh del Consejo de Defensa de los Recursos Naturales, con sede en la ciudad estadounidense de Nueva York, muestra que Estados Unidos, y seguramente muchos otros países, pueden reducir la polución generada por las centrales eléctricas de una manera que además supondrá un ahorro neto de dinero, si sustituyen la quema de carbón por opciones más limpias, como la energía eólica, la energía solar e incluso el gas natural.

"La quema de carbón es una forma muy costosa de generar electricidad; hay maneras más eficaces y sostenibles de lograrlo", subraya Johnson. "Podemos reducir los costos en sanidad y en afrontar daños causados por el cambio climático a la vez que reducimos la cantidad de dióxido de carbono (CO2) que aportamos a la atmósfera y que contribuye al calentamiento global".



El nuevo estudio indica que energías limpias como la eólica son más baratas que las sucias como el carbón cuando se tienen en cuenta los costes económicos de los daños para la salud, la agricultura y el medio ambiente en general que provocan éstas últimas. (Imagen: Amazings / NCYT / JMC)

Hace algún tiempo, la Oficina de Administración y Presupuesto de la Casa Blanca, el Departamento del Tesoro, el Departamento de Energía y otras ocho agencias federales de Estados Unidos midieron en un trabajo conjunto el valor económico de esos daños, reflejándolos en una fórmula oficial conocida como el "Costo Social del Carbono" (SCC por sus siglas en inglés).

Este valor es perfecto para calcular los beneficios económicos obtenibles (en otras palabras, el dinero ahorrable al evitar daños) mediante la reducción de la contaminación por dióxido de carbono y otras sustancias nocivas liberadas por la quema de carbón y otros combustibles fósiles.

Para el nuevo estudio se tuvo en cuenta esta fórmula, y también las estimaciones gubernamentales de los daños que puede causar el dióxido de azufre, que es otra sustancia contaminante que se libera simultáneamente con el CO2. Cada año, el dióxido de azufre causa miles de muertes prematuras, enfermedades respiratorias, dolencias cardiacas y un sinnúmero de daños a los ecosistemas naturales y agrícolas, todo lo cual, como es obvio, tiene costes económicos.

Johnson argumenta que el cambio climático ya está provocando una mayor incidencia de olas de calor, inundaciones, sequías, incendios forestales y tormentas. Y, en el caso de Estados Unidos, afirma que esa meteorología extrema causó en 2012 daños por valor de más de 140.000 millones de dólares. Los contribuyentes estadounidenses tuvieron que pagar de sus bolsillos casi 100.000 millones de dólares de esa "factura" de 140.000 millones, según un informe del Consejo de Defensa de los Recursos Naturales publicado en mayo de 2013. "Estos daños seguirán creciendo de manera inexorable si no se hace nada para reducir la contaminación", advierte Johnson.

Información adicional

martes, 22 de octubre de 2013

Nuevas células solares transparentes iluminan el camino hacia ciudades más sostenibles

Imagine edificios en los que las ventanas, además de permitir pasar la luz del sol, captan a la vez la energía solar que se necesita para satisfacer todas sus necesidades energéticas. Los cristales se convierten en células solares de alta productividad que ayudan a reducir la dependencia de los combustibles fósiles y avanzar hacia un medio ambiente más 'verde' y más limpio.

Este escenario todavía no es posible, pero un reciente estudio llevado a cabo en el ICFO (Instituto de Ciencias Fotónicas), en España, y publicado en la revista Nature Photonics, avanza en ese camino. Los científicos de este instituto han fabricado una célula solar orgánica óptima con un alto nivel de transparencia y una alta eficiencia de conversión de energía.



Según los autores, "esto supone un paso prometedor hacia las energías renovables asequibles, limpias, ampliamente utilizadas y urbanamente integradas" .

Hasta ahora, los paneles solares comerciales están, en su mayor parte, compuestos de unas células solares basadas en silicio cristalino, muy eficientes en la conversión de la radiación solar en energía eléctrica (aproximadamente 15% de eficiencia de conversión), pero con diversos obstáculos importantes para su máxima explotación.

Por ello deben ser correctamente orientados para recibir la luz solar directa y aun así están limitados en su capacidad para absorber la luz difusa. Por otra parte, son pesados, opacos, y ocupan mucho espacio.

A pesar de que la tecnología de las células solares orgánicas nació hace unos treinta años, es ahora cuando comienzan a atraer el interés de la comunidad científica debido a su bajo costo de producción.

Mientras que las células orgánicas aún no han alcanzado valores de eficiencia de las células de silicio, estas células fotovoltaicas orgánicas (OPV) han demostrado ser más ligeras, más flexibles (capaces de adaptarse a superficies curvas), y aún más sensibles a la luz difusa, así como la luz solar indirecta, por lo que las convierte en una de las tecnologías fotovoltaicas más atractivas para muchas aplicaciones de uso diario. Entre sus ventajas, una propiedad que las hace aún más interesantes es su potencial para ser implementadas como un dispositivo semitransparente.

Sin embargo, las OPV, como cualquier otra tecnología fotovoltaica, alcanzan su máximo de eficiencia de conversión de energía eléctrica con dispositivos opacos. Para convertir estas células en dispositivos transparentes, el electrodo de metal en la parte posterior debe ser diluido hasta sólo unos pocos nanómetros, lo que reduce drásticamente la capacidad del dispositivo para recoger la luz solar.

Los investigadores del ICFO han sido capaces de desarrollar una célula semitransparente, que incorpora un cristal fotónico, y alcanzar un rendimiento de la célula casi tan alto como su contraparte opaca.

El equipo colocó este cristal fotónico extra sobre la célula y fue capaz de aumentar la cantidad de luz infrarroja y ultravioleta absorbida por la célula, alcanzando una eficiencia de 5,6 % y a su vez, preservando una transparencia casi indistinguible respecto al  vidrio normal.

Los resultados obtenidos de eficiencia y transparencia hacen que estas células sean un producto muy competitivo para las tecnologías fotovoltaicas integradas en edificios (BIPV). Para llegar a tener una adecuada visión arquitectónica, el color de las células puede modificarse simplemente cambiando la configuración de las capas del cristal fotónico .

Jordi Martorell, profesor de la Universidad Politécnica de Cataluña (UPC) en el ICFO y líder de este estudio, explica que las aplicaciones de este tipo de tecnología en BIPV "está a unos pocos pasos de ocurrir, pero la tecnología todavía no ha alcanzado su punto de saturación".

"El descubrimiento abre el camino para la innovación a otras aplicaciones industriales en el sector de la energía fotovoltaica transparente –continúa–. A medio plazo, se espera llegar a los altísimos niveles de transparencia y eficiencia necesarios para alimentar dispositivos como pantallas, tabletas y teléfonos inteligentes".

El futuro parece prometedor para estos dispositivos. El proyecto europeo Solution Processed High Performance Transparent Organic Photovoltaic Cells (SOLPROCEL), recientemente aprobado, permitirá a un consorcio, formado por los mejores investigadores e industrias europeos y dirigido por el ICFO, impulsar el estudio de la capacidad de estas células, mejorando su estabilidad y vida útil, así como la obtención del material necesario para elevar sustancialmente su eficiencia. (Fuente: Institut de Ciències Fotòniques) 

Colosales cantidades de materia expulsadas hacia el espacio intergaláctico

Se acepta en la comunidad científica desde hace tiempo que, a juzgar por los modelos teóricos asumidos como ciertos, muchas galaxias deberían ser más masivas de lo que son y tener más estrellas que las que en realidad poseen.

Para intentar explicar porqué tienen menos masa y menos estrellas, se barajan dos posibles mecanismos principales que podrían ralentizar o detener el proceso de crecimiento de acumulaciones de masa y el de la formación de estrellas:

Uno de ellos es el de la acción de los violentos vientos estelares generados durante episodios de formación de muchas estrellas en una misma zona y en un periodo breve de tiempo.

El otro es la acción de los inmensos chorros polares disparados desde las inmediaciones del agujero negro supermasivo situado en el centro de numerosas galaxias. Un agujero negro es una concentración de masa tan densa que ni siquiera la luz puede escapar de su interior.

Gracias a las imágenes de alta resolución proporcionadas por una combinación intercontinental de radiotelescopios, el equipo internacional de Raffaella Morganti, del Instituto de Radioastronomía de los Países Bajos, ha sido capaz de identificar enormes masas de gas frío siendo expulsado desde el centro de una galaxia distante mediante los chorros polares energizados por su masivo agujero negro.



Imagen obtenida a partir de señales captadas por radiotelescopios que muestra a la galaxia 4C12.50. El recuadro destacado y ampliado muestra más detalladamente el sitio, en el tramo final apreciable del chorro ultraveloz de partículas, donde una masiva nube de gas, representada en color amarillo anaranjado, está siendo empujada por dicho chorro. (Imagen: Morganti et al., NRAO/AUI/NSF)

El gas atraído hacia un agujero negro acaba, durante su caída a éste, girando en espiral hacia él y acumulándose formando un disco giratorio, conocido como disco de acreción, donde se comprime y calienta. Cerca del borde interior del disco, en el umbral del horizonte de sucesos del agujero negro (la frontera más allá de la cual nada que la cruce puede volver a salir), parte del material es acelerado y expulsado como un par de chorros que fluyen en direcciones opuestas a lo largo del eje de rotación del agujero negro. Estos chorros contienen partículas moviéndose a casi la velocidad de la luz, produciendo rayos gamma cuando interactúan.

En algunas galaxias hay chorros de esta clase que han funcionado durante un tiempo lo bastante largo como para que su actividad acabe generando corrientes de gas claramente perceptibles que se extienden a lo largo de millones de años-luz.

Morganti y su equipo usaron radiotelescopios de Europa y Estados Unidos, combinando sus señales para conformar un único y gigantesco radiotelescopio virtual. Entre los radiotelescopios participantes, figuran los de la red VLBA de la Fundación Nacional Estadounidense de Ciencia (NSF) y una antena del observatorio Karl G. Jansky VLA en Socorro, Nuevo México, Estados Unidos.

Los científicos estudiaron una galaxia llamada 4C12.50, a unos 1.500 millones de años-luz de la Tierra. Eligieron esta galaxia porque se encuentra en una etapa en la que el "motor" del agujero negro que produce los chorros se está poniendo en marcha. A medida que el agujero negro atrae material, éste forma el disco de acreción. Los procesos en el disco se nutren de la tremenda energía gravitacional del agujero negro para propulsar el material hacia el exterior desde los polos del disco.

En los extremos de los dos chorros, los investigadores han encontrado acumulaciones de gas (esencialmente hidrógeno) moviéndose hacia fuera de la galaxia a 1.000 kilómetros por segundo. Una de las nubes tiene una masa de nada menos que 16.000 veces la del Sol, mientras que la otra es aún mayor, albergando la cantidad colosal de 140.000 veces la masa del Sol. La nube más grande mide aproximadamente unos 160 por 190 años-luz.

Ésta es una de las evidencias más definitivas de que existe una interacción entre el chorro de movimiento rápido de galaxias como ésta y las nube densas de gas interestelar como las observadas en esta investigación.

Información adicional

lunes, 21 de octubre de 2013

El pasado violento del meteorito de Chelyabinsk

Una investigación reciente realizada en Rusia respalda la idea de que el objeto de once mil toneladas que en febrero pasado entró en la atmósfera terrestre y explotó a poco más de 23 kilómetros de altura sobre la superficie de Chelyabinsk, Rusia, ya había colisionado con otro cuerpo del sistema solar (quizá como parte de un objeto mayor) o bien pasó tan cerca del Sol como para sufrir efectos destructivos de magnitud similar a la de esa colisión.



Los resultados de este estudio se han presentado públicamente en el Congreso Goldschmidt de Florencia, Italia.

Un equipo de investigadores del Instituto de Geología y Mineralogía, dependiente de la Rama Siberiana de la Academia Rusa de Ciencias, en la ciudad de Novosibirsk, ha analizado fragmentos del meteorito. El trozo principal del mismo cayó al fondo del Lago Chebarkul, cerca de Chelyabinsk, el 15 de febrero (ó 14 según otros husos horarios).

Aunque todos los fragmentos estudiados se componen de los mismos minerales, la estructura y textura de algunos fragmentos muestran que el meteorito había sufrido un proceso súbito e intensivo de fusión antes de ser sometido de nuevo a temperaturas extremadamente altas al entrar en la atmósfera terrestre.

El meteorito que cayó cerca de Chelyabinsk es de un tipo conocido como condrita LL5. Es bastante común que los meteoritos de esta clase hayan experimentado un proceso de fusión previo antes de caer en la Tierra. Esto seguramente significa que hubo una colisión entre el meteorito de Chelyabinsk y otro cuerpo en el sistema solar, o que el meteorito pasó muy cerca del Sol, tal como hemos dicho antes.

Basándose en el color y la estructura, el equipo de Victor Sharygin ha dividido los fragmentos del meteorito en tres tipos: claros, oscuros e intermedios. Los fragmentos más claros son los más comunes, pero los fragmentos oscuros aparecieron con una frecuencia creciente a lo largo de la trayectoria del meteorito, con la mayor cantidad localizada cerca de donde el objeto golpeó la superficie de la Tierra.

Los fragmentos oscuros incluyen una gran proporción de material de grano fino, y su estructura, textura y composición mineral muestran que tales bloques fueron formados por un proceso de fusión muy intensivo, probablemente debido una colisión con otro cuerpo o por su proximidad al Sol. Este material es distinto de la "corteza de fusión", la capa delgada de material en la superficie del meteorito que se derrite mientras viaja a través de la atmósfera terrestre y luego se solidifica.

Información adicional

Movimiento Rectilineo Parte 5

Integral definida

 

Dada la velocidad del móvil en función del tiempo, vamos a calcular el desplazamiento del móvil entre los instantes t0 y t.  En los casos en los que la velocidad es constante o varía linealmente con el tiempo, el desplazamiento se calcula fácilmente
Si v=35 m/s, el desplazamiento del móvil entre los instantes t0=0 y t=10 s es Δx=35·10=350 m



Si v=6·t, el desplazamiento del móvil entre los instantes t0=0 y t=10 s es el área del triángulo de color azul claro Δx=(60·10)/2=300 m




Si v=-8·t+60. el desplazamiento del móvil entre los instantes t0=0 y t=10 s es la suma de las áreas de dos triángulos:
    el de la izquierda tiene un área de (7.5·60)/2=225 
    el de la derecha tiene un área de (-20·2.5)/2=-25
El desplazamiento es el área total Δx=225+(-25)=200 m

En otros casos, podemos calcular el desplazamiento aproximado, siguiendo el procedimiento que se muestra en la figura

En el instante ti-1 la velocidad del móvil es vi-1, en el instante ti la velocidad del móvil es vi. La velocidad media <vi> en el intervalo de tiempo Δti=ti-ti-1 comprendido entre ti-1 y ti es
<vi>=v(ti)+v(ti1)2
El desplazamiento del móvil durante el intervalo de tiempo Δti=ti-ti-1 comprendido entre ti-1 y ti es aproximadamente el área del rectángulo <vi>·Δti. El desplazamiento total x-x0 entre el instante inicial t0, y el instante final t=tn es, aproximadamente
xx0i=1n<vi>Δti
donde n es el número de intervalos
Si v=-t2+14t+21 (m/s) y tomamos n=10 intervalos iguales, entre el instante t0=0 y t=10 s el desplazamiento aproximado vale
x-x0≈27.7+39.8+49.8+57.7+63.7+67.7+69.7+69.8+67.8+63.8=577.5 m
Cuando el número de intervalos en los que se ha dividido un intervalo dado (t0, t) es muy grande Δti→0. En el límite, el desplazamiento se expresa como
xx0=t0tvdt
Si v=-t2+14t+21 (m/s), el desplazamiento entre el instante t0=0 y t=10 s vale
xx0=010(t2+14t+21)dt=t33+7t2+21t100=17303m

Primer mapa de nubes de un planeta de otra estrella

Unos astrónomos, utilizando datos de los telescopios espaciales Kepler y Spitzer de la NASA, han creado el primer mapa de las nubes de un planeta situado en órbita a una estrella distinta del Sol. Este planeta, conocido como Kepler-7b, es un gigante gaseoso como Júpiter pero muchísimo más caliente que éste.

Estudios previos a partir de datos obtenidos con el Spitzer han resultado en mapas de temperatura de planetas en órbita a otras estrellas, pero éste es el primer vistazo a las estructuras nubosas de un mundo distante.



En el exoplaneta Kepler-7b, la meteorología es altamente predecible, tal como han comprobado unos científicos del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos, y otras instituciones: En un día cualquiera, el exoplaneta, que está a casi 1.000 años-luz de la Tierra, está densamente nublado de un lado, mientras que en el otro probablemente reina un tiempo claro y despejado.

El nuevo trabajo constituye la vez primera en que se logra cartografiar la distribución de nubes de un exoplaneta.

El equipo internacional de Brice-Olivier Demory, del Instituto Tecnológico de Massachusetts en Cambridge, Estados Unidos, observó que uno de los hemisferios de Kepler-7b está cubierto con una densa capa de nubes, mucho más densa que el más encapotado y plomizo de los cielos de la Tierra, y es tan tupida que refleja una porción significativa de la luz de su estrella. Este escudo de nubes hace al planeta más fresco que otros de su tipo, creando un entorno que fomenta la formación de más nubes en él.

Demory y sus colegas también analizaron la luz proveniente de Kepler-7b en varias fases de su órbita, encontrando que gran parte de la reflectividad del planeta se debe a la presencia de nubes, y que esta cubierta de nubes se distribuye de forma desigual.

Kepler-7b está entre los primeros exoplanetas identificados a partir de observaciones hechas por el telescopio espacial Kepler, de la NASA. Desde entonces, se han confirmado más de 130 planetas de fuera de nuestro sistema solar detectados inicialmente por el Kepler.

Al planeta Kepler-7b se le considera un Júpiter caliente, ya que se compone principalmente de gas y es alrededor del 50 por ciento más voluminoso que Júpiter, aunque tiene sólo la mitad de su masa.

Aún no está del todo claro el motivo exacto de tan marcado contraste entre hemisferios en cuanto a cubierta nubosa.

La meteorología de Kepler-7b debe ser muy distinta a la de la Tierra, y no solo por ser un planeta gigante gaseoso, sino también porque su temperatura se estima que es de entre 800 y 1.000 grados centígrados (entre 1.500 y 1.800 grados Fahrenheit aproximadamente). Por supuesto la temperatura es muy tórrida, pero, gracias a las nubes, menos alta que la que debería tener por su gran proximidad a su estrella, tan solo 9 millones de kilómetros, una distancia menor a la existente entre Júpiter y algunas de sus lunas.

En la investigación también han trabajado Julien de Wit, Nikole Lewis, Andras Zsom y Sara Seager del MIT, Jonathan Fortney de la Universidad de California en Santa Cruz, Heather Knutson y Jean-Michel Desert del Instituto tecnológico de California (Caltech) en Pasadena, Nikku Madhusudhan de la Universidad de Yale en New Haven, Connecticut, y Nicolas Cowan de la Universidad del Noroeste en Evanston, Illinois, todas estas instituciones en Estados Unidos, así como Kevin Heng de la Universidad de Berna en Suiza, Michael Gillon de la Universidad de Lieja en Bélgica, y Vivien Parmentier del Centro Nacional francés para la Investigación Científica (CNRS).

Información adicional