miércoles, 31 de julio de 2013

UE Mejora Sistema de Frenando en Lineas de Alta Velocidad

La Unión Europea puso en marcha el año pasado dos proyectos con los que se pretende mejorar los sistemas de seguridad, señalización y frenado en las líneas de alta velocidad del sistema unificado europeo.



Ambas iniciativas, que comenzaron el pasado año, están lideradas por el centro tecnológico CEIT-Ik4 de San Sebastián (España) y finalizarán en 2015, señala esta institución.

El primero de estos proyectos, denominado ECUC (Eddy-Current Brake Compatibility), cuenta con un presupuesto de 3,2 millones de euros y su finalidad es la mejora de la actual tecnología de frenado y su interoperabilidad de cara a su futura aplicación en las líneas de alta velocidad del sistema unificado europeo, explica el centro tecnológico.

Para ello, CEIT-Ik4, en colaboración con ocho socios, procedentes del ámbito de la investigación, la universidad y sector ferroviario europeo, está diseñando un modelo multidisciplinar con aplicación electromagnética, mecánica y térmica, que permita estudiar y reproducir los casos extremos más representativos, “de cara a evitar las eventualidades inesperadas que afectan a la seguridad”, añaden estas fuentes.

El centro tecnológico está trabajando en dos líneas de investigación. Por un lado, ingenieros eléctricos y electrónicos estudian el fenómeno de acoplo electromagnético y las interferencias que produce.

Los ingenieros mecánicos se encargan de la integración de dicho modelo de frenado en las tres componentes principales (infraestructura, freno y señalización).

“De esta manera, al término del proyecto se podrán definir las especificaciones técnicas de fabricación de los equipamientos implicados en el proyecto y se mejorarán los límites de los estándares de certificación”, explican en CEIT-Ik4.

Según el centro, la segunda iniciativa, llamada EATS (Advanced Testing and Smart Train Positioning System), también arrancó el pasado año, con una duración prevista de tres años.

Su finalidad es mejorar los actuales métodos de control que se emplean para el posicionamiento de los trenes, entre otros avances y su presupuesto es de cuatro millones de euros, concluye esta institución. (Fuente: SINC)

Nuevo y prometedor método para desalinizar agua

El acceso al agua potable y a la que es apta al menos para el riego de cultivos es uno de los requerimientos más básicos para que las personas gocen de buena salud.



La desalinización del agua del mar es una de las formas de satisfacer esta necesidad, pero la mayoría de los métodos actuales para desalinizar agua se basan en membranas caras y que se contaminan fácilmente.

Un nuevo método para la desalinización del agua marina consume menos energía y es mucho más simple que las técnicas convencionales.

El nuevo método se basa en un pequeño campo eléctrico que hace que se retire la sal del agua de mar.

El proceso esquiva los problemas que afrontan los métodos actuales de desalinización. Lo consigue al eliminar la necesidad de una membrana y al separar la sal del agua a microescala.

La nueva técnica electroquímica es obra del equipo de Richard Crooks de la Universidad de Texas en Austin, Estados Unidos, y Ulrich Tallarek de la Universidad de Marburgo en Alemania, y ya se halla en fase de desarrollo para su fabricación a escala industrial por la empresa Okeanos Technologies.

El nuevo método trae una promesa esperanzadora para las áreas con problemas de abastecimiento de agua en las cuales vive alrededor de un tercio de los habitantes del planeta.

Muchas de estas regiones tienen acceso a aguas marinas en abundancia, pero carecen de la infraestructura energética o del dinero necesario para desalar agua utilizando las tecnologías convencionales. Como resultado, en dichas regiones millones de muertes por año son atribuidas a causas relacionadas con el agua.

Via

martes, 30 de julio de 2013

Más planetas habitables gracias a las nubes en sus atmósferas

Los resultados de un nuevo estudio en el que se ha calculado la influencia del comportamiento de las nubes sobre el clima, duplican la cantidad estimada de planetas potencialmente habitables en órbita a estrellas enanas rojas, el tipo más común de estrella en el universo.



Este hallazgo implica que en nuestra galaxia, la Vía Láctea, unos 60.000 millones de planetas podrían estar orbitando alrededor de estrellas enanas rojas en la zona orbital habitable de las mismas. A estos planetas habría que añadirles los del mismo tipo en el resto de galaxias del universo. La zona orbital habitable es aquella en la que, por su distancia a la estrella, los planetas allí situados gozan en buena parte de su superficie de una temperatura que permite la existencia de agua líquida.

Los autores del nuevo estudio, de la Universidad de Chicago y la Universidad del Noroeste en Evanston, ambas en el estado de Illinois, Estados Unidos, basan sus estimaciones en rigurosas simulaciones por ordenador sobre el comportamiento de las nubes en otros planetas. Teniendo en cuenta el papel de las nubes, a la luz de lo deducido sobre su conducta en las atmósferas de planetas situados a una distancia ni muy grande ni muy pequeña de su estrella, resulta que la zona orbital habitable alrededor de las enanas rojas es mucho más amplia de lo creído hasta ahora, lo cual, en consecuencia, aumenta de manera notable la cantidad de planetas habitables en el universo.

Las enanas rojas son estrellas mucho más pequeñas que el Sol y con una luminosidad también mucho menor que la de éste.

Los datos obtenidos hasta ahora en las observaciones del cosmos efectuadas por el Telescopio Espacial Kepler de la NASA, especializado en buscar planetas similares a la Tierra que orbitan en torno a otras estrellas, sugieren que, en promedio, hay aproximadamente un planeta con un tamaño similar al de la Tierra en la zona orbital habitable de cada enana roja. Nicolas Cowan de la Universidad del Noroeste, y Dorian Abbot y Jun Yang de la de Chicago, aumentan hasta cerca del doble esa estimación.

Hay que tener en cuenta, tal como señala Cowan, que en los planetas de esa clase, las nubes pueden actuar de manera decisiva como una especie de termostato, ayudando a evitar que las temperaturas suban o bajen demasiado.

La fórmula para calcular la zona orbital habitable en torno a las estrellas se ha mantenido casi igual desde hace décadas. Sin embargo, ese enfoque deja de lado en gran medida a las nubes, que ejercen una importante influencia climática.

Un planeta en órbita a una estrella como nuestro Sol tendría que completar una órbita en aproximadamente un año para no estar ni demasiado lejos ni demasiado cerca de su estrella a fin de mantener el agua en su superficie. Si la estrella es una enana roja, de masa y temperatura más bajas que las del Sol, el planeta, para recibir la misma cantidad de luz solar que en la Tierra recibimos del Sol, debe girar a menor distancia en torno a la estrella, hasta el punto de dar una vuelta completa en torno a ella cada mes o cada dos meses.

Los planetas en esa órbita tan cercana a la estrella acaban teniendo su rotación sincronizada con su traslación, por la mayor influencia de la gravedad estelar derivada de su notable cercanía a su sol. Eso significa que el planeta termina girando sobre sí mismo de un modo tal que siempre le muestra la misma cara a su estrella. En tales circunstancias, dicha cara ostenta un eterno día, mientras que en el hemisferio opuesto reina una noche perpetua.

Obviamente, eso implica que el hemisferio diurno del planeta tenderá a estar muy caliente, y el nocturno muy frío. La presencia de una atmósfera puede suavizar esa diferencia de temperaturas, con vientos que transporten aire caliente al hemisferio nocturno, y aire frío al diurno. Pero eso tal vez no sea suficiente, sobre todo en el caso de planetas muy cercanos al borde más interno de su zona orbital habitable, en los que, según cálculos anteriores, se acumularía demasiado calor. Aquí entran en escena las nubes. Los autores del nuevo estudio han calculado, por vez primera, el efecto de las nubes acuosas sobre el borde interno de la zona habitable. Estas simulaciones muestran que si existe suficiente agua líquida en la superficie del planeta, se formarán nubes de agua en su atmósfera. Las simulaciones muestran, además, que el comportamiento de las nubes tiene un efecto de enfriamiento significativo en la porción más interior de la zona habitable, lo que permite a los planetas mantener el agua en su superficie aún estando mucho más próximos a su sol de lo que hasta ahora se consideraba como el límite máximo de cercanía a una estrella enana roja para mantener agua líquida en la superficie de un planeta de tamaño parecido al de la Tierra. Esto aumenta significativamente la cantidad de planetas habitables en nuestra galaxia, y en el universo.

Via

Robot explorador polar en Groenlandia

Inspeccionar puntos de la capa de hielo de Groenlandia, o de la capa de la Antártida, no es un trabajo fácil para el Ser Humano. En un entorno hostil, con temperaturas muy bajas, la amenaza de ventiscas polares, y un aislamiento capaz de poner en peligro de muerte a la persona que sufra un accidente, parece que los robots son los entes más adecuados para llevar este estilo de vida. La investigación valiéndose de robots polares de superficie es menos costosa que el uso de aeronaves o satélites (las plataformas más usuales), y además permite investigar in situ los lugares que requieran de atención especial.

El robot GROVER, llamado así a partir de las siglas de la definición en inglés Greenland Rover and Goddard Remotely Operated Vehicle for Exploration and Research), es un robot autónomo, que se nutre de energía solar, y que lleva un radar de penetración terrestre para estudiar cómo se acumula con el paso del tiempo la nieve, capa sobre capa, en la gruesa corteza de hielo de Groenlandia.

La primera fase de desarrollo del prototipo de GROVER que ha sido probado recientemente en Groenlandia se realizó en 2010 y 2011, antes de una fase de perfeccionamiento, con ayuda de la NASA, en la Universidad Estatal de Boise en Idaho, Estados Unidos. Un prototipo de GROVER, sin sus paneles solares, fue probado en enero de 2012 en una estación de esquí de Idaho.

El equipo de científicos encargado de probar el robot en Groenlandia ha estado encabezado por la glacióloga Lora Koenig del Centro Goddard de Vuelos Espaciales de la NASA en Greenbelt, Maryland.
El prototipo de GROVER, con el aspecto de un tanque, alcanza unos 180 centímetros de altura, incluyendo sus paneles solares. Su peso es de alrededor de 370 kilogramos. El robot es energizado exclusivamente por energía solar, por lo que puede funcionar en zonas polares durante los meses con más luz y sin depender de energías que contaminarían el entorno del robot. Los paneles solares están montados en forma de “V” invertida, lo que les permite recoger la luz solar directa y la luz solar reflejada por la capa de hielo.

En la parte trasera del robot va instalado un radar de penetración de tierra alimentado por dos baterías recargables. El radar envía pulsos de ondas de radio a través de la capa de hielo, y mediante el análisis de cómo las ondas rebotan, es posible obtener datos sobre las características principales de los estratos.



Un prototipo de GROVER, menos sus paneles solares, se puso a prueba en enero de 2012 en una estación de esquí en Idaho. El ordenador portátil que aparece a lomos del robot se usó sólo para unas pruebas y no forma parte del prototipo final. (Foto: Gabriel Trisca, Universidad Estatal de Boise)

GROVER circula a una velocidad media de 2 kilómetros por hora (1,2 millas por hora). Debido a que el Sol nunca se pone durante el verano ártico, GROVER puede trabajar en cualquier momento del día o de la noche, y se espera que en misiones sucesivas sea capaz de trabajar más tiempo y recopilar más datos que un ser humano en una motonieve (trineo a motor).

Gabriel Trisca, de la Universidad Estatal de Boise, desarrolló el software de GROVER.

Hans-Peter Marshall, un glaciólogo de la misma universidad, aportó su experiencia en los pequeños radares autónomos, con bajo consumo de energía, que fueron instalados en el robot.

Via

lunes, 29 de julio de 2013

Nueva técnica para reenfocar una foto ya tomada u obtener otras perspectivas

Una nueva técnica permite la conversión de una cámara convencional en una cámara de campo de luz capaz de tomar imágenes de alta resolución con múltiples perspectivas. Gracias a este nuevo sistema, una cámara relativamente corriente tomará imágenes que luego podrán ser reenfocadas si aparecen borrosas, o permitirá ver la imagen tal como se vería si la cámara hubiera hecho la foto desde otro sitio un poco apartado del original y tenido así una perspectiva visual algo distinta.



Ni para el reenfoque ni para la multiperspectiva se recurre a meros efectos ópticos que apliquen distorsiones inteligentes; el sistema capta información extra cuando se hace la foto y luego puede usarla para reajustar la imagen del modo deseado.

Disponiendo de la información visual necesaria, que algoritmos sofisticados se encargan de extraer del entorno, es factible lograr fotografías más allá de las posibilidades de las cámaras convencionales.

Un ejemplo de estas posibilidades extra es lo que se conoce como cámara de campo de luz, una cámara que puede medir no solamente la intensidad de la luz incidente sino también su ángulo. Esa información puede ser utilizada para producir imágenes 3-D con múltiples perspectivas, o para reenfocar una foto después de haber sido tomada.

Las cámaras de campo de luz existentes, sin embargo, pierden mucha resolución a costa de disponer de esa información extra sobre los ángulos de incidencia: Una cámara con un sensor de 20 megapíxeles, por ejemplo, proporciona una imagen reenfocada de sólo un megapixel.

El trabajo realizado en el Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos, por el equipo de Gordon Wetzstein, Kshitij Marwah, Ramesh Raskar y Yosuke Bando, se ha orientado a desarrollar un nuevo y más eficaz sistema, al cual han bautizado como Focii.

Focii puede producir una imagen completa de 20 megapixeles 3-D con multiperspectiva a partir de una única exposición con un sensor de 20 megapixeles.

Debido a que una cámara de campo de luz captura información no sólo sobre la intensidad de los rayos de luz sino también sobre su ángulo de llegada, la imagen que produce puede ser reenfocada más tarde.

Mientras que una cámara comercial de campo de luz es una cámara diseñada especialmente para esa función, y su coste no suele bajar de los 400 dólares, Focii consiste simplemente en un pequeño rectángulo de film plástico, impreso con un patrón especial, que puede ser insertado bajo la lente de una cámara réflex digital. El software hace el resto.

Focii captura 25 perspectivas en total. Un sistema convencional de 3-D, como los usados comúnmente para producir películas en 3-D, captura solamente dos perspectivas. Con sistemas multiperspectiva, un cambio en el ángulo de visión revela nuevos detalles de un objeto, tal como ocurre en la vida real.

Via

Detectan el material del que se formaron estrellas hace unos diez mil millones de años

Desde un observatorio de radioastronomía se ha detectado la materia prima para la formación de las primeras estrellas en galaxias que se formaron cuando el universo tenía sólo 3.000 millones de años, menos de una cuarta parte de su edad actual. Esto abre el camino para el estudio de cómo en aquellas galaxias primitivas se formaron sus primeras estrellas.



Las observaciones se han hecho desde el conjunto de radiotelescopios ATCA, que está ubicado cerca de Narrabri, Nueva Gales del Sur, Australia, y que depende de la CSIRO (Commonwealth Scientific and Industrial Research Organisation).

Este conjunto de radiotelescopios es uno de los pocos del mundo que con la capacidad para hacer trabajos de esta magnitud, ya que es extremadamente sensible y puede recibir las ondas de radio de las longitudes de onda adecuadas.

La materia prima para la fabricación de estrellas es el gas de hidrógeno molecular (H2) frío. No se puede detectar directamente, sino que su presencia se revela por un gas que actúa a modo de marcador, el monóxido de carbono, el cual emite ondas de radio.

El equipo del astrónomo Bjorn Emonts, de la CSIRO, utilizó el conjunto de radiotelescopios ATCA para estudiar un conglomerado lejano y masivo de “cúmulos” de formación estelar o “protogalaxias”. Esta estructura, denominada La Telaraña, se encuentra a más de 10.000 millones de años-luz de distancia, y por tanto desde la Tierra la vemos tal como era hace 10.000 millones de años, cuando emitió la luz que ahora está llegando a nuestra región del universo. Todo apunta a que el estado en el que vemos ahora a los "cúmulos" corresponde al proceso de unificación de todos o muchos de ellos en una sola galaxia masiva.

Emonts y sus colegas comprobaron que La Telaraña contiene al menos 60.000 millones de veces la masa del Sol en hidrógeno molecular, extendido sobre una distancia de casi un cuarto de millón de años-luz. Este debe ser el combustible para la formación estelar que aparece en marcha en muchas zonas de La Telaraña. Emonts calcula que la cantidad de material es suficiente material para mantener la formación de estrellas durante al menos 40 millones de años más a partir de la época divisada ahora en las observaciones.

Via

sábado, 27 de julio de 2013

Buscando las combinaciones de pequeños fallos que llevan a los grandes apagones eléctricos

En ocasiones en las que la red de suministro eléctrico de una región o país experimenta una demanda mucho mayor de lo normal, como por ejemplo cuando hay una ola de frío o de calor, y la calefacción o el aire acondicionado están en marcha a plena potencia durante muchas horas seguidas, la red eléctrica es exprimida al máximo, y en tales condiciones aumenta el riesgo de una desconexión de seguridad o desperfecto en algún punto de la red, y un apagón masivo derivado de una cascada de desconexiones.



Aunque en la mayoría de los casos, un fallo en una parte de la red eléctrica no hace que caiga la red completa, en algunos, dos o más fallos de poca importancia pero que ocurran de modo simultáneo pueden tener graves repercusiones en toda la red eléctrica o en buena parte de ella, causando grandes apagones en una vasta región. Así ocurrió el 14 de agosto de 2003 en Estados Unidos y Canadá, cuando 50 millones de clientes del noroeste de Estados Unidos y de Ontario se quedaron sin suministro eléctrico. Ese fue el mayor apagón de la historia de América del Norte. Más recientemente, en julio de 2012, la India experimentó el mayor apagón de la historia, cuando 700 millones de personas, casi el 10 por ciento de la población mundial, se quedaron sin electricidad como resultado de dos problemas iniciales de poca importancia, pero que tuvieron un efecto parecido al de la ficha de dominó que al caer hace que se desplomen en secuencia todas las siguientes de una larga fila.

En épocas anteriores, los grandes apagones de este tipo han tenido incluso una aureola de misterio, que ha propiciado leyendas urbanas de todo tipo, incluyendo ataques de alienígenas mediante una tecnología desconocida para la humanidad.

Para ayudar a prevenir que las combinaciones desafortunadas de dos pequeños fallos sean como la bola de nieve que va creciendo de tamaño conforme desciende rodando por una ladera, en el Instituto Tecnológico de Massachusetts (MIT), de Cambridge, Estados Unidos, se ha diseñado un algoritmo que identifica los pares más peligrosos de fallos entre los millones de fallos posibles en una red de suministro eléctrico.

Los creadores del algoritmo lo pusieron a prueba con datos de un modelo de red eléctrica de tamaño medio compuesta por 3.000 componentes (en la cual hay hasta 10 millones de pares potenciales de fallos). En unos 10 minutos, el algoritmo descartó rápidamente el 99 por ciento de los fallos, al juzgar que sus consecuencias serían de escaso riesgo. El 1 por ciento restante representaba pares de fallos que mediante un efecto dominó probablemente provocarían grandes apagones si no se hacía nada para evitar el riesgo de que coincidieran ambos.

Otros sistemas existentes para inspeccionar los pares de fallos más críticos en una red de suministro eléctrico no son lo bastante veloces como para rivalizar con el algoritmo desarrollado por el equipo de Konstantin Turitsyn y Petr Kaplunovich.

El nuevo algoritmo puede ser usado para determinar en tiempo real cuáles son los pares de sucesos más peligrosos en un momento dado.

Este algoritmo, si se le pone en práctica de forma masiva, podría ser usado para anticipar sucesos como el apagón de 2003, y ofrecer una vía potencial de prevención.

Información adicional

Paneles solares ultradelgados, una vía prometedora para la implantación masiva de la energía solar

La mayoría de los esfuerzos para mejorar las células solares se han concentrado en incrementar la eficiencia de su conversión de energía, o en disminuir los costos de producción de paneles más o menos convencionales. Pero ahora se está materializando una prometedora vía alternativa para mejorar la generación de electricidad a partir de luz solar: La de producir paneles solares asombrosamente delgados y livianos.



Tales paneles solares que, en términos de energía producida por kilogramo de material, tienen el potencial de superar a cualquier sustancia de uso actual en el sector energético excepto el combustible nuclear de las centrales atómicas, podrían ser fabricados a partir de láminas apiladas, cada una del grosor de una molécula, hechas de sustancias como el grafeno o el disulfuro de molibdeno.

Aunque los científicos han dedicado una atención considerable en años recientes al potencial de los materiales en forma de láminas del grosor de un átomo, como por ejemplo el grafeno, ha habido poca labor de investigación sobre su potencial para aplicaciones de energía solar. Y, según los últimos resultados en la línea de investigación seguida por el equipo de Jeffrey Grossman del Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos, el potencial de tales materiales es extraordinario.

El equipo de Grossman, Marco Bernardi del MIT y Maurizia Palummo de la Universidad de Roma en  Italia, ha llegado a la conclusión de que usando dos capas de tales materiales, del grosor de un átomo, sería posible obtener células solares de entre un 1 y un 2 por ciento de eficiencia en la conversión de luz solar a electricidad. Ciertamente, eso es poco comparado con el porcentaje de entre un 15 y un 20 por ciento de eficiencia del que gozan las células solares estándar de silicio, pero ese porcentaje de entre un 1 y un 2 por ciento se consigue utilizando un material que es miles de veces más fino y liviano que el papel. La célula solar así diseñada cuenta con dos capas  y mide solamente 1 nanómetro de espesor, mientras que las células solares típicas de silicio pueden ser cientos o miles de veces más gruesas. Apilando de modo idóneo varias de esas capas bidimensionales podría además potenciar significativamente la eficiencia.

El equipo del MIT ha determinado que se podría confeccionar una célula solar eficiente a partir de una pila de dos láminas de materiales distintos, cada una del grosor de una molécula: grafeno, mostrado en azul en la parte inferior de la imagen, y disulfuro de molibdeno, mostrado arriba, con los átomos de molibdeno representados en rojo y los de azufre en amarillo. (Imagen: Jeffrey Grossman y Marco Bernardi)

Para aplicaciones donde el peso es un factor crucial (como en una nave espacial, en aviación o para usos en áreas remotas de países en vías de desarrollo donde los costos de transporte son difíciles de afrontar) estas células solares livianas podrían ser de gran utilidad.

A igual peso, las nuevas células solares producen hasta mil veces más electricidad que las fotovoltaicas convencionales. El espesor de alrededor de un nanómetro es de 20 a 50 veces más fino que la célula solar más delgada que puede ser fabricada hoy día.

Esta liviandad no es ventajosa solamente en términos de facilidad de transporte, sino también porque hace mucho más fácil el trabajo de montar paneles solares. Hay que tener en cuenta que cerca de la mitad del costo de los paneles actuales corresponde a estructuras de soporte, instalación, cableado y sistemas de control, constituyendo todo ello un conjunto de gastos que se podría reducir bastante a través del uso de estructuras más livianas.

Además, el material del nuevo tipo de célula solar es en sí mismo mucho menos caro que el silicio altamente purificado que se utiliza para células solares convencionales, y debido a que las láminas son tan delgadas, sólo se requieren cantidades minúsculas de la materia prima.

Una ventaja adicional de estos materiales es su estabilidad a largo plazo, incluso expuestos al aire; otros materiales usados en células solares deben ser protegidos debajo de cubiertas de vidrio caras y pesadas.

Información adicional

Ensayando en un robot técnicas de búsqueda de vida para el subsuelo marciano

Todo apunta a que si hay vida en el Planeta Rojo, ésta debe hallarse en el subsuelo, el único sitio en el que puede estar lo bastante protegida. Ensayar sistemas que le permitan a un robot taladrar el suelo y extraer muestras subterráneas es un paso previo imprescindible para emprender cualquier expedición robótica que aspire a alcanzar objetivos ambiciosos en la búsqueda de vida marciana.



Zoe, un fascinante robot del que los redactores de NCYT de Amazings ya hablamos en un artículo del 27 de agosto de 2004 (http://www.amazings.com/ciencia/noticias/270804a.html) cuando ese explorador cibernético aún estaba en su infancia, se convirtió poco después en el primer robot que logró cartografiar la presencia de vida microbiana en el desierto de Atacama durante su expedición de 2005 allí. Zoe protagoniza ahora, en 2013, un nuevo y apasionante capítulo en el desarrollo científico y tecnológico de métodos para buscar vida en Marte.

En el marco de una investigación astrobiológica de la NASA, la colaboración entre el Instituto SETI en Mountain View, California, y la Universidad Carnegie Mellon, en Pittsburgh, Pensilvania, de Estados Unidos ambas instituciones, está aunando astrobiología y robótica avanzada hacia ese objetivo de buscar vida en Marte. Entre las operaciones, destacan el envío de Zoe otra vez al Desierto de Atacama, equipado con algunas herramientas especiales para la ocasión, como por ejemplo un taladro, fabricado por Honeybee Robotics, con el que perforar el suelo hasta un metro de profundidad, para extraer muestras y analizarlas mediante instrumentos del robot. Dado que en los suelos del desierto de Atacama los microorganismos son escasos, detectarlos no es mucho más fácil que detectar a los microorganismos marcianos si estos últimos existen.

Para el 2020, la NASA planea enviar a Marte un robot que tenga como misión hacer excavaciones en puntos con máximo interés astrobiológico, como algunos de los terrenos con erosión fluvial que el robot Curiosity está explorando últimamente en el Planeta Rojo. Las pruebas con el robot Zoe sirven para validar tecnologías utilizables para la futura misión a Marte o descubrir qué puntos débiles hay que solventar.

Zoe mide 2,7 metros (9 pies) de largo y 1,8 metros (6 pies) de ancho. Se desplaza sobre 4 ruedas. Un panel solar de alta eficiencia, que mide 3 metros cuadrados, genera electricidad para sus sistemas, mediante células solares de arseniuro de galio. Dado que está alimentado exclusivamente por energía solar, el robot actúa mayormente de día, aunque puede hacer algunos trabajos de procesamiento de muestras científicas durante la noche. Recorrer decenas de kilómetros en el corazón del desierto de Atacama sería un reto muy peligroso para un Ser Humano solo, pero Zoe está preparado para esta clase de aventuras, como lo estarán sus primos que algún día viajen a Marte.

Entre los miembros principales del equipo científico de Zoe figuran David Wettergreen del Instituto de Robótica de la Universidad Carnegie Mellon, la geóloga planetaria Nathalie Cabrol del Centro Carl Sagan dependiente del Instituto SETI, y diversos especialistas de la Universidad Católica del Norte en Chile, las universidades estadounidenses de Tennessee y Washington, y el Laboratorio de Propulsión a Chorro de la NASA.

Información adicional

jueves, 25 de julio de 2013

Fórmula anticolesterol aplicable en alimentos y bebidas

Mucha gente está sobrecargada de colesterol LDL, popularmente conocido como "colesterol malo".

Si ese colesterol se acumula demasiado en el organismo, puede dar lugar a la aterosclerosis y a enfermedades cardíacas.



Los fitoesteroles de los vegetales y el colesterol de los animales son moléculas muy similares, y cuando se les mezcla se atraen mutuamente.

Cuando se mezclan en el intestino de un animal, las moléculas de colesterol no logran pasar al torrente sanguíneo y son excretadas.

La capacidad de los fitoesteroles para reducir los niveles de colesterol en los animales es conocida desde la década de 1950, pero ha resultado difícil aplicar este conocimiento en la práctica porque los fitoesteroles no son solubles en agua de modo natural, y son escasamente solubles en sustancias grasas.

Ahora se ha descubierto una manera de hacer que las moléculas de fitoesterol de los vegetales se dispersen en bebidas y alimentos de consumo humano, lo que podría abrir el camino a una reducción drástica de los niveles de colesterol en la gente.

La hazaña científica la ha logrado el químico Daniel Perlman, de la Universidad Brandeis, en Waltham, Massachusetts, Estados Unidos.

Perlman posee más de 100 patentes concedidas o pendientes, que ilustran su prolífica carrera como inventor.

Via

Superconductor que parece contradecir la base de la superconductividad

La superconductividad es un estado físico raro en el que la materia es capaz de conducir la electricidad (o sea mantener un flujo de electrones) sin ofrecer resistencia alguna al paso de los electrones. Este fenómeno sólo puede encontrarse en ciertos materiales bajo condiciones muy específicas, como temperaturas muy frías y presiones muy altas.



Durante dos décadas, se ha venido investigando sobre la creación de superconductores que hagan su trabajo a temperaturas mucho más altas (lo más cerca posible de la temperatura ambiente) y de forma eficaz, un objetivo que si se alcanza conducirá a mejoras radicales en la transmisión de electricidad.

En una nueva investigación se ha descubierto una superconductividad inesperada e insólita. Conocerla a fondo podría abrir perspectivas interesantes de investigación y desarrollo para lograr superconductores más baratos y prácticos de usar.

El equipo de Choong-Shik Yoo, de la Universidad del Estado de Washington, en la ciudad de Pullman, y Viktor Struzhkin, Takaki Muramatsu, y Stanislav Sinogeikin, del Instituto Carnegie de Ciencia, en Washington, D.C., ambas instituciones en Estados Unidos, ha verificado un estado de superconductividad en la forma sólida de un compuesto llamado disulfuro de carbono (o bisulfito de carbono), que a veces es usado en forma líquida como insecticida o disolvente químico. El equipo encontró que esta sustancia pasa a un estado de superconductividad a cerca de 267 grados centígrados bajo cero (449 grados Fahrenheit bajo cero) a presiones que aproximadamente van desde 493.000 hasta 1.698.000 veces la presión atmosférica normal. Ese rango de presiones altísimas equivale a entre 50 y 172 gigapascales.

Lo que hace especial a este descubrimiento es que parece contradecir a lo que se sabe sobre cómo funciona normalmente la superconductividad.

Por regla general, aunque no siempre, la superconductividad está presente en estructuras moleculares muy ordenadas. Pero en el disulfuro de carbono, la superconductividad es resultado de un estado muy desordenado, lo cual es raro. Aún más sorprendente es que esta estructura desordenada es precedida por un estado magnéticamente ordenado, que experimenta un cambio estructural hacia la configuración desorganizada cuando comienza la superconductividad.

En el estudio también han trabajado Ranga Dias y Minseob Kim de la Universidad del Estado de Washington, así como Takahiro Matsuoka y Yasuo Ohishi del Instituto de Investigación de la Radiación Sincrotrón en Japón.

Via
 

miércoles, 24 de julio de 2013

El día en que pudo cambiar el valor de pi

¿Te imaginas por un momento que alguien se atreviera a cambiar el valor de pi, la relación matemática entre la longitud de una circunferencia y su diámetro, bien conocida desde los antiguos griegos? No solo eso, ¿qué pensarías si además se quisiera sacar tajada de ello y legislarlo mediante una ley? Pues todo eso y mucho más ocurrió a finales del siglo XIX, cuando el estadounidense Edwin J. Goodwin (1825-1902) afirmó haber encontrado un método para realizar la famosa cuadratura del círculo.
 
 
El problema de la cuadratura del círculo era bien conocido desde la antigua Grecia. Se cree que fue Anaxágoras, aproximadamente en el año 600 A.C. quien planteó el problema de construir, con regla y compás, un cuadrado que tuviese el mismo área que un círculo dado. Pasaron más de dos mil años sin que nadie encontrara una solución, hasta que el matemático alemán Ferdinand Lindemann demostró que, tal y como la habían planteado los antiguos griegos, la cuadratura del círculo era imposible

Ferdinand Lindemann
Sin entrar en detalles, podemos entender lo que ocurre. El área de un círculo es π·r2, donde r es el radio de dicho círculo. La del cuadrado es a2, siendo a el lado del cuadrado. Si queremos que ambas áreas sean iguales, entonces:


π·r2 = a2

Y despejando a, resulta que


a = r·√π
Resolver el problema algebraico es bastante sencillo. Pero si queremos resolverlo como lo plantearon los griegos tendríamos que poder dibujar π con regla y compás. ¿Y realmente podemos? Si π fuese racional (de la forma m/n, donde m y n son números enteros con b distinto de cero), no habría mayor inconveniente. Incluso si π fuese irracional (que no se pudiese escribir de la forma m/n) todavía habría esperanzas. Se pueden construir con regla y compás números irracionales. Si dibujas, por ejemplo, un triángulo rectángulo con los catetos de longitud 1, la hipotenusa medirá √2, que es irracional. Esto es posible porque √2 es solución de la ecuación x2-2=0. Todos los que se pueden expresar como solución de una ecuación algebraica pertenecen a una clase de números llamados algebraicos y se pueden dibujar mediante regla y compás. 
Si un número no es algebraico, entonces se dice que es trascendente, como el número e, y en tal caso nunca podrá ser dibujado con regla y compás. De esta forma, el milenario problema de la cuadratura del círculo se reduce a la simple cuestión de si el número π es algebraico o trascendente. Eso fue lo que demostró Lindemann en 1882: π era trascendente y, por tanto, no se puede dibujar con regla y compás, lo que acabó con las esperanzas de todos los matemáticos de conseguir resolver este problema.
¿He dicho todos? Bueno, no. Hubo un matemático llamado Edwin J. Goodwin que pasó por alto los avances de todos sus predecesores, culminado por Lindemann. En realidad, Goodwin no era más que un médico rural que vivía en el pueblo de Solitude, Indiana, y que en su tiempo libre -debía tener mucho- se aficionó a las matemáticas. Al parecer, Goodwin ya había logrado resolver otros famosos problemas matemáticos imposibles, como la trisección del ángulo y la duplicación del cubo. En todos estos casos, Goodwin había publicado la solución en la revista matemática The American Mathematical Monthly. Y en todos ellos, el artículo estaba encabezado por una nota diciendo que se publicaba a petición del autor. Dicho de otro modo, la revista no se hacía responsable del contenido del artículo. Sospechoso, ¿verdad?

Edwin J. Goodwin
En su demostración de la cuadratura del círculo no se menciona explícitamente a pi. Pero hacia el final de la segunda sección se dice que "la relación entre el diámetro y la longitud de una circunferencia es de cinco cuartos a cuatro". Como esa es exactamente la definición de pi, la afirmación de Goodwin significaba que ¡pi valía 3,2! De nada había servido que, más de dos mil años atrás, Arquímedes ya hubiese demostrado que el valor de pi estaba comprendido entre 3+(10/70) y 3+(10/71), una aproximación mucho más buena que el valor -erróneo- dado por Goodwin. El genio de Siracusa debió retorcerse en su tumba.

Esquema que utilizó Goodwin para su "demostración"
Pero eso no es todo. A pesar de este y otros disparates que contenía su demostración, Goodwin estaba tan satisfecho con su descubrimiento que lo registró, con la idea de que cualquiera que lo utilizara tuviera que pagarle derechos de autor. Al mismo tiempo decidió que su estado natal de Indiana sí podría usarlo para beneficio de sus escolares. De hecho, Goodwin embaucó al representante por Indiana, Taylor I. Record, y le propuso presentar en la Asamblea legislativa un proyecto de ley que recogiese lo anterior. El título lo dice todo: Proyecto de ley que presenta una nueva verdad matemática y que es ofrecido como una contribución a la educación que sólo podrá ser utilizado por el Estado de Indiana de forma gratuita sin necesidad de pagar ningún tipo de derechos de autor, siempre y cuando sea aceptado y adaptado en forma oficial por la legislatura en 1897. Ahí queda eso.
La cadena de despropósitos no había hecho más que empezar. Después de recibir el visto bueno de la Comisión de Educación, el proyecto de ley número 246 de las sesiones del año 1897 llegó al Congreso. El resultado de la votación no dejó lugar a dudas: 67 votos a favor, ninguno en contra. Ya solo faltaba la aprobación del Senado y el valor de pi quedaría establecido en Indiana como 3,2.
El mismo día que se debatía el proyecto de ley en el Senado, se encontraba en el edificio C. A. Waldo, un profesor de matemáticas de la Universidad de Purdue, que había acudido a la ciudad para gestionar el presupuesto anual de la Academia de Ciencia de Indiana. Waldo se quedó muy sorprendido al enterarse que en el Senado estaban debatiendo una ley sobre matemáticas. Pero su sorpresa se transformó en espanto cuando comprendió el disparate que estaba a punto de cometerse. Una vez terminada la sesión, le ofrecieron conocer en persona al mismísimo Goodwin, lo que Waldo rechazó enérgicamente (“ya me han presentado a tantos locos como estoy dispuesto a conocer”). Por suerte, el Senado de Indiana no había completado la aprobación final del proyecto de ley y el profesor Waldo tuvo tiempo de convencer a un número suficiente de senadores para que postergaran el proyecto de forma indefinida.


C.A.Waldo, el salvador de Indiana

Y así fue cómo el estado de Indiana se salvó de hacer el mayor de los ridículos y consiguió que lo que todavía hoy se conoce como Indiana Pi Bill, el proyecto de ley de Indiana sobre pi, se quedase en eso, un simple proyecto.

NOTA: Esta entrada participa en la Edición 4,12310 del Carnaval de Matemáticas que organiza en esta ocasión el blog de Rafael MirandaGeometría Dinámica.

BIBLIOGRAFÍA:
  1. Texto completo del Proyecto de Ley (en inglés).
  2. La demostración de la cuadratura del círculo, tal y como se publicó (en inglés).
  3. Errores, lapsus y gazapos de la historia, Gregorio Doval. Editorial Nowtilus, 2011.

Las 50 vértebras completas de la única cola articulada

Las 50 vértebras completas de la única cola articulada de dinosaurio descubierta en México han sido recuperadas en un yacimiento de Coahuila (norte del país) junto a otros huesos, tras 20 días de trabajo, informó el Instituto Nacional de Antropología e Historia (INAH).



Los restos pertenecen a un hadrosaurio o pico de pato con cresta de hace 72 millones de años. Fueron encontrados en mayo de 2005 y se empezó a trabajar con ellos el pasado 2 de julio.

El INAH dijo que en los últimos días se logró recuperar 50 vértebras de la cola unidas entre sí, tal como estaban en su origen, así como huesos de las extremidades y de la cadera, entre otros.

El apéndice, de unos 5 metros y bajo el que se espera encontrar el resto del cuerpo, equivale a la mitad de un dinosaurio cuya longitud total se calcula en 12 metros, comentó Felisa Aguilar, de la INAH y directora de la excavación junto a René Hernández, de la Universidad Nacional Autónoma de México (UNAM).

La paleontóloga explicó también que la importancia de este esqueleto reside en que es muy raro encontrar este tipo de ejemplares con la mayoría de sus huesos unidos.

La cola fue encontrada en el municipio de General Cepeda, a pocos kilómetros de dos de los yacimientos paleontológicos más importantes de Coahuila. Será trasladada por partes a un espacio de la cabecera municipal de General Cepeda acondicionado como laboratorio para su limpieza e identificación de los restos, tras lo cual se volverá a armar.

Vórtices ópticos para incrementar el ancho de banda en internet

En un mundo que se basa cada vez más en la información, donde todo, desde teléfonos móviles hasta las propias ciudades, es cada vez más "inteligente", continúa aumentando la demanda de capacidad de tráfico de datos a través de internet. Pero se hará cada vez más difícil satisfacer esa demanda a menos que surjan nuevos enfoques que incrementen drásticamente el ancho de banda, que es la cantidad de datos por segundo que pueden ser transmitidos a través de los canales de comunicación de la red.



Ahora, un equipo de ingenieros ha diseñado una nueva tecnología de fibra óptica que promete aumentar considerablemente el ancho de banda. La nueva tecnología podría permitir que los proveedores de servicios de internet ofrecieran una conectividad mucho mejor, proporcionando desde una menor congestión en la red, hasta un servicio más fluido de televisión a la carta (video bajo demanda) por streaming, todo ello a un costo comparable al actual.

El equipo del profesor Siddharth Ramachandran, del Departamento de Ingeniería Electrónica y Computación en la Universidad de Boston, Massachusetts, Estados Unidos, ha demostrado con esa nueva tecnología una estrategia prometedora para incrementar considerablemente las tasas de trasmisión de datos por fibra óptica. La nueva técnica se vale de haces de luz láser con forma de anillo llamados vórtices ópticos. En un vórtice óptico, la luz se retuerce como un tornado a medida que se mueve a lo largo de la trayectoria del haz, en lugar de hacerlo en línea recta.

Se pensaba que los vórtices ópticos eran inestables en la fibra óptica, hasta Ramachandran diseñó no mucho tiempo atrás una fibra óptica que puede propagarlos. Ahora, con su estudio más reciente, él y sus colaboradores de la Universidad del Sur de California, OFS-Fitel (una empresa danesa dedicada a fibras ópticas) y la Universidad de Tel Aviv en Israel han demostrado no sólo la estabilidad de los haces en la fibra óptica, sino también su potencial para incrementar el ancho de banda de internet.

Via

martes, 23 de julio de 2013

Ayuda cibernética para superar las fobias sociales

Las fobias sociales afectan a mucha gente en el mundo. Sólo en Estados Unidos, la cifra alcanza los 15 millones de adultos, y las encuestas muestran que hablar en público es una de las fobias sociales más comunes. Para algunas personas, estos temores a situaciones sociales pueden ser especialmente intensos: Por ejemplo, los individuos con síndrome de Asperger a menudo tienen dificultad para mirar a los ojos y para reaccionar de modo apropiado ante señales sociales. Sin embargo, con un entrenamiento apropiado, a menudo es posible superar dichas dificultades.



El problema es que no siempre es posible para estas personas acudir a un logopeda o psicólogo para hacer prácticas de conversación e interacción social.

Ahora, un nuevo software desarrollado en el Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos, puede ser usado para ayudar a que las personas practiquen sus habilidades interpersonales hasta que se sientan más cómodas con situaciones tales como una entrevista de trabajo o una primera cita con alguien hacia quien sienten atracción y con quien podrían entablar una relación de pareja.

El programa informático, llamado MACH, se apoya en software de síntesis y análisis facial, del habla y de la conducta, para generar un rostro en la pantalla y simular conversaciones cara a cara. El usuario puede escoger que la persona ficticia que aparece en la pantalla sea un hombre o una mujer, y practicar interacciones sociales en su propia casa, en cualquier momento, y pudiendo escoger el tipo de interacción social, así como practicar tantas veces como desee, además de ser el conocedor exclusivo de los informes sobre sus progresos y sus puntos débiles.

Diseñado para funcionar en un ordenador portátil común, el sistema utiliza la webcam del ordenador para monitorizar los movimientos y expresiones faciales del usuario, y el micrófono para captar lo que habla el individuo. El sistema MACH analiza sonrisas, gestos de la cabeza, y el volumen y la velocidad del habla de los usuarios, y se apoya en palabras comúnmente usadas como relleno ante titubeos, al estilo de "bien", "veamos", "básicamente" o similares, así como en manifestaciones acústicas que no son palabras y que a menudo se usan también para evitar el silencio cuando se buscan las palabras adecuadas a pronunciar a continuación, como por ejemplo "hummm", "eeeh" o por el estilo.

El entrevistador automatizado - un rostro tridimensional simulado, que, con una pantalla lo bastante grande puede tener tamaño natural, es capaz de sonreír y mover la cabeza en respuesta a lo que diga el sujeto y sus movimientos, haciendo preguntas y dando respuestas.

El software creado para hacer posible las características principales y más innovadoras del sistema es obra del equipo de M. Ehsan Hoque, Rosalind Picard y Sumit Gogia, del MIT, Matthieu Courgeon y Jean-Claude Martin del laboratorio LIMSI del Centro Nacional para la Investigación Científica (CNRS) en Francia, y Bilge Mutlu de la Universidad de Wisconsin en Estados Unidos.

Información adicional

Por qué el universo tiene menos galaxias enanas de las que debería

Matías se asoma por la ventana y observa. Gira y dispara la pregunta: “¿Y el sol?”. “Se fue a dormir”, contesta su mamá pensando una explicación que satisfaga la curiosidad de sus tres años. “Hizo noche”, dice a medio camino entre la afirmación y la pregunta, y vuelve a interrogar mirando al cielo: “¿Y la luna? En estas frases, el pequeño parece resumir –con su simpleza infantil– las inquietudes que, desde el hombre más primitivo a nuestros días, motivaron a la humanidad a observar el cielo en busca de respuestas a múltiples interrogantes.



Esa búsqueda continúa y adquiere características cada vez más complejas, a medida que los astrónomos van encontrando algunas explicaciones. Uno de los problemas actuales que intenta resolver la Astronomía y que lleva más de una década sin solución, radica en que los modelos teóricos predicen la existencia de miles de galaxias enanas en el universo, pero las observaciones astronómicas sólo visualizan algunas decenas. Esta contradicción quedó establecida en 1999 como el "problema de las galaxias faltantes".

Alejandro Benítez-Llambay y Mario Abadi, científicos del Instituto de Astronomía Teórica y Experimental (UNC-Conicet) y el Observatorio Astronómico de Córdoba (UNC), ambos en Argentina, junto a colegas de Alemania, Israel, Canadá y España, propusieron una innovadora explicación.

En pocas palabras, los astrónomos plantean que durante su desarrollo, estas galaxias enanas atravesaron zonas de alta densidad de polvo y gas en el universo, en ese proceso perdieron el gas que necesitaban para formar estrellas, y eso detuvo su crecimiento. ¿Cómo perdieron su gas? “Por la fricción que se da entre dos medios gaseosos que se mueven uno a través del otro”, explica Benítez-Llambay.

Por definición, las galaxias poseen mil millones de estrellas aproximadamente. Las "enanas", en cambio, apenas cuentan entre diez y cien millones de astros en su interior. El trabajo de los científicos argentinos se enfocó sobre estas últimas, particularmente aquellas que se encuentran desparramadas en el universo y sin relación gravitacional con la Vía Láctea.

El estudio implicó fabricar un universo virtual. En una supercomputadora ubicada en España, se simuló la evolución de un sector del universo, desde el Big Bang hasta la actualidad, algo así como 13.700 millones de años. El software que debió resolver las ecuaciones trabajó varios meses. La idea fue "comprimir" toda la vida del universo y poder mirarla bajo el formato de animación.

Ello les permitió observar que si bien el universo surgió de un punto inicial donde la distribución de la materia era homogénea, con el tiempo comenzaron a aparecer pequeñas irregularidades o “grumos”, donde la fuerza de gravitación (atracción) fue mayor que la de expansión. Estas singularidades fueron aislándose y tornándose más densas. Así fueron formándose las estrellas y luego las galaxias.

El dato es que las galaxias se fueron formando en una región privilegiada, de alta densidad. Algunas de ellas, aisladas y todavía en fases embrionarias, atravesaron esa zona de alta concentración de polvo y gas, y “la fricción generó un efecto túnel de viento que les sopló todo el gas”, explica Mario Abadi.

"Si se observa en detalle (la simulación), se ven las galaxias y una especie de colas, como los cometas. Dejaron una estela. Pasaron de largo por esta zona de alta densidad y todo su material les fue robado. A largo plazo, la consecuencia es que estas galaxias quedaron despojadas de todo el gas, el combustible necesario para crear estrellas. No se pudieron formar los astros y quedó lo que llamo 'galaxias frustadas', porque nunca llegaron a convertirse en tales", agrega.

Esto explicaría por qué teóricamente se espera la existencia de cierto número de galaxias y en realidad sólo se ven unas pocas.

Hasta el presente, la hipótesis de los científicos del IATE no había sido explorada. "Se había pensado en fenómenos similares, pero en regiones del universo con una densidad muchísimo más elevada, en los cúmulos de galaxias, donde existen miles de galaxias que interactúan entre sí y están en constante movimiento", aclara Abadi. De hecho, él junto a colegas de Inglaterra fueron uno de los equipos que había estudiado este fenómeno en los cúmulos de galaxias. (Fuente: UNC/DICYT)

lunes, 22 de julio de 2013

Una desintegración de la partícula Bs

Nuevos resultados presentados en la reunión de la Sociedad Europea de Física de Estocolmo (EPS-HEP2013) han sometido al modelo estándar de física de partículas a una de las pruebas más estrictas hasta la fecha. Los experimentos CMS y LHCb del Gran Colisionador de Hadrones (LHC) del CERN muestran registros de uno de los procesos más improbables en física: la desintegración de una partícula denominada Bs en dos muones.



Las nuevas medidas muestran que solo un puñado de partículas Bs por cada mil millones se desintegra en un par de muones, tipo de partícula emparentada con el electrón. Debido a que este proceso es tan inusual, es una prueba extremadamente sensible para buscar nueva física más allá del modelo estándar, teoría que describe las partículas elementales y sus interacciones. Cualquier divergencia con la predicción del modelo sería una señal clara de algo nuevo.

Ambos experimentos del LHC presentan resultados con un nivel muy alto de significancia estadística, más de 4 sigma cada experimento, que es el sistema empleado para distinguir un verdadero resultado científico de una fluctuación debida al azar. Los resultados están en consonancia con el modelo estándar.

"Este es un gran resultado para LHCb", dice el portavoz de la colaboración, Pierluigi Campana. "El experimento LHCb se construyó precisamente para realizar medidas como esta. Este resultado muestra que estamos sometiendo al Modelo Estándar a las pruebas más exigentes a las energías del LHC, y por ahora las está superando muy bien".

El modelo estándar ha sido construido durante más de 40 años. Es una exitosa teoría que predice de forma muy precisa el comportamiento de las partículas elementales, y ha sido puesto a prueba experimentalmente con gran precisión. Pero este modelo no es el final de la historia: no incluye la gravedad, por ejemplo, y no describe el llamado 'universo oscuro'. Sólo el 5% de nuestro Universo consiste en el tipo de materia visible descrito por el modelo. El resto está hecho de materia oscura y energía, cuya presencia se deduce de la influencia que tienen en la materia ordinaria.

"Este es un proceso que los físicos de partículas han estado tratando de encontrar durante 25 años", dijo el portavoz de CMS, Joe Incandela. "Demuestra la increíble capacidad del LHC y experimentos como CMS, que son capaces de detectar un proceso tan infrecuente como este, que involucra una partícula con una masa que es aproximadamente 1.000 veces menor que las masas de las partículas más pesadas que buscamos".

Aunque estos resultados son una prueba más de la validez del modelo estándar, todavía hay mucho espacio para descubrir nueva física. Una de las opciones es la teoría conocida como supersimetría (SUSY), que postula la existencia de una nueva partícula para cada una de las partículas del modelo conocidas. Algunas de estas partículas tendrían las propiedades exactas para formar una gran parte del universo invisible.

Hay muchos modelos de SUSY en circulación, y esta es solo una de las teorías que postulan física más allá del modelo estándar. Las medidas presentadas ahora por LHCb y CMS permitirán a los físicos discriminar entre ellas. Muchas de las teorías sobre nueva física son incompatibles con las nuevas medidas y deben descartartarse, permitiendo a los físicos teóricos trabajar en aquellas que todavía son posibles.

En CMS participan más de 2.000 científicos de 155 institutos y 37 países, entre ellos 88 españoles del Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT); el Instituto de Física de Cantabria (IFCA, centro mixto del CSIC y la Universidad de Cantabria); la Universidad de Oviedo (UO) y la Universidad Autónoma de Madrid (UAM).

En LHCb participan 650 científicos de 48 institutos y 13 países. Por España participan la Universidad de Santiago de Compostela (USC), la Universidad de Barcelona (UB) y la Universitat Ramon Llull (URL).

La participación española en el LHC se promueve de forma coordinada desde el Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN), proyecto Consolider-Ingenio 2010. (Fuente: CERN/CPAN)

sábado, 20 de julio de 2013

Una línea de nieve en un remoto sistema planetario joven

Por primera vez se ha obtenido una imagen de una línea de nieve en un remoto sistema planetario sumamente joven. La línea de nieve, situada en el disco que rodea a la estrella de tipo solar TW Hydrae, promete revelarnos más sobre la formación de planetas y cometas, los factores que influyen en su composición y la historia de nuestro Sistema Solar. Los resultados se publican en la revista Science Express.



Utilizando el Atacama Large Millimeter/submillimeter Array (ALMA), los astrónomos han obtenido la primera imagen de una línea de nieve en un sistema planetario bebé. En la Tierra, las líneas de nieve se forman a grandes altitudes en las que las temperaturas, al bajar, transforman la humedad del aire en nieve. Esta línea puede verse claramente en una montaña, en la que vemos bien delimitada la cumbre nevada y la zona en la que comenzamos a distinguir la superficie rocosa, libre de nieve.

Las líneas de nieve en torno a estrellas jóvenes se forman de un modo similar, en las regiones más alejadas y frías de los discos a partir de los cuales se forman los sistemas planetarios. Comenzando en la estrella y moviéndose hacia fuera, el agua (H2O) es la primera en congelarse, formando la primera línea de nieve. Más allá de la estrella, a medida que la temperatura cae, otras moléculas más exóticas pueden llegar a congelarse y convertirse en nieve, como es el caso del dióxido de carbono (CO2), el metano (CH4), y el monóxido de carbono (CO). Estos diferentes tipos de nieve dan a los granos de polvo una cobertura externa que ejerce como pegamento y juega un papel esencial a la hora de ayudar a estos granos a superar su habitual tendencia a romperse tras una colisión, permitiéndoles, por el contrario, convertirse en piezas fundamentales para la formación de planetas y cometas. La nieve, además, aumenta la cantidad de materia sólida disponible y puede acelerar de forma sorprendente el proceso de formación planetaria.

Cada una de estas diferentes líneas de nieve — para el agua, el dióxido de carbono, el metano y el monóxido de carbono — puede estar relacionada con la formación de diferentes tipos de planetas. Alrededor de una estrella parecida a nuestro Sol, en un sistema solar similar, la línea de nieve del agua se correspondería con la distancia que hay entre las órbitas de Marte y Júpiter, y la línea de nieve del monóxido de carbono se correspondería con la órbita de Neptuno.

La línea de nieve detectada por ALMA es la primera detección de una línea de nieve de monóxido de carbono entorno a TW Hydrae, una estrella joven que se encuentra a 175 años luz de la Tierra. Los astrónomos creen que este incipiente sistema planetario comparte muchas características con nuestro propio Sistema Solar cuando tenía tan solo unos pocos millones de años.

“ALMA nos ha proporcionado la primera imagen real de una línea de nieve en torno a una estrella joven, los cual es extremadamente emocionante, ya que esto nos habla de un periodo muy temprano en la historia de nuestro Sistema Solar” afirma Chunhua “Charlie” Qi (Harvard-Smithsonian Center for Astrophysics, Cambridge, EE.UU.) uno de los dos autores principales del artículo. “Ahora podemos ver detalles antes ocultos sobre las lejanas regiones heladas de otro sistema planetario similar al nuestro”.

Pero la presencia de monóxido de carbono podría tener consecuencias más allá de la simple formación de planetas. El monóxido de carbono es necesario para la formación del metanol, pieza fundamental de las moléculas orgánicas, más complejas y esenciales para la vida. Si los cometas transportasen estas moléculas a planetas en formación similares a la Tierra, entonces esos planetas estarían equipados con los ingredientes necesarios para la vida.

viernes, 19 de julio de 2013

Evaporar líquidos mediante microburbujas, sin hervirlos

Se ha ideado un modo más eficiente para desecar productos en la industria alimentaria, utilizando burbujas calientes y pequeñas.



En vez de hervir un producto para evaporar su agua (la técnica más comúnmente utilizada en la industria) el equipo de Will Zimmerman de la Universidad de Sheffield en el Reino Unido, ha probado a inyectar microburbujas calientes a través del líquido, causando la evaporación del agua sin que esta hirviese.

Zimmerman, Mahmood K Al-Mashhadani y H.C. Hemaka Bandulasena han usado este método de "ebullición fría" para separar el agua del metanol.

Aunque las burbujas convencionales se han utilizado en procesos de evaporación previamente, transfieren una cantidad muy importante de calor a la mezcla. Esto causa que se desperdicie mucha energía, y puede asimismo "cocinar" la mezcla, lo que en muchos casos la inutiliza.

El proceso desarrollado por Zimmerman y sus colegas se basa en la aplicación de la concentración exacta de microburbujas a una capa delgada de líquido. Esto causa la vaporización del agua con muy poco calentamiento de la mezcla.

La capacidad de las microburbujas para actuar sobre un líquido sin calentarlo excesivamente puede ser explotada en muchos procesos industriales, desde los de la producción de alimentos hasta los de la elaboración de biocombustibles.

El equipo de Zimmerman está trabajando actualmente en un proyecto piloto con la compañía británica Carbon Sequestration Ltd., utilizando esta técnica para retirar el exceso de agua del suero de leche, comúnmente usado como alimento animal. Si este suero se sobrecalienta al retirársele su agua, pierde mucho de su valor nutritivo.

Via

jueves, 18 de julio de 2013

Jugar con videojuegos potencia la capacidad mental de procesamiento rápido de datos visuales

Los aficionados a los videojuegos captan más información y con mayor rapidez para tomar decisiones basadas en información visual.

Las horas pasadas jugando con consolas de videojuegos no sólo entrenan a las manos del jugador para que manejen con destreza los botones del controlador, sino que probablemente también entrenan al cerebro para que haga un uso mejor y más rápido de la información visual, según los autores de una nueva investigación, de la Universidad Duke, en Durham, Carolina del Norte, Estados Unidos.



"Los jugadores de videojuegos ven el mundo de forma diferente", llega incluso a afirmar Greg Appelbaum, profesor de psiquiatría en la Escuela de Medicina de la Universidad Duke. "Son capaces de extraer más información de una escena visual".

Para su investigación, el equipo de Appelbaum contó con 125 participantes, que o bien no acostumbraban a jugar con videojuegos o bien jugaban con ellos muy a menudo.

Cada individuo participó en una tarea de memoria visual en la que se le mostraban ocho letras dispuestas de forma circular durante sólo una décima de segundo. Después de entre 13 milisegundos y 2,5 segundos, aparecía una flecha que apuntaba hacia un lugar en el círculo donde había estado una letra. A los participantes se les pedía identificar qué letra había estado en ese lugar.

Para todos los intervalos de tiempo, los sujetos que jugaban frecuentemente con videojuegos de acción tuvieron una eficiencia mayor para recordar la letra que los no jugadores.

En investigaciones anteriores ya se había encontrado que los jugadores habituales de videojuegos son más rápidos para responder a estímulos visuales y pueden seguir la pista de más elementos que los no jugadores. Al jugar con un videojuego, sobre todo en los videojuegos en primera persona (aquellos en los que la perspectiva visual mostrada es la misma que vería el jugador si ocupase el lugar de su personaje), un jugador hace "inferencias probabilísticas" sobre lo que está viendo y toma decisiones lo más aprisa posible y equivocándose lo menos posible: ¿El sujeto que asoma al fondo es amigo o enemigo? ¿Debo saltar a la derecha o bien a la izquierda?

Con el tiempo y la experiencia, por lo visto los jugadores habituales de videojuegos se vuelven mejores en las citadas habilidades mentales, tal como argumenta Appelbaum. "Necesitan menos información para llegar a una conclusión probabilística, y lo hacen más rápido".

Este estudio ha contado con financiación de la Oficina de Investigación del Ejército Estadounidense, el Departamento de Seguridad Nacional de ese país, y la DARPA, una agencia para el desarrollo de tecnologías avanzadas, dependiente del Departamento de Defensa estadounidense.

Información adicional

Catalizador de nanopartículas para extraer hidrógeno del agua a bajo costo

Tecnologías de energía limpia más baratas podrían hacerse posibles gracias al descubrimiento de que una importante reacción que genera hidrógeno a partir de agua es eficazmente catalizada por una nanopartícula compuesta de níquel y fósforo, dos elementos baratos que son bastante abundantes en la Tierra.La principal utilidad de la nanopartícula de fosfuro de níquel es ayudar a producir hidrógeno a partir de agua, lo cual es un proceso importante para muchas tecnologías de suministro energético, incluyendo células de combustible y células solares. El agua es un combustible ideal porque es barato, abundante y no contamina, pero antes de poder usarlo a gran escala hay que desarrollar métodos baratos de extraer el hidrógeno que contiene.



El hidrógeno tiene una alta densidad energética y es muy bueno como portador de energía. Sin embargo, dado que primero se requiere gastar energía en extraerlo del agua, este paso determina la viabilidad comercial de cualquier tecnología de suministro energético basada en el hidrógeno.

Para hacer factible comercialmente la obtención de hidrógeno en grandes cantidades, los científicos han estado buscando la manera de poner en marcha las reacciones químicas necesarias mediante un catalizador que sea barato. Un catalizador muy bueno para ese menester es el platino, pero, obviamente, debido a que el platino es muy caro y bastante escaso, no resulta apto para llevar a la escala industrial la producción de hidrógeno. El equipo de Raymond Schaak, profesor de química en la Universidad Estatal de Pensilvania, Estados Unidos, ha estado buscando materiales alternativos al platino, hasta comprobar la notable eficiencia de las nanopartículas de fosfuro de níquel, que es comparable a la de las mejores alternativas conocidas al platino, y tiene un costo bajo.

En este trabajo de investigación y desarrollo también han participado Eric J. Popczun, Carlos G. Read, Adam J. Biacchi y Alex M. Wiltrout, de la Universidad Estatal de Pensilvania, así como Nathan S. Lewis y James R. McKone del Instituto Tecnológico de California.

Via

Hacia una mejor transferencia de calor por condensación

La transferencia de calor por condensación es fundamental para el funcionamiento de las centrales eléctricas actuales que emplean combustibles fósiles para hervir agua y hacer que el vapor resultante mueva las turbinas para generar electricidad. El vapor debe entonces volver a condensarse en agua, que se recoge y se envía de nuevo a la caldera para reiniciar el ciclo.

Tres cualidades cruciales contribuyen a la eficiencia de la transferencia de calor en estos sistemas: Las gotas  debe formarse fácil y abundantemente en la superficie del condensador, el área de contacto entre la gota y la superficie debe ser lo bastante grande como para facilitar la conducción del calor, y las gotas deben alejarse con rapidez de esa superficie para permitir que nuevas gotas inicien la condensación.

Aunque la mayoría de investigaciones anteriores sobre formas de mejorar los condensadores se ha centrado en la tercera cualidad expuesta en el párrafo anterior, un nuevo trabajo de investigación y desarrollo realizado en el Instituto Tecnológico de Massachusetts (MIT), en Cambridge, Estados Unidos, mejora las tres cualidades a la vez.

El equipo de Evelyn Wang, Rong Xiao, Nenad Miljkovic y Ryan Enright ha adoptado un enfoque innovador para mejorar la transferencia de calor en centrales eléctricas y sistemas de refrigeración. La nueva técnica podría proporcionar una mejora del 100 por cien en la eficiencia de transferencia de calor respecto a los sistemas convencionales.



Un tubo de cobre recubierto con la combinación de un material hidrófobo, que repele el agua, y otro oleoso, con puntos hidrófilos, que atraen el agua, posicionados estratégicamente, logra una densa concentración de formación de gotitas, y una rápida liberación de éstas antes de que tengan la oportunidad de hacerse más grandes. Esta combinación conduce a una transferencia de calor mucho mayor. (Foto: Nenad Miljkovic y Rong Xiao)

El nuevo sistema es una mejora de los condensadores utilizados para convertir vapor en agua. El mismo principio también se podría utilizar para mejorar la eficiencia de los condensadores en plantas de desalinización y en sistemas de control térmico.

La innovación combina dos propiedades: La primera, una superficie nanoestructurada, grabada con pequeños pilares, que reduce el contacto entre las gotitas y la superficie. La segunda, una capa aceitosa que cubre la superficie, ayudando a que se formen abundantes gotitas, y también haciendo más fácil que se deslicen y desprendan de la superficie del condensador.

Información adicional

miércoles, 17 de julio de 2013

Hubble descubre una nueva luna en Neptuno

Mientras analizaba las fotos de Neptuno tomadas por el telescopio espacial Hubble (NASA-ESA), el astrónomo Mark Showalter del instituto SETI notó un punto blanco desconocido a unos 105.251 km de este planeta azul, entre las orbitas de sus lunas Larisa y Proteo. Se trataba de S/2004 N 1, el último de los satélites descubiertos en Neptuno hasta ahora, el número 14. Esta luna completa una vuelta alrededor del planeta cada 23 horas y su diámetro se estima en unos 19,3 km. Es la más pequeña de todas, tanto que pasó inadvertida para el Voyager 2 cuando sobrevoló Neptuno en 1989.


Showalter revisó un punto blanco que aparecía insistentemente en más de 150 instantáneas tomadas entre 2004 y 2009 por el telescopio orbital Hubble.

S/2004 N1 completa su orbita, situada entre los satélites Larisa y Proteo, de casi 600.000 kilómetros en 23 horas.

"Ésta es una luna que nunca se queda quieta en el mismo sitio para que se le pueda hacer una foto", explicó Showalter sobre la gran velocidad con la que orbita este pequeño satélite.

Tras declarar que Plutón no era un planeta en 2006, Neptuno se ha convertido en el planeta más lejano del sistema solar. Sus otros 13 satélites son: Tritón (el más grande), Nereida, Despina, Náyade, Talasa, Proteo, Galatea, Larisa, Sao, Neso, Psámate, Laomedeia y Halimede.

El nuevo satélite debería ser nombrado siguiendo las convenciones para los satélites de Neptuno (dios romano de los océanos), por lo que se buscaría entre deidades griegas o romanas relacionadas.