Una nueva aplicación y complementos desarrollados para las gafas de realidad aumentada de Google permiten a sus usuarios realizar pruebas de diagnóstico instantáneas e inalámbricas para diversas enfermedades y problemas de salud.
Las gafas de Google constan de una montura pero en vez de llevar lentes llevan una cámara y una pantallita para un ojo, además de otro hardware.
Las gafas de Google constan de una montura pero en vez de llevar lentes llevan una cámara y una pantallita para un ojo, además de otro hardware.
Con la nueva tecnología, desarrollada por el equipo de Aydogan Ozcan, de la Escuela Henry Samueli de Ingeniería y Ciencias Aplicadas, dependiente de la Universidad de California en la ciudad estadounidense de Los Ángeles (UCLA), los usuarios de las gafas de Google pueden usar la cámara de manos libres del dispositivo para capturar imágenes de pruebas de diagnóstico rápido (RTD, por sus siglas en inglés), las cuales usualmente se hacen impregnando una tira especial con muestras de sangre o fluidos a analizar, que alteran el color de la tira de un modo que permite saber, por el nuevo color adquirido, la presencia de HIV, malaria, cáncer de próstata y otras enfermedades. Los usuarios pueden enviar esas imágenes a una plataforma servidor diseñada por la UCLA, sin tener que usar otros dispositivos adicionales, y recibir en tan poco tiempo como 8 segundos análisis mucho más precisos que los realizables mediante el ojo humano.
La nueva tecnología podría mejorar el seguimiento de enfermedades peligrosas, las labores de vigilancia preventiva de rutina en el campo de la salud pública, y la asistencia rápida en áreas en las que han ocurrido desastres o en zonas de cuarentena donde las herramientas médicas convencionales no estén disponibles.
Para enviar las imágenes de las que se quiera hacer un análisis y recibir los resultados, los usuarios de las gafas de Google sólo necesitan tomar fotos de las tiras RTD o de los componentes análogos de otros tests del tipo de los que pueden realizarse en casa por los propios pacientes, y enviar después dichas fotos inalámbricamente a través del dispositivo hacia el portal web diseñado por la UCLA. La tecnología permite una lectura cuantificada de los resultados con un nivel de sensibilidad de unas pocas partes por cada mil millones, un grado de resolución mucho mayor que la del ojo desnudo, eliminando así el posible error humano en la interpretación de los resultados, una preocupación muy justificada si el usuario es un trabajador del sistema de salud que trata de forma rutinaria con muchos tipos diferentes de pruebas analíticas.
En el trabajo de investigación y desarrollo también han participado Steve Feng, Romain Caire, Bingen Cortazar, Mehmet Turan y Andrew Wong, todos de la UCLA.
Información adicional
En el trabajo de investigación y desarrollo también han participado Steve Feng, Romain Caire, Bingen Cortazar, Mehmet Turan y Andrew Wong, todos de la UCLA.
Información adicional
No hay comentarios:
Publicar un comentario