A un robot le puede resultar difícil familiarizarse con objetos de su entorno cuando dispone únicamente de su capacidad visual computerizada para captar forma, color y tamaño. Pero si combina la información visual con datos de muchas otras clases, como por ejemplo la ubicación del objeto con respecto a otros, e incluso el dato de si lo puede o no elevar con su brazo, el robot puede de modo constante ir descubriendo nuevos objetos, familiarizarse con ellos y refinar sus conocimientos sobre cada uno.
A esta conclusión ha llegado un equipo de investigadores del Instituto de Robótica de la Universidad Carnegie Mellon, en Pittsburgh, Pensilvania, Estados Unidos.
Un nuevo proceso de autoaprendizaje, desarrollado por robotistas de ese instituto, ha permitido a HERB, un robot que deambula por su entorno mediante ruedas y que posee dos brazos para manipular cosas, valerse de imágenes de video en color, los datos que le ofrece una cámara Kinect con percepción de profundidad, e información diversa no visual, para familiarizarse por su cuenta con más de 100 objetos presentes en la sala de pruebas del laboratorio, habilitada como una vivienda común, el escenario de las futuras generaciones de robots domésticos. Esos objetos incluyen, por ejemplo, monitores de ordenador, plantas y alimentos.
El modo más común que los robotistas tienen de enseñar a sus robots a reconocer los objetos con los que deben trabajar es elaborar modelos digitales de dichos objetos y cargarlos, junto con imágenes de los objetos, en la memoria del robot.
Con la incorporación en HERB de un nuevo proceso de autoaprendizaje, el robot puede ahora familiarizarse con estos objetos por sí mismo.
Conforme el robot acumula más tiempo de funcionamiento y más experiencia, el nuevo proceso de autoaprendizaje perfecciona gradualmente sus modelos de los objetos, y el robot empieza a concentrar su atención en los más importantes para las tareas que se le encarguen.
La habilidad para fijarse por su cuenta en nuevos objetos, discernir qué son, y familiarizarse con ellos, incluso a veces toma a los investigadores por sorpresa, tal como confiesa Siddhartha Srinivasa, profesor de robótica y jefe del Laboratorio de Robótica Personal donde se está desarrollando HERB. En una ocasión, varios miembros del equipo dejaron los restos del almuerzo (un trozo de piña y una bolsa de bollos en forma de rosquilla) en el laboratorio al marcharse a casa tras la jornada laboral. A la mañana siguiente, cuando volvieron al laboratorio, descubrieron con asombro que HERB se había dado cuenta de la presencia de esos objetos para él desconocidos, había construido modelos digitales de ellos y había deducido cómo podía recoger cada uno con sus manos robóticas.
Las mediciones de profundidad de los sensores Kinect de HERB han demostrado ser particularmente importantes para que el robot se familiarice con nuevos objetos, ya que las medidas tridimensionales de la forma de un objeto son una información vital para reconocerlo en ocasiones futuras o para deducir que otros objetos de forma muy similar cumplen la misma función.
Otro tipo de información que maneja HERB, y que le resulta de gran utilidad, es la ubicación del objeto: Si, por ejemplo, está sobre una mesa, o por el contrario yace en el suelo, o bien está guardado en un armario. El robot también se fija en si un objeto está afianzado en su sitio y no se le puede mover de allí empleando una fuerza acorde con su peso aparente máximo, o, por el contrario, si no está sujeto a ningún sitio y se le puede transportar de un lado a otro sin limitaciones. También tiene en cuenta si un objeto se está moviendo solo o lo ha hecho anteriormente. Esto es importante para asegurar una correcta convivencia del robot con, por ejemplo, animales domésticos y otros robots (como las típicas aspiradoras y friegasuelos robóticos cada vez más comunes en las viviendas de las naciones industrializadas). Asimismo, valora las implicaciones de que un objeto esté en un lugar y momento particulares. Y, por supuesto, para todo ello puede usar sus brazos a fin de verificar si puede alzar sin problemas el objeto, la prueba definitiva del carácter de "objeto" de aquello que le resulta nuevo y está observando.
La primera vez que a HERB se le enseña un video de, por ejemplo, una habitación, todo contenido de la misma se "ilumina" en su mente como un posible objeto. Pero cuando usa sus otros tipos de conocimiento, combinados entre sí, pasa a tener más claro qué es y qué no es un objeto (en el sentido de algo que él pueda recoger y cambiar de sitio), y su tiempo de computación para reconocer cosas se reduce de manera espectacular.
Aunque todavía no está implementada esta función, HERB y otros robots podrían usar internet para adquirir unos conocimientos aún más amplios sobre objetos. Estos robots se podrían conectar por su cuenta a almacenes específicos de imágenes como RoboEarth, ImageNet o 3D Warehouse, para encontrar el nombre de un objeto que están viendo ante sí y no saben qué es, o para obtener imágenes de partes del objeto que no pueden ver.
Alvaro Collet, con la supervisión de Srinivasa y Martial Hebert, dirigió el desarrollo del nuevo proceso de autoaprendizaje. Collet trabaja ahora como científico en Microsoft. En el trabajo de investigación y desarrollo también han participado Bo Xiong (Connecticut College), y Corina Gurau (Universidad Jacobs en Bremen, Alemania).
Via
La primera vez que a HERB se le enseña un video de, por ejemplo, una habitación, todo contenido de la misma se "ilumina" en su mente como un posible objeto. Pero cuando usa sus otros tipos de conocimiento, combinados entre sí, pasa a tener más claro qué es y qué no es un objeto (en el sentido de algo que él pueda recoger y cambiar de sitio), y su tiempo de computación para reconocer cosas se reduce de manera espectacular.
Aunque todavía no está implementada esta función, HERB y otros robots podrían usar internet para adquirir unos conocimientos aún más amplios sobre objetos. Estos robots se podrían conectar por su cuenta a almacenes específicos de imágenes como RoboEarth, ImageNet o 3D Warehouse, para encontrar el nombre de un objeto que están viendo ante sí y no saben qué es, o para obtener imágenes de partes del objeto que no pueden ver.
Alvaro Collet, con la supervisión de Srinivasa y Martial Hebert, dirigió el desarrollo del nuevo proceso de autoaprendizaje. Collet trabaja ahora como científico en Microsoft. En el trabajo de investigación y desarrollo también han participado Bo Xiong (Connecticut College), y Corina Gurau (Universidad Jacobs en Bremen, Alemania).
Via
No hay comentarios:
Publicar un comentario