Lo último de NVIDIA y sus redes neuronales es que los robots aprendan de los humanos “mirando” e imitando

No sólo de gráficas entiende Nvidia y de sus pinitos en inteligencia artificial y varias de sus ramas sabemos desde hace años. De hecho, al definir el término Deep learning hace dos años ya les citamos, y ahora han presentado un nuevo sistema en que los robots aprenden de nosotros mirando e imitándonos.

El equipo de investigadores a cargo de este proyecto lo presenta esta semana en la Conferencia Internacional de Robótica y Automoción (ICRA). La idea es que esta tecnología mejore la comunicación entre seres humanos y robot, así como hacer que su trabajo conjunto mejore. Se trata de un sistema basado en el deep-learning de modo que el robot aprende una tarea (sencilla) con tan sólo “verla”.

Ver para aprender

Tres redes neuronales participan en este sistema de aprendizaje por imitación. Describen en el trabajo que los ojos del sistema son una cámara y que dos redes neuronalesse encargan de determinar la posición y la relación entre los objetos que se usan en la acción a aprender.

Una tercera red elabora las acciones que el robot ha de ejecutar para imitar la tarea. Además, el robot crea una descripción de los pasos necesarios para realizar la tarea, de modo que el usuario puede identificar y corregir cualquier malinterpretación que el robot haya podio hacer.

El flujo de acciones del sistema.

Explican que la clave es solucionar lo que en la actualidad es un cuello de botella en estos sistemas: la gran cantidad de datos etiquetados que requieren estos entrenamientos. Así, lo que ha hecho este equipo de investigadores es implementar la generación sintética de datos, de modo que según explican pueden generarse datos casi de manera infinita con poco esfuerzo.

El reconocimiento de objetos. Los puntos son los vértices de los cubos, a la izquierda reconoce uno rojo y a la derecha uno azul.

A la izquierda la demostración (humana), a la derecha la ejecución (robot).

Tirando de gráficas titánicas

En el sistema se usan tarjetas gráficas de la casa, obviamente. Detallan para que el entrenamiento de la redes neuronales se usaron GPUs Nvidia Titan X, el cual permite que el robot sea capaz de aprender una tarea con una sola demostración en el “mundo real”.

Por el momento el sistema y su tecnologías se hayan en un estado prematuro, pero el equipo asegura que continuará la investigación con este entrenamiento para incrementar la dificultad de las tareas así como los escenarios de realización. La idea es que haya una comunicación fluida, rápida y cómoda entre robot y ser humano, de modo que los segundos puedan aprender al instante a hacer tareas mecánicas y sobre todo corregirlas a tiempo real al ser “consciente” del entorno.

Fuente: Xataka


Leave a Reply