Con su poco más de un metro de altura, el robot iCub tiene las proporciones de un niño de cuatro años. En lugar de articulaciones cuenta con 53 motores eléctricos, dos cámaras que hacen de ojos, dos micrófonos para oír y algo similar al sentido del tacto, gracias a 4.000 sensores sensibles a la presión.
“Puede experimentar el mundo de forma parecida a un niño y tiene el potencial de desarrollar un tipo de cognición similar”, explica a Sinc Matej Hoffmann, investigador principal del proyecto checo Robot Body Schema.
Su equipo es uno de los muchos que están utilizando este robot humanoide con código abierto diseñado por el Instituto Italiano de Tecnología. En su caso, lo eligieron por sus proporciones similares a las de un niño y por su piel electrónica.
Disciplinas tan diferentes como la filosofía, la psicología, la lingüística, la neurociencia, la inteligencia artificial y la robótica llevan décadas estudiando la cognición, esa facultad que procesa la información y que engloba habilidades como el aprendizaje, el razonamiento, la atención y los sentimientos.
Mientras que la psicología y la neurociencia prefieren los estudios en personas, la inteligencia artificial se inclina por modelos de ordenador, al interpretar esa facultad como un mero procesamiento de información.
“La cognición es inseparable del cuerpo físico y de sus sistemas sensoriales y motores, por lo que los modelos computacionales no son suficientes”, puntualiza Hoffmann, que dirige el grupo Humanoide y Robótica Cognitiva de la Universidad Técnica Checa en Praga.
La ventaja de la robótica y sus androides para estudiar estos procesos es que contemplan el contacto con el entorno. Además, en ellos se pueden simular cambios o lesiones imposibles de practicar en modelos humanos.
El mejor ejemplo de contacto es cuando una persona toca a otra. ¿Puede un robot notar esa sensación e identificar en qué parte del cuerpo se ha producido? Es precisamente lo que han conseguido Hoffmann y su equipo.
Gracias a los miles de sensores que configuran la piel artificial del humanoide y al desarrollo de un nuevo algoritmo, el ingeniero y estudiante de doctorado Zdenek Straka ha logrado que el robot desarrolle y aprenda un mapa de la superficie de su piel –denominado homúnculo–, similar al generado por el cerebro humano y el de otros primates.
“El toque en el cuerpo del robot se transmite a una región particular de este mapa. Dependerá entonces del androide averiguar cómo interpretar o usar esa información”, indica Hoffmann. El algoritmo también se adapta a los cambios corporales. Si una parte de la piel deja de sentir, el ‘cerebro’ del robot reasigna esa zona a otras partes del cuerpo.
“El tacto es un sentido algo subestimado, pero en realidad es extremadamente importante”, recalca Hoffmann. Gracias al tacto somos conscientes de toda la superficie del cuerpo, lo que nos permite percibir diferentes tipos de contacto, desde una caricia hasta una colisión. Según los expertos, dotar a los robots de este sentido mejorará su futuro contacto con los humanos.
Volviendo a las personas, hay a quien le incomoda el exceso de contacto o una cercanía excesiva de su interlocutor, pues su espacio vital –el peripersonal– está siendo invadido. Hoffman y su equipo están tratando de que los androides aprecien este espacio.
“Es muy importante para la interacción segura entre robots y humanos, sobre todo en el contexto de aquellos colaborativos que abandonan las zonas de seguridad y comparten el espacio vital con los humanos”, destaca el experto.
Como primer paso, Hoffmann y Straka han desarrollado un modelo computacional basado en una arquitectura de red neuronal dentro de un escenario en dos dimensiones, donde los objetos se aproximan a una superficie que simula la piel.
En estos momentos, el investigador, junto con sus estudiantes Zdenek Straka y Petr Švarný, están aplicando el modelo en humanoides. “Los robots deben ser capaces de anticipar contactos cuando algo penetra en el límite de su zona de seguridad”, afirma Hoffmann.
Aunque fundamentalmente trabajan con androides, los investigadores también han estudiado sensaciones que experimentan los humanos, en concreto, bebés de entre tres y veintiún meses. Con la ayuda de psicólogos, colocaron un aparato que vibraba en diferentes partes del cuerpo y la cara del bebé y analizaron cómo respondían a estos estímulos.
La principal conclusión es que los párvulos no nacen con un mapa o un modelo de sus propios cuerpos. Por eso, su primer año de vida es decisivo para que los puedan explorar y aprendan los patrones que luego repetirán, “como cuando tienen que rascarse en un lugar concreto”, señala el ingeniero.
Esta y las anteriores investigaciones se enmarcan en el proyecto Robot Body Schema, cuyo objetivo final es estudiar los mecanismos que utiliza el cerebro para representar el cuerpo humano.
Analizar la mente desde el prisma de la robótica conlleva un efecto tan fascinante como poco explorado: la humanización de las máquinas. “Aplicamos algoritmos inspirados en el cerebro para conseguir que los robots sean más autónomos y seguros”, concluye Hoffmann.
RobotBodySchema es uno de los Partnering Projects del Proyecto Cerebro Humano, una de las Iniciativas de Investigación Emblemáticas de las Tecnologías Futuras y Emergentes (FET Flagships en inglés) de Horizonte 2020 –el programa marco de financiación de la investigación de la Unión Europea–.
La agencia Sinc participa en el proyecto europeo SCOPE, coordinado por FECYT y financiado por la Unión Europea a través de Horizon 2020. Los objetivos de SCOPE son comunicar resultados visionarios de la investigación de proyectos asociados al Graphene Flagship y el Human Brain Project, así como promover y reforzar las relaciones en la comunidad científica de las Iniciativas de Investigación Emblemáticas de las Tecnologías Futuras y Emergentes (FET Flagships) en la UE. (Fuente: SINC/Laura Chaparro)