Suscríbete al boletín semanal

Recibe cada semana los contenidos más relevantes de la actualidad científica.

Agencia Sinc
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones

Inteligencia Artificial: mi robot me entiende

Terminator vuelve a las pantallas prometiendo récords millonarios y las escenas espectaculares y sangrientas nos devuelven la eterna pregunta: ¿llegará el día en que los robots y la inteligencia artificial llegue a sobrepasar la humana? O dicho de otra forma, ¿podrán las máquinas, alguna vez, pensar por si solas?

El robot iCub.
El robot iCub. Foto: Imperial College.

No necesita más que mirar a su alrededor para comprobar el auge de la inteligencia artificial en los últimos tiempos: buscadores sofisticados de internet que responden a nuestras preguntas, robots que exploran la superficie de Marte a un coste mucho menor que el de enviar humanos, otros que son capaces de hacer descubrimientos científicos de forma independiente, o crear espacios de interacción en redes sociales como Facebook. Hoy se estima que hay más de un millón de robots haciendo tareas del hogar en afortunadas casas alrededor del mundo, y que la industria utiliza 1.100.000 más para tareas sistemáticas. Estas cifras podrían duplicarse o triplicarse en los próximos años.

Es el futuro: parece ser que, este siglo si, los robots cumplen la profecía y se instalan en todos los ámbitos de nuestra vida, serán los cuidadores de personas mayores o de salud delicada, nuestros doctores y cirujanos, guardias de seguridad, compañeros, entretenedores, policía de tráfico e, incluso, soldados de un ejército profesional.

Pero antes de que este apabullante despliegue de inteligencia artificial se convierta en realidad, hay que pensar en los grandes desafíos tecnológicos que aún quedan por salvar. Y estos no son menores. Actividades que realizamos de forma cotidiana y a las que no les dedicamos ni un segundo de atención, como mover un dedo, aprender una tarea o reconocer la expresión de felicidad o tristeza en otro ser humano, implican la puesta en marcha de estructuras neurológicas mucho más complejas de lo que imaginamos. Y los robots necesitan una cuidadosa programación para llegar a reproducir ese movimiento que nosotros consideramos ordinario.

¿Pueden las máquinas aprender de los humanos?

Es precisamente la pregunta que se ha propuesto contestar un equipo del Imperial College de Londres, que pretende entender mejor cómo funciona el proceso de cognición e inteligencia humana tratando de trasladarla a un robot.

iCub tiene ojos y cara -algo muy importante para su interacción con las personas-, además de 53 articulaciones que pueden controlarse independientemente y que permiten al robot realizar “movimientos muy humanos”.

Pero como todos los robots, es incapaz de decidir por sí mismo qué movimientos ha de realizar. Aquí es cuando entra en juego la cognición, o el proceso de conocimiento que engloba la conciencia, percepción, razonamiento y juicio de valor.

Entramos de lleno en el campo de la robótica cognitiva, que parte de un problema filosófico fundamental: ¿Qué nos hace humanos? ¿Cómo pensamos y qué nos hace ser seres inteligentes? “La robótica cognitiva trata de dotar a los robots con una alta capacidad de aprendizaje y razonamiento autónomo, de forma que se conviertan en máquinas más inteligentes”, explica Murray Shanahan, director del proyecto.

Para ello, los científicos conectarán el cuerpo de iCub a una simulación computacional de un cerebro, que reproducirá procesos mentales como la comunicación entre neuronas a través de cortas descargas de energía eléctrica en movimientos como la contracción del músculo necesaria para elevar un objeto o levantar una mano.

Una vez que el robot sea capaz de interactuar con su ambiente y realizar movimientos como girar el brazo, mover la cabeza o trasladar algo de sitio se producirá el paso más avanzado. “Lo que más me interesa son las cuestiones científicas fundamentales sobre la naturaleza humana y el funcionamiento de nuestro cerebro, cómo nos permite hacer las cosas que hacemos cada día. Si podemos comprobar las teorías de cognición humana construyendo y experimentando con robots, quizá logremos estar un paso más cerca de comenzar entender qué nos hace conducirnos cómo lo hacemos”, explica Shanahan.

“Conseguir este nivel de modelos complejos es un gran desafío para nosotros. Crear modelos que reproducen la actividad de las neuronas puede llevar varias semanas o incluso meses de trabajo de computación, pero para que iCub sea un éxito, deberá moverse en tiempo real y responder instantáneamente”, continúa.

Nuestras neuronas cerebrales se activan en el momento en que observamos algo o cuando actuamos. “Queremos crear un modelo que recoja ese mecanismo y conectarlo con el iCub. Al hacer esto, esperamos aprender algunas verdades fundamentales sobre el proceso de aprendizaje humano”, explica Yiannis Demiris, doctor del Departamento Electricidad e Ingeniería Electrónica del Imperial y otro de los investigadores del proyecto. La especialidad de Demiris se centra en cómo los robots pueden ser programados. Su grupo está tratando de equipar a iCub con la capacidad de entender las acciones humanas, de forma que pueda aprender a copiarlas a través de la pura observación. “Nos interesa construir robots que sean más empáticos y estén más atentos a lo que necesitamos. Imagina tener un robot como iCub que sea lo suficientemente inteligente para entender cuando tienes dificultades para levantar una caja y venga a ayudarte”, explica Demiris.

Las investigaciones del equipo del Imperial podrían ayudar a largo plazo a desarrollar una nueva generación de robots de fábrica capaces de realizar muchas y más versátiles acciones en masa.

¿Pueden los humanos aprender de las máquinas?

Uno de los campos donde más se trabaja para lograr el desarrollo de robots inteligentes es el terreno de las emociones. Hace unas semanas la Royal Society de Londres celebraba una discusión científica para explorar la relación entre las emociones en humanos y máquinas.

Muchas de las recientes investigaciones se han centrado en establecer parámetros que permitan a los robots entender cuando una persona está feliz, triste o enfadada. La expresión de las emociones es una parte fundamental de la comunicación humana y los avances tecnológicos que permiten a los ordenadores reconocer estas expresiones abren el campo para la mejora de la comunicación interpersonal, y también entre seres humanos y máquinas.

Inteligencia Artificial: mi robot me entiende

Proyecto del MobilifeCentre de la Universidad de Estocolmo, en el que se usan los colores asociados a un particular estado de ánimo para comunicar las emociones por teléfono móvil.

Uno de los proyectos más interesantes en este cambo es el que presentó este mes la investigadora sueca Kristina Höök, del MobilelifeCentre de la Universidad de Estocolmo. Kristina define las emociones como “una interacción de la que el individuo es sólo una parte”, resaltando el aspecto multilateral de las mimas. Lleva años investigando cómo las personas pueden servirse de la tecnología móvil para aprender sobre sus propios estados emocionales.

El primero de sus proyectos utiliza el teléfono móvil para desarrollar un nuevo tipo de lenguaje en el que se usan los colores asociados a un particular estado de ánimo, de forma que la persona que lo recibe puede decodificar por el color cómo nos encontramos. Sería como trasladar una versión muy sofisticada de los emoticones de los correos a nuestro teléfono, partiendo de la base de que las comunicaciones en “el mundo real” se sirven, no sólo de palabras, sino también de emociones que se transmiten con el tono de voz y el gesto. El teléfono móvil va acompañado de un pequeño dispositivo en forma de lápiz, con un sensor que recoge nuestras emociones: si estamos enfadados o tristes, golpearlo con mayor intensidad serviría para recoger en nuestro mensaje el color de ánimo en el que nos sentimos.

El equipo de Höök también ha desarrollado una tecnología más avanzada, un llamado diario afectivo, que incluye un biosensor en forma de brazalete, un teléfono móvil y un ordenador portátil. Las distintas tecnologías han de ser llevadas por el individuo durante el día, puesto que van a estudiar dos aspectos fundamentales: el nivel de actividad (pasos andados y movimientos realizados) y el sudor. Este segundo es esencial, pues determina el nivel de excitación de una persona (a mayor excitación sentimental más sudor). “Intentamos crear un sistema que te permita reconectar con tu cuerpo, porque la mayor parte del tiempo estamos centrados en nuestro pensamiento consciente, y cognitivo y tendemos a olvidarnos de él, de las presiones a las que estamos sometidos y del estrés”, explica Höök.

Hacia el mundo cyborg de las emociones

Al final del día la persona se quita los dispositivos y los conecta al ordenador, incluido teléfono móvil, y mensajes enviados y recibidos durante el día. Es aquí cuando obtenemos un diario de las emociones que hemos ido viviendo durante el día, y, en ocasiones, muchas sorpresas.

“Algunas de las personas que han utilizado el diario emocional, explica Kristina Höök, se han dado cuenta de pautas que se repiten en su comportamiento. Por ejemplo, una de las usuarias se dio cuenta de que cuando se encontraba en situaciones emocionalmente estresantes o en discusiones, nunca manifestaba sus sentimientos y, tres o cuatro horas más tardes, salía a hacer jogging. Es decir, que utilizaba el ejercicio para liberar la tensión emocional. Esta persona se dio cuenta de que necesitaba ser más abierta y mostrar sus sentimientos en las discusiones cuando estos se estaban produciendo”.

El nuevo proyecto del equipo sueco va un paso más allá y ahora trabajan en una nueva tecnología llamada Friendsense, que toma como base las anteriores para comunicar las emociones de un pequeño grupo de amigos sin que exista comunicación verbal. A través de brazaletes que contienen sensores y tecnología wifi, por ejemplo, se han investigado las emociones que sienten dos personas que ven una obra de arte en un museo. Los individuos pueden manipular los sensores para enviar un mensaje a sus amigos, que recibirán una señal mediante una vibración que cuenta las emociones que están sintiendo sin que medie palabra. “El bienestar sentimental es fundamental en nuestra salud, e intercambiar y comunicar nuestras emociones es bueno para nosotros. Estas tecnologías ayudan a conseguirlo”, afirma Höök.

Desde el punto de vista práctico, el desarrollo de estos sistemas implica un reto al que se enfrentan todas las personas que trabajan con emociones y máquinas: cómo diseñar las máquinas que van a utilizar las personas, cómo delimitar los parámetros para sistematizar las emociones, cómo explicar o poner en palabras una emoción, una forma de comunicarse que como humanos sabemos que se ha producido, pero que es difícil definir.

Aunque, a juzgar por los resultados obtenidos por su centro en Suecia, hasta ahora el proceso ha sido exitoso. “Es muy interesante ver cómo la tecnología se puede utilizar para expresar situaciones emocionales muy complejas. A veces los individuos utilizaron nuestras tecnologías para resolver conflictos que no se llegaron a hablar o que no salieron en conversaciones de forma explícita, pero que fueron tratados a través de las emociones que permite expresar la tecnología. Igual que Facebook o Skype transforman nuestra forma de relacionarnos, porque te encuentras con gente que ha visto en tu perfil dónde has estado los últimos días y sabe sobre ti, las tecnologías que nosotros desarrollamos puede transformar la forma en la que nos relacionamos, llegar a afectar a nuestra cultura e introducir cambios”.

Fuente: SINC
Derechos: Creative Commons
Artículos relacionados