lunes, 12 de mayo de 2008

Diseñan máquinas robots con emociones humanas.

Las emociones forman parte de la comunicación entre los seres humanos. Las máquinas, sin embargo, todavía no han sido diseñadas para percibirlas, ni para reaccionar ante ellas ni para tenerlas. Al menos, que se sepa públicamente.

Pero ahora, gracias a un sistema de bloques desarrollado por un equipo de investigadores europeo, es posible que las máquinas que son capaces de tener sentimientos no queden relegadas sólo al terreno de la ciencia ficción.

Todo el mundo se tiene que comunicar con alguna máquina, ya sea un teléfono celular, una computadora o un centro telefónico de atención al cliente. Estas comunicaciones e interacciones se realizan normalmente en los términos que dicta la propia máquina, no la persona.

El problema es fácil de identificar: el potente incremento de la capacidad de procesamiento ha dado a las máquinas mayores alas (si se permite la expresión). Este hecho no ha venido acompañado, sin embargo, con interfases que las hagan más humanas.

Y aquí es donde aparece el proyecto Humaine, que (financiado por la Unión Europea) tendrá continuidad los próximos años con el proyecto Semaine.

Básicamente, busca crear las herramientas necesarias para que las máquinas tengan aptitudes sociales, a partir del trabajo interdisciplinario de filósofos, psicólogos y animadores digitales.

Habitualmente, los sistemas son desarrollados por programadores e informáticos que saben perfectamente cómo diseñar programas informáticos, pero que desconocen cómo definir o captar las emociones humanas para trasladárselas a la máquina que están creando.

Cuando desarrollan bases de datos, los archivos no tienen nada que ver con las emociones que aparecen en las acciones e interacciones de cada día, y los códigos que usan para describirlos tampoco se compadecen con lo que ocurre en nuestra vida diaria, comenta Roddy Cowie, coordinador del proyecto.

Es por eso que el proyecto incluye a psicólogos, que estudiaron e interpretaron las señales que las personas solemos emitir y que implican diferentes estados emocionales, desde el aburrimiento hasta la rabia más enconada. También recogieron las expresiones del rostro y otras pequeñas señales, casi imperceptibles, como ciertos gestos o posturas.

Reuniendo todos estos datos, fue posible armar una base de datos que (en teoría al menos) permitiría interpretar cada emoción y su correspondiente reacción.

Una vez hecho esto, los profesionales que saben sobre comunicación pasaron la información por ellos recabada a quienes hacen que las computadoras generen imágenes, comenta Cowie.

Esta es una forma muy simple de explicar un proyecto extremadamente complicado que no tendrá sus frutos, probablemente, hasta dentro de 20 ó 30 años, aunque ya se hayan obtenido resultados y aplicaciones concretas. De hecho, algunas del las tecnologías resultantes están muy cerca de ser comercializadas.

Hemos desarrollado sistemas para el reconocimiento de emociones usando múltiples modalidades, lo que nos pone a la vanguardia de las tecnología de reconocimiento de las emociones - asegura Cowie-. Así es como pudimos indentificar los diferentes tipos de señales que tienen que ser dadas por un agente, normalmente la representación en la pantalla de una persona, para que éste reaccione emocionalmente de un modo convincente.

Se han hecho ya algunas pruebas en museos de Escocia e Israel: un guía que, en forma de Personal Digital Assistant o PDA fue capaz de monitorizar los niveles de interés de los visitantes, así como de reaccionar de acuerdo con dicho intereses. Aunque todavía es un nivel muy básico, es un paso importante y se aleja de un simple mensaje grabado.

En otro museo en Alemania, el team multidisplinario creó un avatar llamado Max que, aunque sin muchos matices, pudo interactuar con niños para entretenerlos.

El proyecto también empleó esta nueva tecnología para monitorizar las emociones de los jugadores de videojuegos, con la meta de mejorar el diseño de los mismos. Otras aplicaciones incluyen la enseñanza, para comprobar los niveles de interés de los estudiantes, o la creación de manuales más fáciles de usar, como los de instalación de un programa informático.

El camino hacia las máquinas emocionales acaba de empezar. Cowie y sus colegas están iniciando un nuevo proyecto bautizado como Semaine, cuya finalidad es construir lo que han dado en llamar Sensitive Artificial Listener (Escuchante Sensitivo Artificial), un sistema que permitirá a las máquinas, además de percibir las expresiones faciales del usuario, percibir su voz para luego interactuar con él.
Muy lejos estamos aún de Andrew, el emblemático robot enamorado de una humana protagonista de El hombre bicentenario, tan eterno él, tan triste y tan solitario. Pero, quién sabe... ¿alguien se atreve, con argumentos científicos, a negar que eso sea posible?

Fuente:Por Andrea Gentil. www.saludyciencias.com.ar

No hay comentarios: