En el sótano de una escuela de El Cairo dos docenas de
mujeres analizan expresiones faciales en ordenadores portátiles y
entrenan a estos para que reconozcan la ira, la tristeza y la
frustración.
En la Universidad de Cambridge,
una cabeza robótica inquietantemente realista llamada Charles se sienta
en un simulador de conducción frunciendo las cejas, con aspecto
interesado o confuso.
Y este otoño, en unas cuantas aulas estadounidenses del
primer ciclo de secundaria, los ordenadores analizarán las emociones de
los estudiantes para comprobar cuándo están perdiendo el interés por las
lecciones o entusiasmándose con ellas.
Nace un nuevo acercamiento a la tecnología llamada informática afectiva, cuyo fin es dar a los ordenadores la capacidad de leer las emociones de los usuarios o cómo les afectan las cosas
Los tres son ejemplos de un nuevo acercamiento a la
tecnología llamada informática afectiva, que tiene como fin dar a los
ordenadores la capacidad de leer las emociones de los usuarios o cómo
les afectan las cosas.
A las personas se les da bien comprender las emociones de
los demás. Nos damos cuenta de que este no es un buen momento para
acercarse al jefe o de que alguien a quien queremos tiene un mal día.
Pero, hasta hace poco, nuestras máquinas ni siquiera eran capaces de
identificar emociones aparentemente simples como la ira o la
frustración. El dispositivo GPS pita alegremente incluso cuando el
conductor está a punto de tirarlo por la ventana. La clase a través de
Internet sigue adelante aunque la mitad de los estudiantes estén
perdidos en la confusión. La tecnología que controle esas habilidades
también podría ayudar a las personas que tienen dificultades para leer
las emociones de los demás, como aquellas con un trastorno autista, u
ofrecer compañía y ánimo a los residentes de los hogares de ancianos.
Algunos investigadores sostienen que, si no pueden identificar las
emociones, los ordenadores nunca alcanzarán todo su potencial para
ayudar a las personas.
“Nuestro mundo digital está en su mayor parte desprovisto de formas ricas de expresión de nuestras emociones”, dice Rosalind Picard, directora del grupo de investigación en informática afectiva del Laboratorio de Medios de Comunicación del Massachusetts Institute of Technology. Lleva más de dos décadas trabajando en el modo de traducir las emociones en unos y ceros, el lenguaje de las máquinas.
¿Realmente queremos que nuestras cuentas de Facebook o los anuncios de Internet sepan cómo nos sentimos en cada momento?
Uno de sus primeros proyectos, realizado en colaboración con Rana el Kaliuby,
consistió en diseñar unas gafas para personas con síndrome de Asperger,
una variante leve del autismo, que las avisaba cuando estaban
aburriendo a alguien. Las personas con Asperger suelen tener fijación
con temas determinados y para ellas es difícil captar los indicios
sociales.El prototipo llevaba un semáforo diminuto, visible únicamente
para el portador, que se ponía amarillo cuando la conversación empezaba a
hacerse pesada y rojo cuando quien escuchaba había desconectado por
completo.
Más recientemente, Picard y el El Kaliuby desarrollaron
programas que representan gráficamente 24 puntos de la cara para intuir
una emoción. En el pasado, los algoritmos informáticos tenían
dificultades para distinguir las sonrisas genuinas de las forzadas o los
dientes apretados que acompañan a la frustración, explica El Kaliuby,
porque solo producen cambios muy pequeños en el aspecto general de la
cara. Para captar estas sutilezas, las cámaras web tenían que contar con
velocidades secuenciales y resoluciones altas que no han sido posibles
hasta hace poco.
La cabeza robótica construida en la Universidad de Cambridge es una creación de Peter Robinson,
catedrático de tecnología informática, que un día se enfadó porque su
dispositivo GPS no dejaba de meterle en un atasco tras otro mientras
lanzaba pitidos sin parar. ¿Y si pudiese diseñar un copiloto robótico
capaz de detectar el estado de ánimo y alejar a los conductores de los
atascos cuando tuviesen prisa o se sintiesen angustiados? Charles es la
primera iteración de un intento de juzgar cómo reacciona la gente a los
distintos grados de realismo en una máquina.
La informática afectiva tiene buenas intenciones pero hace
que surjan dudas acerca de lo que la sociedad espera de la tecnología.
¿Realmente queremos que nuestras cuentas de Facebook o los anuncios de
Internet sepan cómo nos sentimos en cada momento?
Además, la tecnología afectiva siempre se verá limitada por
nuestra propia capacidad para interpretar las emociones, advierte Arvid
Kappas-, catedrático de investigación en la Universidad Jacobs de
Bremen, Alemania.“La relación entre lo que mostramos en nuestro rostro y
lo que sentimos es muy variable”, señala.
Fuente: