TECNOLOGÍA

Un vistazo al futuro: cuando tu ordenador detecte si estás cabreado

Un equipo de investigadores ha desarrollado un algoritmo capaz de detectar tu estado de ánimo en función de cómo escribes en el teclado. Es una de las muchas tecnologías que se están poniendo en marcha para que los dispositivos de tu entorno respondan a tus emociones. Así es la tecnología que viene.

Los dispositivos del futuro sabrán tu estado de ánimo y actuarán en consecuencia
Los dispositivos del futuro sabrán tu estado de ánimo y actuarán en consecuencia Deni Simic (Flickr, CC)

Imagina que estás respondiendo un correo electrónico de tu jefe y en la pantalla de tu ordenador aparece un mensaje: "Estás demasiado furioso, quizá deberías pensártelo mejor". La tecnología capaz de hacer eso quizá te pueda sacar de algún apuro, como lo hace ahora la aplicación de Gmail cuando detecta que hablas de un archivo que no has adjuntado. Esta posibilidad está un poco más cerca gracias al trabajo de un grupo de investigadores de Bangladesh, encabezados por Nazmul Haque Nahin, quienes han desarrollado un sistema capaz de detectar las emociones del usuario según su forma de presionar las teclas.

El trabajo de Nahin y su equipo, que se publica esta semana en la revista Behaviour and Information Technology, comenzó por dotar al sistema de una serie de patrones para reconocer. Un grupo de voluntarios tecleó distintos mensajes en diferentes estados de ánimo, de modo que el software pudiera asociar después determinadas pautas, como la velocidad de tecleo, el ritmo o el número de veces que se presiona la barra espaciadora, con las sensaciones del usuario. Una vez establecida la relación, los autores desarrollaron un software para predecir las emociones del usuario que teclea y los resultados tuvieron un 87% de aciertos.

Las "cosas que piensan"

Este tipo de programas podrían aplicarse a distintos dispositivos, ya sea a teléfonos móviles u ordenadores de sobremesa, de modo que detecten las emociones del propietario y le ayuden a actuar en consecuencia y forman parte de un movimiento tecnológico global bautizado hace unos años por la investigadora Rosalind Picard como "computación afectiva". Desde su laboratorio del Instituto Tecnológico de Massachusetts (MIT), Picard fundó un consorcio llamado "Things That Think" ("cosas que piensan") y comenzó a pensar en cómo sería un futuro en el que los dispositivos reaccionen ante nuestra tristeza, nuestras alegría o nuestra frustración.

La tecnología también se aplicará a robots (Imagen: Jonathan Williams)

"Muy pronto tendremos dispositivos que adapten su comportamiento a las emociones que sentimos". 

"Estamos cambiando nuestra relación con la tecnología", explica Javier Mínguez, investigador de la Universidad de Zaragoza, a Next. "Y muy pronto tendremos dispositivos que adapten su comportamiento a las emociones que sentimos los humanos, esto tiene que pasar". El ejemplo más cercano lo tenemos en la tecnología del automóvil, en la que se trabaja ya en sistemas que detecten el nivel de cansancio del conductor, la tensión con la que agarra el volante o si no está en condiciones de conducir. "Es posible que muy pronto veamos toda esta tecnología integrada en casi todos los objetos que nos rodean", explica Mínguez a Next. "Yo me puedo imaginar entrando en mi casa y que ésta detecte el estado de ánimo con el que llego, que adapte la luz o me ponga una música que considere adecuada". 

El equipo de Mínguez, experto en reconocimiento de señal cerebral a través de la empresa BitBrain, ha lanzado recientemente al mercado un dispositivo en forma de anillo basado en estos principios y que permite hacer una lectura de las emociones del usuario, aunque con vista a aplicaciones de neuromarketing. Al igual que la pulsera 'Affectiva' de Picard, el dispositivo Ussens lee una serie de parámetros físicos en el dedo de su portador (sudoración, pulsaciones, tensión y movimiento) y permite conocer qué siente ante determinados estímulos. Hasta ahora estos sistemas se emplean para conocer la efectividad del tráiler de una película o si determinado producto emociona a la audiencia, pero algunas empresas pioneras quieren llevar esta detección de emociones a la vida cotidiana.

La empresa Sension analiza las emociones a través de las caras y trabaja con Google Glass

La compañía Sension, establecida en San Francisco, trabaja en un software que analiza las expresiones faciales de los usuarios y reconoce las emociones. Sension toma 78 puntos de referencia de la cara, incluyendo el centro de la pupila, las cejas y la comisura de los labios, y determina si la persona se siente contenta, deprimida o furiosa. El equipo de desarrolladores trabaja en adaptar este software a Google Glass y sus posibles aplicaciones.

Otra compañía, la israelí Beyond Verbal, analiza las señales de audio para determinar si las persona que habla con nosotros por teléfono está enfadada o necesita que la atiendan urgentemente. Esta tecnología podría ser muy útil, como apuntan en SFGate, para servicios de atención al cliente que quieran determinar qué persona necesita una atención inmediata y sería aplicable a dispositivos de uso diario con los que nos comunicamos verbalmente. "Si Siri entiende no solo lo que digo, sino cómo me siento, me dará una respuesta que se ajuste a mi estado de ánimo", asegura Dan Emodi, vicepresidente de Beyond Verbal. “Esto significa añadir una dimensión completamente nueva", insiste. "Esto podría cambiar la relación que existe entre nosotros y las máquinas".

Se puede conocer la salud de alguien a través de la imagen o prever el comportamiento de multitudes.

El laboratorio de Picard, en el Medialab del MIT, también se ha centrado en el reconocimiento de emociones a partir de expresiones faciales y en desarrollar un sistema que ayude a las personas con autismo - con dificultad para expresar y comprender las emociones - a desenvolverse en su vida diaria (recomendamos ver su TED Talk sobre el tema). Su equipo tiene una base de datos de miles de gestos faciales de voluntarios y es capaz de monitorizar las emociones con una fiabilidad que se acerca al 95%, según la investigadora. Otros equipos del MIT estudian cómo reconocer síntomas de una enfermedad a través de señales visuales (se puede ver el pulso de una persona o la temperatura con análisis de imagen) o cómo diseñar espacios que analicen de forma inteligente el comportamiento de las personas que circulan en su interior y puedan anticiparse a sus movimientos.

Y como siempre que se habla del avance tecnológico, hay una cara un poco más siniestra de lo que podría conllevar este mundo en el que la nevera de tu casa sabe si estás deprimido. Imaginemos, por ejemplo, que la televisión del futuro detecta que tienes un ataque de ansiedad y emite publicidad de comida basura para incitarte a consumir. O "que un político adapte su discurso en función de la reacción de sus oyentes en tiempo real", especula Mínguez. “Aunque, bien pensado”, bromea, “¿acaso no lo están haciendo ya?”.

Referencias: Identifying emotion by keystroke dynamics and text pattern analysis (Behaviour & Information Technology) DOI:10.1080/0144929X.2014.907343 | Imagen: Deni Simic (Flickr, CC)

--

Next es la nueva sección de Ciencia y Futuro de Vozpópuli. No te olvides de seguirnos en Twitter


Comentar | Comentarios 0

Tienes que estar registrado para poder escribir comentarios.

Puedes registrarte gratis aquí.

  • Comentarios…

Más comentarios

  • Mejores comentarios…
Volver arriba