Neurociencia

¿Puede un mago ‘engañar’ a una Inteligencia Artificial?

Investigadores españoles han entrenado a una red neuronal para seguir los movimientos de un mago profesional. Conocer qué trucos engañan a la máquina y cuáles a los humanos ofrece una oportunidad para entender mejor nuestros propios sesgos.

El mago Miguel Ángel Gea realiza un truco mientras la IA calcula la posición de cada moneda
El mago Miguel Ángel Gea realiza un truco mientras la IA calcula la posición de cada moneda Zaghi-Lara et al.

Cada vez que un mago nos hace un truco de magia está ‘hackeando’ nuestra percepción y aplicando siglos de conocimiento práctico sobre cómo miramos, a qué prestamos atención y qué sesgos cognitivos pueden ser explotados para dejarnos con la boca abierta. Pero, ¿sería capaz de engañar a una máquina que carece de estos sesgos? Para conocer la respuesta el equipo de Alex Gómez Marín, del Instituto de Neurociencias de Alicante (CSIC-UMH), acaba de realizar el primer experimento en el que se combinan magia, neurociencia e inteligencia artificial, y que ha consistido en entrenar a una red neuronal para seguir los movimientos de un mago profesional y ver qué efectos tienen los trucos sobre la máquina.

El trabajo, cuyos resultados acaban de ser prepublicados en arXiv, ha consistido en entrenar a una red neuronal llamada DeepLabCut y utilizar herramientas de aprendizaje profundo (deep learning) para enseñar a la máquina a seguir cada movimiento del mago profesional Miguel Ángel Gea mientras éste realizaba diferentes juegos de manos con monedas delante de una cámara. “Más que utilizar una IA (Inteligencia Artificial) como una simple herramienta de monitorización, la hemos concebido como un ‘espectador artificial’”, explican los autores. “Cuando las monedas no estaban a la vista, el algoritmo estaba entrenado para inferir su posición como haría un espectador humano (por ejemplo, en el puño izquierdo). Esto creó situaciones en las que el humano era engañado y la IA no y viceversa”.

Los trucos de Miguel Ángel Gea monitorizados por la IA

Los investigadores utilizaron cinco sencillos trucos de monedas esencialmente visuales en los que los humanos suelen fallar a la hora de detectar el ‘engaño’ debido a la naturalidad de los movimientos de cobertura del mago. Los cinco trucos incluyeron maniobras de lanzamiento (truco 1), dejar caer la moneda (2), arrastrar (3), colocación (4) y agarrar (5). Previamente, el sistema había sido entrenado por la autora principal del trabajo, Regina Zaghi-Lara, mediante ‘aprendizaje supervisado’, es decir, que tuvo que decirle al software dónde estaba la moneda en distintos vídeos para que este aprendiera determinados patrones que le permitieran reconocer posteriormente su ubicación.

La máquina demostró ser especialmente buena en todo lo que tiene que ver con velocidad y atención

El resultado fue que "la máquina demostró ser especialmente buena en todo lo que tiene que ver con velocidad y atención, como los trucos 4 y 5”, explica Gómez Marín a Next. En estos trucos “solo para humanos” la máquina predijo correctamente todo el tiempo dónde estaban las monedas que el mago fingía arrastrar, mientras que las personas caían en la simulación del mago, su mirada que cambia el centro de atención y sus movimientos sutiles que insinúan que no hay nada donde en realidad sí lo hay y al revés.

En los trucos 1 y 2, en cambio, tanto la máquina como el espectador humano infirieron que la moneda estaba en un lugar en el que en realidad no estaba, cayendo en la ‘trampa’ del mago, lo que “demuestra que al menos algunos trucos pueden ser transferidos de hecho de humanos a máquinas”, según los autores. Solo en uno de los trucos suplementarios (el número 6) el humano era capaz de detectar uno de los movimientos que la máquina no reconoció. En este truco, que es una versión del truco número 1 hecha mal a propósito, el espectador puede atisbar brevemente cómo la moneda viaja de una mano a otra, pero como lo hace de lado, y la máquina fue entrenada para reconocer un círculo y no una línea, no detecta el cambio.

“Lo que hemos hecho es juntar un arte milenario como la magia con las técnicas más punteras de Inteligencia Artificial, y utilizarlo para aprender más sobre los propios sesgos humanos”, explica Gómez Marín. “Una vez que has entendido lo que ha hecho la máquina se entienden mucho mejor las diferencias entre sesgos que tienen que ver con atención, con procesar muy rápido o con inferencias de cosas que no se pueden ver”.

En el truco número 4 el mago consigue distraer a los humanos, pero no a la máquina

Su truco favorito es el truco 4, en el que la máquina se da cuenta sin problemas de que la cuarta moneda está en el lado izquierdo, pero el humano dirige su atención a la parte derecha de la imagen, inducido por la mirada del mago, y no se da cuenta de lo que está sucediendo en el otro lado. “Cuando sucede algo ultrarrápido, la máquina lo reconocerá porque analiza la imagen frame a frame y el humano no es capaz”, asegura el investigador. “Pero también cuando hay demasiada información, o el mago le distrae, ahí el humano se pierde, pero a la máquina no la engañas”.

“En resumen”, escribe el equipo en el que participan también los neurocientíficos Jordi Camí y Luis Martínez Otero, “unir magos y máquinas puede abrir nuevas vías para investigar la cognición humana, en las que la mente encandilada del espectador, la mente analítica del científico y la mente artificial de una red neuronal se encuentren”. El experimento no solo crea “un poderoso espejo para mirarnos a nosotros mismos”, sino que abre algunas posibles vías de trabajo en el campo de la IA, en el que los autores se declaran “forasteros”. Podría ser útil, por ejemplo, para avanzar en el estudio de las imágenes conflictivas (adversarial images), aquellas en las que el software, debido a pequeñas introducciones de ruido, no reconoce bien un objeto. O para mejorar las capacidades de la IA como espectador de magia y ayudar a los magos a desarrollar nuevos trucos, como ha pasado con los jugadores de ‘Go’ y ajedrez que se han enfrentado a la DeepMind de Google. 

“Incorporar una noción de causalidad sería el último paso para que una máquina pueda disfrutar de la magia”

¿Seremos capaces de generar con el tiempo una IA a la que es imposible engañarla? En opinión de Gómez Marín potencialmente sí, aunque el sistema aún depende de lo que un humano le enseñe al algoritmo. La cuestión principal es, a su juicio, si las máquinas podrán experimentar algún día la ilusión de imposibilidad que tanto fascina a los humanos. “Ese es el gran reto”, explica, “y tiene que ver con la noción de causalidad que nosotros tenemos y las máquinas, de momento, no".

"Para que algo te resulte ‘imposible’ y te genere la sensación de ‘magia’ requiere una violación de las leyes de la naturaleza y todo lo que has aprendido durante toda tu vida en el mundo real”, añade el investigador. “Si la moneda cambia de mano y pasa de una a otra”, insiste, “la máquina sigue las instrucciones que le hemos dado nosotros analizando la postura del puño, pero no tiene metida la idea de que hay una estructura causal en el mundo, esa que cuando se rompe hace que el espectador diga “guau’, eso no puede pasar”. Ese sería el último paso para que una máquina pueda disfrutar de la magia, introducirle ideas muy fuertes de causalidad y entonces rompérselas”.

Referencia: Playing magic tricks to deep neural networks untangles human deception (arXiv)

Recibe cada mañana nuestra selección informativa

Acepto la política de privacidad


Comentar | Comentarios 0

Tienes que estar registrado para poder escribir comentarios.

Puedes registrarte gratis aquí.

  • Comentarios…

Más comentarios

  • Mejores comentarios…
Volver arriba