Quantcast

Ciencia

Los que ven lo que nadie quiere ver

Un ejército de revisores examina cada día los contenidos que se difunden en redes sociales, expuestos a un fuerte impacto emocional. Así es la vida de quienes trabajan entre las bambalinas de internet.

“Somos una legión de monos adiestrando a una inteligencia artificial”. Alberto es uno de los muchos revisores que trabajan, de manera directa o indirecta, para la red social Facebook supervisando los textos, fotos y vídeos que suben sus más de 2.000 millones de usuarios en todo el mundo. En su caso trabaja para una subcontrata durante cuatro horas al día desde su propia casa, en algún lugar de Europa que no podemos revelar. “Tengo entre 30 segundos y 1 minuto para analizar cada estado, darle a aprobar o reportarlo y pasar al siguiente”, explica a Next. “Cada día puedo ver entre 300 y 400 estados”. Y entre todo lo que pasa por delante de sus ojos con frecuencia hay contenidos que ninguno de nosotros querría ver. “Tengo la obligación de ver todo lo que me sale”, asegura. “Y ha habido semanas que he estado a punto de dejarlo porque han sido terribles. Desmembramientos, decapitaciones, barrigas abiertas… Brutal”.

“Tengo la obligación de ver todo. Desmembramientos, decapitaciones… He estado a punto de dejarlo”

Felisa trabaja también para Facebook pero en otra parte de la enorme cadena de revisión de contenidos. En su caso acude cada día a un edificio de la empresa donde revisa y etiqueta los estados de los usuarios durante más de 7 horas, con una pausa para comer. “Nosotros no tenemos límite de tiempo, porque tenemos que valorarlo bien, etiquetar cada una de las normas que se han violado en cada caso”, asegura. En el edificio en el que ella trabaja hay más de mil personas que supervisan contenidos en 45 lenguas distintas. “A cada uno nos asignan un mercado, según el idioma. Y luego hay dos grupos: los que trabajan directamente con el contenido que se está reportando en tiempo real, con lo que denuncian los propios usuarios, y los que trabajamos etiquetando el contenido que ya se ha analizado”. Aunque a ella le llega menos violencia gráfica, también se topa de cuando en cuando con algún vídeo brutal. “El típico que filma un accidente, un tipo partido por la mitad, gritando porque le ha pillado un coche”, explica. “Aunque en mi caso más del 80% son vídeos con contenido sexual, de desnudez. A veces me paso el día viendo fotos de penes y la verdad es que es un poco aburrido”, se ríe.

“Uno de los estados que vi fue un bebé cortado por la mitad por un cártel de la droga”

Desde su casa, Alberto trabaja con una tarea muy concreta: analizar si el estado que se ha publicado en Facebook tiene algún tipo de intención y obliga al usuario a hacer clic en algún enlace, a etiquetar a un amigo o compartirlo. “No puedes poner “etiqueta a tu amigo”. No se puede hacer y Facebook lo está persiguiendo”, explica. Pero para realizar algo tan sencillo tiene que ver vídeos de todo tipo. “Aquí te das cuenta de hasta donde se mueve el morbo de la gente”, confiesa. “A mí me sale muchísimo contenido de Latinoamérica, sobre todo de México, supongo que para evitar encontrarme con contenido de gente cercana a mí. Uno de los estados que vi fue un bebé cortado por la mitad por un cártel de la droga”, recuerda. Otras veces son situaciones accidentales. “Hace poco me salía el vídeo de un señor que se baja de su coche y se encuentra a un chaval con las piernas separadas, chillando como un cochino… Se le ven hasta los huesos y el tipo le está grabando”, detalla. “El chico murió y tú tienes que verlo. Y es como ¡buf!”.

¿Preparados para el impacto?

Facebook tiene unos 20.000 revisores trabajando en todo el mundo para que los usuarios “se sientan seguros” al navegar por su red social, según la propia compañía. Para cumplir este objetivo, han abierto recientemente un nuevo centro de revisión de contenidos en Barcelona operado por la empresa Competence Call Center (CCC) en el que trabajan 500 personas. “Este equipo”, aseguran, “ampliará nuestra capacidad de revisar contenidos de forma rápida y eficiente en muchas lenguas, incluidos el español y el catalán”. Pero, ¿reciben estos trabajadores algún tipo de preparación específica para el trabajo que van a realizar? “Sabemos que la tarea puede ser difícil”, aseguran fuentes de Facebook. “Por ese motivo cada persona que revisa contenido recibe durante muchas semanas un entrenamiento obligatorio para entrar”. La compañía ofrece, además, un servicio de asesoramiento a sus trabajadores al que se pueden acoger voluntariamente. “Revisamos continuamente nuestro programa de asesoramiento para nuestros proveedores de servicios para asegurarnos de que todos los empleados se sienten apoyados”, insisten.

Algunos revisores, muchos de ellos estudiantes, trabajan indirectamente para Facebook desde casa

“El entrenamiento dura dos semanas”, explica Felisa. En estas sesiones, los revisores que trabajan en el edificio de Facebook analizan y discuten las distintas normas que después aplicarán durante la moderación o el etiquetado con el que entrenan al algoritmo. “Nos explican y nos ponen fotos y textos de ejemplos reales”, asegura. “Antes de empezar cada curso, siempre hay una diapositiva de confidencialidad y otra en la que te avisan de que si en algún momento no te gusta lo que estás viendo eres libre para salir, darte una vuelta y tomar un café. Luego está el equipo de “wellness” (bienestar), que durante todos los entrenamientos nos enseñan qué tipo de cosas hacen para que nos encontremos un poco mejor. Y a veces son actividades demasiado infantiles, como ponernos a colorear o dibujar”. Después de toda esta preparación, hay una última prueba de fuego. “El último día tenemos una sesión en la que solo te ponen contenido violento y muy violento para ver tu reacción y si puedes aguantar”, afirma. “Pero por suerte en el trabajo real yo nunca he visto nada tan extremo”.

Los que trabajan en una subcontrata y en su casa, como Alberto, están mucho menos protegidos. “A nosotros nos dan un PDF con todo el material y casos prácticos y cada dos semanas tenemos un control de calidad en forma de test y si no lo superas te echan o te ponen otra vez en recalificación”. Si algo le resulta especialmente impactante, él tiene que seguir revisando estados, no puede parar. “Yo lo que hago es intentar quitármelo de en medio lo mas pronto posible”, asegura. “He encontrado un pequeño truco: deslizo el ratón y veo la previsualización sobre el vídeo. Aún así, por cada vídeo hay una preview y muchas veces te lo comes de lleno, porque lo gordo del vídeo está en esa imagen; si hay desmembramiento, o lo de las piernas cortadas, eso lo tienes ahí. Ahora en cuanto veo a alguien grabando en una carretera me temo lo peor”, confiesa. "Lo único que hace Facebook es avisarte para que te prepares”, añade Felisa. “Todo el contenido que nos llega para empezar está difuminado, tienes que hacer clic para que se vea bien. Hay veces que se puede intuir, eso hace que te vayas preparando. Luego salen abajo las capturas, y si en alguna de las imágenes pequeñitas ves que han cortado una cabeza no hace falta que sigas viendo el vídeo, también te dicen que lo puedes ver a cámara rápida. Pero no puedes elegir no revisar este tipo de contenido. Tu trabajo es verlo y poner la etiqueta con la norma que incumple”.

Un choque cultural y generacional

Armando tiene más de 60 años y cada fin de semana revisa durante siete horas seguidas varios centenares de vídeos de entre 15 segundos y un minuto en los que chicos y chicas de todo el planeta bailan y gesticulan al ritmo de la música. Es uno de los revisores de la red social musical.ly, perteneciente a la compañía china Tik Tok, que tiene más de 200 millones de usuarios. “Aquí moderar se llama calibrar y lo que hacemos es localizar aquellos contenidos que pueden ser ofensivos para los menores, es una red muy protegida”, asegura. En su caso, además, tiene nietos que utilizan la aplicación, y fue este hecho, además de los ingresos extra, lo que le animó a coger el trabajo.

La empresa que revisa contenidos para Facebook en España está en la torre Agbar de Barcelona

“Son vídeos dirigidos a un público de 10 a 18 años”, explica. “Intentamos protegerles para que no vean groserías, que no escuchen lenguaje no apropiado, ni por sonidos ni por gestos”. Esta característica hace que los revisores de la empresa tengan que estar pendientes de muchos detalles, algo que a Armando le resultaba especialmente difícil al principio, puesto que no conocía bien los códigos que manejan los menores. “Lo que llega a nosotros son cosas que ni siquiera conocía”, asegura. “Se puede disfrazar vocabulario que no entiendo, que aparece en las etiquetas, o con gestos como sacar la lengua entre los dedos en forma de V, que al principio no sabía qué significaba”.

“Lo que más tengo que reportar en musical.ly son autolesiones. Chicos que aparecen con cortes en las manos”

En esta red social los revisores procesan el contenido después de un filtrado previo de la inteligencia artificial, que prácticamente elimina todo el contenido sexual, según Armando. “Lo que más tengo que reportar son autolesiones”, asegura. “Chicos que aparecen con cortes en las manos, o uno que se graba conduciendo un coche a toda velocidad”. Lo más grave que recuerda es el vídeo de un chico que se echó gasolina por encima del pantalón y se prendió fuego. “Eso está prohibidísimo”, explica Armando. Igual que el “kiki challenge”, esa moda de bajarse del coche en marcha y seguir bailando”. Pero lo más interesante es el contraste entre lo que está socialmente permitido en unas culturas y no en otras. “En algunos lugares besarse en la boca no tiene el mismo significado”, asegura el revisor. “Los chinos, por ejemplo, no quieren que una niña tenga el ombligo al descubierto o los hombros, les parece que está mal. Y les tenemos que explicar que eso aquí es normal”, asegura.

https://youtube.com/watch?v=KeRwLkYmjto

“Lo que pasa es que aunque las normas son globales para todo el mundo, lo que a ti te parece demasiado puritano a alguien de otro país le parece lo contrario”, apunta Felisa, quien como moderadora de Facebook está acostumbrada a que las políticas se revisen de un día para otro ante situaciones novedosas. “Facebook ha tenido que aprender. Antes estaba prohibido el pezón y, como la gente se empezó a quejar, ahora sí se permite en un contexto de estar amamantando o en protestas políticas”, señala. Una de las discusiones internas más surrealistas que recuerda se produjo por un problema en el etiquetado de las erecciones. “Teníamos que establecer cuándo se considera erección o cuándo no. Y no está tan claro”, resume. “Lo problemas de todas las normas son los límites, porque, claro, ¿qué pasa cuando se trata de penes erectos dentro del calzoncillo? En uno de los casos de discusión nos dimos cuenta de que en realidad no era un pene, sino un calcetín. Con aquello nos reímos muchísimo”.

Trabajar para los robots

Uno de los puntos en los que coinciden todos los revisores consultados por Next es en que la inteligencia artificial, al menos en supervisión de contenidos, todavía está en pañales. Son eficientes eliminando desnudos, como en Facebook, pero cometen errores muy a menudo. “Las denuncias que vienen de la máquina a veces no las entiendes”, asegura Felisa. “A veces etiqueta como desnudo una escultura, pero otras veces lo hace con una imagen que no tiene nada, como si lo hiciera al azar o no atinara”. Su trabajo de añadido de etiquetas tiene precisamente como objetivo que el algoritmo se corrija y sea cada vez más independiente. “Pienso que es un trabajo que nunca llegará a hacer una máquina, que no puede entender las intenciones ni los sarcasmos”, asegura. “Entender si alguien está condenando algo o lo está justificando, no solo si está usando una palabra, porque a lo mejor lo está condenando”. Armando, desde Musical.ly, se encuentra con el mismo dilema. Los códigos son esenciales para juzgar las intenciones. “Una cosa es sacar la lengua como guiño y otra pasársela por los dientes o los labios lentamente, eso va directamente fuera y la máquina no lo ve”.

“Es un trabajo que nunca llegará a hacer una máquina, que no puede entender las intenciones ni los sarcasmos”

En Facebook, por ejemplo, los usuarios han aprendido a insultar sin poner las palabras completas, con puntos suspensivos que la inteligencia artificial no detecta. Y algunos venden armas o drogas dejando mensajes en clave o haciendo insinuaciones que solo un humano puede interpretar. “Lo mismo pasa con el tema de las autolesiones y gente que se quiere suicidar”, explica Felisa. “Alguien que dice “me quiero morir”, ¿se reporta? Si pone caritas llorando o algún hashtag, ¿qué haces?”. Al final, somos los humanos los que trabajamos para la máquina aportando lo que ella es incapaz de detectar, que es la carga emocional, con todas las consecuencias que ello tiene, como el impacto psicológico sobre el que todavía- al ser una materia tan nueva - no hay suficientes estudios. Y tenemos una red de alta tecnología que no deja de depender de que unos humanos vigilen lo que hacen los otros.

“Cada día veo la vida de 4.000 personas, personas que no saben que yo estoy viendo su vida”

Para Alberto, es precisamente este aspecto el más perturbador de su trabajo. “Yo estoy en mi habitación, delante de mi ordenador viendo la vida de 4.000 personas al día, personas que no saben que yo estoy viendo su vida, viendo lo que ellos creen que ponen solo para sus amigos”, explica. “Veo el epitafio que le escribe el hijo a su padre, la foto en su lecho de muerte, la salida al campo de una familia, el cumpleaños de un chiquillo de 3 años, y pienso que no tengo necesidad de esto”, asegura. “Mi plan es dejarlo en cuanto pueda tener un trabajo digno, porque va en contra de lo que yo creo que debe ser. ¿Hasta qué punto necesitamos subir nuestras vidas a internet? ¿Hasta qué punto necesitamos mantener toda esta maquinaria, con un número indefinido de personas que trabajan auditando todo lo que escribes? Esto es el Gran Hermano, la intimidad ha dejado de existir”.

Ya no se pueden votar ni publicar comentarios en este artículo.