Redes sociales

Vida de un revisor de Facebook: los que ven lo que nadie quiere ver

Un ejército de revisores examina cada día los contenidos que se difunden en redes sociales, expuestos a un fuerte impacto emocional. Así es la vida de quienes trabajan entre las bambalinas de internet.

Hasta 20.000 personas trabajan revisando contenidos de Facebook,  muchos desde casa
Hasta 20.000 personas trabajan revisando contenidos de Facebook, muchos desde casa Pixabay

“Somos una legión de monos adiestrando a una inteligencia artificial”. Alberto es uno de los muchos revisores que trabajan, de manera directa o indirecta, para la red social Facebook supervisando los textos, fotos y vídeos que suben sus más de 2.000 millones de usuarios en todo el mundo. En su caso trabaja para una subcontrata durante cuatro horas al día desde su propia casa, en algún lugar de Europa que no podemos revelar. “Tengo entre 30 segundos y 1 minuto para analizar cada estado, darle a aprobar o reportarlo y pasar al siguiente”, explica a Next. “Cada día puedo ver entre 300 y 400 estados”. Y entre todo lo que pasa por delante de sus ojos con frecuencia hay contenidos que ninguno de nosotros querría ver. “Tengo la obligación de ver todo lo que me sale”, asegura. “Y ha habido semanas que he estado a punto de dejarlo porque han sido terribles. Desmembramientos, decapitaciones, barrigas abiertas… Brutal”.

“Tengo la obligación de ver todo. Desmembramientos, decapitaciones… He estado a punto de dejarlo”

Felisa trabaja también para Facebook pero en otra parte de la enorme cadena de revisión de contenidos. En su caso acude cada día a un edificio de la empresa, donde revisa y etiqueta los estados de los usuarios durante más de 7 horas, con una pausa para comer. “Nosotros no tenemos límite de tiempo, porque tenemos que valorarlo bien, etiquetar cada una de las normas que se han violado en cada caso”, asegura. En el edificio en el que ella trabaja hay más de mil personas que supervisan contenidos en 45 lenguas distintas. “A cada uno nos asignan un mercado, según el idioma. Y luego hay dos grupos: los que trabajan directamente con el contenido que se está reportando en tiempo real, con lo que denuncian los propios usuarios, y los que trabajamos etiquetando el contenido que ya se ha analizado”. Aunque a ella le llega menos violencia gráfica, también se topa de cuando en cuando con algún vídeo brutal. “El típico que filma un accidente, un tipo partido por la mitad, gritando porque le ha pillado un coche”, explica. “Aunque en mi caso más del 80% son vídeos con contenido sexual, de desnudez. A veces me paso el día viendo fotos de penes y la verdad es que es un poco aburrido”, se ríe.

“Uno de los estados que vi fue un bebé cortado por la mitad por un cártel de la droga”

Desde su casa, Alberto trabaja con una tarea muy concreta: analizar si el estado que se ha publicado en Facebook tiene algún tipo de intención y obliga al usuario a hacer clic en algún enlace, a etiquetar a un amigo o compartirlo. “No puedes poner “etiqueta a tu amigo”. No se puede hacer y Facebook lo está persiguiendo”, explica. Pero para realizar algo tan sencillo tiene que ver vídeos de todo tipo. “Aquí te das cuenta de hasta donde se mueve el morbo de la gente”, confiesa. “A mí me sale muchísimo contenido de Latinoamérica, sobre todo de México, supongo que para evitar encontrarme con contenido de gente cercana a mí. Uno de los estados que vi fue un bebé cortado por la mitad por un cártel de la droga”, recuerda. Otras veces son situaciones accidentales. “Hace poco me salía el vídeo de un señor que se baja de su coche y se encuentra a un chaval con las piernas separadas, chillando como un cochino… Se le ven hasta los huesos y el tipo le está grabando”, detalla. “El chico murió y tú tienes que verlo. Y es como ¡buf!”.

¿Preparados para el impacto?

Facebook tiene unos 20.000 revisores trabajando en todo el mundo para que los usuarios “se sientan seguros” al navegar por su red social, según la propia compañía. Para cumplir este objetivo, han abierto recientemente un nuevo centro de revisión de contenidos en Barcelona operado por la empresa Competence Call Center (CCC) en el que trabajan 500 personas. “Este equipo”, aseguran, “ampliará nuestra capacidad de revisar contenidos de forma rápida y eficiente en muchas lenguas, incluidos el español y el catalán”. Pero, ¿reciben estos trabajadores algún tipo de preparación específica para el trabajo que van a realizar? “Sabemos que la tarea puede ser difícil”, aseguran fuentes de Facebook. “Por ese motivo cada persona que revisa contenido recibe durante muchas semanas un entrenamiento obligatorio para entrar”. La compañía ofrece, además, un servicio de asesoramiento a sus trabajadores al que se pueden acoger voluntariamente. “Revisamos continuamente nuestro programa de asesoramiento para nuestros proveedores de servicios para asegurarnos de que todos los empleados se sienten apoyados”, insisten.

Los humanos siguen siendo esenciales en el proceso de revisión de contenidos
Los humanos siguen siendo esenciales en el proceso de revisión de contenidos Pixabay (CC)

“El entrenamiento dura dos semanas”, explica Felisa. En estas sesiones, los revisores que trabajan en el edificio de Facebook analizan y discuten las distintas normas que después aplicarán durante la moderación o el etiquetado con el que entrenan al algoritmo. “Nos explican y nos ponen fotos y textos de ejemplos reales”, asegura. “Antes de empezar cada curso, siempre hay una diapositiva de confidencialidad y otra en la que te avisan de que si en algún momento no te gusta lo que estás viendo eres libre para salir, darte una vuelta y tomar un café. Luego está el equipo de “wellness” (bienestar), que durante todos los entrenamientos nos enseñan qué tipo de cosas hacen para que nos encontremos un poco mejor. Y a veces son actividades demasiado infantiles, como ponernos a colorear o dibujar”. Después de toda esta preparación, hay una última prueba de fuego. “El último día tenemos una sesión en la que solo te ponen contenido violento y muy violento para ver tu reacción y si puedes aguantar”, afirma. “Pero por suerte en el trabajo real yo nunca he visto nada tan extremo”.

Los que trabajan en una subcontrata y en su casa, como Alberto, están mucho menos protegidos. “A nosotros nos dan un PDF con todo el material y casos prácticos y cada dos semanas tenemos un control de calidad en forma de test y si no lo superas te echan o te ponen otra vez en recalificación”. Si algo le resulta especialmente impactante, él tiene que seguir revisando estados, no puede parar. “Yo lo que hago es intentar quitármelo de en medio lo mas pronto posible”, asegura. “He encontrado un pequeño truco: deslizo el ratón y veo la previsualización sobre el vídeo. Aún así, por cada vídeo hay una preview y muchas veces te lo comes de lleno, porque lo gordo del vídeo está en esa imagen; si hay desmembramiento, o lo de las piernas cortadas, eso lo tienes ahí. Ahora en cuanto veo a alguien grabando en una carretera me temo lo peor”, confiesa. "Lo único que hace Facebook es avisarte para que te prepares”, añade Felisa. “Todo el contenido que nos llega para empezar está difuminado, tienes que hacer clic para que se vea bien. Hay veces que se puede intuir, eso hace que te vayas preparando. Luego salen abajo las capturas, y si en alguna de las imágenes pequeñitas ves que han cortado una cabeza no hace falta que sigas viendo el vídeo, también te dicen que lo puedes ver a cámara rápida. Pero no puedes elegir no revisar este tipo de contenido. Tu trabajo es verlo y poner la etiqueta con la norma que incumple”.

Un choque cultural y generacional

Armando tiene más de 60 años y cada fin de semana revisa durante siete horas seguidas varios centenares de vídeos de entre 15 segundos y un minuto en los que chicos y chicas de todo el planeta bailan y gesticulan al ritmo de la música. Es uno de los revisores de la red social musical.ly, perteneciente a la compañía china Tik Tok, que tiene más de 200 millones de usuarios. “Aquí moderar se llama calibrar y lo que hacemos es localizar aquellos contenidos que pueden ser ofensivos para los menores, es una red muy protegida”, asegura. En su caso, además, tiene nietos que utilizan la aplicación, y fue este hecho, además de los ingresos extra, lo que le animó a coger el trabajo.

La empresa que revisa contenidos para Facebook en España está en la torre Agbar de Barcelona
La empresa que revisa contenidos para Facebook en España está en la torre Agbar de Barcelona Josep Ma. Rosell (Flickr, CC BY 2.0)

“Son vídeos dirigidos a un público de 10 a 18 años”, explica. “Intentamos protegerles para que no vean groserías, que no escuchen lenguaje no apropiado, ni por sonidos ni por gestos”. Esta característica hace que los revisores de la empresa tengan que estar pendientes de muchos detalles, algo que a Armando le resultaba especialmente difícil al principio, puesto que no conocía bien los códigos que manejan los menores. “Lo que llega a nosotros son cosas que ni siquiera conocía”, asegura. “Se puede disfrazar vocabulario que no entiendo, que aparece en las etiquetas, o con gestos como sacar la lengua entre los dedos en forma de V, que al principio no sabía qué significaba”.

“Lo que más tengo que reportar en musical.ly son autolesiones. Chicos que aparecen con cortes en las manos”

En esta red social los revisores procesan el contenido después de un filtrado previo de la inteligencia artificial, que prácticamente elimina todo el contenido sexual, según Armando. “Lo que más tengo que reportar son autolesiones”, asegura. “Chicos que aparecen con cortes en las manos, o uno que se graba conduciendo un coche a toda velocidad”. Lo más grave que recuerda es el vídeo de un chico que se echó gasolina por encima del pantalón y se prendió fuego. “Eso está prohibidísimo”, explica Armando. Igual que el “kiki challenge”, esa moda de bajarse del coche en marcha y seguir bailando”. Pero lo más interesante es el contraste entre lo que está socialmente permitido en unas culturas y no en otras. “En algunos lugares besarse en la boca no tiene el mismo significado”, asegura el revisor. “Los chinos, por ejemplo, no quieren que una niña tenga el ombligo al descubierto o los hombros, les parece que está mal. Y les tenemos que explicar que eso aquí es normal”, asegura.

“Lo que pasa es que aunque las normas son globales para todo el mundo, lo que a ti te parece demasiado puritano a alguien de otro país le parece lo contrario”, apunta Felisa, quien como moderadora de Facebook está acostumbrada a que las políticas se revisen de un día para otro ante situaciones novedosas. “Facebook ha tenido que aprender. Antes estaba prohibido el pezón y, como la gente se empezó a quejar, ahora sí se permite en un contexto de estar amamantando o en protestas políticas”, señala. En plena polémica por las políticas que aplica la red social en distintos países, que pueden favorecer movimientos como la persecución de los rohingya en Myanmar, una parte de los esfuerzos internos se van cada día en detalles menores. Una de las discusiones internas más surrealistas que recuerda se produjo por un problema en el etiquetado de las erecciones. “Teníamos que establecer cuándo se considera erección o cuándo no. Y no está tan claro”, resume. “Lo problemas de todas las normas son los límites, porque, claro, ¿qué pasa cuando se trata de penes erectos dentro del calzoncillo? En uno de los casos de discusión nos dimos cuenta de que en realidad no era un pene, sino un calcetín. Con aquello nos reímos muchísimo”.

Trabajar para los robots

Uno de los puntos en los que coinciden todos los revisores consultados por Next es en que la inteligencia artificial, al menos en supervisión de contenidos, todavía está en pañales. Son eficientes eliminando desnudos, como en Facebook, pero cometen errores muy a menudo. “Las denuncias que vienen de la máquina a veces no las entiendes”, asegura Felisa. “A veces etiqueta como desnudo una escultura, pero otras veces lo hace con una imagen que no tiene nada, como si lo hiciera al azar o no atinara”. Su trabajo de añadido de etiquetas tiene precisamente como objetivo que el algoritmo se corrija y sea cada vez más independiente. “Pienso que es un trabajo que nunca llegará a hacer una máquina, que no puede entender las intenciones ni los sarcasmos”, asegura. “Entender si alguien está condenando algo o lo está justificando, no solo si está usando una palabra, porque a lo mejor lo está condenando”. Armando, desde Musical.ly, se encuentra con el mismo dilema. Los códigos son esenciales para juzgar las intenciones. “Una cosa es sacar la lengua como guiño y otra pasársela por los dientes o los labios lentamente, eso va directamente fuera y la máquina no lo ve”.

“Es un trabajo que nunca llegará a hacer una máquina, que no puede entender las intenciones ni los sarcasmos”

En Facebook, por ejemplo, los usuarios han aprendido a insultar sin poner las palabras completas, con puntos suspensivos que la inteligencia artificial no detecta. Y algunos venden armas o drogas dejando mensajes en clave o haciendo insinuaciones que solo un humano puede interpretar. “Lo mismo pasa con el tema de las autolesiones y gente que se quiere suicidar”, explica Felisa. “Alguien que dice “me quiero morir”, ¿se reporta? Si pone caritas llorando o algún hashtag, ¿qué haces?”. Al final, somos los humanos los que trabajamos para la máquina aportando lo que ella es incapaz de detectar, que es la carga emocional, con todas las consecuencias que ello tiene, como el impacto psicológico sobre el que todavía- al ser una materia tan nueva - no hay suficientes estudios. Y tenemos una red de alta tecnología que no deja de depender de que unos humanos vigilen lo que hacen los otros.

“Cada día veo la vida de 4.000 personas, personas que no saben que yo estoy viendo su vida”

Para Alberto, es precisamente este aspecto el más perturbador de su trabajo. “Yo estoy en mi habitación, delante de mi ordenador viendo la vida de 4.000 personas al día, personas que no saben que yo estoy viendo su vida, viendo lo que ellos creen que ponen solo para sus amigos”, explica. “Veo el epitafio que le escribe el hijo a su padre, la foto en su lecho de muerte, la salida al campo de una familia, el cumpleaños de un chiquillo de 3 años, y pienso que no tengo necesidad de esto”, asegura. “Mi plan es dejarlo en cuanto pueda tener un trabajo digno, porque va en contra de lo que yo creo que debe ser. ¿Hasta qué punto necesitamos subir nuestras vidas a internet? ¿Hasta qué punto necesitamos mantener toda esta maquinaria, con un número indefinido de personas que trabajan auditando todo lo que escribes? Esto es el Gran Hermano, la intimidad ha dejado de existir”.

Cazadores de pederastas

Patricia tiene 28 años y lleva a cabo uno de los trabajos más desagradables relacionados con internet. Ella y sus cinco compañeros del Departamento de Delitos Telemáticos de la Unidad Central Operativa de la Guardia Civil (UCO) revisan horas y horas de vídeos de abusos a menores. “Nos dedicamos exclusivamente a delitos de pornografía infantil”, explica. “Analizamos ese material bien porque nos llegue a través de colaboraciones de ciudadanos o nos vengan de investigaciones o de otros países, en las que se incluya material producido en España”. Su trabajo depende de los casos que tenga abiertos y del volumen de material que tenga que examinar. En ocasiones el proceso puede durar meses y ser psicológicamente devastador . “Recuerdo una de las primeras operaciones, en verano de 2016, en que tuvimos que ver teras y teras de contenido multimedia de abuso sexual a menores”, relata. “Llegaba a casa colapsada. No encendí un ordenador en mi casa durante todos los meses que duró la operación”.

“Llegaba a casa muy colapsada. No encendí un ordenador en mi casa durante todos los meses que duró la operación”

Los agentes que se dedican a esta tarea no reciben ningún tipo de preparación psicológica, simplemente asumen su trabajo con la disciplina que exige la pertenencia al cuerpo. “Sí que te dan algunos consejos”, asegura Patricia. “Te dicen, por ejemplo, que intentes no interiorizarlo, que lo veas simplemente como una película, y que son personajes”. Como a los otros agentes, lo que más le costó fue el inicio de la actividad. “Al principio me dieron material impreso y yo no podía ni ver esas fotografías”, reconoce. “Inconscientemente las iba tapando, pero me dijeron que era normal, que a todo el mundo le pasaba”, recuerda. “Yo no tengo hijos pero sí una sobrina pequeña, y en aquella época, cuando la veía que la estaban bañando, solo de verla desnuda me hacía recordar todos aquellos vídeos, casi no podía ni verla”. Ahora, después de casi tres años en este trabajo, Patricia ha conseguido que no le afecte tanto. “Cuando ves muchísimos vídeos te acabas inmunizando”, explica. “Al final lo vas normalizando y lo ves como trabajo, no lo ves como niños. Ves unas imágenes y no te paras a pensar más allá ni quién es”.

Por fortuna, este tipo de contenidos son poco habituales en las redes sociales, porque los pedófilos buscan sus propias redes privadas para intercambiar el material. “No ganan nada con hacerlo público, quieren compartirlo para obtener algo a cambio. Una especie de ‘si yo te doy, tú me das’”, explica la agente. “Habitualmente usan herramientas como Skype y otras aplicaciones de mensajería, buscan compartir solo con quienes ellos quieren”. Su trabajo consiste sobre todo en identificar aquellos vídeos en los que la producción ha sido en España y se puede localizar al autor. “En general los pasamos a cámara rápida, pero cuando no hay indicios de producción hacemos todo lo contrario, los vemos a cámara lenta en busca de detalles”, asegura. A pesar de que ya se ha “inmunizado” un poco contra este tipo de contenidos, reconoce que hay días en que nota que su cabeza no está donde tiene que estar. “Es un tema muy duro, pero yo creo que merece la pena”, concluye. “Solo por la satisfacción de coger a este tipo de gente al final puedes con todo”.

* Nota: Los nombres, sexo y lugar de trabajo de las fuentes de este reportaje han sido cambiados para preservar su anonimato, ya que los contratos de confidencialidad con sus empresas les impiden revelar este tipo detalles.

Recibe cada mañana nuestra selección informativa

Acepto la política de privacidad


Comentar | Comentarios 0

Tienes que estar registrado para poder escribir comentarios.

Puedes registrarte gratis aquí.

  • Comentarios…

Más comentarios

  • Mejores comentarios…
Volver arriba