REDES

El usuario de Facebook se coloca su propia venda en los ojos

Un estudio con diez millones de usuarios de la red social en EE.UU. indica que, además del algoritmo, es su propio comportamiento el que limita la visión de puntos de vista discrepantes con sus ideas. Las consecuencias de esta ceguera colectiva pueden ser peligrosas para la democracia.

La manera en que la red social selecciona los contenidos tiene efectos globales
La manera en que la red social selecciona los contenidos tiene efectos globales Vozpópuli

La capacidad de una red social como Facebook, con 1 350 millones de usuarios en todo el mundo, para influir en las opiniones colectivas es motivo de estudio y preocupación entre los expertos en sociología en los últimos años. El equipo de Eytan Bakshy presenta esta semana en la revista Science los resultados de un estudio con más de 10 millones de usuarios en EE.UU. en el que se ha analizado a qué tipo de noticias y puntos de vista se exponen estas personas y qué influencia tiene en ello el algoritmo de Facebook y sus propias decisiones.

Los criterios del algoritmo para seleccionar contenidos son un misterio.

Cuando uno navega por esta red social, lo que aparece en su 'muro' no es un agregado objetivo de lo que van publicando sus contactos de forma temporal, sino una misteriosa mezcla que los algoritmos de Facebook seleccionan para ti y que trata de adivinar qué contenidos, entre los que han publicado tus amigos, es casi seguro que te resultarán atractivos. Pero, ¿es esta selección la principal fuente del sesgo que produce Facebook en nuestra visión de la realidad?

El equipo de Bakshy tomó información sobre las posiciones ideológicas de los usuarios que publicaban cosas públicamente en su muro, a partir de informaciones como si seguían más a la Fox o la CNN y en qué tipo de noticias hacían clic. Con estos datos, los investigadores establecieron un sistema para calcular si las personas accedían a estas informaciones liberales o conservadoras porque el algoritmo las seleccionaba para ellos o si eran sus amigos los que condicionaban su visión. Y su veredicto es que el círculo de contactos tiene, de momento, un mayor peso en este sesgo que los propios algoritmos de Facebook.

El comportamiento de los contactos tiene mayor peso que el algoritmo.

Y decimos "de momento" porque la red social ha vuelto a cambiar los criterios de selección después de este trabajo y es muy dada a introducir cambios cada cierto tiempo.  Además, como advierte David Lazer en un artículo complementario, "un pequeño efecto hoy puede convertirse en un gran efecto mañana, dependiendo de los cambios de los algoritmos y el comportamiento humano".

En cualquier caso, como advierten los autores, el estudio tiene algunas limitaciones, como el sesgo que se da al estudiar a los usuarios de las redes sociales, que suelen ser más jóvenes y activos que las muestras de población general, por muy extendido que esté su uso. Por otro lado, y más preocupante, el estudio ha sido realizado con el apoyo de la propia red social. "Es loable que Facebook haya aportado esta investigación", escribe Lazer, "pero hay una necesidad más amplia de que los científicos estudien estos sistemas de forma independiente a los 'facebooks' del mundo". En definitiva, resume, que los ciudadanos tengan herramientas e información para actuar como sujetos críticos en este nuevo orden social.

Referencias: Exposure to ideologically diverse news and opinion on Facebook(Science) | The rise of the social algorithm (Science)


Comentar | Comentarios 0

Tienes que estar registrado para poder escribir comentarios.

Puedes registrarte gratis aquí.

  • Comentarios…

Más comentarios

  • Mejores comentarios…
Volver arriba