Igualdad de género

Google, tenemos que hablar del buscador de imágenes

El buscador de imágenes de Google devuelve resultados distintos según la raza o el género. El algoritmo de Google es racista y sexista principalmente porque Internet y sus contenidos también lo son. ¿Deberían los ingenieros minimizar el sesgo para devolver unos resultados más pedagógicos o debería permanecer fiel a los contenidos?

Buscador de imágenes de Google
Buscador de imágenes de Google google

Hace justo un año un usuario de Twitter denunció con un vídeo la discriminación del buscador de imágenes de Google al introducir "Tres blancos adolescentes" comparado con "Tres negros adolescentes". En el primer caso te devolvía, por lo general, fotos de adolescentes felices y acomodados mientras que en el segundo los resultados iban más bien por representar un catálogo de delincuencia y marginación de la comunidad negra.

-------------

El tweet tuvo una gran repercusión con más de 70.000 compartidos y millones de impresiones, generando un debate que llegó hasta los ingenieros de la compañía de Alphabet Inc. Tanto fue la repercusión que hoy la misma búsqueda está atrofiada y mezcla los resultados por la cantidad de artículos que se hicieron del tema.

-------------

La anécdota viralizada de @iBeKabir no es más que una constatación del funcionamiento del algoritmo de Google. El motor de búsqueda es solo un reflejo de los contenidos de Internet. Utiliza automáticamente las 'tags', los 'intitle' y el PageRank de millones de webs para priorizar los resultados.

El buscador de imágenes es, por lo tanto, un buen termómetro para calibrar las fobias, 'ismos' y las segregaciones sociales. Si quitamos los arbitrajes humanos que hace Google para preservar el 'derecho al olvido' y los acuerdos para censurar contenido con algunos países este 'big data' automático no falla y sirve para certificar lo lejos que estamos de una sociedad justa.

La desigualdad de género es un problema a escala mundial y Google no es más que el negativo donde se impresiona el rastro que dejamos en nuestra huella digital

Un ejemplo. Si buscas CEO en imágenes (término unisex para 'Chief Executive Officer' o director ejecutivo en español) el resultado es una colección de fotos tipo de hombre-blanco-acomodado-triunfador. No hay un solo hombre negro en la primera página y el resultado de mujeres es meramente anecdótico. La mayoría de las fotos corresponden a elementos posicionados de bancos de imágenes profesionales que simplemente responden a la demanda de sus clientes.

ceo
ceo Google

Un estudio de 2015 de la Universidad de Washington certificó estas diferencias. Las 100 primeras imágenes de 45 profesiones distintas devueltas por el buscador son, en su gran mayoría, protagonizadas por hombres.

Si 'limpiamos la casa' la mayoría de las fotos son de mujeres. Si 'cuidamos niños' también, o si queremos quitarnos unos 'kilos de más'. Sin embargo, su buscamos 'personas ricas'  o 'personas de éxito' la mayoría de los resultados son siempre de hombres.

La limpieza según Google
La limpieza según Google Google

Si buscamos 'hombres guarros' nos encontramos con imágenes de varones llenos de barro. Si buscamos 'mujeres guarras' no hace falta hacer la descripción...

-------------

Otro ejemplo clásico, si buscas "fútbol chicos" y "fútbol chicas" los resultados son claramente machistas, reflejo de la mayoría de artículos sexistas dedicados a cosificar a la mujer en el fútbol. Sin embargo la cosa cambia con la búsqueda de "Fútbol femenino", los resultados responden mejor al tipo de publicaciones centradas en lo estrictamente profesional.

futbol-1
futbol-1 Google

Aún así la cosa se recrudece con deportes marcadamente sexistas, como el voley playa...

Voley chicos y chicas
Voley chicos y chicas Google

La desigualdad de género es un problema a escala mundial y Google no es más que el negativo donde se impresiona el rastro que dejamos en nuestra huella digital. En 2015 la ONU y las agencias Memac Ogilvy & Mather Dubai realizaron una campaña utilizando a la multinacional tecnológica para mostrar esta fotografía que retrata nuestras diferencias. La función 'autocompletar' de Google utiliza los datos de millones de búsquedas para sugerirte resultados. Las pistas que dejan confirman el problema.

Campaña de ONU mujeres
Campaña de ONU mujeres ONU Women

Para los que desconfíen de la campaña de la ONU. Si hoy haces una búsqueda similar los resultados que ofrece la función autocompletar siguen siendo igual se sexistas. El hombre es perfecto y controlador, la mujer es simplemente guapa o bella. 

Mujer y hombre según la función autocompletar
Mujer y hombre según la función autocompletar Google

-------------

-------------

Pero Google no puede desligarse totalmente de su responsabilidad social por muy perfecto que sea su algoritmo reflejando el mundo real. Algunas herramientas fuera de esta automatización también muestran carencias en igualdad de género. Por ejemplo. Hasta 2015 sus famosos Doodles solo celebraban los éxitos y logros de 17 mujeres por los de 83 hombres. Y esos no los selecciona una máquina.

-------------

Otro estudio de la Universidad de Berkeley ponía en entredicho el algoritmo de Google para clasificar las ofertas de trabajo y mostrártelas según seas hombre o mujer. Generando decenas de perfiles aleatorios de ambos sexos los investigadores capturaron las ofertas y vieron el sesgo. Los hombres podían ver anuncios de mejores calificaciones y sueldos en comparación con los resultados que se ofrecían a las mujeres.

-------------

Google no puede modificar su algoritmo para desvirtuar ese espejo social porque traicionaría los principios objetivos de su buscador (aunque ya lo haya hecho con la censura en muchos países) pero sí puede ofrecer soluciones alternativas o complementarias (como los destacados) que sirvan para educar en la igualdad o ofrecer una lectura paralela que ayuden a entender los resultados naturales.


Comentar | Comentarios 0

Tienes que estar registrado para poder escribir comentarios.

Puedes registrarte gratis aquí.

  • Comentarios…

Más comentarios

  • Mejores comentarios…
Volver arriba