Quantcast

Economía

Facebook crea una plataforma para analizar a los troles

La plataforma paralela a su red social se llama WW, está habitada por bots para analizar actualizaciones y el comportamiento de los troles y se encuentra aislada de los usuarios reales

Facebook crea una plataforma para analizar a los troles.

Facebook ha creado una plataforma paralela a su red social habitada solo por bots, a la que no pueden acceder sus usuarios, pero que permitirá a la compañía estudiar el comportamiento de su comunidad para probar las próximas actualizaciones y predecir cómo los usuarios reales se saltarán sus normas.

El proyecto se basa en lo que se conoce como una simulación habilitada por web, que se diferencia de las simulaciones tradicionales en que tiene lugar en una plataforma real y en que analiza las interacciones entre usuarios en lugar de solamente el funcionamiento del sistema, según han explicado los investigadores de Facebook en un documento académico.

En este caso Facebook ha desarrollado una plataforma paralela a la que ha llamado WW y que se encuentra aislada de los usuarios reales. En su lugar, replica el comportamiento de las personas mediante el uso de bots.

Los bots replican el comportamiento de troles

Con esta red social paralela, Facebook busca arreglar antes de que se produzcan los errores o problemas que puedan generar las actualizaciones de 'software' en las que trabaja. Al centrarse en las interacciones de los usuarios y no solo en el sistema en sí, este enfoque se simulación es más efectivo que el tradicional, según Facebook.

Asimismo, esta simulación "eleva el potencial de errores relacionados con interacciones complejas entre usuarios y 'software'", según Facebook, gracias a la introducción en la plataforma WW de una serie de 'bots' que intentan infringir las normas de la comunidad.

Facebook busca "probar y endurecer" su infraestructura real 

Con estos bots que replican el comportamiento de troles, Facebook busca "probar y endurecer" su infraestructura real con la que evita que actores maliciosos puedan vulnerar los estándares de la comunidad en su red social, y así "mejorar la fiabilidad, integridad y privacidad" de sus plataformas.

Para entrenar a sus bots, Facebook ha diseñado un sistema de Inteligencia Artificial asistida similar al de los videojuegos. Un ejemplo es el de los 'estafadores', bots que atacan a otros a través de un sistema de observación y recompensas.

Ya no se pueden votar ni publicar comentarios en este artículo.