Si tu fuente de noticias de Instagram está llena de trampas de sed, puede que no sea solo porque eres un pervertido total. Según un nuevo estudio el algoritmo del gramo hace que las fotos que muestran la piel sean más propensas a aparecer.
Investigadores de AlgorithmWatch y la European Data Journalism Network hicieron el descubrimiento al analizar las noticias de Instagram, hablar con los creadores de contenido, y estudiando patentes.
El equipo pidió a 26 voluntarios que instalaran un complemento de navegador que abre automáticamente su página de inicio de Instagram a intervalos regulares y registra qué publicaciones aparecen en la parte superior de sus canales de noticias. Luego, los voluntarios siguieron una selección de creadores de contenido profesionales que usan Instagram para publicitar sus marcas o atraer nuevos clientes.
De las 2,400 fotos que publicaron los creadores de contenido, 362 (21%) mostraron hombres con el torso desnudo o mujeres en bikini. o ropa interior. Los investigadores esperaban que si el algoritmo de Instagram no priorizara estas imágenes, los voluntarios verían una diversidad similar de publicaciones. Pero eso no sucedió. En las noticias de los voluntarios, las publicaciones con imágenes semidesnudas constituían el 30% de las publicaciones mostradas en las cuentas.
Las imágenes de mujeres con poca ropa tenían un 54% más de probabilidades de aparecer en sus noticias, mientras que las publicaciones con hombres con el torso desnudo tenían un 28% más de probabilidades de mostrarse. En contraste, las publicaciones que muestran imágenes de alimentos o paisajes tenían un 60% menos de probabilidades de aparecer en sus feeds.
Nicolas Kayser-Bril, reportero de AlgorithmWatch, cree que los algoritmos están perpetuando los sesgos de ciertos usuarios. Él dijo en Twitter :
Una minoría de usuarios de Instagram ve la plataforma como una fuente gratuita de imágenes pornográficas suaves y su comportamiento es probablemente recogido por los sistemas ML, amplificados, y se empujan imágenes de desnudos todos los usuarios, en un círculo vicioso.
Este sesgo algorítmico podría empujar a los creadores de contenido, especialmente a las mujeres, a publicar fotos reveladoras para atraer a más espectadores. También podría ayudar a dar forma a la cosmovisión de Instagram 1 billón de usuarios mensuales .
Se requiere más investigación
Los investigadores admiten que el sesgo hacia la desnudez no se aplicaba a todos los voluntarios. Sospechan que esto se debe a que el algoritmo de Instagram promueve la desnudez en general, pero que otros factores, como la personalización, limitan el efecto para algunos usuarios.
Agregaron que es imposible sacar conclusiones concretas sin acceso a datos internos y servidores de producción en manos del propietario de Instagram, Facebook. Hasta que eso suceda, los investigadores planean investigar más al reclutar más voluntarios para instalar su complemento de monitoreo .
En un comunicado, Facebook disputó sus hallazgos:
Esta investigación es defectuosa en un número de maneras y muestra un malentendido sobre cómo funciona Instagram. Clasificamos las publicaciones en su feed según el contenido y las cuentas en las que ha mostrado interés, no por factores arbitrarios como la presencia de trajes de baño.
Sin embargo, los investigadores creen que sus hallazgos reflejan cómo funciona el algoritmo de Instagram.
Señalan que Facebook publicó una patente que muestra cómo la fuente de noticias puede elegir automáticamente qué imágenes aparecen en las fuentes de noticias. Entre los factores que podrían determinar qué imágenes priorizar, la patente menciona específicamente “estado de desnudez”.
Eso sugiere que Instagram no solo podría organizar las fuentes de noticias en función de lo que un usuario desea; también podría seleccionar imágenes basadas en lo que la compañía piensa que quieren.