La lógica detrás del contenido viral en redes sociales no está basada en la mejor información, sino en la que el algoritmo identifica como ‘likeable‘.
No es casualidad que, en las últimas dos semanas, hayas notado menos contenido relacionado a temas políticos en tu newsfeed de Facebook. Un comunicado reciente de la red social advirtió la disminución sustancial de contenido político en la aplicación. Especialmente para Irlanda, Costa Rica, España y Suecia. Según ellos, la decisión se tomó en aras de atender un descontento generalizado de los usuarios, al ver demasiada propaganda en lugar de memes, fotos de sus seres queridos y otro contenido viral que sí les importa.
Sin embargo, casi nadie se enteró de la decisión. Por el contrario, pareciera ser que la empresa lo hizo por debajo del agua, casi sin hacer ruido. “Aprendimos que algunas señales de participación pueden indicar mejor qué publicaciones encuentran más valiosas las personas que otras”, escribe la empresa.
De esta forma, tendrá la facultad de decidir qué material es importante mostrar, con base en el algoritmo de machine learning que aplica para cada usuario. Sin embargo, este funcionamiento es peligroso al largo plazo para la decisión que las personas tenemos sobre temas que sí queremos consumir, y que de alguna manera, está siendo descartado en favor de contenido viral basura. Así funciona.
El problema del ‘engagement’

De acuerdo con
sabiduría de las multitudes”. El autor lo define como sigue:“[La sabiduría de las multitudes] asume que el uso de señales de las acciones, opiniones y preferencias de los demás como guía conducirá a decisiones acertadas. Por ejemplo, las predicciones colectivas suelen ser más precisas que las individuales. La inteligencia colectiva se utiliza para predecir mercados financieros, deportes, elecciones e incluso brotes de enfermedades”, escribe en su artículo para The Conversation.
De esta forma, las aplicaciones que usan inteligencia artificial como base de su entendimiento en las interacciones de las personas propulsan que cierto contenido se haga viral. La decisión se toma con base en las señales de popularidad o ‘engagement’ que el sitio identifica. Sugerencias de música, videos, amigos, publicaciones de fuentes noticiosas: todo cuenta para seleccionar qué contenido aparece primero en el newsfeed de los usuarios en Facebook.
Mucho del contenido que se hace viral en redes sociales —y no sólo en Facebook— se decanta de este concepto. La idea de que lo que dice la multitud es lo ‘correcto’ sustenta, por ejemplo, que ciertas noticias falsas o información mal planteada llegue a más personas. Esto es así porque, en principio, el algoritmo identifica que más gente puede estar de acuerdo o relacionarse mejor con ello —aunque los datos estén a medias.
Te sugerimos: La razón científica de porqué no puedes tener discusiones civilizadas en las redes sociales
Silencio digital

Siguiendo esta lógica, somos nosotros —como consumidores de la información que fluye en Facebook y sus aplicaciones— los que alimentamos la operación del machine learning. Bajo lo que
Aplicaciones como Facebook, Twitter, Instagram, TikTok y Youtube utilizan este principio para clasificar sus contenidos virales. Así lo explica el experto:
“Estos algoritmos toman como entrada lo que ‘gusta’, se comenta y comparte; en otras palabras, el contenido con el que se interactúa. El objetivo de los algoritmos es maximizar el compromiso descubriendo lo que le gusta a la gente y clasificándolo en la parte superior de sus feeds”.
Sin embargo, un punto nodal de la investigación de
Sigue leyendo:
Cómo saber si alguien usa tus fotos en Facebook en un perfil falso

