¿Cómo funcionan los algoritmos de distribución de contenido en las redes sociales?

Por el altísimo número de usuarios, suelen equivocarse fácilmente y censurar incluso a quien no infrinja sus reglas comunitarias

Las redes sociales funcionan con robots que, de acuerdo a sus reglas comunitarias, deciden por uno qué vamos a ver y quiénes van a ver lo que compartimos en Facebook, Youtube, Twitter, Instagram, Tik Tok y demás plataformas digitales,

Rubén Darío Vázquez Romero, maestro en comunicación y doctorante en ciencias sociales, profesor de la FES Aragón, colaborador en diferentes medios (Forbes México, IMER) y consultor en comunicación digital para varias empresas e instituciones, nos habla de esos robots o algoritmos de distribución de contenido en las redes sociales

Estos algoritmos o robots, dice, son parámetros con los que Facebook, Youtube, Twitter, Instagram y Tik Tok califican el contenido que compartimos y deciden cuántas personas verán lo que publicamos.

Seleccionan qué nos gusta ver y qué no, así como con qué y quiénes interactuamos más tiempo. “Se alimentan de nuestros usos”. Y automáticamente hacen un repertorio o selección de contenidos, que nos presentan para que naveguemos más tiempo por una u otra red social.

Por eso, al conectarnos nos topamos con determinada tipo de música, noticias o youtubers en Youtube, bailes o situaciones chuscas en Tik Tok, anuncios de tal o cual producto o sugerencias sobre museos u otro tipo de información en Facebook. Todo basado en nuestros usos y gustos.

Si el usuario se apega a las reglas comunitarias de Facebook y de las otras redes sociales, le permiten compartir casi todo tipo de contenidos afines a su gusto e interés, en diferentes formatos: texto, fotos, videos, audios, memes e infografías.

Imposible discutir con un robot

Las redes sociales tienen reglas comunitarias tales como no publicar amenazas de muerte, mensajes de odio, desnudos, pornografía, anunciar productos milagro y objetos sexuales, así como servicios financieros, criptomonedas, etcétera.

Cuando los robots detectan un comportamiento infraganti, inmediatamente bajan la publicación o cancelan la cuenta. Inmediatamente censuran, “sea cierto o no, sea real o no”. E incluso, aunque no contravenga sus reglas, “si deciden que no va, lo bajan”.

A veces en redes sociales aparecen mensajes de odio, desnudos (muestran senos y sexo) o noticias falsas. Porque 1. no existe un grupo de personas que estén revisando lo que se publica y comparte. Todo se deja siempre a la automatización, para que los robots revisen y decidan si una persona está infringiendo alguna norma comunitaria.

Facebook, por ejemplo, cuenta con más de tres mil millones de usuarios. “Básicamente la mitad del planeta”. Más los usuarios de Instagram y de Messenger, que es su sistema de comunicación.

2. Por el altísimo número de usuarios, los robots suelen equivocarse fácilmente. A Bellas Artes, al promover una exposición de Miguel Ángel con una de sus esculturas, la censuraron porque los robots la detectaron como un desnudo.

Bellas Artes aludió a censura y no hubo problema con la publicación, pero si algo similar lo publica una persona cualquiera, bajan la publicación y no hay forma de recuperarla. Porque “es imposible discutir con un robot”.

Censura unilateral

La censura en redes sociales es unilateral, considera el maestro Vázquez Romero. Los dueños de Facebook (ahora llamado Meta), Tik Tok, YouTube… no consultan a nadie, a ninguna autoridad porque no hay un marco legal que regule la libertad de expresión y el derecho de acceso a la información de las plataformas digitales.

Facebook tiene un sitio de transparencia donde se reporta quienes divulgan fake news. En México, por ejemplo, en el pasado proceso electoral, bajó cuentas asociadas a candidatos en Nayarit, Sinaloa, SLP… por manejo de información falsa.

Facebook y Twitter llaman “comportamiento inauténtico coordinado” al uso de bots, noticias falsas, influenciadores y demás, para colocar en tendencia diferente tipo de información sin que se tuviera que invertir recursos monetarios para impulsarla.

En México, Twiter baja de 15 mil a 30 mil cuentas cada año por esparcir noticias falsas, que en el país están ligadas a grupos políticos y en el mundo, al terrorismo.

Afortunadamente en México y el mundo (excepto países totalitarios como Egipto y China) no hay reglamentos del Estado para controlar contenidos en las redes sociales: si se regularan como a los medios tradicionales, “la tentación por censurar sería gigantesca”.

Sin embargo, tampoco se puede dejar a las redes sociales que hagan “lo que se les dé gana”, porque pertenecen a grupos de poder y tienen intereses privados y por tanto inciden en la vida pública, el entretenimiento, la política, la economía y el comercio de las naciones.

Meta, que acaba de lanzar la iniciativa Metaverso, agrupan a unas 50 empresas, entre ellas toda la familia Facebook, así como a Visa, MasterCard, Sony, Microsoft y Epic Games (una de las compañías más grandes de videojuegos; su Fornite reúne a millones de jugadores a diario).

¿Qué regular?

Si no podemos dejar que las redes sociales se regulen a sí misma porque actúan de manera unilateral en espacios que afecta la vida de un país, de sus ciudadanos, ¿qué se tendría que hacer?

El Foro sobre Información y Democracia, iniciativa financiada por el Parlamento Europeo y la Unión Europea (México no está incluido), propone —para que ningún estado las censure y las redes no se regulen a sí mismas— que “un cuerpo colegiado de la sociedad civil, de plataformas y del Estado construya un piso mínimo de derechos humanos y de derecho al acceso a la información para que las redes sociales se regulen así mismas”.

Sería —puntualiza Rubén Darío Vázquez Romero— un organismo como la ONU, con una meta regulación que no corresponda a ningún país, sino que un conglomerado de países regulen la actuación de las redes sociales, no en sus contenidos sino en los Derechos Humanos, la libertad de expresión y el acceso a la información.

También podría gustarte