Ayer, entre el ruido y el caos del asalto al Capitolio, Facebook publicó un comunicado importante: la red social va a tomar medidas contra el contenido que fomenta el odio y la violencia dentro de su función “Grupos”.

¿Qué significa esto? y ¿Por qué ahora y no antes?

1/
Primero hay que entender que supone “Grupos” para Facebook. A finales de 2016, los directivos de la red social se enfrentaban a una dura realidad: los usuarios cada vez pasaban menos tiempo en su producto.

2/
La dura competencia de Instagram (propiedad de Facebook, pero que canibalizaba a su audiencia), el envejecimiento de sus usuarios y la falta de innovación estaban haciendo mella en sus resultados.

3/
Pero había una esperanza: los grupos. Los datos internos reflejaban que los usuarios que pertenecían a un grupo activo pasaban mucho más tiempo que la media en Facebook.

La estrategia estaba clara. Había que potenciarlos.

4/
A principios de 2017 Mark Zuckerberg publicó en su perfil una extensa reflexión detallando su plan para el futuro de la red social: los grupos son la parte central de la experiencia de Facebook.

5/
De aquí en adelante, Facebook potenciaría la función “Grupos” para hacerla más atractiva y conocida. Tras años de trabajo, la estrategia culminó con la publicación de este anuncio durante la Superbowl de 2020 ante millones de estadounidenses.

6/
Pero el plan no se quedo sólo en un anuncio. La clave de la estrategia fue el algoritmo de recomendación: utilizando los datos de los usuarios, Facebook recomendaría sin descanso grupos afines para intentar que se unieran y aumentar así el tiempo que pasan en su producto.

7/
Y funcionó a la perfección. Facebook multiplicó por 4 las personas que estaba en un grupo activo en 3 años y además consiguió sumar 400 millones de usuarios más a su función de grupos, alcanzando los 1.800 millones de usuarios activos al mes.

8/
¿El problema? Que los directivos de Facebook sabían desde el principio que las organizaciones extremistas utilizaban estos grupos privados para fomentar el odio y la violencia. Informes internos de 2016 revelados por el @WSJ así lo señalan.

9/
Y no solo esto. Facebook también era consciente de que las organizaciones extremistas se aprovechaban enormemente su sistema de recomendación. Un 64% de los nuevos miembros de estos grupos entraban gracias a las recomendaciones de Facebook.

10/
De ahí que Facebook se haya dado mucha prisa por implementar medidas para combatir el contenido que fomenta el odio y la violencia en los “Grupos”.

Muchos expertos y analistas en Estados Unidos están señalando a la red social como cómplice de lo ocurrido.

13/
Diferentes investigadores coinciden en que QAnon no sería lo que es hoy sin la existencia de Facebook. La enorme capacidad de reclutamiento y amplificación de la red social ha logrado que un oscuro movimiento minoritario alcance a las masas.

15/
Ésta no es la primera vez que FB impone medidas sobre sus grupos. Las críticas a su funcionamiento han sido constantes en los últimos años y como respuesta la red social ha perseguido en varias ocasiones a los grupos extremistas, entre ellos QAnon.

https://www.theverge.com/2020/10/6/21504887/facebook-qanon-ban-all-apps-pages-groups-instagram-accounts

16/
Ejemplo de ello es lo que reportaba el periodista @RMac18 hace solo 2 días: grupos en Facebook promoviendo las movilizaciones en Washington para el 6 de enero.

18/ https://twitter.com/RMac18/status/1346521076839239680?s=20
Dos buenos artículos sobre el problema de los grupos de Facebook y el contenido extremo. Éste de @WIRED, que en junio ya anticipaba el peligro que tenían para la sociedad estadounidense.

21/ https://www.wired.com/story/facebook-groups-are-destroying-america/
You can follow @Hugo_saez.
Tip: mention @twtextapp on a Twitter thread with the keyword “unroll” to get a link to it.

Latest Threads Unrolled:

By continuing to use the site, you are consenting to the use of cookies as explained in our Cookie Policy to improve your experience.