Escúchame también en 👉👉👉 https://open.spotify.com/episode/7jTTNE5KDlfnbEQ4YJqUpY?si=kly8qEDSS-iZFad4uHUTGw
¿Qué tan libre es nuestra forma de informarnos?
Siguiendo con el tema de la manipulación en las redes sociales, comparto un estudio que revela cómo Facebook determina qué vemos y qué no en nuestro muro de noticias.
La World Wide Web Foundation, creada por Tim Berners-Lee (inventor de la Web), https://tn.com.ar/tecno/internet/2018/04/22/mas-estudios-demuestran-como-facebook-manipula-el-modo-de-informarse-esta-vez-en-la-argentina/,realizó una investigación en Argentina para demostrar cómo su algoritmo filtra y selecciona contenidos, moldeando nuestra “dieta informativa” sin que lo sepamos.El experimento argentino
![]() |
| mas información sobre la imagen ir a https://observatoriodemedios.uca.edu.ar/estudio-muestra-que-facebook-afecta-el-debate-publico/ |
Durante 11 días, los investigadores analizaron qué publicaciones aparecían en los muros de estos perfiles. El resultado fue sorprendente: cada perfil vio solo el 18% del total de noticias publicadas. En otras palabras, cinco de cada seis noticias nunca aparecieron en su feed.
Una plaza pública fragmentada
Aunque Facebook se presenta como un espacio de intercambio abierto, en la práctica cada usuario vive una versión personalizada y aislada de esa plaza pública.
El algoritmo decide —sin que podamos saber cómo— qué noticias muestra y cuáles oculta.
Esto significa que dos personas con los mismos intereses pueden recibir informaciones completamente diferentes, incluso sobre temas importantes como protestas, represión o casos de femicidios, que en muchos casos ni siquiera aparecen en algunos muros.
Consecuencias: una realidad recortada
Dos estudios, una misma lógica de control
En 2012, un experimento de Facebook con casi 700 mil usuarios analizó cómo los contenidos positivos o negativos del News Feed influían en el estado emocional de las personas. Sin previo aviso, la red social modificó los mensajes que veían los usuarios para observar si se contagiaban emocionalmente.
El resultado fue claro: cuando veían publicaciones tristes, escribían más tristezas; cuando veían alegría, compartían más cosas positivas.
Este experimento, conocido como el “contaghttps://www.revistaanfibia.com/nosotros-los-cobayos-de-facebook/io emocional de Facebook”, reveló algo inquietante: las emociones de los usuarios podían ser manipuladas algorítmicamente como parte de un laboratorio social masivo, sin consentimiento informado.
De la información al condicionamiento
Carr advierte que las plataformas digitales no solo nos informan: nos condicionan.
Su objetivo principal no es educar ni conectar, sino retener nuestra atención para obtener datos y vender publicidad.👉 Pdf del libro completo Superficiales_Nicholas_Carr_Libro_Completo.pdf
Por eso, los algoritmos están diseñados para provocar emociones rápidas (ira, alegría, tristeza), las mismas que vimos en el experimento del “contagio emocional” de Facebook.
Enlace de video https://www.youtube.com/watch?v=RPGj33ZVj_E
La falsa neutralidad de la tecnología
Ambos estudios dejan en evidencia que los algoritmos no son neutrales. Detrás de cada “muro” o “noticia destacada” hay decisiones humanas, comerciales y políticas.
Facebook no solo selecciona lo que vemos, sino cómo debemos sentirnos al respecto. La supuesta “personalización” del contenido es, en realidad, una forma sofisticada de control emocional y cognitivo.
Como bien decía la crítica del caso Kramer: “Para Facebook, somos todos ratas de laboratorio”.
La misma lógica atraviesa La mano invisible: la manipulación algorítmica está naturalizada y aceptada, disfrazada de entretenimiento o eficiencia tecnológica.
Tanto el contagio emocional como la manipulación informativa demuestran que las plataformas pueden moldear nuestras emociones, opiniones y decisiones.


0 comentarios:
Publicar un comentario