La otra cara de las Redes Sociales y la IA

Por Shaiel A. Acosta

Está claro que Internet y la Inteligencia Artificial llegaron con la promesa de facilitarnos la vida. Internet abrió la puerta a una conectividad sin precedentes, mayor participación social y la expansión de las redes sociales. La IA, por su parte, se presenta como una herramienta personal cada vez más poderosa, capaz incluso de superar ciertas habilidades humanas. Pero, te preguntaste ¿qué hay del otro lado de estas tecnologías? 

La arquitectura que controla nuestra atención 

Según un estudio de Electronics Hub, la población mundial pasa en promedio 6 horas y 43 minutos frente a una pantalla. Esto no es casualidad: responde al modelo de negocio que da forma a la arquitectura de las plataformas digitales. 

Lo inquietante es que no estamos ante un efecto secundario, sino ante un verdadero capitalismo de la vigilancia. Shoshana Zuboff  explica que es un nuevo tipo de mercado que comercia con la recolección de datos de los usuarios en línea. Las plataformas emplean esa información para crear modelos capaces de predecir nuestras conductas

Operan ante todo en función de los intereses económicos de las empresas que las diseñan. Estas plataformas compiten ferozmente por captar y retener nuestra atención, y lo que realmente ponen en el mercado es la alteración gradual, sutil e imperceptible de lo que hacemos, cómo pensamos y quiénes somos. Por ejemplo, alteran hábitos de consumo, las noticias que vemos, nuestras emociones e incluso nuestras opiniones y creencias. 

Tecnología persuasiva 

Lejos de ser algo inocente, este sistema que nos rodea opera de manera constante, día y noche, para mantenernos frente a pantallas el mayor tiempo posible, logrando que entreguemos parte de nuestra vida a cambio. Como explica el documental El dilema de las redes sociales, este diseño es intencionado y preocupante: busca instalar hábitos inconscientes en nuestra mente y la necesidad imperiosa de recibir una recompensa. 

Una recompensa que aparece en forma de comentario, un "me gusta", un retuit o un feed que se actualiza cada segundo actúan como el anzuelo perfecto. Este mecanismo funciona casi como una "máquina tragamonedas", que ofrece retribuciones inesperadas que refuerzan nuestra atención y alimentan la dependencia. El usuario nunca sabe qué encontrará, y esa incertidumbre es precisamente lo que maximiza la adicción. 

Detrás de cada clic actúan equipos especializados en growth kacking y pruebas A/B, cuyo objetivo es literalmente "piratear la psicología de la gente", ejecutando miles de cambios (colores, textos, variaciones) para identificar cuáles manipulan mejor al usuario sin activar su conciencia. "Somos ratas de laboratorio", advierte Sandy Parakilas, ex gerente de operaciones de plataforma en Facebook, en referencia a los experimentos sociales que lograron que actuáramos exactamente como ellos querían.

Plataformas como Facebook utilizan mecanismos como el scroll infinito y las notificaciones push para capturar nuestra atención y moldearla. Funciones como el etiquetado de fotos se utilizan porque apelan a una necesidad humana profunda de obtener aprobación. La compañía potenció esta herramienta al comprobar que incrementaba significativamente la actividad de los usuarios. 

Esto alimenta una tecnología de la persuasión que construye un "muñeco vudú" digital de cada persona: un perfil minucioso que revela saber qué técnica usar en cada instante. En este entorno, las redes sociales generan un clima de desinformación constante donde lo real y lo falso se vuelven indistinguibles, manipulan la opinión pública, intensifican la polarización y moldean el comportamiento sin que el usuario lo perciba. 

A esto se suman fenómenos crecientes como la ansiedad, la depresión, el aumento de suicidios, la dependencia adictiva al estímulo digital, la búsqueda de popularidad artificial y el empobrecimiento de habilidades cognitivas básicas. El resultado es una generación con cerebros sobre estimulados pero poco desarrollados, más vulnerable y con capacidades deterioradas para pensar críticamente y autorregularse.

La IA el nuevo rostro del paradigma digital 

La irrupción de la inteligencia artificial no constituye un fenómeno aislado, sino la prolongación y a la vez, la intensificación de las dinámicas sociotécnicas ya visibles en las redes sociales. Ambas se sostienen sobre el mismo modelo de capitalismo de vigilancia y recurren a mecanismos de influencia diseñados para moldear el comportamiento, pero la IA lleva estas lógicas a una escala capaz de producir riesgos profundos. 

Desde la dependencia emocional y el reemplazo de la interacción humana por simulaciones programadas, hasta la erosión progresiva de habilidades sociales, empatía y pensamiento crítico. A esto se suma la concentración de poder en unas pocas corporaciones capaces de costear estos modelos de enorme complejidad, habilitando formas sutiles de control social y manipulación personalizada.

Paralelamente, la producción ilimitada de contenido falso y verosímil —texto, video o audio— alimenta la desinformación y la polarización, debilitando la confianza en cualquier evidencia digital. A su vez, el impacto laboral y ambiental se vuelve ineludible: la automatización acelerada de tareas cognitivas amenaza con profundizar la desigualdad y vaciar de propósito a amplios sectores, mientras que la huella energética y el consumo de recursos para entrenar modelos avanzados permanece oculto, aunque sea descomunal. 

La generación que crece desconectada de sí misma

La expansión masiva de pantallas, videojuegos, redes sociales y tecnologías digitales está moldeando de manera profunda y alarmante el desarrollo cognitivo, emocional y social de niños y adolescentes. El neurocientífico Michel Desmurget advierte en La fábrica de cretinos digitales, estos dispositivos no solo compiten con las interacciones familiares, el sueño, la lectura o el juego creativo, sino que están reconfigurando la maduración cerebral. 

En países con estabilidad socioeconómica, se registra un fenómeno inédito: los llamados "nativos digitales” son la primera generación con un coeficiente intelectual más bajo que el de sus padres, revirtiendo la tendencia ascendente del “efecto Flynn”. Este deterioro se asocia al uso recreativo excesivo de pantallas, que afecta las bases mismas de la inteligencia: el lenguaje, la atención, la memoria, la capacidad de concentración y el bagaje cultural.  

Las consecuencias no son solo individuales, sino profundamente sociales. Las nuevas generaciones crecen con menos habilidades de interacción presencial, mayor impulsividad, poca tolerancia a la frustración, dificultades para sostener la atención y un debilitamiento de la empatía. Al mismo tiempo, muchos niños sustituyen actividades formativas (lectura, arte, conversación, deporte) por consumos digitales de baja calidad, lo que amplifica las desigualdades educativas entre quienes están protegidos de la “orgía digital” y quienes pasan horas frente a pantallas sin mediación adulta.

La omnipresencia de videojuegos y redes sociales refuerza un ecosistema de entretenimiento inmediato, hiperestimulante y adictivo. De hecho, la OMS ya reconoció por primera vez la adicción a los videojuegos como un trastorno de salud mental, reflejo de un problema que países como China y Taiwán ya regulan con toques de queda digitales y límites estrictos de acceso. Como advierten expertos y activistas tecnológicos, el contenido digital “basura” compite contra la capacidad de regulación; miles de diseñadores y algoritmos trabajan para retener su atención, mientras los padres quedan desbordados.

El resultado es una generación que, pese a haber nacido inmersa en la tecnología, no desarrolla mejores competencias digitales ni mayor capacidad crítica, sino que se vuelve dependiente, distraída y vulnerable a modelos de negocio basados en la manipulación. 

Si esta tendencia continúa, podríamos avanzar hacia una sociedad dividida: una mayoría con capacidades cognitivas debilitadas y manipulable por estímulos digitales, frente a una élite con acceso privilegiado a la educación, la cultura y el poder. Un escenario cercano a las distopías de Huxley y Postman, donde una población anestesiada por el entretenimiento pierde su capacidad crítica y termina acepta su dependencia digital. 

Escuchá el último episodio de mi podcast Abramos el Tema.🎧




Compartir:  

Informe Especial - Parte 1

La otra cara de las Redes Sociales y la Inteligencia Artificial

        PRIMERA PARTE

Extraída de Pexels

Introducción: cuando la tecnología deja de ser neutral

Durante años, las redes sociales y la inteligencia artificial fueron comunicadas como sinónimos de progreso, libertad, eficiencia y conexión global. Sin embargo, detrás de ese relato optimista existe otra historia: una historia de extracción, manipulación y consecuencias sociales profundas que recién ahora estamos empezando a dimensionar. El propósito de este informe es iluminar esa “otra cara”, reconstruyendo los costos cognitivos, emocionales, ambientales y laborales que se esconden debajo de las pantallas.

Las redes sociales no son “herramientas neutras”: son plataformas diseñadas para capturar atención y modificar comportamientos. La inteligencia artificial no es un “cerebro autónomo”: es una industria alimentada por personas invisibles que etiquetan datos por sueldos miserables, por recursos ambientales consumidos sin control y por la explotación de la vida cotidiana convertida en insumo.

La hipótesis central que guía este informe es clara:

Las redes sociales y la inteligencia artificial comparten una arquitectura extractiva que afecta de manera directa la atención, la salud mental y el desarrollo cognitivo de las nuevas generaciones.
Ese ecosistema digital tiene consecuencias mensurables: desde la epidemia de ansiedad adolescente hasta la confirmación de la OMS sobre la adicción a los videojuegos y la caída del coeficiente intelectual infantil.

A lo largo de los seis bloques que siguen, trazaré este paralelo: cómo lo digital captura tiempo, emociones y datos; cómo la IA transforma esa captura en un modelo económico; y cómo ambos procesos terminan repercutiendo en la mente, el cuerpo y la vida social de quienes hoy crecen inmersos en lo virtual.

Este es un informe sobre el costo humano de un modelo tecnológico que no fue diseñado para cuidarnos.

Nota sobre el proceso de investigación

Toda la información presentada en este Informe Especial surge de un trabajo de investigación que combina múltiples tipos de fuentes: materiales de cátedra, bibliografía especializada, estudios científicos recientes, documentales, informes de organismos internacionales y artículos periodísticos provenientes de medios confiables. Nada de lo expuesto es intuición ni especulación personal: cada afirmación forma parte de un corpus verificable que será citado a medida que aparezca en las distintas piezas del proyecto (Blog Post, Podcast y Video). De este modo, la narrativa no solo busca ser clara y accesible, sino también rigurosa y fundamentada.

BLOQUE 1 — Redes sociales: máquinas de extracción de atención

El documental El dilema de las redes sociales (Netflix) expone con claridad que las plataformas digitales fueron diseñadas para convertirse en sistemas de extracción de atención, comparables a verdaderas máquinas de ingeniería conductual. No se limitan a ofrecer un servicio: modelan nuestros pensamientos, emociones y decisiones a partir de un proceso sistemático de manipulación algorítmica.

Póster oficial del documental "El dilema de las redes sociales"

Denuncias del documental El Dilema de las Redes Sociales

El documental reúne testimonios inéditos de quienes construyeron estas plataformas y hoy denuncian su funcionamiento interno.
Tristan Harris, Aza Raskin, Justin Rosenstein o Tim Kendall, todos ex diseñadores, ingenieros o ejecutivos de Google, Facebook, Twitter o Pinterest, afirman que las redes fueron deliberadamente creadas para capturar nuestra atención el mayor tiempo posible, incluso si eso significa deterioro psicológico, polarización social o vulnerabilidad democrática.

Muchos de ellos describen haber participado en una industria que “experimenta” con miles de millones de usuarios sin consentimiento explícito, mediante algoritmos que evalúan, predicen y modifican comportamiento humano en tiempo real.

Testimonios de ex empleados de Google, Facebook, Twitter y Pinterest

Estos especialistas, arrepentidos y críticos hoy, revelan elementos claves:

El scroll infinito fue diseñado por Aza Raskin para impedir pausas naturales y mantenernos atrapados.

Justin Rosenstein creó el botón “Me Gusta”, pero hoy reconoce su rol en generar adicción y comparación compulsiva.

Tim Kendall, ex presidente de Pinterest, admite que las plataformas compiten por “secuestrar” nuestra atención de la manera más agresiva posible.

Ex empleados de Twitter describen cómo los algoritmos premian contenido extremo porque retiene más tiempo en pantalla.

Estos testimonios muestran que los daños no son consecuencias imprevistas, sino resultados lógicos de decisiones empresariales motivadas económicamente.

Diseño adictivo: scroll infinito, notificaciones y dopamina

Extraída de Pexels


Las redes utilizan principios claves de la psicología del comportamiento:

Scroll infinito → Elimina los límites visuales, transformando el uso en un consumo compulsivo.

Notificaciones intermitentes → Estímulos programados para activar ciclos de dopamina como una máquina tragamonedas.

Recomendaciones personalizadas → Refuerzos que “alimentan” intereses extremos, emociones intensas o contenidos polarizantes.

Cada interacción, scroll, pausa, clic, “like”, se registra para ajustar el algoritmo, maximizando la permanencia.

El documental deja claro que las redes no son adictivas por accidente: fueron diseñadas para serlo.

Manipulación, polarización y radicalización algorítmica

El algoritmo no se limita a mostrar contenido: lo selecciona para moldearnos.

Premia publicaciones que generan indignación, miedo o impacto emocional. Empuja a los usuarios hacia posturas cada vez más extremas porque eso genera más interacción. Crea burbujas informativas donde cada persona ve un mundo distinto, reforzando prejuicios.

Como explica Harris, no se trata de que las plataformas “dividan a propósito”, sino de que su lógica matemática convierte la polarización en un efecto inevitable del modelo de negocio.

Impacto en la democracia y formación de opinión

El documental muestra casos donde campañas políticas, movimientos conspirativos o grupos extremistas crecieron gracias a la microsegmentación.
Las redes permiten:

Dirigir mensajes distintos a cada persona según su vulnerabilidad psicológica.

Influir en elecciones mediante manipulación emocional personalizada.

Crear percepciones distorsionadas de la realidad social.

Así, el sistema erosiona la deliberación pública y debilita instituciones democráticas.

Riesgos para la salud mental (especialmente adolescentes)

Extraída de Pexels


Uno de los segmentos más alarmantes del documental es el que evidencia:

El aumento de ansiedad, depresión y autolesiones en adolescentes desde la aparición de redes sociales (especialmente en chicas).

La asociación directa entre validación digital (‘likes’) y autoestima.

La dependencia psicológica creada por notificaciones y recompensas intermitentes.

La presión por construir identidades “perfectas” basadas en métricas.

Muchos especialistas plantean que estamos ante una crisis de salud mental amplificada por sistemas diseñados para explotar la fragilidad emocional de las adolescencias.

BLOQUE 2 — Inteligencia Artificial: explotación laboral, ambiental y cognitiva

Si en el Bloque 1 vimos que las redes sociales extraen atención y moldean comportamientos, aquí aparece otro tipo de extracción menos visible pero igual de profunda: la Inteligencia Artificial como industria sostenida por mano de obra precarizada, consumo intensivo de recursos naturales y una arquitectura global que reproduce las desigualdades históricas del poder tecnológico.

Cuando hablamos de Inteligencia Artificial, solemos imaginar máquinas brillantes capaces de aprender, automatizar y resolver problemas a una escala que supera al ser humano. Pero los materiales de cátedra revelan otra narrativa, una que la industria tecnológica prefiere mantener oculta: la IA no funciona sola, no es limpia y no es neutral. Detrás de cada modelo hay cuerpos, territorios y mentes puestos al servicio de un sistema que se presenta como inevitable.

Este bloque expone esa zona oculta: cómo la IA reconfigura las relaciones de poder a nivel global, cómo produce nuevas formas de explotación y cómo transforma nuestra manera de estar en el mundo.

1. Colonialismo de la IA: cuando la tecnología depende de la desigualdad

Basado en: Puntos clave sobre el Colonialismo de la IA.

El documento de cátedra explica que la IA se sostiene en un modelo extractivo que no es muy distinto al colonialismo histórico: un centro que acumula riqueza y una periferia que aporta recursos, tiempo, cuerpos y datos.

Extraída de Pexels


Pero ¿qué significa realmente que la IA sea “colonial”?

-Significa que para que el Norte Global avance, el Sur Global retrocede.

-Se extraen datos sin transparencia ni beneficios para quienes los generan.

-Se extrae trabajo humano barato para tareas invisibles.

-Se extraen minerales y energía de territorios vulnerados.

La IA no solo procesa información: procesa desigualdad. Y la reproduce a escala planetaria. En esta clave, la promesa de la IA como motor del progreso se vuelve ambigua: avanza, sí, pero lo hace apoyándose en los viejos cimientos de la desigualdad global. Es innovación construida sobre precariedad.

2. Las fábricas de IA: el lado humano que la industria esconde

Recuperada de un informe de la BBC: Los cientos de miles de trabajadores en países pobres que hacen posible la existencia de inteligencia artificial como ChatGPT (y por qué generan controversia)


Basado en: Nueva esclavitud impulsada por la IA.

Hay una frase que atraviesa el material de cátedra:
“La IA no es inteligente: está entrenada.”
Y quien la entrena no son máquinas, sino miles de personas realizando tareas repetitivas durante horas, por salarios mínimos, en condiciones de vigilancia constante.

Estos espacios, Kenia, Colombia, Filipinas, India, Venezuela, funcionan como las verdaderas fábricas del mundo digital.

¿Qué entrenan?
Todo.
  • Qué es un insulto.
  • Qué es violencia.
  • Qué es un cuerpo.
  • Qué es una emoción.
  • Qué es un ser humano.

Las IA que consideramos “avanzadas” dependen de trabajadores que realizan tareas monótonas, agotadoras y psicológicamente dañinas, bajo métricas algorítmicas que no toleran pausas ni desviaciones. Lo inquietante es que este trabajo no se reconoce como trabajo. No aparece en los anuncios de Silicon Valley. No se celebra. No se nombra. Y sin embargo, sin ellos, no habría chatbots, no habría filtros, no habría automatización.

La IA es presentada como magia; pero hay que verla como lo que es: una industria que se sostiene sobre una mano de obra "desechable" y silenciada.

3. El costo psicológico: las heridas que la IA deja en quienes la entrenan

Extraída de Pexels


Basado en: Explotación y trauma en moderadores de Inteligencia Artificial.

Si el apartado anterior expone la dimensión económica de la explotación, este revela la dimensión humana más cruda. Trabajar para la IA puede destruir la salud mental.

No exagero:

-Moderadores que ven cientos de videos de violencia explícita por día.

-Entrenadores que leen descripciones de abuso infantil durante horas.

-Personas que no pueden dormir, que tienen pesadillas, que se deshumanizan.

La IA aprende, pero quienes la entrenan se quiebran.

Hay un punto especialmente duro que es necesario rescatar: muchos trabajadores no pueden hablar de lo que ven por culpa de acuerdos de confidencialidad impuestos por las empresas. No pueden contarlo a su familia, ni a sus parejas, ni siquiera a un terapeuta.

La IA promete hacer el mundo más seguro, pero lo hace cargando el trauma en quienes sostienen ese trabajo invisible. Lo que nos protege a nosotros, los usuarios, hiere a otros. Este es un punto ético fundamental: la violencia se desplaza, no desaparece.

4. El impacto ambiental: la IA como nueva forma de extractivismo

Extraída de Pixabay

Basado en: Impacto ambiental de la Inteligencia Artificial.

La industria tecnológica insiste en que la IA es “inmaterial”, “digital”, “limpia”, pero por qué no mirar más de cerca esa ilusión.

La IA necesita:

-Miles de litros de agua para enfriar centros de datos.

-Toneladas de litio y cobalto extraídos de territorios en conflicto.

-Enormes cantidades de energía que incrementan la huella de carbono.

Es decir: la IA tiene cuerpo, y su cuerpo está hecho de territorios sacrificados.

Entrenar un solo modelo puede consumir más agua que un barrio completo en un día. Y las zonas donde se instalan centros de datos, como regiones áridas del Oeste de EE.UU. o zonas mineras del Sur Global, enfrentan conflictos por el acceso a recursos básicos.

La IA no flota en el aire: se incrusta en la tierra, la perfora, la calienta, la seca.

Vuelve a aparecer la misma lógica del colonialismo de datos y del trabajo: los beneficios se concentran, los costos se distribuyen hacia abajo.

5. Explotación cognitiva: la IA también extrae de quienes la usan

Este punto es más sutil pero igual de importante. Los materiales utilizados en esta investigación muestran que la IA no solo extrae trabajo y recursos: también extrae tiempo, atención, estilos comunicativos, forma de razonar.

Cada vez que corregimos una respuesta, cada vez que aclaramos algo, cada vez que interactuamos, estamos alimentando al modelo. Somos usuarios, sí, pero también entrenadores involuntarios.
La IA aprende de nosotros, pero nosotros no decidimos que sea así.

Esto reconfigura la relación entre humanos y tecnología: la frontera entre “usar” y “trabajar para” se vuelve difusa. En otras palabras: la IA es extractiva no solo por lo que toma del Sur Global, sino también por lo que toma de cada uno de nosotros.

6. La desigualdad como condición de posibilidad de la IA

Todos los documentos vistos coinciden en un mismo punto, aunque lo aborden desde ángulos distintos:
la IA solo puede funcionar en un mundo desigual.
  • Necesita territorios empobrecidos para extraer minerales.
  • Necesita poblaciones vulnerables para hacer trabajo barato.
  • Necesita usuarios desconcertados para seguir aprendiendo sin ser cuestionada.
  • Necesita Estados débiles para instalar centros de datos sin regulaciones ambientales.
La IA no solo refleja el mundo: lo reorganiza para que su funcionamiento sea posible.

Este es el centro reflexivo del Bloque 2: la IA no es un avance inocente, sino una estructura que se sostiene sobre trabajos invisibles, daños psicológicos y desequilibrios ecológicos.

BLOQUE 3 — La epidemia de la atención: cerebro, cognición y tiempo

Extraída de Pixabay

Después de analizar cómo las redes sociales y la inteligencia artificial operan sobre el mundo exterior, la economía, el trabajo, los territorios, los recursos, es imposible no mirar hacia adentro. La otra cara de estas tecnologías también se juega en un espacio silencioso y vulnerable: el cerebro humano. Especialmente el de las nuevas generaciones, que crecen dentro de un ecosistema digital que condiciona su manera de sentir, pensar y aprender.

Una de las ideas más inquietantes que atraviesa todos los materiales trabajados es que los jóvenes no “pierden” atención porque sí: están siendo formados en un entorno que no les permite desarrollarla. La arquitectura digital actual, optimizada para la captación continua, compite directamente con los procesos naturales del aprendizaje.

1. Un cerebro que intenta madurar en un entorno que no le da tiempo

El cerebro evoluciona en relación con las condiciones del ambiente. Necesita silencio, pausas, ritmos lentos, experiencias prolongadas, aburrimiento y relaciones cara a cara. Pero el entorno digital contemporáneo, lleno de notificaciones, videos breves, estímulos visuales intensos y recompensas inmediatas, introduce una lógica contraria a la de la maduración cognitiva.

Los contenidos están diseñados para ser veloces y envolventes, no para ser comprendidos.
Eso obliga al cerebro, sobre todo en la infancia y la adolescencia, a adaptarse a un ritmo que no puede sostener sin consecuencias. La atención se fragmenta, la memoria se vuelve superficial, el pensamiento profundo se interrumpe antes de consolidarse. Vivimos rodeados de estímulos que no fueron creados para acompañar la maduración humana, sino para retenernos. Y cuando el objetivo es retener, no hay espacio para crecer.

Extraída de Unsplash
Desmurget lo explica con precisión: el cerebro infantil y adolescente es extraordinariamente plástico, y esa plasticidad es un arma de doble filo. Puede aprender, sí, pero también puede desorganizarse si se expone a estímulos que no fueron pensados para acompañar su maduración.


2. La multitarea, o cómo confundir velocidad con inteligencia

En el discurso común aparece la idea de que los jóvenes “pueden con todo”: escuchar música, chatear, mirar TikTok y estudiar al mismo tiempo. Pero esto no es una capacidad: es un síntoma. El cerebro no hace multitarea cognitiva. Lo que hace es saltar. Cambiar de foco. Reiniciar la atención una y otra vez.
Ese salto constante tiene un costo invisible: desgasta la memoria de trabajo, dificulta la comprensión lectora y vuelve cada actividad menos significativa.

Cuanto más se acostumbra un cerebro a vivir interrumpido, más difícil le resulta sostener cualquier proceso que requiera profundidad. Y cuando el pensamiento profundo se debilita, no solo se aprende menos: también se comprende menos el mundo.

3. La caída del coeficiente intelectual: un síntoma generacional

Los estudios que analizan el desarrollo cognitivo infantil muestran un dato que debería alarmarnos: por primera vez, una generación tiene un coeficiente intelectual promedio más bajo que el de sus padres.
Esto no se explica por genética, sino por ambiente. 
La exposición constante a pantallas desde edades muy tempranas, la reducción de conversaciones familiares, la pérdida del juego libre, la sobrecarga audiovisual y la falta de silencio cognitivo afectan funciones básicas: memoria, lenguaje, atención sostenida, regulación emocional, razonamiento lógico.

El cerebro aprende a través de la repetición, el esfuerzo y la interacción humana. Pero estas condiciones se erosionan cuando la mayor parte del tiempo se vive en entornos que priorizan lo inmediato sobre lo profundo. No se trata de “demonizar” la tecnología, sino de reconocer que el costo cognitivo es real:
un cerebro saturado de estímulos fragmentados crece con menos capacidad para organizar el pensamiento.

4. Adicciones digitales: cuando la dopamina se vuelve un mecanismo de diseño

Extraída de Pixabay

La adicción digital no es un accidente: es un diseño. Los videojuegos, las redes sociales, las plataformas de streaming y hasta las aplicaciones más cotidianas funcionan bajo un mismo principio neurobiológico: recompensa inmediata, intermitente y difícil de evitar. Cada notificación, cada logro, cada racha y cada actualización se apoya en un circuito dopaminérgico que mantiene al usuario regresando una y otra vez.

Para un cerebro adolescente, hipersensible al sistema de recompensa y aún inmaduro en el autocontrol, esta arquitectura resulta especialmente peligrosa. No solo captura la atención: captura deseo, emoción y tiempo mental.

Una reciente noticia de BBC News Mundo reporta que varios países ya consideran adoptar medidas regulatorias frente al uso prolongado de videojuegos por menores, citando como ejemplo que en China se ha impuesto un “toque de queda” para juegos en línea en menores de edad, en reconocimiento del riesgo que representa este patrón de consumo. Esta intervención gubernamental confirma que la adicción digital no es un fenómeno individual aislado, sino un problema colectivo de salud pública vinculado directamente con el diseño de plataformas.

El testimonio de Belinda Parmar, y su campaña #TheTruthAboutTech, vuelve esta problemática aún más visible. Parmar, antes celebrada como “evangelista de la tecnología”, hoy advierte sobre el lado oscuro de un sistema generado para generar dependencia. Ella acuña el término “tecnología basura” para describir esos productos diseñados para retener sin enriquecer. Su experiencia personal, con un hijo adicto a videojuegos y un sobrino hospitalizado tras caer en un ciclo de juego compulsivo, subraya la dimensión humana de lo que muchos tratan como mero entretenimiento.

a) Desensibilización y trivialización del daño. Parmar sostiene que muchos videojuegos populares, especialmente los de combate, no convierten a una persona en agresor pero sí naturalizan la violencia, al desvincular acción y consecuencia. Este patrón afecta la formación emocional, la empatía y la percepción del riesgo.

b) Obsesión estructural, no elección inocente. En su análisis, Parmar estima que aproximadamente un 5 % de los niños presentan patrones adictivos severos en relación con videojuegos. Esto no es un problema de voluntad, sino el resultado de una industria que optimiza para la retención del usuario.

c) Gratificación instantánea como diseño. Cada logro desbloqueado, cada “me gusta”, cada visualización o cada avance en un juego dispara dopamina. El cerebro adolescente, con su sistema de recompensa más veloz que su sistema de control, queda atrapado en una búsqueda continua de estímulo.

Este diseño digital no se enfrenta solo a los usuarios, sino a millones de dólares invertidos en ingeniería emocional, gamificación y arquitectura de adicción. Como Parmar señala, “por cada padre que intenta fijar límites, hay miles de diseñadores trabajando para que esos mismos límites fallen”.

Cuando se cruza esta lógica con la evidencia de que una generación crece con menos capacidad de concentración, más fragmentación cognitiva y una menor tolerancia a la frustración, queda claro que la adicción digital no es un tema de hábitos o de moral individual: es una consecuencia directa de un diseño tecnológico que explota instancias cerebrales vulnerables.

En este contexto, las adicciones digitales dejan de ser un problema individual.
Se convierten en un síntoma estructural.
La pregunta no es solo cuánto tiempo pasan los jóvenes frente a las pantallas, sino por qué esas pantallas están diseñadas así y qué tipo de sujeto están produciendo.

5. Homo Interneticus: el sujeto formado por la lógica de las plataformas

Extraída de Google

Las tecnologías digitales no solo modifican comportamientos: modifican subjetividades.
Del análisis de todos los materiales surge una figura que sintetiza esta transformación: el Homo Interneticus, un sujeto que procesa rápido pero piensa poco, que se distrae fácilmente, que vive pendiente de estímulos, que lee sin profundidad y que experimenta el mundo a través de pantallas.

Las plataformas moldean lo que entendemos por “normal”: lo normal es responder rápido, consumir mucho, aburrirse enseguida, desplazarse sin detenerse. Pero el pensamiento crítico, la creatividad y la autonomía requieren exactamente lo contrario: tiempo, desconexión, lentitud y silencio.
Cuando la subjetividad se organiza según lo que el algoritmo espera de nosotros, no solo cambia la atención: cambia la forma de estar en el mundo.

6. El aula en desventaja: cuando aprender compite con la arquitectura digital

Muchos docentes sienten que están perdiendo la batalla por la atención de sus estudiantes. No es una sensación; es una consecuencia estructural del diseño digital.

La escuela trabaja con procesos que requieren continuidad, mientras que el ecosistema digital ofrece recompensas inmediatas.
La lectura compite contra TikTok.
La concentración compite contra notificaciones.
La explicación docente compite contra estímulos diseñados por empresas que invierten millones para mantener al usuario mirando.

En estas condiciones, aprender se vuelve una tarea cuesta arriba no porque “los chicos no quieran”, sino porque el entorno digital les impone un ritmo incompatible con las demandas cognitivas del aula. Las aulas no fallan: compiten con plataformas que no fueron creadas para educar, sino para capturar atención.

Cierre de la Parte 1

Con este bloque llega el cierre de la primera parte del Informe Especial.
Después de ver cómo las redes sociales y la IA extraen atención, trabajo y recursos, ahora entendemos que también extraen algo todavía más íntimo: la capacidad de pensar con profundidad.

Las consecuencias sociales, laborales y ambientales se encuentran con las consecuencias cognitivas. Y es en esa intersección donde se juega el futuro de una generación que creció dentro de una arquitectura digital que no fue diseñada para protegerlos.

Imagen realizada en Canva y subida a IMGBB


La segunda parte del Informe abrirá otras preguntas:

  • ¿Quién debe actuar frente a esto?
  • ¿Cómo se protege a las nuevas generaciones en un entorno adictivo?
  • ¿Qué rol tienen el Estado, la escuela y las familias? 
  • ¿Cómo se construye una alfabetización digital crítica?


Bibliografía y materiales consultados


La elaboración de este Informe Especial se basa exclusivamente en los materiales de cátedra provistos en la materia Medios, Internet y Comunicación Digital, así como en textos, apuntes y documentos de trabajo compartidos durante las clases y actividades prácticas. A continuación se detalla el conjunto de recursos utilizados como base conceptual, analítica y documental para los Bloques 1, 2 y 3.

1. Textos de análisis y notas de cátedra

Análisis del documental El dilema de las redes sociales. Apunte de cátedra con síntesis temática, testimonios de exempleados de Silicon Valley y reflexiones sobre diseño adictivo, manipulación algorítmica y economía de la atención.

Puntos clave sobre el Colonialismo de la IA. Documento elaborado para la materia, inspirado en debates académicos como los de Nick Couldry y Ulises Mejías, con desarrollo conceptual sobre colonialismo de datos, extracción de trabajo humano y desigualdades tecnológicas.

Explotación y trauma en moderadores de Inteligencia Artificial. Material de cátedra que recopila casos reales, demandas judiciales y estudios sobre los daños psicológicos asociados a la moderación de contenido para plataformas digitales.

Nueva esclavitud impulsada por la IA. Apunte basado en investigaciones y testimonios sobre microtrabajo, entrenadores algorítmicos y fábricas de IA en el Sur Global.

Impacto ambiental de la Inteligencia Artificial. Documento técnico de cátedra sobre consumo energético, uso de agua, minería de litio y cobalto, y huella ecológica de los centros de datos.

2. Bibliografía complementaria utilizada

Desmurget, Michel. La fábrica de cretinos digitales. Fragmentos seleccionados trabajados en clase, especialmente aquellos vinculados a maduración cognitiva, atención, plasticidad cerebral y efectos del consumo digital en infancias y adolescencias.

Parmar, Belinda. Entrevista y fragmentos de la campaña #TheTruthAboutTech, incluida en el documento “Clases Finales”. Reflexiones sobre adicción digital, “tecnología basura”, gratificación instantánea y efectos del diseño digital en el desarrollo cognitivo infantil y adolescente.

Materiales sobre sobreestimulación digital, multitarea, funciones ejecutivas y adicciones tecnológicas provistos en la materia y utilizados para contextualizar el análisis del Bloque 3.

3. Recursos audiovisuales

Documental The Social Dilemma (Netflix). Analizado a través de los apuntes de cátedra, utilizado como base para examinar la lógica del diseño adictivo, la infraestructura algorítmica y las prácticas ocultas de las grandes plataformas.
Compartir:  

Informe Especial - Parte 2

 

La otra cara de las Redes Sociales y la Inteligencia Artificial

SEGUNDA PARTE

Extraída de Pixabay

Comprender la estructura, no solo el impacto

La primera parte de este Informe Especial expuso la otra cara de las redes sociales y de la inteligencia artificial: una arquitectura digital que extrae atención, datos, trabajo humano, recursos naturales e incluso capacidad cognitiva. Analizamos cómo estas tecnologías afectan a las personas y cómo moldean, en silencio, la forma en que pensamos y habitamos el mundo.

Pero comprender los efectos no es suficiente.

Esta segunda parte retoma todas esas preguntas, las que aparecieron con el deterioro de la atención, con la crianza mediada por pantallas, con el trauma psicológico de quienes entrenan a la IA o con la dependencia emocional del “scroll eterno”, y las desarrolla en un plano más profundo: el de las estructuras tecnológicas, económicas y culturales que hacen posible este modelo.

Ya no se trata de describir qué sucede, sino de entender por qué sucede y qué implica para las generaciones que están creciendo dentro de este sistema. Con ese punto de partida, este bloque aborda a quienes viven este ecosistema no como algo externo, sino como su condición de origen: los nativos digitales.

BLOQUE 4 — Nativos digitales: la generación más vulnerable

Extraída de Pixabay


Ser nativo digital no significa comprender la tecnología, sino haber nacido dentro de ella. Los jóvenes se mueven con soltura entre aplicaciones y plataformas, pero esa fluidez técnica oculta una vulnerabilidad estructural: no conocieron un mundo sin pantallas, por lo tanto, la tecnología no es una herramienta externa sino el entorno sobre el cual se construye su subjetividad.
Esto aparece de forma recurrente en los materiales de cátedra, donde se explica que la tecnología funciona como mediadora temprana de vínculos, atención y aprendizaje (Apuntes de clase).

1. Nativos digitales, pero no expertos

Los jóvenes dominan el uso técnico de la tecnología, pero desconocen los modelos de negocio, los criterios algorítmicos y los mecanismos de diseño adictivo que están detrás de lo que consumen. Esta idea aparece tanto en el análisis del documental El dilema de las redes sociales, donde exempleados de Google, Pinterest y Facebook explican cómo las interfaces están diseñadas para “retener” y no para informar, como en el archivo sobre tecnología basura del texto de Belinda Parmar (incluido en “Clases finales”).

La habilidad operativa no implica comprensión crítica: saben usar pantallas, pero no usar el entorno donde están inmersos sin ser moldeados por él.

2. La crianza mediada por pantallas: tecnología como entorno, no como herramienta

Extraída de Pexels

Michel Desmurget, en La fábrica de cretinos digitales, advierte que el cerebro en desarrollo necesita interacción humana, juego corporal, silencio cognitivo y construcción verbal sostenida. Los fragmentos trabajados en clase subrayan que cuando la pantalla reemplaza esas experiencias durante la infancia, no solo ocupa tiempo: ocupa funciones de desarrollo.

Esto se articula con el caso citado en Clases Finales sobre Belinda Parmar, quien describe cómo los dispositivos moldean identidad, emoción y socialización desde edades tempranas, generando dependencia, ansiedad y una relación adictiva con la gratificación instantánea (#TheTruthAboutTech).

El problema no es “el exceso”, sino que la pantalla aparece en momentos críticos de desarrollo.

3. Consecuencias sociales: ansiedad, aislamiento y vínculos empobrecidos

Los materiales analizados coinciden en un punto clave: las plataformas no solo capturan atención, sino que redefinen las relaciones sociales. El documental El dilema de las redes sociales sostiene que las redes funcionan como sistemas de dopamina que condicionan autoestima y comportamiento adolescente. Parmar, desde su campaña, suma que el entorno digital fomenta comparación constante, pérdida de empatía y construcción de identidad basada en métricas visibles (“likes”, vistas, rachas).

Los apuntes trabajados en clase indican efectos frecuentes:

ansiedad asociada a autoimagen

aislamiento pese a hiperconexión

dificultad para sostener vínculos presenciales

reducción de habilidades sociales y lenguaje corporal

No son reacciones individuales; son consecuencias sistémicas del diseño.

4. El mito del multitasking: fragmentación cognitiva como forma de vida

Los materiales que analizamos sobre sobreestimulación digital afirman que el cerebro no puede procesar multitarea cognitiva, solo alternar foco rápidamente. Ese cambio constante deteriora memoria de trabajo, comprensión lectora y pensamiento profundo.

Esta idea dialoga directamente con Desmurget, quien plantea que el cerebro infantil se ve especialmente afectado porque sus funciones ejecutivas aún no están maduras. El resultado no es eficiencia: es agotamiento cognitivo y dependencia del estímulo constante.

Lo que llamamos “adaptación a lo digital” es, en realidad, entrenamiento para la dispersión.

5. La primera generación con un coeficiente intelectual promedio más bajo

Extraída de Pexels


Los fragmentos de La fábrica de cretinos digitales, de Michel Desmurget, que trabajamos en clase sostienen que el descenso del CI en una generación reciente no es producto de genética, sino de entorno cognitivo. Tal como reporta un artículo de BBC News Mundo, “los nativos digitales son la primera generación con un coeficiente intelectual más bajo que sus padres”

Este fenómeno se explica por una combinación de factores: menos lectura prolongada, interacción cara a cara reducida, ambientación digital constante, estímulos fragmentados, menor desarrollo de lenguaje complejo y escasa exposición a silencio cognitivo. Desmurget señala que el cerebro aprende mediante esfuerzo, repetición e interacción humana, elementos que en muchos casos son suplantados o desplazados por pantallas prematuras.

El dato del CI no es solo alarmante: es un síntoma de que este entorno digital no solo condiciona hábitos, sino que reconfigura las condiciones de desarrollo cognitivo. La inteligencia no está desapareciendo, pero se enfrenta a un terreno hostil donde florecer se vuelve más difícil.


Una vulnerabilidad producida, no elegida

Los nativos digitales no son frágiles por naturaleza: son la primera generación formada por plataformas construidas para retener su atención y modelar su comportamiento. El archivo sobre Parmar aporta una frase clave: “ya no controlamos la tecnología; ella nos controla a nosotros”. Las consecuencias sociales, cognitivas y emocionales no son efectos colaterales: son parte del modelo de negocio. Por eso este bloque no concluye con responsabilidad individual, sino con una pregunta estructural:

¿Qué cambios necesitamos en el diseño de plataformas, en las escuelas, en las políticas públicas y en la regulación para que el desarrollo humano no quede subordinado a los incentivos del mercado tecnológico?

Este interrogante abre paso al Bloque 5, donde analizaremos la arquitectura de poder que organiza este ecosistema.

BLOQUE 5 — La raíz del problema: una arquitectura digital que no nos cuida

Las consecuencias cognitivas, sociales y emocionales que afectan a los nativos digitales, y que analizamos en los bloques anteriores, no pueden entenderse como una falla de hábitos individuales, ni de crianza, ni siquiera de educación. No se trata simplemente de “usar menos pantallas” ni de “aprender a desconectarse”. El problema es más profundo: la arquitectura digital fue diseñada para que desconectarse sea imposible.

Las plataformas no existen para acompañar a los usuarios, sino para capturar y retener su atención el mayor tiempo posible. El objetivo no es estimular pensamiento crítico, ni facilitar aprendizaje, ni mejorar las relaciones humanas: es producir datos, predecir comportamientos y convertir la vida cotidiana en un flujo continuo de información comercializable.

En este sentido, la tecnología digital no funciona como un medio neutral, sino como una estructura económica basada en incentivos que chocan con el bienestar humano. La economía de las plataformas necesita usuarios inmersos, no usuarios críticos; necesita interacción constante, no silencio cognitivo; necesita compulsión, no reflexión. Las métricas que sostienen el negocio, tiempo de visualización, frecuencia de uso, engagement, clics, permanencia en la plataforma, son incompatibles con el desarrollo sano de la atención, la empatía o el pensamiento complejo.

Extraída de Unsplash


Esto no es accidental: es el modelo.

Ex-ingenieros de Google, Facebook y Pinterest, citados en el análisis del documental El dilema de las redes sociales (Netflix), explican que los algoritmos no solo organizan contenido, sino que modifican conductas. Las plataformas no buscan mostrar lo que el usuario desea ver, sino lo que asegura que vuelva. Es una ingeniería del comportamiento a escala industrial. El producto no es el contenido: el producto es el usuario modelado.

Este funcionamiento se vuelve más claro cuando observamos qué tipo de tecnología se vuelve rentable. Interfaces con scroll infinito, reproducción automática, notificaciones “urgentes”, recompensas intermitentes, diseño gamificado, estímulos explosivos y loops sin fin no son decisiones estéticas: son formas de garantizar permanencia. Si un contenido invita a desconectarse, reflexionar o detenerse, es un mal negocio; si genera compulsión, ansiedad o adicción, es rentable.

Belinda Parmar lo sintetiza en la frase incluida en el material visto en clase: “ya no controlamos la tecnología; ella nos controla a nosotros”. Su campaña #TheTruthAboutTech denuncia que esta arquitectura no fue pensada para el bienestar, sino para maximizar datos y dopamina. Por eso habla de “tecnología basura”: no porque sea simple o superficial, sino porque funciona como la comida ultra procesada del ecosistema digital, alta en estímulo, baja en nutrición, diseñada para generar dependencia.

Esta lógica económica se refuerza por la falta de regulación estatal. A diferencia de industrias que han dañado la salud pública, tabaco, alimentos ultra procesados, alcohol, la tecnología opera sin una normativa proporcional a su impacto. Países como China han comenzado a regular horarios de videojuegos en menores, como señala BBC News Mundo, pero son excepciones. En la mayoría de los casos, el mercado decide solo y lo hace bajo criterios comerciales, no éticos ni educativos. Las familias quedan solas, las escuelas reaccionan tarde, los Estados observan desde atrás. El resultado es un ecosistema en el que el ciudadano no es cliente, sino materia prima. Su atención, su lenguaje, su identidad, sus emociones y hasta sus vínculos son recursos extraídos, medidos y transformados en capital. La tecnología no observa al usuario: lo predice, lo orienta, lo modela. No solo registra lo que hacemos: construye las condiciones para que hagamos algo específico.

Por eso, intentar resolver el problema desde el uso individual, “menos pantalla”, “más control parental”, “mejor hábito”, equivale a combatir el cambio climático apagando la luz de casa. La raíz no está en el usuario, sino en el sistema que construye los dispositivos, define sus reglas, diseña sus algoritmos y establece sus incentivos. El problema no es que las personas dependan de las plataformas; es que las plataformas necesitan que dependamos de ellas.

El próximo y último bloque, entonces, no buscará responsabilizar a los usuarios, sino formular un camino posible hacia una alfabetización digital crítica, donde el objetivo no sea demonizar la tecnología sino recuperar agencia frente a ella. No se trata de abandonar las pantallas, sino de transformar el vínculo para que pensar siga siendo posible.


BLOQUE 6 — Hacia una alfabetización digital crítica: recuperar agencia en un sistema que no nos elige

Si aceptar que la arquitectura digital no fue diseñada para nuestro bienestar es el primer paso, el siguiente es preguntarnos qué podemos hacer al respecto. Pero esta pregunta no puede responderse desde la lógica individualista "usar menos redes", "poner límites", "apagar el teléfono", porque eso equivale a enfrentar un sistema global con herramientas domésticas. No alcanza con disciplinar al usuario cuando es la plataforma la que define las reglas.

Hablar de alfabetización digital crítica no implica enseñar “a usar la tecnología”, porque las nuevas generaciones ya la usan con soltura. Tampoco significa prohibir pantallas, demonizar videojuegos o construir un discurso nostálgico sobre el “mundo analógico”. La alfabetización digital que necesitamos es otra: una que permita comprender la lógica del sistema, no solo interactuar con él. Es una alfabetización que pregunta quién diseña, para qué, con qué incentivos, con qué consecuencias, para quiénes y a costa de qué. Una alfabetización que devuelve agencia en lugar de pedir obediencia.

En este sentido, la educación digital no debería limitarse a competencias técnicas, sino incorporar dimensiones éticas, políticas, psicológicas, ambientales y económicas. No se trata de aprender a programar, sino de aprender a no ser programados.

Las escuelas tienen un rol central, pero no en el sentido habitual. No basta con usar tabletas, aulas virtuales o inteligencia artificial para “modernizar” la enseñanza. El desafío no es enseñar con tecnología, sino enseñar sobre la tecnología: desnudar la infraestructura, mostrar sus intereses, evidenciar cómo modela identidad, deseo y creencias. 

Extraída de Pexels


En vez de introducir más pantallas en el aula, la escuela podría ser el espacio donde se recupera la experiencia del tiempo lento, el pensamiento deliberado y el encuentro presencial. Un contrapeso cultural, no una extensión del sistema.

Lo mismo ocurre con las familias. El discurso dominante las responsabiliza completamente: deben poner límites, regular horarios, controlar contenido, promover hábitos saludables. Pero ningún hogar puede competir con corporaciones que contratan especialistas en adicción, que modelan algoritmos globales y que operan sin regulación proporcional a su impacto. Las familias pueden acompañar, orientar y sostener afectivamente, pero no pueden desactivar solas una arquitectura diseñada para vencerlas. La presencia adulta es necesaria, pero no suficiente.

Por eso, la alfabetización digital crítica también exige políticas públicas. No regulación punitiva ni prohibicionista, pero sí marcos éticos que protejan derechos y moderen daños. Así como existen normas para industrias que afectan cuerpos y mentes, comida, tabaco, medicamentos, la tecnología no debería ser una excepción. Países como China, mencionados en la cobertura de BBC Mundo, han establecido límites horarios de uso de videojuegos en menores. La Unión Europea avanza con normativas sobre inteligencia artificial y protección de datos. Estas iniciativas marcan un comienzo: no regulan el uso, regulan el poder.

Sin embargo, ninguna política será suficiente sin un cambio cultural más profundo. Una alfabetización crítica no busca “volver al pasado”, sino recuperar algo esencial: la capacidad de decidir qué tipo de relación queremos tener con la tecnología, en lugar de aceptar la relación que la tecnología diseña para nosotros. Implica volver a conectar el pensamiento con el cuerpo, el tiempo, el lenguaje, la presencia y la emoción no mediada. Implica elegir cuándo estar y cuándo no estar, sin que el algoritmo decida por nosotros.

En otras palabras, no se trata de desconectar: se trata de hacer de la conexión un acto político y no un reflejo automático.

Lo digital puede expandir la vida, profundizar la educación y democratizar el conocimiento, pero solo si no renunciamos a la posibilidad de moldearlo. La pregunta que este bloque abre no es cómo “protegernos” de la tecnología, sino cómo reinventarla de forma que la inteligencia colectiva sea más valiosa que la extracción de datos. Y ese interrogante lleva inevitablemente al cierre final de este Informe: no cómo nos adaptamos al mundo digital, sino qué mundo digital estamos dispuestos a construir.

CIERRE FINAL — La pregunta que queda abierta

Imagen realizada en Canva y subida a IMGBB


Las redes sociales y la inteligencia artificial no son solo herramientas, ni espacios de interacción digital: son infraestructuras que median nuestra percepción, nuestra memoria, nuestras emociones y nuestras relaciones. Durante este informe analizamos cómo estas tecnologías afectan a las personas, especialmente a las infancias y adolescencias, y cómo sus impactos no son errores ni excesos, sino consecuencias directas de modelos de negocio que convierten la atención humana en recurso extractor.

Vimos que no es un problema de “uso irresponsable” ni de “falta de hábitos”. Es un sistema diseñado para moldear comportamientos, capturar datos y orientar deseos. Un ecosistema que necesita mantenernos conectados para funcionar y que encuentra en los jóvenes no a sus usuarios más hábiles, sino a sus sujetos más vulnerables.

La pregunta que emerge no es si la tecnología va a definir nuestras vidas, sino qué tipo de vida queremos que la tecnología habilite. No es si las plataformas afectan la democracia, sino qué democracia puede existir cuando nuestras conversaciones pasan por filtros algorítmicos. No es si la inteligencia artificial es una herramienta poderosa, sino quién la controla, con qué fines y con qué costos sociales, ambientales y cognitivos.

Este informe no propone nostalgia ni rechazo a lo digital. Propone algo más difícil y más urgente: recuperar la capacidad de decidir. Porque la otra cara de la tecnología no es su parte “mala”: es la estructura política y económica que la sostiene. Y esa estructura puede cambiar.

El desafío de nuestra generación no es adaptarnos al mundo digital.
Es construir uno donde pensar siga siendo posible.

Para seguir profundizando 📌

Si este contenido te gustó y querés seguir profundizando sobre la otra cara de la tecnología, te invito a escuchar el episodio del podcast en Spotify y a ver el video complementario en YouTube.
Me encontrás como Perspectivas con Melanie Silva.

SPOTIFY 

La tecnología promete conectarnos, educarnos y hacer la vida más fácil. Pero detrás de esa promesa se esconde otra historia: extracción de datos, diseño adictivo, algoritmos que moldean el comportamiento y consecuencias profundas en el desarrollo cognitivo de las nuevas generaciones.

Este episodio es un Informe Especial que investiga la otra cara de las redes sociales y de la inteligencia artificial, trazando un paralelismo entre la economía de la atención, la adicción digital y los efectos sociales visibles en los llamados nativos digitales.

Incluye fragmentos del divulgador Santiago Bilinkis y del informe de Televisión Pública sobre la OMS, donde se reconoce por primera vez la adicción a los videojuegos como problema de salud mental.

YOUTUBE

Este video forma parte del Informe Especial “La Otra Cara” y continúa el análisis iniciado en este artículo sobre los efectos sociales de las redes sociales, la inteligencia artificial y el ecosistema digital en las nuevas generaciones.

A partir del material de cátedra, investigaciones periodísticas y referencias audiovisuales, el video aborda tres dimensiones centrales:

-el diseño persuasivo de plataformas digitales, expuesto en The Social Dilemma (Netflix).

-el impacto cognitivo y educativo documentado por Michel Desmurget en La fábrica de cretinos digitales.

-la preocupación sanitaria internacional tras el reconocimiento de la adicción a los videojuegos como trastorno por parte de la Organización Mundial de la Salud (OMS), difundido por Euronews.

Además, incorpora testimonios sobre el trabajo humano utilizado en el entrenamiento de modelos de IA, un fenómeno presente en investigaciones sobre colonialismo digital, y una reflexión crítica sobre el rol de la inteligencia artificial en la reproducción de desigualdades y en el consumo ambiental asociado a su desarrollo.


Bibliografía y Fuentes Consultadas 

Materiales de cátedra y textos proporcionados durante la cursada:

-Desmurget, Michel. Fragmentos seleccionados La fábrica de cretinos digitales. Material de clase.
Aportes utilizados: impacto cognitivo, desarrollo infantil, funciones ejecutivas, descenso del CI.

-Clases Finales – (material de cátedra)
Sección sobre Belinda Parmar, campaña #TheTruthAboutTech, concepto de "tecnología basura".
Aportes utilizados: adicción digital, dependencia emocional, diseño adictivo.

-Análisis del documental El dilema de las redes sociales (Netflix)
Testimonios de exempleados de empresas tecnológicas, mecanismos de retención y manipulación algorítmica.
Aportes utilizados: economía de la atención, diseño persuasivo.

-Redes Sociales e IA: Riesgos y Denuncias (PDF)
Aportes utilizados: explotación cognitiva, impacto social, arquitectura algorítmica.

-Usos y Efectos de la IA en Educación (PDF)
Aportes utilizados: rol de la tecnología en procesos formativos, efectos estructurales en aprendizaje.

Noticias utilizadas como referencia contextual:

-BBC News Mundo.
“Los ‘nativos digitales’ son la primera generación con un coeficiente intelectual más bajo que sus padres”
Aporte: contextualización empírica del descenso del CI y preocupación institucional.

-BBC News Mundo.
“China impone restricciones a menores en videojuegos ante riesgos de adicción tecnológica”
Aporte: evidencia de intervención estatal y reconocimiento de la adicción digital como problema estructural.

Influencias teóricas mencionadas (citadas como marco conceptual, no como fuentes primarias en este trabajo):

-Inspirado en Shoshana Zuboff, capitalismo de vigilancia (sin uso de texto original, referencia conceptual).

-Inspirado en debates sobre colonialismo de datos asociados a Couldry & Mejías (mencionado como marco conceptual general, no fuente textual en esta parte).


Compartir:  

Las redes sociales y la inteligencia artificial, dos caras de una misma moneda.

Un informe especial sobre atención, datos y generaciones en jaque.

La hiperconexión que no todos comprenden.

Por Lucas Biondi

Vivimos en un mundo donde la velocidad lo es todo, más conectado, más inteligente, más eficiente. Durante años, se instaló el imaginario de que Internet, las redes sociales y la inteligencia artificial iban a hacer del mundo algo mejor, algo mas facil y no complicarnos. Todo más rápido, más cómodo, más inteligente. Y en muchos aspectos lo es. Pero esa inmediatez la cual celebramos y nos acostumbramos en nuestras vidas digitales también empezó a trasladarse en nuestros hábitos cotidianos, es decir, a la vida real en las decisiones que tomamos y en la forma en que pensamos. A veces no lo notamos, pero nuestros dispositivos ya no solo reflejan nuestra vida, la transforman.

Este informe quiere mirar la otra cara de la moneda. No buscamos demonizar la tecnología, sino que este informe busca mirar aquello que solemos dejar fuera del encuadre, aquello que dejamos o aquello que quienes nacieron con esta realidad nunca conocieron. Porque cada avance tiene una contracara, y hoy esa contracara afecta especialmente a quienes nacieron dentro del ecosistema digital, los niños, adolescentes y jóvenes que nunca conocieron un mundo desconectado.

La atención, el bien más caro de nuestros días.

Cuando nos preguntamos “¿por qué pasó tanto tiempo en el teléfono?”, podremos afirmar que la pregunta es errónea, deberíamos preguntarnos “¿qué mecanismos se diseñaron para que no pueda dejarlo? ” Las plataformas compiten por algo que es limitado, frágil y muy valioso, no solo para ellos sino para nosotros, se trata de nuestro tiempo y nuestra atención. 

Cada notificación, cada video que se reproduce solo, es parte de un sistema estructural para retenerte. La BBC y organizaciones de investigación en tecnología han documentado cómo estos sistemas funcionan igual que un casino, nos brindan refuerzos intermitentes, pequeñas recompensas impredecibles que generan un comportamiento casi automático. Ahí entran los algoritmos, máquinas que aprenden qué te interesa, qué te enoja, qué te emociona y qué te retiene. No son neutrales, están programados para manipular tu permanencia. Y cuanto más te quedás, más aprenden de vos. 

¿El oro invisible? Tus datos personales y cómo se usan.

Hoy no es necesario que digamos en voz alta lo que pensamos, todos nuestra ideología esta volcada en nuestros nuestros rastros digitales ya lo dicen por nosotros. Cada búsqueda, cada pausa en un video, cada “me gusta” queda registrado. Esos rastros no solo definen lo que hacés, también proyectan lo que probablemente hagas después. 

Adiccion a las redes: El poder del refuerzo intermitente

Empresas y anunciantes usan esos datos para construir perfiles ultradetallados. Según reportes del MIT y medios como NBC, esos perfiles no solo miden lo que comprás, predicen tus emociones, tus vulnerabilidades y tus elecciones. No es marketing masivo, se trata de marketing quirúrgico.

Con esa información, los algoritmos personalizan lo que ves, lo que te sugieren y lo que te “deberías interesar”. No es solo para venderte algo, también para mantenerte enganchado, para reforzar patrones de atención y consumo.

La mente digital: ansiedad, fragmentación y vínculos frágiles.

Los efectos ya no son una advertencia, están ahí. Cada vez más estudios muestran que las pantallas sostenidas afectan la atención, el descanso y también el ánimo de chicos y adolescentes. La OMS incluso sumó la adicción a los videojuegos como trastorno, algo que hace unos años parecía exagerado.

A esto se suma otra señal menos ruidosa pero igual de fuerte, cuesta cada vez más leer en profundidad. Entre notificaciones, videítos cortos y el scroll eterno, mantener el foco se vuelve un ejercicio agotador. El cerebro se acostumbra rápido a los estímulos cortos y, cuando queremos sostener una idea durante un rato, ya no responde igual.

Nicholas Carr lo afirma en su libro Superficiales. Después de años en el ecosistema digital, se encontró con que no podía seguir textos largos como antes. Su mente saltaba sola, casi por reflejo. Eso pasa porque el cerebro se adapta a lo que consumimos todo el día.

Si vivimos rodeados de contenidos breves, terminamos entrenados para eso. Nos volvemos buenos en lo inmediato y no solemos soportar aquelo que requiere profundidad o paciencia. No es que no podamos, es que casi no lo practicamos.

Y ahí aparece la pregunta que nadie quiere hacer, ¿qué habilidades estamos dejando en pausa? La concentración, la reflexión, la lectura larga… no desaparecen, pero se debilitan. Y ese cambio ya se nota en toda una generación.

¿La perdida de las capacidades intelectuales?

El efecto Flynn mostró durante décadas que el CI iba subiendo en casi todo el mundo. Pero en los últimos años esa tendencia se frenó e incluso retrocedió en algunos países, dando vida el Efecto Flynn inverso. Eso abrió el debate y la preocupación, ¿qué está pasando con los más jóvenes? 

No hay una sola causa. Las pantallas influyen, sí, pero también pesan la calidad educativa, el contexto familiar y lo económico. Aun así, Michel Desmurget insiste en que la sobreexposición digital afecta hábitos básicos para el desarrollo cognitivo, como sostener la atención o trabajar con información de manera profunda. 

Para él, el problema no es la capacidad de los chicos, sino el ambiente en el que viven. Todo rápido, todo fragmentado, todo cortado por interrupciones. Esa lógica dificulta construir habilidades más profundas. Y en ese punto coincide con Carr, si la lectura y el pensamiento se viven en “modo fragmentado”, las capacidades que dependen de ellos también se resienten.

Los jóvenes no es que no lean, leen mucho, pero con distintos tipos de estímulos. La lectura pasa a ser breve, con saltos de pestaña, y entrecortada por cada notificación. En ese ritmo, la lectura larga queda en un segundo plano.

Los datos van en esa dirección. Las últimas estadisticas PISA marcaron caídas fuertes en comprensión lectora y en tareas que necesitan atención sostenida, sobre todo entre estudiantes que pasan horas haciendo multitarea. Informes europeos muestran lo mismo, cuando la atención se desarma, otras habilidades también. 

Fuente: Elaboracion del Observatorio Argentinos por la Educación en base a OCDE.

Por eso, tal vez la pregunta no es si está bajando el CI, sino retomando la pregunta anterior ¿Que dejamos en pausa?. Quizás ahí radique el verdadero punto de inflexión de esta discusión, si el entorno moldea la mente, entonces recuperar espacios de concentración profunda podría ser una de las claves para revertir esta tendencia.

Leen más… ¿pero cómo?

En un artículo publicado por Almudi, la periodista María Zabala Pino ofrece una mirada liberadora: “Los niños no leen menos, leen más que antes y más que los adultos”. Esa frase tiene peso porque desafía el mito de que las pantallas han destruido la lectura infantil. 

Zabala basa sus argumentos en varios estudios por ejemplo, uno de Gallup que demuestra que la proporción de jóvenes que leen aumentó muchísimo desde mediados del siglo XX. También cita a Pew Research, que en 2014 ya mostraba que los jóvenes leen más que sus padres. 

Pero el punto más revelador no es cuánto leen, sino cómo lo hacen. Según Zabala, hay tres factores clave para entender esta “nueva lectura”, content (el contenido), context (el contexto) y child (el niño). Almudi.org

  • Content: Los textos ya no son solo libros clásicos, sino blogs, artículos digitales, contenido multimedia.
  • Context: El momento en el que se lee importa. La lectura en familia o con un adulto que acompaña marca una diferencia.
  • Child: No todos los niños tienen las mismas capacidades de atención. El desafío es entrenar la lectura voluntaria, no solo la pasiva.

Además, Zabala desactiva otro miedo común, ese de que la “tablet les fríe el cerebro”. No todo tiempo frente a la pantalla es igual; ya que no todo es dañino. Hay tiempo de pantalla útil, estimulante y acompañado. 

Ella también advierte sobre dejar que los niños usen YouTube sin filtro. A veces, conectan sin supervisión y descargan apps sin que los padres sepan qué están haciendo. Para la autora, parte de la solución está en dialogar, no prohibir, saber qué miran, qué les interesa y acompañarlos con conciencia.

Es imposible y no se trata de eludir la lectura digital, sino de promover una lectura activa, profunda y consciente. Educación, acompañamiento y selección de contenido pueden transformar lo que parece un problema en una oportunidad.

Conectando todo: atención, datos, lectura y salud mental.

Cuando cruzamos lo que dicen los algoritmos, lo que revelan los datos personales y lo que surge del mundo de la lectura, aparece un patrón preocupante, no solo estamos consumiendo más, sino que podríamos estar perdiendo la capacidad de pensar con profundidad. 

  • Las plataformas diseñan para retener atención.
  • Esa retención genera más datos, que alimentan algoritmos cada vez más eficaces.
  • Esos algoritmos refuerzan patrones emocionales y cognitivos, moldeando hábitos y decisiones.
  • La lectura, esa herramienta clásica para detenerse, reflexionar y crecer, está cambiando. No desaparece, pero se transforma.

Cuando los más jóvenes no practican la lectura profunda, cuando su atención fragmentada se acostumbra a estímulos rápidos, la salud mental también lo nota. Ansiedad, insomnio, baja tolerancia a la frustración no son solo efectos colaterales, se tratan de síntomas de una población criándose en un entorno digital diseñado para no desconectarse.

Las consecuencias sociales de la tecnologia.

Los efectos del fenómeno no se quedan en lo individual. Hay consecuencias sociales y culturales:

 1. Polarización: Las plataformas premian lo emocional, lo impactante y lo polémico. La IA decide qué verás según tus emociones, reforzando burbujas y ecos contundentes.

 2. Menos lectura crítica: Si los jóvenes leen más, pero en fragmentos cortos o digitales, la reflexión y el pensamiento crítico pueden debilitarse.

 3. Comparación constante: Redes y algoritmos alimentan la comparación de vidas, cuerpos y logros. Eso impacta la autoestima, especialmente en adolescentes.

 4. Desigualdad: El acceso a herramientas para leer “bien” (tiempo, adultos que acompañen, recursos) no es igual para todos. Algunos pueden beneficiarse de este mundo digital; otros pueden verse más vulnerables.

La IA como nuevo moldeador de pensamiento.

Hasta ahora hablamos de redes y de cómo afectan la atención. Pero la inteligencia artificial mete una capa más, no solo ordena lo que vemos, empieza a influir en cómo pensamos. Y eso es nuevo. 

Los sistemas que “adivinan” lo que queremos nos tiran respuestas listas, atajos y sugerencias que parecen exactas. Eso agiliza todo, sí, pero también nos empuja a dejar de hacer el esfuerzo de pensar por cuenta propia. A veces aceptamos la respuesta sin preguntarnos de dónde salió.  

El problema es que delegamos partes de nuestro proceso mental en sistemas que no explican nada. Y cuando algo te resuelve siempre el camino, uno pierde el hábito de hacerse preguntas. La dependencia no llega de golpe, se filtra de a poco.

Cuanto más confiamos en la IA para decidir, más fácil es soltar nuestra propia voz. Y ahí el riesgo no es técnico, es personal ya que dejamos de ejercitar lo que nos hace pensar, crear, dudar. Por eso queremos invitarte a frenar un momento y mirar este tema desde otro ángulo. Te dejamos un video que realmente, vale la pena ver. La propia IA cuenta cómo se mueve en nuestro día a día, qué puede hacer por nosotros… y qué puede quitarnos si no estamos atentos. No es un video más del scrolleo de todos los días, es de esos que te dejan una pregunta dando vueltas en la cabeza.

¿Existe el cambio de rumbo?

No hace falta apagar todo. La clave es usar la tecnología sin dejar que nos pase por encima. Algunas ideas simples para ello:

Regulación. Más claridad sobre cómo funcionan los algoritmos y menos diseño pensado para retenernos a cualquier precio.

Educación digital. No solo enseñar a usar dispositivos, sino a leer mejor, comparar fuentes y detectar cuándo nos están manipulando.

Acompañamiento. En casa, hablar del uso de pantallas, establecer horarios y elegir contenidos juntos. No dejar que cada uno “aprenda como pueda”.

Volver a la lectura profunda. Guardar tiempo real para leer sin interrupciones, sea en libro o en digital. Lo importante es volver a ejercitar la cabeza.

La tecnología no es el enemigo. Lo peligroso es usarla sin pensar. Tanto las redes como la Inteligencia Artificial tienen un peso enorme sobre nuestros hábitos y decisiones, pero eso no significa que no podamos poner límites.

Este informe intenta justamente eso, frenar un segundo, mirar lo que está pasando y elegir cómo queremos relacionarnos con estas herramientas. Porque si dejamos que la tecnología piense por nosotros, lo que perdemos no es un rato de concentración, perdemos la capacidad de elegir quiénes somos y cómo queremos pensar. Y si perdemos eso, dejamos de ser protagonistas de nuestras propias vidas.

Por eso es tan importante abrir estos espacios, animarnos a cuestionar, a observarnos y a preguntarnos qué lugar queremos darle a la inteligencia artificial en nuestro día a día. No se trata de rechazarla ni de celebrarla sin medida, se trata de entender su impacto, reconocer sus límites y descubrir cómo usarla de una manera que nos potencie en lugar de condicionarnos.

Si llegaste hasta acá, gracias por tomarte este tiempo para leer y reflexionar conmigo.
Y si te quedaste con ganas de profundizar un poco más, también podés escuchar el episodio especial de nuestro podcast “Tu Vida en Línea”, donde seguimos desarrollando estas ideas desde un enfoque más cercano y conversado.

Bibliografia:

Compartir: