La otra cara de las Redes Sociales y la Inteligencia Artificial
SEGUNDA PARTE
![]() |
| Extraída de Pixabay |
Comprender la estructura, no solo el impacto
La primera parte de este Informe Especial expuso la otra cara de las redes sociales y de la inteligencia artificial: una arquitectura digital que extrae atención, datos, trabajo humano, recursos naturales e incluso capacidad cognitiva. Analizamos cómo estas tecnologías afectan a las personas y cómo moldean, en silencio, la forma en que pensamos y habitamos el mundo.
Pero comprender los efectos no es suficiente.
Esta segunda parte retoma todas esas preguntas, las que aparecieron con el deterioro de la atención, con la crianza mediada por pantallas, con el trauma psicológico de quienes entrenan a la IA o con la dependencia emocional del “scroll eterno”, y las desarrolla en un plano más profundo: el de las estructuras tecnológicas, económicas y culturales que hacen posible este modelo.
Ya no se trata de describir qué sucede, sino de entender por qué sucede y qué implica para las generaciones que están creciendo dentro de este sistema. Con ese punto de partida, este bloque aborda a quienes viven este ecosistema no como algo externo, sino como su condición de origen: los nativos digitales.
BLOQUE 4 — Nativos digitales: la generación más vulnerable
![]() |
| Extraída de Pixabay |
Ser nativo digital no significa comprender la tecnología, sino haber nacido dentro de ella. Los jóvenes se mueven con soltura entre aplicaciones y plataformas, pero esa fluidez técnica oculta una vulnerabilidad estructural: no conocieron un mundo sin pantallas, por lo tanto, la tecnología no es una herramienta externa sino el entorno sobre el cual se construye su subjetividad.
Esto aparece de forma recurrente en los materiales de cátedra, donde se explica que la tecnología funciona como mediadora temprana de vínculos, atención y aprendizaje (Apuntes de clase).
1. Nativos digitales, pero no expertos
Los jóvenes dominan el uso técnico de la tecnología, pero desconocen los modelos de negocio, los criterios algorítmicos y los mecanismos de diseño adictivo que están detrás de lo que consumen. Esta idea aparece tanto en el análisis del documental El dilema de las redes sociales, donde exempleados de Google, Pinterest y Facebook explican cómo las interfaces están diseñadas para “retener” y no para informar, como en el archivo sobre tecnología basura del texto de Belinda Parmar (incluido en “Clases finales”).
La habilidad operativa no implica comprensión crítica: saben usar pantallas, pero no usar el entorno donde están inmersos sin ser moldeados por él.
2. La crianza mediada por pantallas: tecnología como entorno, no como herramienta
![]() |
| Extraída de Pexels |
Michel Desmurget, en La fábrica de cretinos digitales, advierte que el cerebro en desarrollo necesita interacción humana, juego corporal, silencio cognitivo y construcción verbal sostenida. Los fragmentos trabajados en clase subrayan que cuando la pantalla reemplaza esas experiencias durante la infancia, no solo ocupa tiempo: ocupa funciones de desarrollo.
Esto se articula con el caso citado en Clases Finales sobre Belinda Parmar, quien describe cómo los dispositivos moldean identidad, emoción y socialización desde edades tempranas, generando dependencia, ansiedad y una relación adictiva con la gratificación instantánea (#TheTruthAboutTech).
El problema no es “el exceso”, sino que la pantalla aparece en momentos críticos de desarrollo.
3. Consecuencias sociales: ansiedad, aislamiento y vínculos empobrecidos
Los materiales analizados coinciden en un punto clave: las plataformas no solo capturan atención, sino que redefinen las relaciones sociales. El documental El dilema de las redes sociales sostiene que las redes funcionan como sistemas de dopamina que condicionan autoestima y comportamiento adolescente. Parmar, desde su campaña, suma que el entorno digital fomenta comparación constante, pérdida de empatía y construcción de identidad basada en métricas visibles (“likes”, vistas, rachas).
Los apuntes trabajados en clase indican efectos frecuentes:
ansiedad asociada a autoimagen
aislamiento pese a hiperconexión
dificultad para sostener vínculos presenciales
reducción de habilidades sociales y lenguaje corporal
No son reacciones individuales; son consecuencias sistémicas del diseño.
4. El mito del multitasking: fragmentación cognitiva como forma de vida
Los materiales que analizamos sobre sobreestimulación digital afirman que el cerebro no puede procesar multitarea cognitiva, solo alternar foco rápidamente. Ese cambio constante deteriora memoria de trabajo, comprensión lectora y pensamiento profundo.
Esta idea dialoga directamente con Desmurget, quien plantea que el cerebro infantil se ve especialmente afectado porque sus funciones ejecutivas aún no están maduras. El resultado no es eficiencia: es agotamiento cognitivo y dependencia del estímulo constante.
Lo que llamamos “adaptación a lo digital” es, en realidad, entrenamiento para la dispersión.
5. La primera generación con un coeficiente intelectual promedio más bajo
![]() |
| Extraída de Pexels |
Los fragmentos de La fábrica de cretinos digitales, de Michel Desmurget, que trabajamos en clase sostienen que el descenso del CI en una generación reciente no es producto de genética, sino de entorno cognitivo. Tal como reporta un artículo de BBC News Mundo, “los nativos digitales son la primera generación con un coeficiente intelectual más bajo que sus padres”.
Este fenómeno se explica por una combinación de factores: menos lectura prolongada, interacción cara a cara reducida, ambientación digital constante, estímulos fragmentados, menor desarrollo de lenguaje complejo y escasa exposición a silencio cognitivo. Desmurget señala que el cerebro aprende mediante esfuerzo, repetición e interacción humana, elementos que en muchos casos son suplantados o desplazados por pantallas prematuras.
El dato del CI no es solo alarmante: es un síntoma de que este entorno digital no solo condiciona hábitos, sino que reconfigura las condiciones de desarrollo cognitivo. La inteligencia no está desapareciendo, pero se enfrenta a un terreno hostil donde florecer se vuelve más difícil.
Una vulnerabilidad producida, no elegida
Los nativos digitales no son frágiles por naturaleza: son la primera generación formada por plataformas construidas para retener su atención y modelar su comportamiento. El archivo sobre Parmar aporta una frase clave: “ya no controlamos la tecnología; ella nos controla a nosotros”. Las consecuencias sociales, cognitivas y emocionales no son efectos colaterales: son parte del modelo de negocio. Por eso este bloque no concluye con responsabilidad individual, sino con una pregunta estructural:
¿Qué cambios necesitamos en el diseño de plataformas, en las escuelas, en las políticas públicas y en la regulación para que el desarrollo humano no quede subordinado a los incentivos del mercado tecnológico?
Este interrogante abre paso al Bloque 5, donde analizaremos la arquitectura de poder que organiza este ecosistema.
BLOQUE 5 — La raíz del problema: una arquitectura digital que no nos cuida
Las consecuencias cognitivas, sociales y emocionales que afectan a los nativos digitales, y que analizamos en los bloques anteriores, no pueden entenderse como una falla de hábitos individuales, ni de crianza, ni siquiera de educación. No se trata simplemente de “usar menos pantallas” ni de “aprender a desconectarse”. El problema es más profundo: la arquitectura digital fue diseñada para que desconectarse sea imposible.
Las plataformas no existen para acompañar a los usuarios, sino para capturar y retener su atención el mayor tiempo posible. El objetivo no es estimular pensamiento crítico, ni facilitar aprendizaje, ni mejorar las relaciones humanas: es producir datos, predecir comportamientos y convertir la vida cotidiana en un flujo continuo de información comercializable.
En este sentido, la tecnología digital no funciona como un medio neutral, sino como una estructura económica basada en incentivos que chocan con el bienestar humano. La economía de las plataformas necesita usuarios inmersos, no usuarios críticos; necesita interacción constante, no silencio cognitivo; necesita compulsión, no reflexión. Las métricas que sostienen el negocio, tiempo de visualización, frecuencia de uso, engagement, clics, permanencia en la plataforma, son incompatibles con el desarrollo sano de la atención, la empatía o el pensamiento complejo.
| Extraída de Unsplash |
Esto no es accidental: es el modelo.
Ex-ingenieros de Google, Facebook y Pinterest, citados en el análisis del documental El dilema de las redes sociales (Netflix), explican que los algoritmos no solo organizan contenido, sino que modifican conductas. Las plataformas no buscan mostrar lo que el usuario desea ver, sino lo que asegura que vuelva. Es una ingeniería del comportamiento a escala industrial. El producto no es el contenido: el producto es el usuario modelado.
Este funcionamiento se vuelve más claro cuando observamos qué tipo de tecnología se vuelve rentable. Interfaces con scroll infinito, reproducción automática, notificaciones “urgentes”, recompensas intermitentes, diseño gamificado, estímulos explosivos y loops sin fin no son decisiones estéticas: son formas de garantizar permanencia. Si un contenido invita a desconectarse, reflexionar o detenerse, es un mal negocio; si genera compulsión, ansiedad o adicción, es rentable.
Belinda Parmar lo sintetiza en la frase incluida en el material visto en clase: “ya no controlamos la tecnología; ella nos controla a nosotros”. Su campaña #TheTruthAboutTech denuncia que esta arquitectura no fue pensada para el bienestar, sino para maximizar datos y dopamina. Por eso habla de “tecnología basura”: no porque sea simple o superficial, sino porque funciona como la comida ultra procesada del ecosistema digital, alta en estímulo, baja en nutrición, diseñada para generar dependencia.
Esta lógica económica se refuerza por la falta de regulación estatal. A diferencia de industrias que han dañado la salud pública, tabaco, alimentos ultra procesados, alcohol, la tecnología opera sin una normativa proporcional a su impacto. Países como China han comenzado a regular horarios de videojuegos en menores, como señala BBC News Mundo, pero son excepciones. En la mayoría de los casos, el mercado decide solo y lo hace bajo criterios comerciales, no éticos ni educativos. Las familias quedan solas, las escuelas reaccionan tarde, los Estados observan desde atrás. El resultado es un ecosistema en el que el ciudadano no es cliente, sino materia prima. Su atención, su lenguaje, su identidad, sus emociones y hasta sus vínculos son recursos extraídos, medidos y transformados en capital. La tecnología no observa al usuario: lo predice, lo orienta, lo modela. No solo registra lo que hacemos: construye las condiciones para que hagamos algo específico.
Por eso, intentar resolver el problema desde el uso individual, “menos pantalla”, “más control parental”, “mejor hábito”, equivale a combatir el cambio climático apagando la luz de casa. La raíz no está en el usuario, sino en el sistema que construye los dispositivos, define sus reglas, diseña sus algoritmos y establece sus incentivos. El problema no es que las personas dependan de las plataformas; es que las plataformas necesitan que dependamos de ellas.
El próximo y último bloque, entonces, no buscará responsabilizar a los usuarios, sino formular un camino posible hacia una alfabetización digital crítica, donde el objetivo no sea demonizar la tecnología sino recuperar agencia frente a ella. No se trata de abandonar las pantallas, sino de transformar el vínculo para que pensar siga siendo posible.
BLOQUE 6 — Hacia una alfabetización digital crítica: recuperar agencia en un sistema que no nos elige
Si aceptar que la arquitectura digital no fue diseñada para nuestro bienestar es el primer paso, el siguiente es preguntarnos qué podemos hacer al respecto. Pero esta pregunta no puede responderse desde la lógica individualista "usar menos redes", "poner límites", "apagar el teléfono", porque eso equivale a enfrentar un sistema global con herramientas domésticas. No alcanza con disciplinar al usuario cuando es la plataforma la que define las reglas.
Hablar de alfabetización digital crítica no implica enseñar “a usar la tecnología”, porque las nuevas generaciones ya la usan con soltura. Tampoco significa prohibir pantallas, demonizar videojuegos o construir un discurso nostálgico sobre el “mundo analógico”. La alfabetización digital que necesitamos es otra: una que permita comprender la lógica del sistema, no solo interactuar con él. Es una alfabetización que pregunta quién diseña, para qué, con qué incentivos, con qué consecuencias, para quiénes y a costa de qué. Una alfabetización que devuelve agencia en lugar de pedir obediencia.
En este sentido, la educación digital no debería limitarse a competencias técnicas, sino incorporar dimensiones éticas, políticas, psicológicas, ambientales y económicas. No se trata de aprender a programar, sino de aprender a no ser programados.
Las escuelas tienen un rol central, pero no en el sentido habitual. No basta con usar tabletas, aulas virtuales o inteligencia artificial para “modernizar” la enseñanza. El desafío no es enseñar con tecnología, sino enseñar sobre la tecnología: desnudar la infraestructura, mostrar sus intereses, evidenciar cómo modela identidad, deseo y creencias.
![]() |
| Extraída de Pexels |
En vez de introducir más pantallas en el aula, la escuela podría ser el espacio donde se recupera la experiencia del tiempo lento, el pensamiento deliberado y el encuentro presencial. Un contrapeso cultural, no una extensión del sistema.
Lo mismo ocurre con las familias. El discurso dominante las responsabiliza completamente: deben poner límites, regular horarios, controlar contenido, promover hábitos saludables. Pero ningún hogar puede competir con corporaciones que contratan especialistas en adicción, que modelan algoritmos globales y que operan sin regulación proporcional a su impacto. Las familias pueden acompañar, orientar y sostener afectivamente, pero no pueden desactivar solas una arquitectura diseñada para vencerlas. La presencia adulta es necesaria, pero no suficiente.
Por eso, la alfabetización digital crítica también exige políticas públicas. No regulación punitiva ni prohibicionista, pero sí marcos éticos que protejan derechos y moderen daños. Así como existen normas para industrias que afectan cuerpos y mentes, comida, tabaco, medicamentos, la tecnología no debería ser una excepción. Países como China, mencionados en la cobertura de BBC Mundo, han establecido límites horarios de uso de videojuegos en menores. La Unión Europea avanza con normativas sobre inteligencia artificial y protección de datos. Estas iniciativas marcan un comienzo: no regulan el uso, regulan el poder.
Sin embargo, ninguna política será suficiente sin un cambio cultural más profundo. Una alfabetización crítica no busca “volver al pasado”, sino recuperar algo esencial: la capacidad de decidir qué tipo de relación queremos tener con la tecnología, en lugar de aceptar la relación que la tecnología diseña para nosotros. Implica volver a conectar el pensamiento con el cuerpo, el tiempo, el lenguaje, la presencia y la emoción no mediada. Implica elegir cuándo estar y cuándo no estar, sin que el algoritmo decida por nosotros.
En otras palabras, no se trata de desconectar: se trata de hacer de la conexión un acto político y no un reflejo automático.
Lo digital puede expandir la vida, profundizar la educación y democratizar el conocimiento, pero solo si no renunciamos a la posibilidad de moldearlo. La pregunta que este bloque abre no es cómo “protegernos” de la tecnología, sino cómo reinventarla de forma que la inteligencia colectiva sea más valiosa que la extracción de datos. Y ese interrogante lleva inevitablemente al cierre final de este Informe: no cómo nos adaptamos al mundo digital, sino qué mundo digital estamos dispuestos a construir.
CIERRE FINAL — La pregunta que queda abierta
![]() |
| Imagen realizada en Canva y subida a IMGBB |
Las redes sociales y la inteligencia artificial no son solo herramientas, ni espacios de interacción digital: son infraestructuras que median nuestra percepción, nuestra memoria, nuestras emociones y nuestras relaciones. Durante este informe analizamos cómo estas tecnologías afectan a las personas, especialmente a las infancias y adolescencias, y cómo sus impactos no son errores ni excesos, sino consecuencias directas de modelos de negocio que convierten la atención humana en recurso extractor.
Vimos que no es un problema de “uso irresponsable” ni de “falta de hábitos”. Es un sistema diseñado para moldear comportamientos, capturar datos y orientar deseos. Un ecosistema que necesita mantenernos conectados para funcionar y que encuentra en los jóvenes no a sus usuarios más hábiles, sino a sus sujetos más vulnerables.
La pregunta que emerge no es si la tecnología va a definir nuestras vidas, sino qué tipo de vida queremos que la tecnología habilite. No es si las plataformas afectan la democracia, sino qué democracia puede existir cuando nuestras conversaciones pasan por filtros algorítmicos. No es si la inteligencia artificial es una herramienta poderosa, sino quién la controla, con qué fines y con qué costos sociales, ambientales y cognitivos.
Este informe no propone nostalgia ni rechazo a lo digital. Propone algo más difícil y más urgente: recuperar la capacidad de decidir. Porque la otra cara de la tecnología no es su parte “mala”: es la estructura política y económica que la sostiene. Y esa estructura puede cambiar.
El desafío de nuestra generación no es adaptarnos al mundo digital.
Es construir uno donde pensar siga siendo posible.
Para seguir profundizando 📌
Si este contenido te gustó y querés seguir profundizando sobre la otra cara de la tecnología, te invito a escuchar el episodio del podcast en Spotify y a ver el video complementario en YouTube.
Me encontrás como Perspectivas con Melanie Silva.
SPOTIFY
La tecnología promete conectarnos, educarnos y hacer la vida más fácil. Pero detrás de esa promesa se esconde otra historia: extracción de datos, diseño adictivo, algoritmos que moldean el comportamiento y consecuencias profundas en el desarrollo cognitivo de las nuevas generaciones.
Este episodio es un Informe Especial que investiga la otra cara de las redes sociales y de la inteligencia artificial, trazando un paralelismo entre la economía de la atención, la adicción digital y los efectos sociales visibles en los llamados nativos digitales.
Incluye fragmentos del divulgador Santiago Bilinkis y del informe de Televisión Pública sobre la OMS, donde se reconoce por primera vez la adicción a los videojuegos como problema de salud mental.
YOUTUBE
Este video forma parte del Informe Especial “La Otra Cara” y continúa el análisis iniciado en este artículo sobre los efectos sociales de las redes sociales, la inteligencia artificial y el ecosistema digital en las nuevas generaciones.
A partir del material de cátedra, investigaciones periodísticas y referencias audiovisuales, el video aborda tres dimensiones centrales:
-el diseño persuasivo de plataformas digitales, expuesto en The Social Dilemma (Netflix).
-el impacto cognitivo y educativo documentado por Michel Desmurget en La fábrica de cretinos digitales.
-la preocupación sanitaria internacional tras el reconocimiento de la adicción a los videojuegos como trastorno por parte de la Organización Mundial de la Salud (OMS), difundido por Euronews.
Además, incorpora testimonios sobre el trabajo humano utilizado en el entrenamiento de modelos de IA, un fenómeno presente en investigaciones sobre colonialismo digital, y una reflexión crítica sobre el rol de la inteligencia artificial en la reproducción de desigualdades y en el consumo ambiental asociado a su desarrollo.
Bibliografía y Fuentes Consultadas
Materiales de cátedra y textos proporcionados durante la cursada:
-Desmurget, Michel. Fragmentos seleccionados La fábrica de cretinos digitales. Material de clase.
Aportes utilizados: impacto cognitivo, desarrollo infantil, funciones ejecutivas, descenso del CI.
-Clases Finales – (material de cátedra)
Sección sobre Belinda Parmar, campaña #TheTruthAboutTech, concepto de "tecnología basura".
Aportes utilizados: adicción digital, dependencia emocional, diseño adictivo.
-Análisis del documental El dilema de las redes sociales (Netflix)
Testimonios de exempleados de empresas tecnológicas, mecanismos de retención y manipulación algorítmica.
Aportes utilizados: economía de la atención, diseño persuasivo.
-Redes Sociales e IA: Riesgos y Denuncias (PDF)
Aportes utilizados: explotación cognitiva, impacto social, arquitectura algorítmica.
-Usos y Efectos de la IA en Educación (PDF)
Aportes utilizados: rol de la tecnología en procesos formativos, efectos estructurales en aprendizaje.
Noticias utilizadas como referencia contextual:
-BBC News Mundo.
“Los ‘nativos digitales’ son la primera generación con un coeficiente intelectual más bajo que sus padres”
Aporte: contextualización empírica del descenso del CI y preocupación institucional.
-BBC News Mundo.
“China impone restricciones a menores en videojuegos ante riesgos de adicción tecnológica”
Aporte: evidencia de intervención estatal y reconocimiento de la adicción digital como problema estructural.
Influencias teóricas mencionadas (citadas como marco conceptual, no como fuentes primarias en este trabajo):
-Inspirado en Shoshana Zuboff, capitalismo de vigilancia (sin uso de texto original, referencia conceptual).
-Inspirado en debates sobre colonialismo de datos asociados a Couldry & Mejías (mencionado como marco conceptual general, no fuente textual en esta parte).







0 comentarios:
Publicar un comentario