Informe Especial - Parte 1

La otra cara de las Redes Sociales y la Inteligencia Artificial

        PRIMERA PARTE

Extraída de Pexels

Introducción: cuando la tecnología deja de ser neutral

Durante años, las redes sociales y la inteligencia artificial fueron comunicadas como sinónimos de progreso, libertad, eficiencia y conexión global. Sin embargo, detrás de ese relato optimista existe otra historia: una historia de extracción, manipulación y consecuencias sociales profundas que recién ahora estamos empezando a dimensionar. El propósito de este informe es iluminar esa “otra cara”, reconstruyendo los costos cognitivos, emocionales, ambientales y laborales que se esconden debajo de las pantallas.

Las redes sociales no son “herramientas neutras”: son plataformas diseñadas para capturar atención y modificar comportamientos. La inteligencia artificial no es un “cerebro autónomo”: es una industria alimentada por personas invisibles que etiquetan datos por sueldos miserables, por recursos ambientales consumidos sin control y por la explotación de la vida cotidiana convertida en insumo.

La hipótesis central que guía este informe es clara:

Las redes sociales y la inteligencia artificial comparten una arquitectura extractiva que afecta de manera directa la atención, la salud mental y el desarrollo cognitivo de las nuevas generaciones.
Ese ecosistema digital tiene consecuencias mensurables: desde la epidemia de ansiedad adolescente hasta la confirmación de la OMS sobre la adicción a los videojuegos y la caída del coeficiente intelectual infantil.

A lo largo de los seis bloques que siguen, trazaré este paralelo: cómo lo digital captura tiempo, emociones y datos; cómo la IA transforma esa captura en un modelo económico; y cómo ambos procesos terminan repercutiendo en la mente, el cuerpo y la vida social de quienes hoy crecen inmersos en lo virtual.

Este es un informe sobre el costo humano de un modelo tecnológico que no fue diseñado para cuidarnos.

Nota sobre el proceso de investigación

Toda la información presentada en este Informe Especial surge de un trabajo de investigación que combina múltiples tipos de fuentes: materiales de cátedra, bibliografía especializada, estudios científicos recientes, documentales, informes de organismos internacionales y artículos periodísticos provenientes de medios confiables. Nada de lo expuesto es intuición ni especulación personal: cada afirmación forma parte de un corpus verificable que será citado a medida que aparezca en las distintas piezas del proyecto (Blog Post, Podcast y Video). De este modo, la narrativa no solo busca ser clara y accesible, sino también rigurosa y fundamentada.

BLOQUE 1 — Redes sociales: máquinas de extracción de atención

El documental El dilema de las redes sociales (Netflix) expone con claridad que las plataformas digitales fueron diseñadas para convertirse en sistemas de extracción de atención, comparables a verdaderas máquinas de ingeniería conductual. No se limitan a ofrecer un servicio: modelan nuestros pensamientos, emociones y decisiones a partir de un proceso sistemático de manipulación algorítmica.

Póster oficial del documental "El dilema de las redes sociales"

Denuncias del documental El Dilema de las Redes Sociales

El documental reúne testimonios inéditos de quienes construyeron estas plataformas y hoy denuncian su funcionamiento interno.
Tristan Harris, Aza Raskin, Justin Rosenstein o Tim Kendall, todos ex diseñadores, ingenieros o ejecutivos de Google, Facebook, Twitter o Pinterest, afirman que las redes fueron deliberadamente creadas para capturar nuestra atención el mayor tiempo posible, incluso si eso significa deterioro psicológico, polarización social o vulnerabilidad democrática.

Muchos de ellos describen haber participado en una industria que “experimenta” con miles de millones de usuarios sin consentimiento explícito, mediante algoritmos que evalúan, predicen y modifican comportamiento humano en tiempo real.

Testimonios de ex empleados de Google, Facebook, Twitter y Pinterest

Estos especialistas, arrepentidos y críticos hoy, revelan elementos claves:

El scroll infinito fue diseñado por Aza Raskin para impedir pausas naturales y mantenernos atrapados.

Justin Rosenstein creó el botón “Me Gusta”, pero hoy reconoce su rol en generar adicción y comparación compulsiva.

Tim Kendall, ex presidente de Pinterest, admite que las plataformas compiten por “secuestrar” nuestra atención de la manera más agresiva posible.

Ex empleados de Twitter describen cómo los algoritmos premian contenido extremo porque retiene más tiempo en pantalla.

Estos testimonios muestran que los daños no son consecuencias imprevistas, sino resultados lógicos de decisiones empresariales motivadas económicamente.

Diseño adictivo: scroll infinito, notificaciones y dopamina

Extraída de Pexels


Las redes utilizan principios claves de la psicología del comportamiento:

Scroll infinito → Elimina los límites visuales, transformando el uso en un consumo compulsivo.

Notificaciones intermitentes → Estímulos programados para activar ciclos de dopamina como una máquina tragamonedas.

Recomendaciones personalizadas → Refuerzos que “alimentan” intereses extremos, emociones intensas o contenidos polarizantes.

Cada interacción, scroll, pausa, clic, “like”, se registra para ajustar el algoritmo, maximizando la permanencia.

El documental deja claro que las redes no son adictivas por accidente: fueron diseñadas para serlo.

Manipulación, polarización y radicalización algorítmica

El algoritmo no se limita a mostrar contenido: lo selecciona para moldearnos.

Premia publicaciones que generan indignación, miedo o impacto emocional. Empuja a los usuarios hacia posturas cada vez más extremas porque eso genera más interacción. Crea burbujas informativas donde cada persona ve un mundo distinto, reforzando prejuicios.

Como explica Harris, no se trata de que las plataformas “dividan a propósito”, sino de que su lógica matemática convierte la polarización en un efecto inevitable del modelo de negocio.

Impacto en la democracia y formación de opinión

El documental muestra casos donde campañas políticas, movimientos conspirativos o grupos extremistas crecieron gracias a la microsegmentación.
Las redes permiten:

Dirigir mensajes distintos a cada persona según su vulnerabilidad psicológica.

Influir en elecciones mediante manipulación emocional personalizada.

Crear percepciones distorsionadas de la realidad social.

Así, el sistema erosiona la deliberación pública y debilita instituciones democráticas.

Riesgos para la salud mental (especialmente adolescentes)

Extraída de Pexels


Uno de los segmentos más alarmantes del documental es el que evidencia:

El aumento de ansiedad, depresión y autolesiones en adolescentes desde la aparición de redes sociales (especialmente en chicas).

La asociación directa entre validación digital (‘likes’) y autoestima.

La dependencia psicológica creada por notificaciones y recompensas intermitentes.

La presión por construir identidades “perfectas” basadas en métricas.

Muchos especialistas plantean que estamos ante una crisis de salud mental amplificada por sistemas diseñados para explotar la fragilidad emocional de las adolescencias.

BLOQUE 2 — Inteligencia Artificial: explotación laboral, ambiental y cognitiva

Si en el Bloque 1 vimos que las redes sociales extraen atención y moldean comportamientos, aquí aparece otro tipo de extracción menos visible pero igual de profunda: la Inteligencia Artificial como industria sostenida por mano de obra precarizada, consumo intensivo de recursos naturales y una arquitectura global que reproduce las desigualdades históricas del poder tecnológico.

Cuando hablamos de Inteligencia Artificial, solemos imaginar máquinas brillantes capaces de aprender, automatizar y resolver problemas a una escala que supera al ser humano. Pero los materiales de cátedra revelan otra narrativa, una que la industria tecnológica prefiere mantener oculta: la IA no funciona sola, no es limpia y no es neutral. Detrás de cada modelo hay cuerpos, territorios y mentes puestos al servicio de un sistema que se presenta como inevitable.

Este bloque expone esa zona oculta: cómo la IA reconfigura las relaciones de poder a nivel global, cómo produce nuevas formas de explotación y cómo transforma nuestra manera de estar en el mundo.

1. Colonialismo de la IA: cuando la tecnología depende de la desigualdad

Basado en: Puntos clave sobre el Colonialismo de la IA.

El documento de cátedra explica que la IA se sostiene en un modelo extractivo que no es muy distinto al colonialismo histórico: un centro que acumula riqueza y una periferia que aporta recursos, tiempo, cuerpos y datos.

Extraída de Pexels


Pero ¿qué significa realmente que la IA sea “colonial”?

-Significa que para que el Norte Global avance, el Sur Global retrocede.

-Se extraen datos sin transparencia ni beneficios para quienes los generan.

-Se extrae trabajo humano barato para tareas invisibles.

-Se extraen minerales y energía de territorios vulnerados.

La IA no solo procesa información: procesa desigualdad. Y la reproduce a escala planetaria. En esta clave, la promesa de la IA como motor del progreso se vuelve ambigua: avanza, sí, pero lo hace apoyándose en los viejos cimientos de la desigualdad global. Es innovación construida sobre precariedad.

2. Las fábricas de IA: el lado humano que la industria esconde

Recuperada de un informe de la BBC: Los cientos de miles de trabajadores en países pobres que hacen posible la existencia de inteligencia artificial como ChatGPT (y por qué generan controversia)


Basado en: Nueva esclavitud impulsada por la IA.

Hay una frase que atraviesa el material de cátedra:
“La IA no es inteligente: está entrenada.”
Y quien la entrena no son máquinas, sino miles de personas realizando tareas repetitivas durante horas, por salarios mínimos, en condiciones de vigilancia constante.

Estos espacios, Kenia, Colombia, Filipinas, India, Venezuela, funcionan como las verdaderas fábricas del mundo digital.

¿Qué entrenan?
Todo.
  • Qué es un insulto.
  • Qué es violencia.
  • Qué es un cuerpo.
  • Qué es una emoción.
  • Qué es un ser humano.

Las IA que consideramos “avanzadas” dependen de trabajadores que realizan tareas monótonas, agotadoras y psicológicamente dañinas, bajo métricas algorítmicas que no toleran pausas ni desviaciones. Lo inquietante es que este trabajo no se reconoce como trabajo. No aparece en los anuncios de Silicon Valley. No se celebra. No se nombra. Y sin embargo, sin ellos, no habría chatbots, no habría filtros, no habría automatización.

La IA es presentada como magia; pero hay que verla como lo que es: una industria que se sostiene sobre una mano de obra "desechable" y silenciada.

3. El costo psicológico: las heridas que la IA deja en quienes la entrenan

Extraída de Pexels


Basado en: Explotación y trauma en moderadores de Inteligencia Artificial.

Si el apartado anterior expone la dimensión económica de la explotación, este revela la dimensión humana más cruda. Trabajar para la IA puede destruir la salud mental.

No exagero:

-Moderadores que ven cientos de videos de violencia explícita por día.

-Entrenadores que leen descripciones de abuso infantil durante horas.

-Personas que no pueden dormir, que tienen pesadillas, que se deshumanizan.

La IA aprende, pero quienes la entrenan se quiebran.

Hay un punto especialmente duro que es necesario rescatar: muchos trabajadores no pueden hablar de lo que ven por culpa de acuerdos de confidencialidad impuestos por las empresas. No pueden contarlo a su familia, ni a sus parejas, ni siquiera a un terapeuta.

La IA promete hacer el mundo más seguro, pero lo hace cargando el trauma en quienes sostienen ese trabajo invisible. Lo que nos protege a nosotros, los usuarios, hiere a otros. Este es un punto ético fundamental: la violencia se desplaza, no desaparece.

4. El impacto ambiental: la IA como nueva forma de extractivismo

Extraída de Pixabay

Basado en: Impacto ambiental de la Inteligencia Artificial.

La industria tecnológica insiste en que la IA es “inmaterial”, “digital”, “limpia”, pero por qué no mirar más de cerca esa ilusión.

La IA necesita:

-Miles de litros de agua para enfriar centros de datos.

-Toneladas de litio y cobalto extraídos de territorios en conflicto.

-Enormes cantidades de energía que incrementan la huella de carbono.

Es decir: la IA tiene cuerpo, y su cuerpo está hecho de territorios sacrificados.

Entrenar un solo modelo puede consumir más agua que un barrio completo en un día. Y las zonas donde se instalan centros de datos, como regiones áridas del Oeste de EE.UU. o zonas mineras del Sur Global, enfrentan conflictos por el acceso a recursos básicos.

La IA no flota en el aire: se incrusta en la tierra, la perfora, la calienta, la seca.

Vuelve a aparecer la misma lógica del colonialismo de datos y del trabajo: los beneficios se concentran, los costos se distribuyen hacia abajo.

5. Explotación cognitiva: la IA también extrae de quienes la usan

Este punto es más sutil pero igual de importante. Los materiales utilizados en esta investigación muestran que la IA no solo extrae trabajo y recursos: también extrae tiempo, atención, estilos comunicativos, forma de razonar.

Cada vez que corregimos una respuesta, cada vez que aclaramos algo, cada vez que interactuamos, estamos alimentando al modelo. Somos usuarios, sí, pero también entrenadores involuntarios.
La IA aprende de nosotros, pero nosotros no decidimos que sea así.

Esto reconfigura la relación entre humanos y tecnología: la frontera entre “usar” y “trabajar para” se vuelve difusa. En otras palabras: la IA es extractiva no solo por lo que toma del Sur Global, sino también por lo que toma de cada uno de nosotros.

6. La desigualdad como condición de posibilidad de la IA

Todos los documentos vistos coinciden en un mismo punto, aunque lo aborden desde ángulos distintos:
la IA solo puede funcionar en un mundo desigual.
  • Necesita territorios empobrecidos para extraer minerales.
  • Necesita poblaciones vulnerables para hacer trabajo barato.
  • Necesita usuarios desconcertados para seguir aprendiendo sin ser cuestionada.
  • Necesita Estados débiles para instalar centros de datos sin regulaciones ambientales.
La IA no solo refleja el mundo: lo reorganiza para que su funcionamiento sea posible.

Este es el centro reflexivo del Bloque 2: la IA no es un avance inocente, sino una estructura que se sostiene sobre trabajos invisibles, daños psicológicos y desequilibrios ecológicos.

BLOQUE 3 — La epidemia de la atención: cerebro, cognición y tiempo

Extraída de Pixabay

Después de analizar cómo las redes sociales y la inteligencia artificial operan sobre el mundo exterior, la economía, el trabajo, los territorios, los recursos, es imposible no mirar hacia adentro. La otra cara de estas tecnologías también se juega en un espacio silencioso y vulnerable: el cerebro humano. Especialmente el de las nuevas generaciones, que crecen dentro de un ecosistema digital que condiciona su manera de sentir, pensar y aprender.

Una de las ideas más inquietantes que atraviesa todos los materiales trabajados es que los jóvenes no “pierden” atención porque sí: están siendo formados en un entorno que no les permite desarrollarla. La arquitectura digital actual, optimizada para la captación continua, compite directamente con los procesos naturales del aprendizaje.

1. Un cerebro que intenta madurar en un entorno que no le da tiempo

El cerebro evoluciona en relación con las condiciones del ambiente. Necesita silencio, pausas, ritmos lentos, experiencias prolongadas, aburrimiento y relaciones cara a cara. Pero el entorno digital contemporáneo, lleno de notificaciones, videos breves, estímulos visuales intensos y recompensas inmediatas, introduce una lógica contraria a la de la maduración cognitiva.

Los contenidos están diseñados para ser veloces y envolventes, no para ser comprendidos.
Eso obliga al cerebro, sobre todo en la infancia y la adolescencia, a adaptarse a un ritmo que no puede sostener sin consecuencias. La atención se fragmenta, la memoria se vuelve superficial, el pensamiento profundo se interrumpe antes de consolidarse. Vivimos rodeados de estímulos que no fueron creados para acompañar la maduración humana, sino para retenernos. Y cuando el objetivo es retener, no hay espacio para crecer.

Extraída de Unsplash
Desmurget lo explica con precisión: el cerebro infantil y adolescente es extraordinariamente plástico, y esa plasticidad es un arma de doble filo. Puede aprender, sí, pero también puede desorganizarse si se expone a estímulos que no fueron pensados para acompañar su maduración.


2. La multitarea, o cómo confundir velocidad con inteligencia

En el discurso común aparece la idea de que los jóvenes “pueden con todo”: escuchar música, chatear, mirar TikTok y estudiar al mismo tiempo. Pero esto no es una capacidad: es un síntoma. El cerebro no hace multitarea cognitiva. Lo que hace es saltar. Cambiar de foco. Reiniciar la atención una y otra vez.
Ese salto constante tiene un costo invisible: desgasta la memoria de trabajo, dificulta la comprensión lectora y vuelve cada actividad menos significativa.

Cuanto más se acostumbra un cerebro a vivir interrumpido, más difícil le resulta sostener cualquier proceso que requiera profundidad. Y cuando el pensamiento profundo se debilita, no solo se aprende menos: también se comprende menos el mundo.

3. La caída del coeficiente intelectual: un síntoma generacional

Los estudios que analizan el desarrollo cognitivo infantil muestran un dato que debería alarmarnos: por primera vez, una generación tiene un coeficiente intelectual promedio más bajo que el de sus padres.
Esto no se explica por genética, sino por ambiente. 
La exposición constante a pantallas desde edades muy tempranas, la reducción de conversaciones familiares, la pérdida del juego libre, la sobrecarga audiovisual y la falta de silencio cognitivo afectan funciones básicas: memoria, lenguaje, atención sostenida, regulación emocional, razonamiento lógico.

El cerebro aprende a través de la repetición, el esfuerzo y la interacción humana. Pero estas condiciones se erosionan cuando la mayor parte del tiempo se vive en entornos que priorizan lo inmediato sobre lo profundo. No se trata de “demonizar” la tecnología, sino de reconocer que el costo cognitivo es real:
un cerebro saturado de estímulos fragmentados crece con menos capacidad para organizar el pensamiento.

4. Adicciones digitales: cuando la dopamina se vuelve un mecanismo de diseño

Extraída de Pixabay

La adicción digital no es un accidente: es un diseño. Los videojuegos, las redes sociales, las plataformas de streaming y hasta las aplicaciones más cotidianas funcionan bajo un mismo principio neurobiológico: recompensa inmediata, intermitente y difícil de evitar. Cada notificación, cada logro, cada racha y cada actualización se apoya en un circuito dopaminérgico que mantiene al usuario regresando una y otra vez.

Para un cerebro adolescente, hipersensible al sistema de recompensa y aún inmaduro en el autocontrol, esta arquitectura resulta especialmente peligrosa. No solo captura la atención: captura deseo, emoción y tiempo mental.

Una reciente noticia de BBC News Mundo reporta que varios países ya consideran adoptar medidas regulatorias frente al uso prolongado de videojuegos por menores, citando como ejemplo que en China se ha impuesto un “toque de queda” para juegos en línea en menores de edad, en reconocimiento del riesgo que representa este patrón de consumo. Esta intervención gubernamental confirma que la adicción digital no es un fenómeno individual aislado, sino un problema colectivo de salud pública vinculado directamente con el diseño de plataformas.

El testimonio de Belinda Parmar, y su campaña #TheTruthAboutTech, vuelve esta problemática aún más visible. Parmar, antes celebrada como “evangelista de la tecnología”, hoy advierte sobre el lado oscuro de un sistema generado para generar dependencia. Ella acuña el término “tecnología basura” para describir esos productos diseñados para retener sin enriquecer. Su experiencia personal, con un hijo adicto a videojuegos y un sobrino hospitalizado tras caer en un ciclo de juego compulsivo, subraya la dimensión humana de lo que muchos tratan como mero entretenimiento.

a) Desensibilización y trivialización del daño. Parmar sostiene que muchos videojuegos populares, especialmente los de combate, no convierten a una persona en agresor pero sí naturalizan la violencia, al desvincular acción y consecuencia. Este patrón afecta la formación emocional, la empatía y la percepción del riesgo.

b) Obsesión estructural, no elección inocente. En su análisis, Parmar estima que aproximadamente un 5 % de los niños presentan patrones adictivos severos en relación con videojuegos. Esto no es un problema de voluntad, sino el resultado de una industria que optimiza para la retención del usuario.

c) Gratificación instantánea como diseño. Cada logro desbloqueado, cada “me gusta”, cada visualización o cada avance en un juego dispara dopamina. El cerebro adolescente, con su sistema de recompensa más veloz que su sistema de control, queda atrapado en una búsqueda continua de estímulo.

Este diseño digital no se enfrenta solo a los usuarios, sino a millones de dólares invertidos en ingeniería emocional, gamificación y arquitectura de adicción. Como Parmar señala, “por cada padre que intenta fijar límites, hay miles de diseñadores trabajando para que esos mismos límites fallen”.

Cuando se cruza esta lógica con la evidencia de que una generación crece con menos capacidad de concentración, más fragmentación cognitiva y una menor tolerancia a la frustración, queda claro que la adicción digital no es un tema de hábitos o de moral individual: es una consecuencia directa de un diseño tecnológico que explota instancias cerebrales vulnerables.

En este contexto, las adicciones digitales dejan de ser un problema individual.
Se convierten en un síntoma estructural.
La pregunta no es solo cuánto tiempo pasan los jóvenes frente a las pantallas, sino por qué esas pantallas están diseñadas así y qué tipo de sujeto están produciendo.

5. Homo Interneticus: el sujeto formado por la lógica de las plataformas

Extraída de Google

Las tecnologías digitales no solo modifican comportamientos: modifican subjetividades.
Del análisis de todos los materiales surge una figura que sintetiza esta transformación: el Homo Interneticus, un sujeto que procesa rápido pero piensa poco, que se distrae fácilmente, que vive pendiente de estímulos, que lee sin profundidad y que experimenta el mundo a través de pantallas.

Las plataformas moldean lo que entendemos por “normal”: lo normal es responder rápido, consumir mucho, aburrirse enseguida, desplazarse sin detenerse. Pero el pensamiento crítico, la creatividad y la autonomía requieren exactamente lo contrario: tiempo, desconexión, lentitud y silencio.
Cuando la subjetividad se organiza según lo que el algoritmo espera de nosotros, no solo cambia la atención: cambia la forma de estar en el mundo.

6. El aula en desventaja: cuando aprender compite con la arquitectura digital

Muchos docentes sienten que están perdiendo la batalla por la atención de sus estudiantes. No es una sensación; es una consecuencia estructural del diseño digital.

La escuela trabaja con procesos que requieren continuidad, mientras que el ecosistema digital ofrece recompensas inmediatas.
La lectura compite contra TikTok.
La concentración compite contra notificaciones.
La explicación docente compite contra estímulos diseñados por empresas que invierten millones para mantener al usuario mirando.

En estas condiciones, aprender se vuelve una tarea cuesta arriba no porque “los chicos no quieran”, sino porque el entorno digital les impone un ritmo incompatible con las demandas cognitivas del aula. Las aulas no fallan: compiten con plataformas que no fueron creadas para educar, sino para capturar atención.

Cierre de la Parte 1

Con este bloque llega el cierre de la primera parte del Informe Especial.
Después de ver cómo las redes sociales y la IA extraen atención, trabajo y recursos, ahora entendemos que también extraen algo todavía más íntimo: la capacidad de pensar con profundidad.

Las consecuencias sociales, laborales y ambientales se encuentran con las consecuencias cognitivas. Y es en esa intersección donde se juega el futuro de una generación que creció dentro de una arquitectura digital que no fue diseñada para protegerlos.

Imagen realizada en Canva y subida a IMGBB


La segunda parte del Informe abrirá otras preguntas:

  • ¿Quién debe actuar frente a esto?
  • ¿Cómo se protege a las nuevas generaciones en un entorno adictivo?
  • ¿Qué rol tienen el Estado, la escuela y las familias? 
  • ¿Cómo se construye una alfabetización digital crítica?


Bibliografía y materiales consultados


La elaboración de este Informe Especial se basa exclusivamente en los materiales de cátedra provistos en la materia Medios, Internet y Comunicación Digital, así como en textos, apuntes y documentos de trabajo compartidos durante las clases y actividades prácticas. A continuación se detalla el conjunto de recursos utilizados como base conceptual, analítica y documental para los Bloques 1, 2 y 3.

1. Textos de análisis y notas de cátedra

Análisis del documental El dilema de las redes sociales. Apunte de cátedra con síntesis temática, testimonios de exempleados de Silicon Valley y reflexiones sobre diseño adictivo, manipulación algorítmica y economía de la atención.

Puntos clave sobre el Colonialismo de la IA. Documento elaborado para la materia, inspirado en debates académicos como los de Nick Couldry y Ulises Mejías, con desarrollo conceptual sobre colonialismo de datos, extracción de trabajo humano y desigualdades tecnológicas.

Explotación y trauma en moderadores de Inteligencia Artificial. Material de cátedra que recopila casos reales, demandas judiciales y estudios sobre los daños psicológicos asociados a la moderación de contenido para plataformas digitales.

Nueva esclavitud impulsada por la IA. Apunte basado en investigaciones y testimonios sobre microtrabajo, entrenadores algorítmicos y fábricas de IA en el Sur Global.

Impacto ambiental de la Inteligencia Artificial. Documento técnico de cátedra sobre consumo energético, uso de agua, minería de litio y cobalto, y huella ecológica de los centros de datos.

2. Bibliografía complementaria utilizada

Desmurget, Michel. La fábrica de cretinos digitales. Fragmentos seleccionados trabajados en clase, especialmente aquellos vinculados a maduración cognitiva, atención, plasticidad cerebral y efectos del consumo digital en infancias y adolescencias.

Parmar, Belinda. Entrevista y fragmentos de la campaña #TheTruthAboutTech, incluida en el documento “Clases Finales”. Reflexiones sobre adicción digital, “tecnología basura”, gratificación instantánea y efectos del diseño digital en el desarrollo cognitivo infantil y adolescente.

Materiales sobre sobreestimulación digital, multitarea, funciones ejecutivas y adicciones tecnológicas provistos en la materia y utilizados para contextualizar el análisis del Bloque 3.

3. Recursos audiovisuales

Documental The Social Dilemma (Netflix). Analizado a través de los apuntes de cátedra, utilizado como base para examinar la lógica del diseño adictivo, la infraestructura algorítmica y las prácticas ocultas de las grandes plataformas.
Compartir:  

0 comentarios:

Publicar un comentario