| Extraída de Unsplash |
Avances, desigualdades y nuevas formas de dependencia
Por Melanie Victoria Silva
Vivimos en una época donde la inteligencia artificial dejó de ser ciencia ficción. Está en nuestros celulares, en el aula, en el trabajo y hasta en nuestras conversaciones cotidianas. Reconoce rostros, traduce idiomas, corrige textos y responde en segundos. Pero mientras celebramos sus beneficios, ¿vemos lo que ocurre detrás de la pantalla? ¿Quién alimenta a la IA, quién paga sus costos ambientales, quién carga con los daños psicológicos y laborales que esta tecnología produce? Este texto intenta iluminar esa cara oculta, el lado menos visible del “milagro tecnológico”.
Este análisis surge como complemento al episodio del podcast “El costo de la IA”, donde introduje estas preguntas desde una mirada reflexiva y crítica. Aquí vamos más a fondo: sumamos ejemplos concretos, datos documentados y fuentes verificables para comprender que la inteligencia artificial no es solo un conjunto de algoritmos, sino un entramado de decisiones políticas, intereses económicos y vidas humanas.
Entonces, ¿por qué hablar del lado oculto de la IA?
Porque la inteligencia artificial no es neutral.
Cada aplicación, cada chatbot, cada sistema de recomendación fue diseñado desde intereses concretos: corporativos, geopolíticos, militares o comerciales. Aunque la IA parezca “objetiva”, su funcionamiento está atravesado por quién la programa, con qué datos se entrena y para qué se usa. Y ahí aparecen los sesgos, las desigualdades y los efectos sociales que suelen quedar fuera del discurso celebratorio de la innovación.
Históricamente, la tecnología fue presentada como sinónimo de progreso. Pero, como advierte la filósofa Carissa Véliz en su libro Privacidad es poder, esa narrativa suele omitir algo esencial:
“La privacidad es tanto personal como colectiva. Lo que compartimos afecta también a los demás”.
Nuestros datos, los clics, las fotos y las búsquedas que realizamos a diario son convertidos en materia prima para construir modelos predictivos que no solo nos observan, sino que moldean comportamientos.
![]() |
| Extraída de Pexels |
Cada interacción, desde un “me gusta” hasta una compra online, puede usarse para anticipar o influir en nuestras decisiones futuras. La idea de que “si no pagás por el producto, entonces vos sos el producto” ya quedó corta. Hoy, incluso cuando pagamos, nuestros datos siguen siendo el verdadero negocio.
Este es el punto de partida para hablar del lado oculto de la IA: un entramado que combina extracción de datos, trabajo invisible, concentración de poder y un profundo impacto ambiental.
Colonialismo digital: una nueva forma de conquista
El término colonialismo digital no es una metáfora exagerada. Lo utilizan investigadores como Nick Couldry y Ulises Mejías para describir cómo las grandes empresas tecnológicas, en su mayoría del norte global, extraen, procesan y comercializan datos producidos por usuarios de todo el mundo, especialmente de regiones del sur. Como señalan en su libro The Costs of Connection,
“lo que se coloniza ahora no son tierras, sino las vidas cotidianas convertidas en datos”.
El esquema se sostiene en tres dimensiones:
-Extracción: nuestras interacciones generan información que las plataformas capturan de manera constante. No somos consumidores pasivos: somos productores involuntarios de materia prima digital.
-Concentración: los servidores y laboratorios donde se procesa esa información están localizados en países con infraestructura tecnológica avanzada. El conocimiento y las ganancias quedan en manos de pocas corporaciones.
-Dependencia: los países que no desarrollan tecnología propia deben pagar licencias, acceder a servicios cerrados o aceptar condiciones impuestas por quienes controlan los algoritmos.
Este modelo reproduce una lógica conocida: los recursos (antes minerales o agrícolas) se extraen del sur, mientras el valor agregado y el poder se acumulan en el norte. Solo que ahora el recurso no es tangible: son los datos, esa nueva forma de oro digital.
En América del Sur, por ejemplo, las empresas de IA utilizan imágenes, textos y audios generados localmente para entrenar modelos globales sin que exista retribución económica ni control sobre su uso posterior. Un caso reciente es el de TikTok, señalada por su vínculo con el gobierno chino y su capacidad para recolectar información de millones de usuarios jóvenes en todo el mundo. Su éxito global es también un recordatorio de que controlar los algoritmos significa controlar la información, y con ella, una parte del poder político y cultural contemporáneo. Así, el colonialismo digital no necesita ejércitos: le basta con servidores, contratos y términos de uso que nadie lee.
Explotación humana: las nuevas fábricas invisibles de la IA
Cuando pensamos en “inteligencia artificial”, solemos imaginar algoritmos que aprenden solos, máquinas que piensan o sistemas que se entrenan de manera autónoma. Pero la verdad es otra: detrás de cada modelo de IA hay miles de personas que hacen el trabajo sucio, ese que los algoritmos aún no pueden hacer. Son quienes etiquetan datos, moderan contenido violento y revisan materiales perturbadores para enseñar a la IA qué debe reconocer como inaceptable. Este proceso, conocido como entrenamiento supervisado, es esencial para que los sistemas “aprendan” a distinguir entre lo correcto y lo dañino. Sin embargo, se sostiene sobre un entramado de explotación laboral que reproduce viejas lógicas coloniales.
Empresas como Meta, OpenAI, Google y TikTok subcontratan esta tarea a compañías intermedias como Sama o Majorel, instaladas en países del Sur Global, Kenia, Colombia, Filipinas, Venezuela, donde los costos laborales son mínimos. Los llamados trabajadores fantasma ganan entre 1 y 2 dólares por hora, según reveló una investigación de Time Magazine (2023), revisando textos e imágenes que van desde discursos de odio hasta descripciones de abuso infantil o suicidio. Estas personas sostienen con su salud mental la limpieza de los espacios digitales que millones usamos cada día. Sin embargo, su labor permanece invisible, ocultada por contratos de confidencialidad (NDA) y por una retórica de innovación que omite su existencia.
![]() |
| Recuperada de Infobae |
La organización DataGénero lo sintetiza con precisión:
“La inteligencia artificial no se entrena sola: se entrena con cuerpos cansados, mentes agotadas y vidas precarizadas.”
No es casual que este fenómeno se haya descrito como “la nueva esclavitud digital”. Al igual que en los viejos sistemas coloniales, los beneficios se acumulan en el norte, donde están las sedes de las empresas, mientras los costos humanos recaen sobre el sur. Y si bien algunos defensores del modelo argumentan que “al menos genera empleo”, los datos muestran que esos empleos precarizan más de lo que empoderan: contratos temporarios, vigilancia constante, imposibilidad de sindicalización y ausencia total de acompañamiento psicológico. La tecnología, que promete liberar tiempo y trabajo, termina reproduciendo cadenas de dependencia y explotación.
Esta cara humana de la IA no solo se mide en horas de trabajo o salarios miserables. Se mide también en cuerpos agotados, en mentes que no logran dormir, en recuerdos que se vuelven pesadillas. Un informe de Equidem (2025) documentó más de 60 casos de trauma severo en moderadores de contenido en Kenia, Ghana y Colombia. Muchos de ellos fueron diagnosticados con trastorno de estrés postraumático (TEPT) tras pasar meses expuestos a videos de asesinatos, violaciones y suicidios.
En un testimonio conmovedor recogido en el video “Trabajadores de datos: el costo humano de la inteligencia”, moderadores de contenido describen cómo “veían decapitaciones todos los días” y confesaban que, al salir del turno, seguían reviviendo las imágenes aunque cerraran los ojos.
Otros describen síntomas de hipervigilancia, ansiedad, insomnio y desconfianza generalizada. La línea entre el mundo virtual y el real se desdibuja: dejan de poder mirar a sus hijos sin pensar en lo que han visto en pantalla.
Estas voces directas amplían la evidencia de informes y estudios: no solo se trata de jornadas extensas o bajos salarios, sino de un daño psicológico prolongado, en el que el filtro automático que usamos para protegernos se traslada de pantalla a mente. Insertar este video en esa sección aporta una dimensión humana al análisis, mostrandonos que detrás del algoritmo hay cuerpos que padecen y memorias que no se apagan.
Las empresas, por su parte, ofrecen programas de bienestar o sesiones de consejería que, según los propios trabajadores, suelen enfocarse en la productividad, no en la contención emocional. Como señala el periodista Will Knight en Wired España (2023):
“Las corporaciones que predican la ética algorítmica no aplican la misma ética a los humanos que entrenan sus algoritmos.”
Este es el punto de unión entre la explotación laboral y el trauma psicológico: ambos son consecuencias del mismo modelo económico. Un modelo que busca eficiencia, precisión y velocidad, pero que ignora los límites del cuerpo humano.
Los moderadores y entrenadores de IA no solo están mal pagos: son tratados como extensiones del algoritmo, piezas intercambiables en un engranaje de aprendizaje automático que nunca se detiene.
Al observar este panorama, la filósofa Marta Peirano advertía:
“El problema no es la red, sino lo que hacen con ella. Internet no se rompió: la rompieron quienes la convirtieron en una fábrica de vigilancia.”
![]() |
| Extraída de Pexels |
Esa “fábrica” no solo produce datos: produce sufrimiento. Y su existencia nos obliga a revisar qué tipo de progreso estamos dispuestos a aceptar. Ambos fenómenos, la explotación laboral y el trauma psicológico, son manifestaciones de una misma estructura de poder: la que sostiene a la economía de datos.
El sufrimiento de quienes entrenan la IA no es un daño colateral: es una condición de posibilidad para que la inteligencia artificial funcione.
Los algoritmos que usamos para “filtrar el odio” o “detectar violencia” fueron enseñados por personas que se enfrentaron a ese odio y esa violencia todos los días.
El bienestar de unos depende del dolor de otros. Así como el siglo XIX tuvo sus fábricas textiles y el XX sus minas de litio, el siglo XXI tiene sus fábricas de datos, invisibles y globales. El desafío ético de nuestra época no es solo mejorar los algoritmos, sino reconocer la humanidad de quienes los hacen posibles.
El costo ambiental del pensamiento automático
La inteligencia artificial, ese emblema de progreso y modernidad, también deja una huella ecológica que pocas veces se menciona.
![]() |
| Extraída de Pexels |
Cada vez que un modelo de IA se entrena o genera una respuesta, desde un chatbot hasta un sistema de recomendación, se produce un consumo masivo de energía y agua, además de la emisión de toneladas de dióxido de carbono. El entrenamiento de modelos como GPT-3, según un estudio de la Universidad de Massachusetts (Amherst), requirió más de 284 toneladas de CO₂, el equivalente a las emisiones de cinco autos durante toda su vida útil. Y esa cifra es solo una muestra: cada nuevo modelo “más grande y más inteligente” multiplica exponencialmente ese impacto. A esto se suma la infraestructura material que sostiene la nube digital: los centros de datos, gigantescos depósitos de servidores que deben mantenerse refrigerados 24/7.
El informe Impacto ambiental de la inteligencia artificial (2024) advierte que, en regiones áridas como Arizona o España, el enfriamiento de data centers consume millones de litros de agua por día, afectando ecosistemas locales y generando tensiones con las comunidades que enfrentan sequías.
La paradoja es evidente: la tecnología que promete eficiencia termina reproduciendo la misma lógica extractivista que afecta al planeta desde la Revolución Industrial. Solo que ahora, en lugar de chimeneas y fábricas de acero, el humo se disfraza de algoritmo. Y como si fuera poco, la cadena extractiva comienza mucho antes del entrenamiento de los modelos. La minería de litio y de minerales raros, fundamentales para la fabricación de chips, baterías y dispositivos electrónicos, arrastra consigo contaminación, desplazamientos forzados y explotación laboral.
En el norte de Chile, comunidades originarias denuncian que la extracción de litio está secando los salares. En la República Democrática del Congo, el cobalto se extrae en condiciones inhumanas, muchas veces por niños. Todo para sostener una ilusión de inmaterialidad: la de una inteligencia que flota en la nube, pero que en realidad descansa sobre un suelo herido.
Como señala la investigadora Kate Crawford en su libro Atlas of AI (2021):
“Cada línea de código se asienta sobre una montaña de materiales, energía y trabajo humano. La inteligencia artificial no es etérea: es una infraestructura profundamente material.”
El colonialismo digital, entonces, no solo explota cuerpos humanos, sino también territorios.
Así, el Sur Global no solo entrena los algoritmos: también provee los recursos naturales que los hacen posibles. De este modo, el impacto ambiental y la explotación laboral se entrelazan en una misma trama: la de un progreso tecnológico que avanza a costa de la sostenibilidad del planeta y de la dignidad humana.
Una propuesta: reimaginar la inteligencia
Cuando hablamos del “lado oculto” de la inteligencia artificial, no solo nos referimos a la explotación laboral o a la huella ecológica. Hablamos, sobre todo, de una forma de inteligencia que necesita ser repensada desde la ética y la justicia social. Porque detrás del discurso de innovación se esconde un sistema que reproduce desigualdades, consume recursos y moldea comportamientos. No hay neutralidad en la tecnología: toda herramienta refleja la visión del mundo de quienes la diseñan.
La filósofa Carissa Véliz, como ya lo hemos mencionado en otra ocasión, en Privacidad es poder (2020), advierte que delegar el control de nuestros datos y decisiones en corporaciones tecnológicas equivale a ceder poder político y moral. “Quien tiene los datos tiene el poder”, dice. En este sentido, la IA no es solo una cuestión técnica, sino una cuestión democrática.
¿Quién decide qué debe aprender una máquina? ¿Qué sesgos reproduce? ¿A quién beneficia su inteligencia?
Estas preguntas se vuelven urgentes frente al nuevo mapa del trabajo digital: millones de personas en Kenia, Filipinas o Colombia entrenan modelos por menos de dos dólares la hora para que otros, en Silicon Valley, hablen de progreso. Y mientras los cuerpos humanos se desgastan frente a pantallas, los ríos se calientan para enfriar servidores.
La investigadora Marta Peirano sintetiza este escenario con una advertencia que resuena cada vez más:
“La vigilancia es un problema colectivo, como el cambio climático.”
En ambos casos, el daño no se percibe de inmediato, pero se acumula silenciosamente hasta volverse irreversible. Frente a eso, no alcanza con rechazar la tecnología ni con idealizarla. El desafío está en reapropiarnos de ella, en usarla desde una lógica distinta: más humana, más justa, más consciente de sus consecuencias. Porque la inteligencia, artificial o no, debería ser una herramienta para ampliar la libertad y la dignidad, no para restringirlas.
Reimaginar la IA implica pensar en modelos de desarrollo ético: regulaciones que garanticen derechos laborales, transparencia en el uso de datos, sostenibilidad ambiental y una distribución equitativa de los beneficios. También supone reconocer y dar voz a quienes hoy están invisibilizados: los moderadores, los etiquetadores, las comunidades afectadas por la minería o por la contaminación digital.
Como señala la ONU en su informe sobre IA y Derechos Humanos (2023):
“La inteligencia artificial no debe reemplazar el juicio humano, sino fortalecerlo.”
Esa quizás sea la tarea que tenemos por delante: recuperar el sentido humano del conocimiento, volver a poner la tecnología al servicio de la vida, y no al revés.
La siguiente infografía resume los principales ejes abordados en este artículo y propone una mirada integral sobre el costo social, ambiental, educativo y emocional de la inteligencia artificial.
![]() |
| Infografía realizada con Canva y subida a IMGBB |
🎧 Break Cultural | Escucha recomendada
Si te interesa seguir profundizando en este tema, te invito a escuchar el nuevo episodio de mi podcast Perspectivas, titulado “El costo de la IA”.
En este capítulo converso con la propia inteligencia artificial sobre lo que no siempre vemos: la explotación detrás del entrenamiento de los algoritmos, el impacto ambiental del consumo digital y los dilemas éticos de un sistema que promete eficiencia, pero deja huellas humanas y ecológicas.
Una charla que busca abrir preguntas más que cerrar respuestas.
Disponible en Spotify.
📚 Bibliografía y Fuentes Consultadas
1-BBC Mundo. (2023). Detrás del auge de la inteligencia artificial hay un ejército de trabajadores en fábricas de explotación digital.
Disponible en: https://www.bbc.com/mundo/noticias-64827257
2-Couldry, N., & Mejías, U. A. (2019). The Costs of Connection: How Data Is Colonizing Human Life and Appropriating It for Capitalism.
Stanford University Press.
Lectura complementaria: El colonialismo de los datos: la nueva forma de explotación global, en The Conversation.
Disponible en: https://theconversation.com/el-colonialismo-de-los-datos-la-nueva-forma-de-explotacion-global-152836
3-Equidem. (2024). Informe sobre condiciones laborales y trauma psicológico en moderadores de contenido y entrenadores de IA.
Citado en: Explotación y trauma en moderadores de Inteligencia Artificial (material de cátedra).
4-Infobae / The Washington Post. (30 de agosto de 2023). Detrás del auge de la IA hay un ejército de trabajadores en fábricas de explotación digital.
5-MIT Technology Review. (2019). Training a single AI model can emit as much carbon as five cars in their lifetimes.
Basado en el estudio de Strubell, E., Ganesh, A., & McCallum, A. (2019). Energy and Policy Considerations for Deep Learning in NLP.
Disponible en: https://www.technologyreview.com/2019/06/06/239031/ai-is-the-next-climate-change/
6-Peirano, Marta. (2019). La vigilancia es un problema colectivo, como el cambio climático.
Conferencia TED, disponible en: https://youtu.be/7wPFYdazgUs
7-The Conversation. (2023). El litio y la IA: el nuevo oro blanco que amenaza el agua del altiplano.
Disponible en: https://theconversation.com/el-litio-y-la-ia-el-nuevo-oro-blanco-que-amenaza-el-agua-del-altiplano-205414
8-The Conversation. (2024). Esclavismo digital: la cara oculta de la IA.
https://theconversation.com/esclavismo-digital-la-cara-oculta-de-la-ia-266805
9-Véliz, Carissa. (2020). Privacy is Power: Why and How You Should Take Back Control of Your Data. Penguin Random House.
Entrevista en El País: https://elpais.com/tecnologia/2021-01-31/carissa-veliz-la-privacidad-es-poder-y-nos-la-estan-robandonos.html
Materiales de cátedra (2024)
1-La doble cara de la IA
2-Impacto ambiental de la Inteligencia Artificial.
3-Puntos clave sobre el colonialismo de la IA.
4-Nueva esclavitud impulsada por la Inteligencia Artificial.
5-Explotación y trauma en moderadores de Inteligencia Artificial.
6-Universidad Nacional de Quilmes. Cátedra: Comunicación, Tecnología y Sociedad.





0 comentarios:
Publicar un comentario