Datos como fuente para el control social: el caso de China

El negocio de los datos ha irrumpido con fuerza en el mundo actual de la mano de las nuevas tecnologías. A lo largo de nuestros días ofrecemos nuestra intimidad a las grandes empresas como Google o Facebook y dejamos una “huella digital”. En este sentido, Nick Srnicek explica que las plataformas son modelos de negocio capaces de extraer y controlar una inmensa cantidad de datos, los cuales son “la materia prima que debe ser extraída, y las actividades de los usuarios, la fuente natural de esta materia prima. Los datos son un material que se extrae, se refina y se usa de distintas maneras…”. Uno de esos usos, puede ser el control social. 

El ejemplo más claro del uso de datos para el control puede darse en China, en donde los ciudadanos se encuentran sometidos a un “sistema de crédito social” con el que se evalúa su comportamiento para poder determinar el nivel de “confianza” que posee una persona. Con una puntuación, a cada ciudadano se lo califica en función de sus hábitos cívicos, su estilo de vida, infracciones de tránsito, reconocimiento facial, pero fundamentalmente de los datos que se obtienen mediante la vigilancia de los dispositivos tecnológicos. 

De esta manera, las personas son calificadas con un puntaje que oscila entre 350 y 950 puntos, y dependiendo el número son castigadas (por ejemplo, prohibiéndoles sacar préstamos bancarios) o recompensadas (como por ejemplo alquilando autos sin dejar depósito). Según el diario ABC, las autoridades defienden este sistema asegurando que quieren promover la «cultura de la honestidad» en todos los ámbitos  para lograr una sociedad «armoniosa». No obstante, si bien son públicos algunos parámetros con los que se mide la calificación como qué compras hace una persona por internet, el algoritmo que la calcula no es público. 

Así, uno de los problemas de promover el análisis de datos personales mediante algoritmos para una “cultura de la honestidad” es que puede resultar riesgoso porque no hay forma de saber qué prejuicios o prácticas discriminatorias contienen los algoritmos, puesto que son sistemas opacos que no son objeto de exámenes externos a ellos. Para ejemplificar ese peligro, Evgeny Morozov utiliza el concepto de ficción “Terroristómetro”, en donde se relevan los datos de las librerías digitales para saber quiénes son los usuarios que compran libros que indican un potencial subversivo para prevenir futuros terroristas y plantea que de la misma forma podría existir un Drogómetro o un Comunistómetro. 

No hace falta ir tan lejos para notar las consecuencias que puede traer la recolección de datos para el control social, ya que el mismo peligro existe en el ámbito de las búsquedas laborales en donde un empleador con solo analizar las redes sociales de los postulantes decide si son aptos o no para un puesto, de manera arbitraria, sin importar su formación o experiencia y a veces sin la oportunidad de una entrevista personal. Por ello, es de vital importancia entender que si no tomamos conciencia del uso que las grandes empresas dan a nuestros datos estamos condenados a eventualmente ser evaluados con un sistema de créditos como en China. 

Compartir:  

0 comentarios:

Publicar un comentario