Frente a la supuesta exposición voluntaria de nuestros datos en los tecnomedios, la vigilancia, el saqueo y la acumulación masiva sin consentimiento de nuestras imágenes y datos, se redefine completamente nuestra forma de estar-en-el-mundo y de ser-vistas dentro de la sociedad contemporánea

Siendo la estructura tecnológica -con todo lo que conlleva- el centro neurálgico de Occidente, es sencillo identificar desde dónde y cómo se ha construido dicha estructura cultural. Los campos tecnológicos son un reflejo del avance de la sociedad contemporánea, pero es un proceso manchado del robo y saqueo que Occidente ha ejercido en territorios supuestamente menos industrializados y/o desarrollados. Los procesos vinculados con la datificación, inteligencia artificial o edificación de lógicas algorítmicas, son algunos de los ejemplos más capitales de las nuevas formas de colonización y, por tanto, extractivismo, llevados a cabo bajo el velo de una supuesta “tecnoevolución”. Tal como indica Hito Steyerl en diferentes textos, la inteligencia artificial se consolida en base a los estereotipos y las calamidades discriminatorias más notorias de nuestra estructura sociocultural. Si apelamos a la formulación de imágenes, datos o música por medio de la IA, podemos observar cómo los resultados se tornan a normatividad, a regla y a encierro: “en la lógica liberal de la extracción digital, la explotación y la desigualdad no se cuestionan; se diversifican, en el mejor de los casos” (Steyerl, 2023:103).1 En este orden de cuestiones, cabe señalar que no hablamos de un procesamiento automático aislado, sino de unas tecnologías que se afincan en una sociedad neoliberal en donde abunda la capitalización de nuestros datos y la monetización privatizada de toda nuestra actividad algorítmica: “Las imágenes no son alucinaciones ALEATORIAS, son productos predecibles del populismo de los datos” (Steyerl, 2023:105).2 En otras palabras, las empresas que han monopolizado todo el registro y huella digital -como podría ser Microsoft, Google y muchas otras-, utilizan nuestros datos y archivan nuestras acciones como materia prima para el procesamiento automático de dicha inteligencia. Un trabajo no remunerado, una privacidad violada y la construcción de un cementerio de datos que todavía no sabemos con exactitud en qué se acabará convirtiendo ni qué impacto tendrá en el medio natural mediante la explotación de los generadores. Dwayne Monroe lo explica perfectamente en su trabajo “Chatgpt: Super Rentier”: “the technology industry has hijacked a variety of common goods and then charges us for access to something that should be freely available”. 3 Así mismo, nos plantamos ante una forma contemporánea de hipervigilancia digital. Desde la militancia -y desde la ignorancia sobre el funcionamiento de la nueva era-, utilizamos y utilizábamos algunas plataformas concretas para poder conectarnos a la red y producir contenido sin que se registre, pensando que los mensajes desaparecerían del todo o no formarían parte de dicho entramado –telegram, riseup-. Ahora nos reímos. A pesar de que se venda y se difunda la idea de que podamos tener un espacio de privacidad dentro de un mar de vigilancias no identificadas, no es así. Todo se archiva, se almacena, se estudia y perpetúa el crecimiento de una inteligencia automatizada.

En este orden de cuestiones, nos encontramos ante un problema de producción masiva que tiene como consecuencia directa el trabajo esclavizado, normalmente ejecutado por personas en situación de discriminación estatal -leyes migratorias, situación territorial…-. Es decir, no solo estamos ante un mercado de residuos digitales, sino que también nos enfrentamos a un campo de sobrecarga material para el abastecimiento de dichas tecnologías.

Entonces, ¿qué intereses puede haber en el desarrollo de una inteligencia no-humana si no ayuda a disolver las políticas discriminatorias que nos circundan?, ¿cómo podemos apropiarnos de la maquinaria y utilizarlas desde la militancia para un bien común, justo y equitativo?, ¿cómo podemos politizar desde nuestra situación identitaria las tecnologías que utilizamos?, ¿lo digital es una extensión de nuestro cuerpo?, ¿estamos habitando el paradigma de lo cíborg desde nuestra hibridación visual en el campo digital?

El problema de la perpetuación discriminatoria de muchas de las tecnologías de inteligencia artificial no viene por parte de la propia materia utilizada, sino por los agentes humanos que han participado en la consolidación de dicha inteligencia. Esta maquinaria no es más que un reflejo del imaginario colectivo preponderante en nuestra masa social, en nosotras. El campo contemporáneo digital que nos circunda hoy día es un reflejo del extractivismo tecnológico como forma de colonización directa. Ya no hablamos únicamente de las materias primas que se roban y explotan, sino de las trabajadoras que son obligadas a realizar un trabajo de selección y clasificación traumática, totalmente infrarremunerado; el neocapitalismo en su máximo esplendor y la ejecución en la sombra de la no percepción directa.

Todo logro de Occidente es un producto de un ejercicio de poder previo. Está muy bien visto apelar por la descolonización de nuestro paraguas estatal, pero empezar por revisar nuestras prácticas y consumo cotidiano es esencial para deconstruir las actitudes interiorizadas por imposición política. Entender que nuestra modernidad se construye en base al extractivismo como forma primigenia de colonización de territorio, de ideas y de conocimiento nos ayudará a consolidar un criterio crítico en todas nuestras prácticas, relaciones y vínculos que nos conforman

. Por un activismo atento, detenido y focalizado.

  1. Steyerl, H. (2023). Mean images. New Left Review, p.103 ↩︎
  2. Ibid., p. 105. ↩︎
  3. Monroe, D. (2023), «Chatgpt: Super Rentier», Computational Impacts. ↩︎

BIBLIOGRAFÍA

Monroe, D. (2023), «Chatgpt: Super Rentier», Computational Impacts.

Noble, S. U. (2018). Algorithms of oppression: How Search Engines Reinforce Racism. NYU Press.

Sánchez, I. G. (2020). El ojo y la navaja: Un ensayo sobre el mundo como interfaz. ARCADIA.

Steyerl,      H.      (2023).      Mean      images.      New      Left      Review,      p.103 https://newleftreview.org/issues/ii140/articles/hito-steyerl-mean-images.