Menu

European news without borders. In your language.

Menu
×

Medición del cuerpo móvil

El arsenal de alta tecnología europea en materia de fronteras se describe a menudo como un cuento futurista de luz, velocidad y potencia informática. Sistemas de identificación como la base de datos Eurodac almacenan, procesan y comparan las huellas dactilares digitalizadas de los inmigrantes mediante luz infrarroja cercana, cables de fibra óptica y servidores centralizados. Los drones patrullan los cielos con sus sensores ópticos que no parpadean. Y grandes volúmenes de datos se introducen en programas informáticos que predicen la próxima oleada de llegadas.

Noticias y Informes de ONG centrados en la alta tecnología de las fronteras europeas abundan. En todos ellos se pone de manifiesto cómo las formas remotas de vigilancia, disuasión y control complementan y, en ciertos casos, sustituyen cada vez más a las fortificaciones fronterizas. Aunque este tipo de investigación y defensa es esencial para responsabilizar a la UE y a los desarrolladores de tecnología de su papel en la conducción de los solicitantes de asilo hacia rutas migratorias letales, pasa por alto la larga historia de estas tecnologías y su papel establecido en los aparatos de gobierno occidentales. Con ello no sólo se corre el riesgo de amplificar AI hype‘ entre los responsables políticos y los desarrolladores, que aclaman estas herramientas como un medio tanto para crear fronteras «más inteligentes» como para proteger los derechos humanos de los migrantes.Y lo que es más importante, este tipo de amnesia histórica también puede interpretar erróneamente la violencia y las exclusiones promulgadas por estas tecnologías como una cuestión técnica de «sesgo» fácilmente corregible mediante mediciones más precisas o conjuntos de datos más amplios.

Un catálogo de identificación

El despliegue de tecnologías avanzadas para controlar la movilidad humana es cualquier cosa menos nuevo. Imagínese una comisaría de policía urbana europea a finales del siglo XIX. Si el municipio hubiera adoptado las últimas tecnologías de identificación, los sospechosos habrían sido sometidos a un complejo proceso de medición. Anotar sus medidas era un proceso preciso y altamente especializado, que requería un técnico cualificado y formado.

Considere estas instrucciones para medir una oreja:

El operador lleva la mandíbula fija del instrumento a apoyarse contra el borde superior de la oreja y la inmoviliza, presionando su pulgar izquierdo con bastante firmeza sobre el extremo superior de la mandíbula del instrumento, con los otros dedos de la mano apoyados en la parte superior del cráneo. Con el vástago del calibrador paralelo al eje de la oreja, empuja suavemente la mandíbula móvil hasta que toque el extremo inferior del lóbulo y, antes de leer el número indicado, se asegura de que el pabellón auricular [parte externa de la oreja] no esté presionado en modo alguno por ninguna de las dos mandíbulas.1

Este proceso puede parecer una pintoresca aunque algo curiosa reliquia del Fin de Siècle, pero es cualquier cosa menos eso. El Bertillonage, el sistema de medición, clasificación y archivo para la identificación de delincuentes ideado en la década de 1870 por el policía francés del mismo nombre, marcó un hito en la historia de la tecnología de vigilancia e identificación. Notablemente, sus principios clave sustentan las tecnologías de identificación hasta nuestros días, desde la base de datos hasta la biometría y el aprendizaje automático.

Existe un vínculo estrecho e históricamente establecido entre los temores en torno a la circulación incontrolada de diversos «indeseables» y la innovación tecnológica. Las técnicas del siglo XIX, desarrolladas y perfeccionadas para abordar problemas relacionados con la vagancia, la gobernanza colonial, la desviación, la locura y la criminalidad, son la base del actual aparato de vigilancia fronteriza de alta tecnología. Estas técnicas incluyen la cuantificación, que convierte el cuerpo humano en un código, la clasificación y los métodos modernos de indexación y archivo.

Registro invasivo moderno

Los sistemas de fronteras inteligentes emplean tecnologías avanzadas para crear fronteras modernas, eficaces y eficientes. En este contexto, las tecnologías avanzadas se presentan a menudo como la traducción de procesos fronterizos como la identificación, el registro y el control de la movilidad en un procedimiento puramente técnico, lo que hace que el proceso sea más justo y menos propenso a la falibilidad humana. La precisión algorítmica se caracteriza como un medio para evitar sesgos políticos poco éticos y corregir el error humano.

Como investigador de los fundamentos tecnocientíficos del aparato fronterizo de alta tecnología de la UE,2 reconozco tanto la creciente elasticidad de las prácticas fronterizas contemporáneas, como la metodología históricamente establecida de sus herramientas y prácticas.3

Pongamos por ejemplo la base de datos Eurodac, piedra angular de la gestión de fronteras de la UE. Creada en 2003, este índice almacena las huellas dactilares de los solicitantes de asilo para hacer cumplir el Reglamento de Dublín sobre primera entrada.4 La toma de huellas dactilares y el registro en bases de datos interoperables son también herramientas fundamentales utilizadas en enfoques recientes de la gestión de la migración como el Enfoque Hotspot, en el que la atribución de identidad sirve para filtrar a los inmigrantes «merecedores» de los «no merecedores».5

A lo largo de los años, tanto el tipo de datos almacenados en Eurodac como sus usos se han ampliado: su alcance se ha extendido para servir a «fines migratorios más amplios«, almacenando datos no sólo sobre solicitantes de asilo sino también sobre inmigrantes irregulares para facilitar su deportación. Una propuesta aceptada recientemente ha añadido imágenes faciales e información biográfica, incluidos nombre, nacionalidad y datos del pasaporte, a la toma de huellas dactilares. Además, se ha rebajado de catorce a seis años la edad mínima de los migrantes cuyos datos pueden almacenarse.

Desde 2019, Eurodac es ‘interoperable con varias otras bases de datos de la UE que almacenan información sobre personas buscadas, residentes extranjeros, titulares de visados y otras personas de interés para las administraciones de justicia penal, inmigración y asilo, vinculando eficazmente la justicia penal con la migración, al tiempo que se amplía enormemente el acceso a estos datos. Eurodac desempeña un papel fundamental para las autoridades europeas, como demuestran los esfuerzos por alcanzar un «índice del 100% de huellas dactilares»: la Comisión Europea ha instado a los Estados miembros a que inscriban a todas las personas recién llegadas en la base de datos, utilizando la coacción física y la detención si es necesario.

.

Marcado de la criminalidad

Aunque los Estados nacionales llevan siglos recopilando datos sobre los ciudadanos con fines fiscales y de reclutamiento militar, su indexación, organización en bases de datos y clasificación para fines gubernamentales concretos -como el control de la movilidad de poblaciones «indeseables»- es un invento del siglo XIX.6 El historiador y filósofo francés Michel Foucault describe cómo, en el contexto de la creciente urbanización e industrialización, los Estados se preocuparon cada vez más por la cuestión de la «circulación». Las personas y los bienes, así como los agentes patógenos, circulaban más de lo que lo habían hecho a principios de la Edad Moderna.7 Aunque los Estados no trataron de suprimir o controlar totalmente estos movimientos, buscaron medios para aumentar lo que se consideraba circulación «positiva» y minimizar la circulación «negativa». Para ello utilizaron las novedosas herramientas de las ciencias sociales positivistas: en el campo de la demografía se emplearon enfoques estadísticos para rastrear y regular fenómenos como los nacimientos, los accidentes, las enfermedades y las muertes.8 El emergente Estado-nación gestor abordó el problema de la circulación desarrollando un conjunto de herramientas muy particular que amasaba información detallada sobre la población y desarrollaba métodos estandarizados de almacenamiento y análisis.

El Estado-nación gestor se enfrentó al problema de la circulación desarrollando un conjunto de herramientas muy particular que amasaba información detallada sobre la población y desarrollaba métodos estandarizados de almacenamiento y análisis.

Un problema especialmente enojoso era la circulación de delincuentes conocidos. En el siglo XIX, estaba muy extendida la creencia de que si una persona delinquía una vez, volvería a delinquir. Sin embargo, los sistemas disponibles para la identificación de criminales eran lamentablemente inadecuados para la tarea.

Como explica el criminólogo Simon Cole, para identificar a un desconocido se necesita una «marca corporal verdaderamente única».9 Sin embargo, antes de la llegada de los sistemas modernos de identificación, sólo había dos formas de hacerlo: la marca o el reconocimiento personal. Aunque en Europa y Norteamérica se había utilizado ampliamente en convictos, prisioneros y esclavos, la evolución de las ideas sobre la criminalidad y el castigo condujo en gran medida a la abolición de las marcas físicas a principios del siglo XIX. En su lugar se estableció el registro de antecedentes penales: un documento escrito en el que se catalogaba el nombre del convicto y una descripción escrita de su persona, incluyendo marcas y cicatrices identificativas.

Sin embargo, identificar a un sospechoso sólo a partir de una descripción escrita resultaba complicado. Además, el sistema era vulnerable al uso de alias y a las diferentes grafías de los nombres: sólo se podía identificar con certeza a una persona conocida en su comunidad. Los primeros sistemas de identificación de delincuentes eran fundamentalmente vulnerables a la movilidad.10 En particular, estos problemas han continuado acechando a la gestión contemporánea de la migración, ya que las bases de datos a menudo contienen múltiples entradas para la misma persona como resultado de las diferentes transliteraciones de los nombres del alfabeto árabe al romano.

Los sistemas de identificación de delincuentes eran fundamentalmente vulnerables a la movilidad.

La invención de la fotografía en la década de 1840 contribuyó poco a resolver el problema de la fiabilidad de la identificación criminal. Un registro fotográfico no sólo seguía dependiendo del reconocimiento personal, sino que también planteaba la cuestión del archivo. Antes del Bertillonage, los registros de antecedentes penales se almacenaban en forma de compendios anuales de delitos o de listas alfabéticas de delincuentes. Aunque las fotografías ofrecían una representación más exacta del rostro, no había forma de archivarlas en función de los rasgos. Si se quería buscar en el índice, por ejemplo, a una persona con un mentón prominente, no existía ningún procedimiento para hacerlo. Las fotografías de condenados se ordenaban alfabéticamente según el nombre facilitado por el delincuente, por lo que adolecían de la misma debilidad que otros sistemas de identificación.

Ancestro de la Dataficación

Alphonse Bertillon fue el primero en resolver este problema combinando las mediciones sistemáticas del cuerpo humano con el archivo y el registro de datos. El criminólogo mejoró la recuperación de registros ordenando las entradas numéricamente en lugar de alfabéticamente, creando un sistema de indexación basado enteramente en medidas antropomórficas. Las fichas se organizaban según un sistema jerárquico de clasificación, en el que la información se dividía primero por sexo, luego por longitud de la cabeza, anchura de la cabeza, longitud del dedo corazón, etc. Cada conjunto de mediciones se dividía en grupos, según el sexo. Cada conjunto de medidas se dividía en grupos basándose en una evaluación estadística de su distribución en la población, y se establecían medias tomando medidas de los condenados. El operador de Bertillon llevaba el perfil de un sospechoso al archivo y buscaba una coincidencia mediante un proceso de eliminación: primero, excluía el sexo que no coincidía, luego las longitudes de cabeza que no coincidían, y así sucesivamente. Si se encontraba una coincidencia provisional, ésta se confirmaba con referencia a las marcas corporales que también figuraban en la ficha. Dondequiera que se aplicaba este sistema, los índices de reconocimiento de los «reincidentes» se disparaban; el sistema de Bertillon pronto se extendió por todo el mundo.11

Con Bertillon entró en escena otro rasgo distintivo de la tecnología contemporánea de vigilancia y fronteras: la cuantificación, o lo que hoy se conoce como «dataficación». Bertillon no sólo medía la estatura y la longitud de la cabeza de los presos, sino que inventó un método para traducir en código los rasgos distintivos del cuerpo. Por ejemplo, si un preso tenía una cicatriz en el antebrazo, los sistemas anteriores de identificación de delincuentes se limitaban a anotarlo en el expediente. En cambio, Bertillon medía su distancia con respecto a un punto de referencia determinado. A continuación, se registraban de forma estandarizada utilizando un lenguaje de abreviaturas y símbolos que convertían estas descripciones en forma abreviada. El resultante portrait parlé, o retrato hablado, transcribía el cuerpo físico en un «lenguaje universal» de «palabras, números y abreviaturas codificadas».12 Por primera vez en la historia, se podía telegrafiar una descripción precisa del sujeto.

12 Por primera vez en la historia, se podía telegrafiar una descripción precisa del sujeto.

La traducción del cuerpo en código sigue siendo la base de los métodos contemporáneos de identificación biométrica. Identificación dactilar Los sistemas que se probaron e implantaron por primera vez en la India colonial convertían los patrones de las crestas papilares en un código, que luego podía compararse con otros códigos generados del mismo modo. Reconocimiento facial la tecnología produce representaciones esquemáticas del rostro y le asigna valores numéricos, permitiendo así su comparación y cotejo. Otras formas de identificación biométrica, como la identificación por voz, el escaneado del iris y el reconocimiento de la forma de andar, siguen este mismo principio.

Reconocimiento facial.

De la taxonomía al aprendizaje automático

Además de la cuantificación, la clasificación -un instrumento clave de la generación de conocimiento y la gobernanza durante siglos- es otro rasgo distintivo de las tecnologías modernas y contemporáneas de vigilancia e identificación. Como han señalado muchos estudiosos, desde Foucault13 hasta Zygmunt Bauman14 y Denise Ferreira da Silva15 , la clasificación es una herramienta central de la Ilustración europea, cuyo ejemplo más emblemático es la taxonomía de Carl Linnaeus. En su tabla graduada, Linneo nombró, clasificó y ordenó jerárquicamente el mundo natural, desde las plantas hasta los insectos y los seres humanos, dividiendo y subdividiendo cada grupo según características compartidas. La clasificación y las taxonomías se consideran en general una expresión de los cambios epistemológicos fundamentales de principios de la Edad Moderna, de una epistemología teocéntrica a otra racionalista, que permitieron avances científicos pero también estuvieron ligados a la colonización y la esclavitud.16 En su libro sobre el tema, Geoffrey Bowker y Susan Leigh Star subrayan el uso de la clasificación como un poderoso pero a menudo no reconocido instrumento de ordenación política: «Las agendas con carga política y social a menudo se presentan primero como puramente técnicas y son difíciles incluso de ver. A medida que las capas del sistema de clasificación se integran en una infraestructura de trabajo, la intervención política original se afianza cada vez más. En muchos casos, esto conduce a una naturalización de la categoría política, a través de un proceso de convergencia. Se da por sentado.’17

Hoy en día, la clasificación es fundamental para el aprendizaje automático, un subcampo de la inteligencia artificial diseñado para discernir patrones en grandes cantidades de datos. Esto le permite no sólo categorizar grandes cantidades de información, sino también predecir y clasificar datos nuevos, no vistos previamente. En otras palabras, aplica los conocimientos aprendidos a situaciones nuevas. Aunque la investigación sobre el aprendizaje automático comenzó a mediados del siglo pasado, ha cobrado un protagonismo sin precedentes recientemente con aplicaciones como ChatGPT.

Aprendizaje automático.

El aprendizaje automático también se aplica cada vez más en el trabajo fronterizo. Rara vez se utiliza como tecnología independiente, sino que se despliega ampliamente a través de las tecnologías existentes para aumentar y acelerar las formas de vigilancia, identificación y clasificación establecidas desde hace tiempo. Por ejemplo, la predicción algorítmica, que analiza grandes cantidades de datos como patrones de movimiento, publicaciones en redes sociales, conflictos políticos, desastres naturales, etc., está sustituyendo cada vez más a los modelos estadísticos de migración para trazar patrones migratorios. La Comisión Europea financia actualmente la investigación de métodos algorítmicos que ampliarían las formas existentes de análisis de riesgos recurriendo a fuentes de datos más amplias para identificar nuevas formas de conducta «arriesgada». El aprendizaje automático también se está probando o utilizando en detectores de mentiras en guardias fronterizosreconocimiento de dialectosrastreo e identificación de buques sospechososreconocimiento facial en las fronteras interiores de la UE y análisis del comportamiento de los internos en los campos griegos. Como ilustra este amplio abanico de aplicaciones, parece que no hay ninguna tecnología fronteriza exenta de aprendizaje automático, ya sea el análisis asistido de imágenes de grabaciones de drones o la investigación de solicitudes de asilo.

La clasificación es la base del aprendizaje automático, o al menos del tipo de aprendizaje automático basado en datos

que se ha impuesto en la actualidad. Los puntos de datos individuales se organizan en categorías y subcategorías, un proceso que se lleva a cabo mediante aprendizaje supervisado o no supervisado. En el aprendizaje supervisado, los datos de entrenamiento se etiquetan según una taxonomía predefinida. En la práctica, esto suele significar que los humanos asignan etiquetas a los datos, como «perro» a una imagen de dicho perro. El modelo de aprendizaje automático aprende de este conjunto de datos etiquetados identificando patrones que se correlacionan con las etiquetas. En el aprendizaje no supervisado, los datos no son etiquetados por humanos. En su lugar, el algoritmo identifica de forma independiente patrones y estructuras dentro de los datos. En otras palabras, el algoritmo clasifica los datos creando sus propios grupos basándose en patrones inherentes al conjunto de datos. Crea su propia taxonomía de categorías, que puede o no alinearse con los sistemas creados por humanos.

El supuesto tipo penal

Como señala Louise Amoore, estudiosa de la inteligencia artificial y las fronteras, considerar los conglomerados algorítmicos como una representación de patrones «naturales» inherentes a los datos es una «propuesta política extraordinariamente poderosa», ya que «ofrece la promesa de una comunidad política neutral, objetiva y libre de valores».18 La idea del conglomerado algorítmico como una «comunidad natural» supone un importante movimiento racializador: las formas de conducta asociadas a la inmigración irregular se etiquetan como «de riesgo». Como estas agrupaciones se forman sin referencia a criterios predefinidos, como los «clásicos» indicadores de raza, como la nacionalidad o la religión, son difíciles de cuestionar con conceptos existentes como las características protegidas o el sesgo.19 Por ejemplo, un migrante podría ser identificado como un riesgo para la seguridad por un algoritmo de aprendizaje automático basado en una correlación opaca entre itinerarios de viaje, publicaciones en redes sociales, redes personales y profesionales, y patrones meteorológicos.

La idea de una agrupación algorítmica como «comunidad natural» comprende una importante medida de racialización: las formas de conducta asociadas a la migración irregular se etiquetan, en consecuencia, como «de riesgo».

La creación de categorías en función de atributos inherentes se hace eco y se extiende a otras prácticas del siglo XIX: a saber, una serie de esfuerzos científicos que utilizan la medición y la estadística para identificar regularidades y patrones que apunten a un comportamiento delictivo. Al igual que el aprendizaje automático no supervisado, los campos de la craneometría, la frenología y la antropología criminal acumulaban sistemáticamente datos sobre sujetos humanos para extraer patrones que pudieran clasificarse en categorías de criminalidad.

Por ejemplo, frenólogos como Franz Joseph Gall relacionaron rasgos específicos de la personalidad con la prominencia de regiones del cráneo. En el campo relacionado de la fisiognomía, figuras como el pastor suizo Johann Kaspar Lavater emprendieron un estudio sistemático de los rasgos faciales como guía del comportamiento criminal. Impulsados por el desarrollo de la fotografía, los estudios que investigaban los signos de criminalidad en el rostro cobraron fuerza, y los convictos y reclusos de manicomios fueron sometidos repetidamente a este tipo de «estudios». Las fotografías compuestas de Frances Galton, fundadora del movimiento eugenésico y pionera de la identificación de huellas dactilares, son un ejemplo de ello: se superponían imágenes de convictos para obtener regularidades como marcadores físicos de criminalidad.20

La antropología criminal consolidó estos enfoques en un intento coherente de someter el cuerpo criminal al escrutinio científico. Bajo el liderazgo del psiquiatra y antropólogo italiano Cesare Lombroso, los antropólogos criminales utilizaron una amplia gama de herramientas antropomórficas de medición, desde las precisas medidas de las extremidades de Bertillon hasta las medidas craneométricas del cráneo, pasando por la cartografía de los rasgos faciales y la anotación de marcas distintivas como cicatrices y tatuajes. Sobre esta base, enumeraron una lista de los llamados «estigmas» o regularidades físicas que se encontraban en el cuerpo del «criminal nato». Aunque esta noción está ampliamente desacreditada hoy en día, el método subyacente de clasificación basado en características de datos masivos todavía existe.

Confiar en las conclusiones extraídas del análisis cuantitativo de los rasgos faciales sigue siendo un fuerte atractivo. Un documento de 2016 afirmaba haber entrenado con éxito un algoritmo de red neuronal profunda para predecir la criminalidad a partir de fotos de la cabeza tomadas de carnés de conducir, mientras que un estudio de 2018 hacía afirmaciones similares sobre la lectura de la orientación sexual a partir de fotos de sitios de citas.

Estudio de 2016 hizo afirmaciones similares sobre la lectura de la orientación sexual a partir de fotos de sitios de citas.

Al abordar estos sistemas de forma crítica, es imperativo tener en cuenta el proyecto político más amplio para el que se despliegan. Como escribe la especialista en IA Kate Crawford: «Correlacionar la morfología craneal con la inteligencia y la reivindicación de derechos legales actúa como una coartada técnica para el colonialismo y la esclavitud». Aunque existe una tendencia a centrarse en los errores de las mediciones craneales y en cómo corregirlos, el error mucho mayor está en la visión del mundo subyacente que animó esta metodología. El objetivo, por tanto, no debería ser reclamar mediciones más precisas o «justas» de los cráneos para apuntalar modelos racistas de inteligencia, sino condenar el enfoque por completo.’21 Dicho de otro modo, las técnicas de clasificación y cuantificación no pueden divorciarse de los contextos sociopolíticos que se les ha encomendado verificar y avalar. Parafraseando al académico de Relaciones Internacionales Robert Cox, la clasificación y la cuantificación son siempre para alguien, y con algún propósito.22

Sin embargo, como advierte la especialista en Estudios de Ciencia y Tecnología Helga Nowotny, si «confiamos» en los resultados de la predicción algorítmica como fundamentalmente ciertos, malinterpretamos la lógica de las redes neuronales profundas. Estas redes «sólo pueden detectar regularidades e identificar patrones basándose en datos que proceden del pasado. No interviene ningún razonamiento causal, ni una IA pretende que lo haga.’23

Aunque estas máquinas pueden producir «predicciones prácticas y mensurables», no tienen sentido de causa y efecto; en resumen, no tienen «comprensión» en el sentido humano.24 Además, un exceso de confianza en los algoritmos nos empuja hacia el determinismo, alineando nuestro comportamiento con la predicción maquínica en lugar de caminos alternativos. Este es un problema en las culturas políticas basadas en la responsabilidad. Si queremos aprender del pasado para construir un futuro mejor, no podemos confiar en los resultados predictivos de un modelo de aprendizaje automático.

Un déjà-vu de la IA

Además de la dependencia compartida y continuada de la cuantificación y la clasificación, hay muchos hilos de los que se podría tirar para explorar la enmarañada historia de las tecnologías de vigilancia e identificación desde el siglo XIX hasta la actualidad. Las poblaciones marginadas y excedentes, como los convictos y los colonizados, se han utilizado durante mucho tiempo como «campos de pruebas tecnológicas» para perfeccionar los sistemas de clasificación y entrenar algoritmos. El miedo a la movilidad humana descontrolada sigue siendo el motor de la investigación y el desarrollo, y la tecnología, a su vez, se utiliza para solucionar los problemas que ella misma ha creado. Y los métodos científicos sociales positivistas siguen siendo fundamentales para traducir las multiplicidades rugientes en valores numéricos nítidos.

En lugar de caer en la exageración de la IA, podríamos sintonizar con una sensación de déjà-vu: la inquietante sensación de que ya hemos visto todo esto antes. De este modo, podríamos resistirnos mejor a las fantasiosas afirmaciones de los actores corporativos y fronterizos, y empezar a desvincular las tecnologías de los proyectos globales de dominación.

**

Este artículo se basa en la investigación realizada durante el proyecto ‘Fronteras elásticas: Repensando las fronteras del siglo XXI’ con sede en la Universidad de Graz, financiado por la fundación NOMIS.

1 A. Bertillon, Instructons signalétiques, Melun, 1893, lámina 16, p. 262.

2 Formo parte de un equipo de investigadores del proyecto financiado por NOMIS Fronteras elásticas, Universidad de Graz, Austria.

3 Véase también: M. Maguire, 'Biopower, Racialization and New Security Technology', Social Identities, Vol. 18, No.5, 2012, pp. 593-607; K. Donnelly, 'We Have Always Been Biased: Measuring the human body from anthropometry to the computational social sciences', Public, Vol. 30, n.º 60, 2020, pp. 20-33; A. Valdivia y M. Tazzioli, 'Genealogies beyond Algorithmic Fairness: Making up racialized subjects', in Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency, FAccT '23, Association for Computing Machinery, 2023, pp. 840-50.

4 Si las huellas se tomaron en Grecia, pero el solicitante de asilo fue detenido posteriormente en Alemania, podría enfrentarse a la expulsión a Grecia para tramitar su solicitud.

5 B. Ayata, K. Cupers, C. Pagano, A. Fyssa y D. Alaa, The Implementation of the EU Hotspot Approach in Greece and Italy: A comparative and interdisciplinary analysis (working paper), Swiss Network for International Studies, 2021, p. 36.

6 J.B. Rule, Vidas privadas y vigilancia pública, Allen Lane, 1973.

7 Ibid., p. 91.

8 M. Foucault, Hay que defender la sociedad. Conferencias en el Collège de France, 1975-76, trans. D. Macey, Picador, 2003, p. 244.

9 S. A. Cole, Suspect identities: A history of fingerprinting and criminal identification, Harvard University Press, 2001, p.12.

10 Ibid., pp. 18-9.

11 Ibid., pp. 34-45.

12 Ibid., p.48.

13 M. Foucault, El orden de las cosas. Routledge, 1975.

14 Z. Bauman, Modernidad y Holocausto, Blackwell Publishers, 1989.

15 D. Ferreira da Silva, Toward a Global Idea of Race, University of Minnesota Press, 2007.

16 S. Wynter, 'Unsettling the coloniality of being/power/truth/freedom: Towards the human, after man, its overrepresentation - an argument', CR: The New Centennial Review, Vol. 3, No. 3, 2003, pp. 257-337.

17 G. C. Bowker y S. L. Star, Sorting things out: Classification and its consequences, MIT press, 2000, p. 196.

18 L. Amoore, 'The deep border', Political Geography, 2001, 102547.

19 Ibid.

20 Galton realizó un estudio similar en escolares judíos, buscando marcadores raciales de judaísmo.

21 K. Crawford, The Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021, pp. 126-7.

22 R. W. Cox, 'Fuerzas sociales, Estados y órdenes mundiales: Beyond International Relations Theory', Millennium, Vol. 10, No. 2, 1981, pp. 126-155.

23 H. Nowotny, In AI We Trust: Power, Illusion and Control of Predictive Algorithms. Polity, 2021, p. 22.

24 Ibid.

Go to top