Mesurer le corps mobile
![Mesurer le corps mobile](https://displayeurope.eu/wp-content/uploads/2024/04/bertillion.jpeg)
Un catalogue d’identification
1 p>.
Ce processus peut sembler être une relique pittoresque et quelque peu curieuse de la fin du siècle, mais il n’en est rien. Le bertillonnage, système de mesure, de classification et d’archivage pour l’identification des criminels conçu dans les années 1870 par le policier français éponyme, a marqué un tournant dans l’histoire des technologies de surveillance et d’identification. Il est remarquable que ses principes clés sous-tendent les technologies d’identification jusqu’à aujourd’hui, de la base de données à la biométrie et à l’apprentissage automatique.
Un lien étroit et historiquement établi existe entre les craintes liées à la circulation incontrôlée de divers « indésirables » et l’innovation technologique. Les techniques du XIXe siècle, développées et affinées pour résoudre les problèmes liés au vagabondage, à la gouvernance coloniale, à la déviance, à la folie et à la criminalité, sont les fondements de l’appareil de surveillance des frontières high-tech d’aujourd’hui. Ces techniques comprennent la quantification, qui fait du corps humain un code, la classification et les méthodes modernes d’indexation et d’archivage.
Enregistrement moderne des invasions
Les systèmes frontaliers intelligents utilisent des technologies avancées pour créer des frontières « modernes, efficaces et efficientes« . Dans ce contexte, les technologies avancées sont souvent présentées comme traduisant les processus frontaliers tels que l’identification, l’enregistrement et le contrôle de la mobilité en une procédure purement technique, rendant ainsi le processus plus équitable et moins sujet à la faillibilité humaine. La précision algorithmique est caractérisée comme un moyen d’éviter les préjugés politiques contraires à l’éthique et de corriger les erreurs humaines. En tant que chercheur sur les fondements technoscientifiques de l’appareil frontalier de haute technologie de l’UE,2 je reconnais à la fois l’élasticité croissante des pratiques frontalières contemporaines et la méthodologie historiquement établie de ses outils et de ses pratiques.3
L’appareil frontalier de haute technologie de l’UE est un outil de gestion des frontières.
Par exemple, prenez la base de données Eurodac, une pierre angulaire de la gestion des frontières de l’Union européenne. Créé en 2003, cet index stocke les empreintes digitales des demandeurs d’asile en application du règlement de Dublin sur la première entrée.4 La prise d’empreintes digitales et l’inscription dans des bases de données interopérables sont également des outils centraux utilisés dans des approches récentes de la gestion des migrations telles que l’approche Hotspot, où l’attribution de l’identité sert à filtrer les migrants « méritants » de ceux qui ne le sont pas.5
.
Marquage de la criminalité
La circulation des criminels connus constituait un problème particulièrement épineux. Au XIXe siècle, on pensait généralement que si une personne avait commis une infraction une fois, elle en commettrait une autre. Cependant, les systèmes disponibles pour l’identification des criminels étaient terriblement inadaptés à la tâche.
Le casier judiciaire a été créé à la place.
De la taxonomie à l’apprentissage automatique
La technologie de l’apprentissage automatique peut être utilisée pour la gestion des frontières. La classification est au cœur de l’apprentissage automatique – ou du moins du type d’apprentissage automatique basé sur les données data-driven machine learning qui est devenu dominant aujourd’hui. Les points de données individuels sont organisés en catégories et sous-catégories, un processus mené soit par l’apprentissage supervisé, soit par l’apprentissage non supervisé. Dans l’apprentissage supervisé, les données d’apprentissage sont étiquetées selon une taxonomie prédéfinie. Dans la pratique, cela signifie généralement que des humains attribuent des étiquettes à des données telles que « chien » à une image de ce chien. Le modèle d’apprentissage automatique apprend à partir de cet ensemble de données étiquetées en identifiant des modèles en corrélation avec les étiquettes. Dans l’apprentissage non supervisé, les données ne sont pas étiquetées par les humains. Au lieu de cela, l’algorithme identifie de manière indépendante des modèles et des structures au sein des données. En d’autres termes, l’algorithme classe les données en créant ses propres groupes sur la base de modèles inhérents à l’ensemble de données. Il crée sa propre taxonomie de catégories, qui peut ou non s’aligner sur les systèmes créés par l’homme.
Le type de criminel supposé
La notion de groupe algorithmique en tant que « communauté naturelle » comporte un important mouvement de racialisation : les comportements associés à la migration irrégulière sont par conséquent étiquetés comme « risqués ».
La confiance dans les conclusions tirées de l’analyse quantitative des traits du visage reste un puissant attrait. Un article de 2016 prétendait avoir entraîné avec succès un algorithme de réseau neuronal profond à prédire la criminalité à partir de photos de tête tirées de permis de conduire, tandis qu’une étude de 2018 faisait des affirmations similaires sur la lecture de l’orientation sexuelle à partir de photos de sites de rencontres.
La confiance dans les conclusions tirées de l’analyse quantitative des traits du visage reste un attrait important.
Les techniques de classification et de quantification ne peuvent être dissociées des contextes sociopolitiques qu’elles sont chargées de vérifier et de garantir.
AI déjà-vu
Cet article est basé sur les recherches menées dans le cadre du projet ‘Frontières élastiques : Rethinking the Borders of the 21st Century’ basé à l’Université de Graz, financé par la fondation NOMIS.
1 A. Bertillon, Instructons signalétiques, Melun, 1893, planche 16, p. 262.
.
2 Je fais partie d'une équipe de chercheurs au sein du projet Elastic Borders financé par NOMIS Elastic Borders project, Université de Graz, Autriche.
Paragraphe 2.1.1.1.1.1.1.1.1.1.1.1.1.1.1.
3 Voir aussi : M. Maguire, 'Biopower, Racialization and New Security Technology', Social Identities, Vol. 18, No.5, 2012, pp. 593-607 ; K. Donnelly, 'We Have Always Been Biased : Measuring the human body from anthropometry to the computational social sciences', Public, Vol. 30, No. 60, 2020, pp. 20-33 ; A. Valdivia and M. Tazzioli, 'Genealogies beyond Algorithmic Fairness : Making up racialized subjects', in Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency, FAccT '23, Association for Computing Machinery, 2023, pp. 840-50.
.
4 Si les empreintes ont été prises en Grèce, mais que le demandeur d'asile a ensuite été appréhendé en Allemagne, il risque d'être renvoyé en Grèce pour le traitement de sa demande.
Les empreintes ont été prises en Grèce, mais le demandeur d’asile a ensuite été appréhendé en Allemagne.
5 B. Ayata, K. Cupers, C. Pagano, A. Fyssa et D. Alaa, The Implementation of the EU Hotspot Approach in Greece and Italy : A comparative and interdisciplinary analysis (working paper), Swiss Network for International Studies, 2021, p. 36.
.
6 J.B. Rule, Private Lives and Public Surveillance, Allen Lane, 1973.
7 Ibid. p. 91.
La surveillance publique, 1973.
8 M. Foucault, La société doit être défendue. Conférences au Collège de France, 1975-76, trad. D. Macey, Picador, 2003, p. 244.
La société doit être défendue.
9 S. A. Cole, Identité des suspects : A history of fingerprinting and criminal identification, Harvard University Press, 2001, p.12.
Les identités suspectes :
10 Ibid, pp. 18-9.
11 Ibid., pp. 34-45.
Ibid.
12 Ibid., p.48.
Ibid.
13 M. Foucault, L'ordre des choses. Routledge, 1975.
M.
14 15 .
16 17 18 .
19 Ibid.
20 La recherche de marqueurs raciaux de la judéité a également été menée sur des garçons d’écoles juives.
21 L’Atlas de l’IA : pouvoir, politique et coûts planétaires de l’intelligence artificielle, Yale University Press, 2021, pp. 126-7. .
22 22
23 24 Polity 2021, p. 22.
Z. Bauman, Modernity and the Holocaust, Blackwell Publishers, 1989.
D. Ferreira da Silva, Toward a Global Idea of Race, University of Minnesota Press, 2007.
S. Wynter, 'Unsettling the coloniality of being/power/truth/freedom : Vers l'humain, après l'homme, sa surreprésentation - un argument', CR : The New Centennial Review, Vol. 3, No. 3, 2003, pp. 257-337.
G. C. Bowker et S. L. Star, Sorting things out : Classification and its consequences, MIT press, 2000, p. 196.
L. Amoore, 'The deep border', Political Geography, 2001, 102547.
Ibid.
Galton a mené une étude similaire sur des garçons d'écoles juives, à la recherche de marqueurs raciaux de la judéité.
K. Crawford, The Atlas of AI : Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021, pp. 126-7.
R. W. Cox, 'Social Forces, States and World Orders : Beyond International Relations Theory', Millennium, Vol. 10, No. 2, 1981, pp. 126-155.
H. Nowotny, In AI We Trust: Power, Illusion and Control of Predictive Algorithms. Polity, 2021, p. 22.
Ibid.