Menu

Notizie europee senza confini. Nella tua lingua.

Menu
×

Misurare il corpo mobile

L’arsenale high-tech europeo di tecnologie per le frontiere è spesso raccontato come una storia futuristica di luce, velocità e potenza di calcolo. Sistemi di identificazione come il database Eurodac memorizzano, elaborano e confrontano le impronte digitali digitalizzate dei migranti utilizzando la luce del vicino infrarosso, cavi in fibra ottica e server centralizzati. I droni pattugliano i cieli con i loro sensori ottici non visibili. E grandi volumi di dati vengono inviati a programmi informatici che prevedono il prossimo aumento degli arrivi.

Giornali e rapporti delle ONG che si concentrano sulla natura high-tech dei confini europei abbondano. Ognuno di essi evidenzia come le forme di sorveglianza, deterrenza e controllo a distanza vadano sempre più a integrare e, in alcuni casi, a sostituire le fortificazioni di confine. Se da un lato questo tipo di ricerca e di advocacy è essenziale per chiedere conto all’UE e agli sviluppatori di tecnologie del loro ruolo nell’indirizzare i richiedenti asilo verso le rotte migratorie letali, dall’altro non tiene conto della lunga storia di queste tecnologie e del loro ruolo consolidato negli apparati di governance occidentali. Questo non solo rischia di amplificare “AI hype” tra i politici e gli sviluppatori, che acclamano questi strumenti come mezzi sia per creare confini “più intelligenti” sia per proteggere i diritti umani dei migranti.Ma soprattutto, questo tipo di amnesia storica può anche fraintendere la violenza e le esclusioni messe in atto da queste tecnologie come un problema tecnico di “bias” facilmente correggibile con misurazioni più accurate o set di dati più ampi.

Un catalogo di identificazione

L’impiego di tecnologie avanzate per il controllo della mobilità umana è tutt’altro che una novità. Immaginate una stazione di polizia urbana europea alla fine del XIX secolo. Se la municipalità avesse adottato le più recenti tecnologie di identificazione, i sospetti sarebbero stati sottoposti a un complesso processo di misurazione. Prendere le misure era un processo preciso e altamente specializzato, che richiedeva un tecnico esperto e addestrato.

Considerate queste istruzioni per misurare un orecchio:

L’operatore porta la ganascia fissa dello strumento a contatto con il bordo superiore dell’orecchio e lo immobilizza, premendo con decisione il pollice sinistro sull’estremità superiore della ganascia dello strumento, con le altre dita della mano appoggiate sulla sommità del cranio. Con il gambo del calibro parallelo all’asse dell’orecchio, spinge delicatamente la ganascia mobile fino a toccare l’estremità inferiore del lobo e, prima di leggere il numero indicato, si assicura che il padiglione auricolare [parte esterna dell’orecchio] non sia in alcun modo depresso da nessuna delle due ganasce.1

Questo processo può sembrare una pittoresca seppure curiosa reliquia della Fin de Siècle, ma è tutt’altro. Il Bertillonage, il sistema di misurazione, classificazione e archiviazione per l’identificazione dei criminali ideato negli anni Settanta del XIX secolo dall’omonimo impiegato della polizia francese, è stato una pietra miliare nella storia della tecnologia di sorveglianza e identificazione. È sorprendente che i suoi principi fondamentali siano alla base delle tecnologie di identificazione ancora oggi, dal database alla biometria e all’apprendimento automatico.

Esiste un legame stretto e storicamente consolidato tra i timori legati alla circolazione incontrollata di vari “indesiderabili” e l’innovazione tecnologica. Le tecniche del XIX secolo, sviluppate e perfezionate per affrontare i problemi legati al vagabondaggio, alla governance coloniale, alla devianza, alla follia e alla criminalità, sono alla base dell’odierno apparato di sorveglianza dei confini ad alta tecnologia. Queste tecniche includono la quantificazione, che rende il corpo umano un codice, la classificazione e i moderni metodi di indicizzazione e archiviazione.

Registrazione invasiva moderna

I sistemi di frontiera intelligenti utilizzano tecnologie avanzate per creare frontiere “moderne, efficaci ed efficienti“. In questo contesto, le tecnologie avanzate sono spesso rappresentate come la traduzione di processi di frontiera come l’identificazione, la registrazione e il controllo della mobilità in una procedura puramente tecnica, rendendo così il processo più equo e meno incline alla fallibilità umana. La precisione algoritmica è caratterizzata come un mezzo per evitare pregiudizi politici non etici e correggere l’errore umano.

Come ricercatore delle basi tecnoscientifiche dell’apparato di frontiera high-tech dell’UE,2 riconosco sia la crescente elasticità delle pratiche di frontiera contemporanee, sia la metodologia storicamente consolidata dei suoi strumenti e delle sue pratiche.3

Prendiamo ad esempio il Base dati Eurodac, una pietra miliare della gestione delle frontiere dell’UE. Istituito nel 2003, l’indice conserva le impronte digitali dei richiedenti asilo come applicazione del Regolamento di Dublino sul primo ingresso.4 Il rilevamento delle impronte digitali e l’iscrizione in database interoperabili sono anche strumenti centrali utilizzati in approcci recenti alla gestione della migrazione come l’approccio Hotspot, in cui l’attribuzione dell’identità serve a filtrare i migranti “meritevoli” da quelli “non meritevoli”.5

Nel corso degli anni, sia il tipo di dati immagazzinati da Eurodac che i suoi usi si sono ampliati: il suo campo di applicazione è stato ampliato per servire “fini migratori più ampi“, immagazzinando dati non solo sui richiedenti asilo ma anche sui migranti irregolari per facilitarne l’espulsione. Una proposta recentemente accettata ha aggiunto alle impronte digitali le immagini del volto e le informazioni biografiche, tra cui nome, nazionalità e informazioni sul passaporto. Inoltre, l’età minima dei migranti i cui dati possono essere memorizzati è stata abbassata da quattordici a sei anni.

Dal 2019 Eurodac è “interoperabile” con una serie di altre banche dati dell’UE che conservano informazioni su persone ricercate, residenti stranieri, titolari di visti e altre persone di interesse per la giustizia penale, l’immigrazione e le amministrazioni che si occupano di asilo, collegando efficacemente la giustizia penale con la migrazione e ampliando al contempo l’accesso a questi dati. Eurodac svolge un ruolo fondamentale per le autorità europee, come dimostrano gli sforzi per raggiungere un “tasso di rilevamento delle impronte digitali del 100%”: la Commissione europea ha spinto gli Stati membri a iscrivere ogni persona appena arrivata nel database, utilizzando coercizione fisica e detenzione se necessario.

Marcatura della criminalità

Sebbene gli Stati nazionali abbiano raccolto per secoli dati sui cittadini a fini fiscali e di reclutamento militare, la loro indicizzazione, organizzazione in banche dati e classificazione per particolari scopi governativi – come il controllo della mobilità delle popolazioni “indesiderate” – è un’invenzione del XIX secolo.6 Lo storico e filosofo francese Michel Foucault descrive come, nel contesto della crescente urbanizzazione e industrializzazione, gli Stati si siano sempre più preoccupati della questione della “circolazione”. Le persone e le merci, così come gli agenti patogeni, circolavano più di quanto non avessero fatto nel primo periodo moderno.7 Sebbene gli Stati non cercassero di sopprimere o controllare completamente questi movimenti, cercavano mezzi per aumentare quella che era considerata una circolazione “positiva” e minimizzare quella “negativa”. A questo scopo utilizzarono i nuovi strumenti di una scienza sociale positivista: gli approcci statistici vennero utilizzati nel campo della demografia per tracciare e regolare fenomeni come nascite, incidenti, malattie e decessi.8 L’emergente Stato nazionale manageriale affrontò il problema della circolazione sviluppando un kit di strumenti molto particolare, accumulando informazioni dettagliate sulla popolazione e sviluppando metodi standardizzati di archiviazione e analisi.

Un problema particolarmente spinoso era la circolazione dei criminali noti. Nel XIX secolo era diffusa la convinzione che se una persona avesse commesso un reato una volta, lo avrebbe commesso di nuovo. Tuttavia, i sistemi disponibili per l’identificazione dei criminali erano tristemente inadeguati al compito.

Come spiega il criminologo Simon Cole, l’identificazione di una persona sconosciuta richiede un “segno corporeo veramente unico”.9 Tuttavia, prima dell’avvento dei moderni sistemi di identificazione, esistevano solo due modi per farlo: il branding o il riconoscimento personale. Sebbene la marchiatura a fuoco fosse stata ampiamente utilizzata in Europa e in Nord America su detenuti, prigionieri e persone ridotte in schiavitù, l’evoluzione delle idee sulla criminalità e sulla punizione portò all’abolizione della marchiatura fisica all’inizio del XIX secolo. Al suo posto fu istituito il casellario giudiziario: un documento scritto che catalogava il nome del detenuto e una descrizione scritta della sua persona, compresi i segni di riconoscimento e le cicatrici.

Tuttavia, l’identificazione di un sospetto dalla sola descrizione scritta si è rivelata difficile. Inoltre, il sistema era vulnerabile all’uso di pseudonimi e a diverse grafie dei nomi: solo una persona conosciuta dalla comunità poteva essere identificata con certezza. I primi sistemi di identificazione dei criminali erano fondamentalmente vulnerabili alla mobilità.10 In particolare, questi problemi hanno continuato a infestare la gestione contemporanea dell’immigrazione, in quanto i database spesso contengono voci multiple per la stessa persona derivanti da diverse traslitterazioni dei nomi dall’alfabeto arabo a quello romano.

L’invenzione della fotografia negli anni Quaranta del XIX secolo non ha risolto la questione dell’affidabilità dell’identificazione criminale. Non solo la documentazione fotografica era ancora legata al riconoscimento personale, ma sollevava anche il problema dell’archiviazione. Prima del Bertillonage, i registri penali erano archiviati come compendi annuali di crimini o come elenchi alfabetici di colpevoli. Sebbene le fotografie fornissero una rappresentazione più accurata del volto, non c’era modo di archiviarle in base alle caratteristiche. Se si voleva cercare nell’indice, ad esempio, una persona con il mento prominente, non esisteva una procedura per farlo. Le fotografie dei detenuti erano ordinate alfabeticamente in base al nome fornito dall’autore del reato, soffrendo così della stessa debolezza di altri sistemi di identificazione.

L’antenato della dataficazione

Alphonse Bertillon fu il primo a risolvere questo problema combinando le misurazioni sistematiche del corpo umano con l’archiviazione e la registrazione. Il criminologo migliorò il recupero dei documenti ordinando le voci numericamente anziché alfabeticamente, creando un sistema di indicizzazione basato interamente su misure antropomorfiche. Le schede erano organizzate secondo un sistema classificatorio gerarchico, con le informazioni suddivise prima per sesso, poi per lunghezza della testa, larghezza della testa, lunghezza del dito medio e così via. Ogni serie di misure veniva suddivisa in gruppi sulla base di una valutazione statistica della loro distribuzione nella popolazione, con medie stabilite prendendo le misure dai detenuti. L’operatore Bertillon prendeva il profilo di un sospetto nell’archivio e cercava una corrispondenza attraverso un processo di eliminazione: prima escludeva il sesso che non corrispondeva, poi la lunghezza della testa che non corrispondeva, e così via. Se si trovava una corrispondenza provvisoria, questa veniva confermata con riferimento ai segni corporei elencati sulla scheda. Ovunque questo sistema fosse implementato, i tassi di riconoscimento dei “recidivi” aumentavano; il sistema di Bertillon si diffuse presto in tutto il mondo.11

Con Bertillon entrò in scena un altro tratto distintivo della tecnologia di sorveglianza e di frontiera contemporanea: la quantificazione, o ciò che oggi è noto come “datafication”. Bertillon non solo misurò l’altezza e la lunghezza della testa dei prigionieri, ma inventò un metodo per tradurre in codice le caratteristiche distintive del corpo. Per esempio, se un detenuto aveva una cicatrice sull’avambraccio, i precedenti sistemi di identificazione dei criminali si limitavano ad annotarla nel fascicolo. Bertillon, invece, misurava la distanza da un determinato punto di riferimento. Questi dati venivano poi registrati in modo standardizzato utilizzando un idioma di abbreviazioni e simboli che rendevano queste descrizioni in forma abbreviata. Il risultante ritratto parlato,  o ritratto parlato, trascriveva il corpo fisico in un “linguaggio universale” di “parole, numeri e abbreviazioni codificate”.12 Per la prima volta nella storia, una descrizione precisa del soggetto poteva essere telegrafata.

La traduzione del corpo in codice è ancora alla base dei metodi contemporanei di identificazione biometrica. Identificazione delle impronte digitali i sistemi sperimentati e diffusi per la prima volta nell’India coloniale convertivano i modelli di creste papillari in un codice, che poteva poi essere confrontato con altri codici generati nello stesso modo. Riconoscimento facciale la tecnologia produce rappresentazioni schematiche del volto e vi assegna valori numerici, consentendo così il confronto e la corrispondenza. Altre forme di identificazione biometrica come l’identificazione vocale, la scansione dell’iride e il riconoscimento dell’andatura seguono lo stesso principio.

Dalla tassonomia all’apprendimento automatico

Oltre alla quantificazione, la classificazione – da secoli strumento chiave della generazione e della governance della conoscenza – è un altro segno distintivo delle moderne e contemporanee tecnologie di sorveglianza e identificazione. Come hanno notato molti studiosi, da Foucault13 a Zygmunt Bauman14 e Denise Ferreira da Silva15 la classificazione è uno strumento centrale dell’Illuminismo europeo, testimoniato soprattutto dalla tassonomia di Carl Linneo. Nella sua tavola graduata, Linneo nominò, classificò e ordinò gerarchicamente il mondo naturale, dalle piante agli insetti agli esseri umani, dividendo e suddividendo ogni gruppo in base a caratteristiche comuni. La classificazione e le tassonomie sono ampiamente considerate un’espressione dei fondamentali spostamenti epistemologici da un’epistemologia teocentrica a un’epistemologia razionalistica all’inizio dell’era moderna, che hanno consentito scoperte scientifiche ma sono state anche legate alla colonizzazione e alla schiavitù.16 Nel loro libro sul tema, Geoffrey Bowker e Susan Leigh Star sottolineano l’uso della classificazione come strumento potente, ma spesso misconosciuto, di ordinamento politico: “Le agende politicamente e socialmente cariche sono spesso presentate all’inizio come puramente tecniche e sono difficili persino da vedere. Man mano che gli strati del sistema di classificazione vengono incorporati in un’infrastruttura funzionante, l’intervento politico originario si radica sempre più saldamente. In molti casi, questo porta a una naturalizzazione della categoria politica, attraverso un processo di convergenza. Diventa scontata.”17

Oggi la classificazione è fondamentale per l’apprendimento automatico, un sottocampo dell’intelligenza artificiale progettato per individuare modelli in grandi quantità di dati. Ciò consente non solo di categorizzare grandi quantità di informazioni, ma anche di prevedere e classificare nuovi dati precedentemente non visti. In altre parole, applica le conoscenze apprese a nuove situazioni. Sebbene la ricerca sull’apprendimento automatico sia iniziata a metà del secolo scorso, di recente ha raggiunto un’importanza senza precedenti grazie ad applicazioni come ChatGPT.

L’apprendimento automatico è sempre più applicato anche al lavoro di frontiera. Raramente utilizzato come tecnologia a sé stante, viene ampiamente impiegato attraverso le tecnologie esistenti per aumentare e accelerare le forme di sorveglianza, identificazione e smistamento da tempo consolidate. Ad esempio, la previsione algoritmica, che analizza grandi quantità di dati tra cui modelli di movimento, post sui social media, conflitti politici, disastri naturali e altro, sta sostituendo sempre più spesso la modellazione statistica della migrazione allo scopo di tracciare i modelli migratori. La Commissione europea sta attualmente finanziando ricerche sui metodi algoritmici che amplierebbero le forme esistenti di analisi del rischio attingendo a fonti di dati più ampie per identificare nuove forme di comportamento “a rischio”. L’apprendimento automatico viene inoltre sperimentato o utilizzato in guardie di frontiera “macchina della verità”riconoscimento dei dialettitracciamento e identificazione di imbarcazioni sospettericonoscimento facciale alle frontiere interne dell’UE e analisi comportamentale dei detenuti nei campi greci. Come illustra questa vasta gamma di applicazioni, sembra che non esista una tecnologia di frontiera esente dall’apprendimento automatico, sia che si tratti di analisi assistita delle immagini dei filmati dei droni o di verifica delle richieste di asilo.

La classificazione è al centro dell’apprendimento automatico, o almeno del tipo di apprendimento automatico guidato dai dati che oggi è diventato dominante. I singoli punti di dati vengono organizzati in categorie e sottocategorie, un processo condotto attraverso l’apprendimento supervisionato o non supervisionato. Nell’apprendimento supervisionato, i dati di formazione vengono etichettati secondo una tassonomia predefinita. In pratica, ciò significa che gli esseri umani assegnano etichette ai dati, come “cane” a un’immagine di tale cane. Il modello di apprendimento automatico impara da questo insieme di dati etichettati identificando i modelli correlati alle etichette. Nell’apprendimento non supervisionato, i dati non vengono etichettati dall’uomo. Invece, l’algoritmo identifica in modo indipendente i modelli e le strutture all’interno dei dati. In altre parole, l’algoritmo classifica i dati creando i propri cluster sulla base di modelli inerenti al set di dati. Crea una propria tassonomia di categorie, che può allinearsi o meno con i sistemi creati dall’uomo.

Il tipo di criminale presunto

Come sottolinea la studiosa di AI e frontiere Louise Amoore, la creazione di cluster algoritmici come rappresentazione di modelli intrinseci e “naturali” dei dati è una “proposta politica straordinariamente potente”, in quanto “offre la promessa di una creazione e di un confine neutrali, oggettivi e privi di valori della comunità politica”.18 L’idea del cluster algoritmico come “comunità naturale” comprende una significativa mossa di razzializzazione: le forme di comportamento associate alla migrazione irregolare sono di conseguenza etichettate come “rischiose”. Poiché questi cluster si formano senza riferimento a criteri predefiniti, come i “classici” proxy per la razza come la nazionalità o la religione, sono difficili da contestare con concetti esistenti come le caratteristiche protette o i pregiudizi.19 Ad esempio, un migrante potrebbe essere identificato come un rischio per la sicurezza da un algoritmo di apprendimento automatico basato su una correlazione opaca tra itinerari di viaggio, post sui social media, reti personali e professionali e modelli meteorologici.

La creazione di categorie in base ad attributi intrinseci riecheggia e si estende ad altre pratiche del XIX secolo: in particolare, una serie di sforzi scientifici che utilizzano la misurazione e la statistica per identificare regolarità e schemi che indichino un comportamento criminale. Come l’apprendimento automatico non supervisionato, i campi della craniometria, della frenologia e dell’antropologia criminale accumulavano sistematicamente dati su soggetti umani per ricavarne modelli che potessero essere ordinati in categorie di criminalità.

Per esempio, frenologi come Franz Joseph Gall collegarono tratti specifici della personalità alla prominenza delle regioni del cranio. Nel campo correlato della fisiognomica, personaggi come il pastore svizzero Johann Kaspar Lavater intrapresero uno studio sistematico dei tratti del viso come guida al comportamento criminale. Alimentati dallo sviluppo della fotografia, gli studi che indagavano sui segni di criminalità nel volto si fecero strada, con detenuti e internati dei manicomi ripetutamente sottoposti a tali “studi”. Le fotografie composite di Frances Galton, fondatore del movimento eugenetico e pioniere dell’identificazione delle impronte digitali, sono un esempio: le immagini dei detenuti venivano sovrapposte l’una all’altra per individuare le regolarità come marcatori fisici della criminalità.20

L’antropologia criminale consolidò questi approcci in un tentativo coerente di sottoporre il corpo criminale a un esame scientifico. Sotto la guida dello psichiatra e antropologo italiano Cesare Lombroso, gli antropologi criminali utilizzarono un’ampia gamma di strumenti di misurazione antropomorfi, dalle precise misure degli arti di Bertillon alle misure craniometriche del cranio, alla mappatura dei tratti del viso e all’annotazione di segni distintivi come cicatrici e tatuaggi. Su questa base, essi enumerarono un elenco di cosiddette “stigmate” o regolarità fisiche riscontrate nel corpo del “criminale nato”. Sebbene questa nozione sia oggi ampiamente screditata, il metodo di classificazione sottostante, basato su una serie di dati caratteristici, esiste ancora.

La fiducia nelle conclusioni tratte dall’analisi quantitativa dei tratti del viso rimane un forte fascino. Un capitolo del 2016 sosteneva di aver addestrato con successo un algoritmo di rete neurale profonda per prevedere la criminalità in base alle foto della testa delle patenti di guida, mentre uno studio del 2018 faceva affermazioni simili sulla lettura dell’orientamento sessuale dalle foto dei siti di incontri.

Quando ci si confronta in modo critico con questi sistemi, è indispensabile rimanere consapevoli del progetto politico più ampio che essi sono chiamati a sostenere. Come scrive la studiosa di IA Kate Crawford: “Correlare la morfologia cranica all’intelligenza e alle rivendicazioni di diritti legali è un alibi tecnico per il colonialismo e la schiavitù. Sebbene si tenda a concentrarsi sugli errori nelle misurazioni del cranio e su come correggerli, l’errore ben più grave è nella visione del mondo sottostante che ha animato questa metodologia. L’obiettivo, quindi, non dovrebbe essere quello di chiedere misurazioni del cranio più accurate o “giuste” per sostenere modelli razzisti di intelligenza, ma di condannare del tutto questo approccio.”21 Detto altrimenti, le tecniche di classificazione e quantificazione non possono essere avulse dai contesti socio-politici che hanno il compito di verificare e garantire. Per dirla con lo studioso di relazioni internazionali Robert Cox, la classificazione e la quantificazione sono sempre per qualcuno e per qualche scopo.22

Come avverte Helga Nowotny, studiosa di Scienza e Tecnologia, se “ci fidiamo” dei risultati della previsione algoritmica come fondamentalmente veri, fraintendiamo la logica delle reti neurali profonde. Queste reti “possono solo rilevare regolarità e identificare modelli basati su dati che provengono dal passato. Non è coinvolto alcun ragionamento causale, né un’IA pretende che lo sia.”23

Mentre queste macchine possono produrre “previsioni pratiche e misurabili”, non hanno il senso della causa e dell’effetto – in breve, non hanno “comprensione” nel senso umano del termine.24 Inoltre, un’eccessiva dipendenza dagli algoritmi ci spinge verso il determinismo, allineando il nostro comportamento alla previsione macchinica al posto di percorsi alternativi. Questo è un problema nelle culture politiche che si basano sulla responsabilità. Se vogliamo imparare dal passato per costruire un futuro migliore, non possiamo affidarci ai risultati predittivi di un modello di apprendimento automatico.

AI déjà-vu

Ci sono molti fili, oltre all’affidamento condiviso e continuo alla quantificazione e alla classificazione, che si potrebbero seguire per esplorare la storia intricata delle tecnologie di sorveglianza e identificazione dal XIX secolo a oggi. Le popolazioni emarginate ed eccedenti, come i detenuti e i colonizzati, sono state a lungo utilizzate come “campi di prova tecnologici” per affinare i sistemi classificatori e addestrare gli algoritmi. La paura di una mobilità umana incontrollata continua a essere sfruttata come motore per la ricerca e lo sviluppo, con la tecnologia, a sua volta, impiegata per risolvere i problemi che essa stessa ha creato. E i metodi scientifici sociali positivistici continuano a essere strumentali al compito di tradurre le molteplicità roboanti in valori numerici ordinati.

Invece di cadere nel clamore dell’IA, potremmo invece sintonizzarci con un senso di déjà-vu: l’inquietante sensazione di aver già visto tutto questo. In questo modo, potremmo resistere meglio alle pretese fantastiche degli attori aziendali e di frontiera e iniziare a sganciare le tecnologie dai progetti globali di dominio.

**

Questo articolo si basa sulla ricerca svolta durante il progetto ‘Confini elastici: Rethinking the Borders of the 21st Century’ con sede all’Università di Graz, finanziato dalla fondazione NOMIS.

1 A. Bertillon, Instructons signalétiques, Melun, 1893, lastra 16, p. 262.

2 Faccio parte di un gruppo di ricercatori del progetto Elastic Borders, Università di Graz, Austria, finanziato dal NOMIS.

3 Vedi anche: M. Maguire, "Biopower, Racialization and New Security Technology", Social Identities, Vol. 18, No.5, 2012, pp. 593-607; K. Donnelly, "We Have Always Been Biased: Measuring the human body from anthropometry to the computational social sciences", Public, Vol. 30, No. 60, 2020, pp. 20-33; A. Valdivia e M. Tazzioli, "Genealogies beyond Algorithmic Fairness: Making up racialized subjects', in Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency, FAccT '23, Association for Computing Machinery, 2023, pp. 840-50.

4 Se le impronte sono state prese in Grecia, ma il richiedente asilo è stato successivamente fermato in Germania, potrebbe essere espulso in Grecia per l'esame della domanda.

5 B. Ayata, K. Cupers, C. Pagano, A. Fyssa e D. Alaa, L'attuazione dell'approccio hotspot dell'UE in Grecia e in Italia: A comparative and interdisciplinary analysis (working paper), Swiss Network for International Studies, 2021, p. 36.

6 J.B. Rule, Private Lives and Public Surveillance, Allen Lane, 1973.

7 Ibidem, p. 91.

8 M. Foucault, La società deve essere difesa. Conferenze al Collège de France, 1975-76, trans. D. Macey, Picador, 2003, p. 244.

9 S. A. Cole, Identità dei sospetti: A history of fingerprinting and criminal identification, Harvard University Press, 2001, p.12.

10 Ibidem, pp. 18-9.

11 Ibid., pp. 34-45.

12 Ibid., p.48.

13 M. Foucault, L'ordine delle cose. Routledge, 1975.

14 Z. Bauman, Modernità e Olocausto, Blackwell Publishers, 1989.

15 D. Ferreira da Silva, Toward a Global Idea of Race, University of Minnesota Press, 2007.

16 S. Wynter, "Scardinare la colonialità dell'essere/potere/verità/libertà: Verso l'umano, dopo l'uomo, la sua sovrarappresentazione - un'argomentazione', CR: The New Centennial Review, Vol. 3, No. 3, 2003, pp. 257-337.

17 G. C. Bowker e S. L. Star, Sorting things out: Classification and its consequences, MIT press, 2000, p. 196.

18 L. Amoore, "Il confine profondo", Geografia politica, 2001, 102547.

19 Ibid.

20 Galton condusse uno studio simile sui ragazzi delle scuole ebraiche, alla ricerca di marcatori razziali di ebraicità.

21 K. Crawford, The Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021, pp. 126-7.

22 R. W. Cox, "Forze sociali, Stati e ordini mondiali: Beyond International Relations Theory', Millennium, Vol. 10, No. 2, 1981, pp. 126-155.

23 H. Nowotny, In AI We Trust: Power, Illusion and Control of Predictive Algorithms. Polity, 2021, p. 22.

24 Ibid.

Go to top