Menu

European news without borders. In your language.

Menu
×

Het mobiele lichaam meten

Europa’s high-tech arsenaal van grenstechnologieën wordt vaak verteld als een futuristisch verhaal van licht, snelheid en rekenkracht. Identificatiesystemen zoals de Eurodac database slaan de gedigitaliseerde vingerafdrukken van migranten op, verwerken en vergelijken ze met behulp van bijna-infrarood licht, glasvezelkabels en gecentraliseerde servers. Drones patrouilleren in de lucht met hun niet-knipperende optische sensoren. En grote hoeveelheden gegevens worden doorgegeven aan computerprogramma’s die de volgende toestroom voorspellen.

Nieuwsberichten en NGO-rapporten gericht op de hightech aard van de Europese grenzen zijn er in overvloed. Elk rapport laat zien hoe vormen van bewaking, afschrikking en controle op afstand in toenemende mate grensversterkingen aanvullen en, in bepaalde gevallen, vervangen. Hoewel dit soort onderzoek en pleitbezorging essentieel is om de EU en technologieontwikkelaars ter verantwoording te roepen voor hun rol in het sturen van asielzoekers naar dodelijke migratieroutes, verdoezelt het de lange geschiedenis van deze technologieën en hun gevestigde rol in westerse bestuursapparaten. Dit brengt niet alleen het risico met zich mee dat AI-hype” onder beleidsmakers en ontwikkelaars, die deze tools aanprijzen als een middel om zowel ‘slimmere’ grenzen te creëren als om de mensenrechten van migranten te beschermen. Nog belangrijker is dat dit soort historisch geheugenverlies het geweld en de uitsluitingen die door deze technologieën worden veroorzaakt, verkeerd kan interpreteren als een technische kwestie van ‘vooringenomenheid’ die gemakkelijk kan worden gecorrigeerd door nauwkeurigere metingen of grotere datasets. In plaats daarvan moet veel van de schade die door deze technologieën wordt veroorzaakt, worden gezien als inherent aan hun ontwerp.

Een catalogus van identificatie

De inzet van geavanceerde technologieën om menselijke mobiliteit te controleren is allesbehalve nieuw. Stel je een stedelijk Europees politiebureau voor aan het eind van de negentiende eeuw. Als de gemeente de nieuwste identificatietechnologie had gebruikt, werden verdachten onderworpen aan een ingewikkeld meetproces. Het noteren van hun metingen was een nauwkeurig en zeer gespecialiseerd proces, waarvoor een bekwame en getrainde technicus nodig was.

Overweeg deze instructies voor het opmeten van een oor:

De operator brengt de vaste kaak van het instrument tot rust tegen de bovenkant van het oor en immobiliseert het door zijn linkerduim vrij stevig op het bovenste uiteinde van de kaak van het instrument te drukken, met de andere vingers van de hand rustend op de bovenkant van de schedel. Met de steel van de schuifmaat parallel aan de as van het oor, duwt hij zachtjes op de beweegbare bek totdat deze de onderkant van de kwab raakt en, voordat hij het aangegeven getal afleest, controleert hij of de pinna [uitwendig deel van het oor] op geen enkele manier wordt ingedrukt door een van beide kaken.1

Dit proces klinkt misschien als een schilderachtig, zij het ietwat merkwaardig overblijfsel van het Fin de Siècle, maar dat is het allerminst. Bertillonage, het systeem van meten, classificeren en archiveren voor criminele identificatie dat in de jaren 1870 werd bedacht door de gelijknamige Franse politieagent, was een mijlpaal in de geschiedenis van surveillance en identificatietechnologie. Opmerkelijk is dat de belangrijkste uitgangspunten van dit systeem tot op de dag van vandaag ten grondslag liggen aan identificatietechnologieën, van de database tot biometrie en machine learning.

Er bestaat een nauw en historisch verband tussen de angst voor het ongecontroleerde verkeer van verschillende ‘ongewenste personen’ en technologische innovatie. Negentiende-eeuwse technieken, ontwikkeld en verfijnd om problemen rond landloperij, koloniaal bestuur, deviantie, waanzin en criminaliteit aan te pakken, vormen de basis van het hedendaagse hightech grensbewakingsapparaat. Deze technieken omvatten kwantificering, die het menselijk lichaam als code weergeeft, classificatie en moderne methoden voor indexering en archivering.

Moderne invasieve registratie

Slimme grenssystemen maken gebruik van geavanceerde technologieën om ‘moderne, effectieve en efficiënte‘ grenzen te creëren. In deze context worden geavanceerde technologieën vaak afgeschilderd als het vertalen van grensprocessen zoals identificatie, registratie en mobiliteitscontrole in een puur technische procedure, waardoor het proces eerlijker wordt en minder vatbaar voor menselijke fouten. Algoritmische precisie wordt gekarakteriseerd als een middel om onethische politieke vooroordelen te vermijden en menselijke fouten te corrigeren.

Als onderzoeker van de technisch-wetenschappelijke onderbouwing van het hightech grensapparaat van de EU,2 erken ik zowel de toenemende elasticiteit van de hedendaagse grenspraktijken als de historisch gegroeide methodologie van de instrumenten en praktijken.3

Neem bijvoorbeeld de Eurodac database, een hoeksteen van het EU-grensbeheer. De index werd opgericht in 2003 en slaat vingerafdrukken van asielzoekers op om de Dublinverordening inzake eerste binnenkomst te handhaven.4 Het nemen van vingerafdrukken en registratie in interoperabele databases zijn ook centrale instrumenten die worden gebruikt in recente benaderingen van migratiebeheer, zoals de hotspotbenadering, waarbij de toekenning van identiteit dient als middel om ‘verdienstelijke’ van ‘onverdiende’ migranten te filteren.5

In de loop der jaren zijn zowel het soort gegevens dat in Eurodac wordt opgeslagen als het gebruik ervan uitgebreid: het toepassingsgebied is verbreed om ‘bredere migratiedoeleinden‘ te dienen, waarbij niet alleen gegevens over asielzoekers worden opgeslagen, maar ook over illegale migranten om hun uitzetting te vergemakkelijken. Een onlangs aangenomen voorstel heeft gezichtsopnames en biografische informatie, waaronder naam, nationaliteit en paspoortinformatie, toegevoegd aan het nemen van vingerafdrukken. Verder is de minimumleeftijd van migranten van wie gegevens kunnen worden opgeslagen verlaagd van veertien naar zes jaar.

Sinds 2019 is Eurodac ‘interoperabel‘ met een aantal andere EU-databanken die informatie opslaan over gezochte personen, buitenlandse ingezetenen, visumhouders en andere personen die van belang zijn voor strafrechtelijke, immigratie- en asieladministraties, waardoor strafrecht en migratie effectief aan elkaar worden gekoppeld en de toegang tot deze gegevens enorm wordt uitgebreid. Eurodac speelt een sleutelrol voor de Europese autoriteiten, zoals blijkt uit de inspanningen om ‘100% vingerafdrukken’ te nemen: de Europese Commissie heeft er bij de lidstaten op aangedrongen om elke nieuw aangekomen persoon in de database op te nemen, gebruik van fysieke dwang en detentie indien nodig.

Markeren van criminaliteit

Natiestaten verzamelen al eeuwenlang gegevens over burgers voor belastingdoeleinden en militaire rekrutering, maar het indexeren, ordenen in databases en classificeren voor bepaalde overheidsdoeleinden – zoals het controleren van de mobiliteit van ‘ongewenste’ bevolkingsgroepen – is een negentiende-eeuwse uitvinding.6 De Franse historicus en filosoof Michel Foucault beschrijft hoe staten zich in de context van toenemende verstedelijking en industrialisatie steeds meer gingen bezighouden met de kwestie van ‘circulatie’. Personen en goederen, maar ook ziekteverwekkers, circuleerden verder dan in de vroegmoderne periode.7 Hoewel staten er niet naar streefden om deze bewegingen volledig te onderdrukken of te controleren, zochten ze naar middelen om wat gezien werd als ‘positieve’ circulatie te vergroten en ‘negatieve’ circulatie te minimaliseren. Ze gebruikten hiervoor de nieuwe instrumenten van een positivistische sociale wetenschap: statistische benaderingen werden gebruikt op het gebied van demografie om fenomenen als geboorten, ongelukken, ziekte en sterfte te volgen en te reguleren.8 De opkomende bestuurlijke natiestaat pakte het probleem van de circulatie aan door een zeer specifieke toolkit te ontwikkelen waarin gedetailleerde informatie over de bevolking werd verzameld en gestandaardiseerde opslag- en analysemethoden werden ontwikkeld.

Een bijzonder lastig probleem was de circulatie van bekende criminelen. In de negentiende eeuw werd algemeen aangenomen dat als iemand één keer een overtreding beging, hij dat ook wel weer zou doen. De systemen die beschikbaar waren voor criminele identificatie waren echter jammerlijk ontoereikend voor deze taak.

Zoals criminoloog Simon Cole uitlegt, vereist het identificeren van een onbekende een ‘echt uniek lichaamskenmerk’.9 Maar voor de komst van moderne identificatiesystemen waren er maar twee manieren om dit te doen: brandmerken of persoonlijke herkenning. Hoewel brandmerken in Europa en Noord-Amerika op grote schaal werden gebruikt bij veroordeelden, gevangenen en tot slaaf gemaakte mensen, leidden veranderende ideeën over criminaliteit en straf in het begin van de negentiende eeuw grotendeels tot de afschaffing van fysieke merktekens. Daarvoor in de plaats kwam het strafblad: een schriftelijk document met de naam van de veroordeelde en een schriftelijke beschrijving van zijn persoon, inclusief herkenningspunten en littekens.

Het identificeren van een verdachte aan de hand van alleen een schriftelijke beschrijving bleek echter een uitdaging. En het systeem was kwetsbaar voor het gebruik van aliassen en verschillende spellingen van namen: alleen een persoon die bekend was in de gemeenschap kon met zekerheid worden geïdentificeerd. Vroege systemen voor criminele identificatie waren fundamenteel kwetsbaar voor mobiliteit.10 Met name deze problemen blijven spoken in het hedendaagse migratiebeheer, omdat databases vaak meerdere vermeldingen voor dezelfde persoon bevatten als gevolg van verschillende transliteraties van namen van het Arabische naar het Romeinse alfabet.

De uitvinding van de fotografie in de jaren 1840 loste weinig op aan de betrouwbaarheid van criminele identificatie. Niet alleen was een fotografisch verslag nog steeds afhankelijk van persoonlijke herkenning, maar het riep ook de vraag op over archivering. Vóór de Bertillonage werden strafregisters opgeslagen als jaarlijkse compendia van misdaden of alfabetische lijsten van overtreders. Hoewel foto’s een nauwkeuriger weergave van het gezicht gaven, was er geen manier om ze te archiveren op basis van kenmerken. Als je in de index wilde zoeken naar bijvoorbeeld een persoon met een prominente kin, dan was daar geen procedure voor. Foto’s van veroordeelden werden alfabetisch gesorteerd op basis van de naam die de veroordeelde opgaf, waardoor ze dezelfde zwakte vertoonden als andere identificatiesystemen.

Dataficatie’s voorouder

Alphonse Bertillon was de eerste die dit probleem oploste door systematische metingen van het menselijk lichaam te combineren met archivering en het bijhouden van gegevens. De criminoloog verbeterde het terugvinden van gegevens door ingangen numeriek te sorteren in plaats van alfabetisch en creëerde een indexeringssysteem dat volledig gebaseerd was op antropomorfe metingen. De indexkaarten werden georganiseerd volgens een hiërarchisch classificatiesysteem, waarbij de informatie eerst werd ingedeeld op geslacht, dan op hoofdlengte, hoofdbreedte, middelvingerlengte enzovoort. Elke set metingen werd in groepen verdeeld op basis van een statistische beoordeling van hun verdeling over de populatie, waarbij gemiddelden werden vastgesteld door metingen te doen bij veroordeelden. De Bertillon operator nam het profiel van een verdachte op in het archief en zocht naar een overeenkomst door middel van een proces van eliminatie: eerst het geslacht uitsluiten dat niet overeenkwam, dan de hoofdlengtes die niet overeenkwamen, enzovoort. Als er een voorlopige overeenkomst werd gevonden, werd deze bevestigd aan de hand van lichaamssporen die ook op de kaart stonden. Overal waar dit systeem werd toegepast, steeg het aantal herkenningen van ‘recidivisten’ enorm; Bertillons systeem verspreidde zich al snel over de hele wereld.11

Met Bertillon kwam een ander kenmerk van de hedendaagse grens- en bewakingstechnologie in beeld: kwantificering, of wat tegenwoordig ‘dataficatie’ wordt genoemd. Bertillon mat niet alleen de lengte en het hoofd van gevangenen, maar vond ook een methode uit om onderscheidende kenmerken van het lichaam in code om te zetten. Als een gevangene bijvoorbeeld een litteken op zijn onderarm had, noteerden eerdere systemen voor criminele identificatie dit gewoon in het dossier. Bertillon daarentegen mat de afstand tot een bepaald referentiepunt. Deze werden vervolgens vastgelegd op een gestandaardiseerde manier met behulp van een idioom van afkortingen en symbolen die deze beschrijvingen in verkorte vorm weergaven. Het resulterende  portrait parlé, of gesproken portret, transcribeerde het fysieke lichaam in een ‘universele taal’ van ‘woorden, getallen en gecodeerde afkortingen’.12 Voor het eerst in de geschiedenis kon een nauwkeurige onderwerpsbeschrijving worden getelegrafeerd.

De vertaling van het lichaam in code ligt nog steeds ten grondslag aan hedendaagse methoden van biometrische identificatie. Vingerafdrukidentificatie systemen die voor het eerst werden getest en uitgerold in koloniaal India zetten papillaire ribbelpatronen om in een code, die vervolgens kon worden vergeleken met andere codes die op dezelfde manier waren gegenereerd. Facial recognition technologie produceert schematische weergaven van het gezicht en kent er numerieke waarden aan toe, waardoor vergelijking en matching mogelijk wordt. Andere vormen van biometrische ID zoals stem-ID, irisscans en loopherkenning volgen hetzelfde principe.

Van taxonomie tot machinaal leren

Naast kwantificering is classificatie – al eeuwenlang een belangrijk instrument voor het genereren en beheren van kennis – een ander kenmerk van moderne en hedendaagse bewakings- en identificatietechnologieën. Zoals opgemerkt door vele geleerden, van Foucault13 tot Zygmunt Bauman14 en Denise Ferreira da Silva15 is classificatie een centraal instrument van de Europese Verlichting, waarvan de taxonomie van Carl Linnaeus het meest illustratief is. In zijn gegradueerde tabel benoemde, classificeerde en rangschikte Linnaeus de natuurlijke wereld van planten tot insecten tot mensen, waarbij hij elke groep verdeelde en onderverdeelde op basis van gemeenschappelijke kenmerken. Classificatie en taxonomieën worden algemeen gezien als een uitdrukking van de fundamentele epistemologische verschuivingen van een theocentrische naar een rationalistische epistemologie in de vroegmoderne tijd, die wetenschappelijke doorbraken mogelijk maakten maar ook verbonden waren met kolonisatie en onderwerping.16 In hun boek over dit thema onderstrepen Geoffrey Bowker en Susan Leigh Star het gebruik van classificatie als een krachtig maar vaak niet erkend instrument voor politieke ordening: “Politiek en sociaal geladen agenda’s worden vaak eerst gepresenteerd als puur technisch en zijn zelfs moeilijk te zien. Naarmate er meer lagen van het classificatiesysteem in een werkende infrastructuur worden opgenomen, wordt de oorspronkelijke politieke interventie steeds steviger verankerd. In veel gevallen leidt dit tot een naturalisatie van de politieke categorie, door een proces van convergentie. Het wordt vanzelfsprekend.’17

Op dit moment staat classificatie centraal in machinaal leren, een deelgebied van kunstmatige intelligentie dat is ontworpen om patronen te onderscheiden in grote hoeveelheden gegevens. Dit stelt het niet alleen in staat om enorme hoeveelheden informatie te categoriseren, maar ook om nieuwe, voorheen ongeziene gegevens te voorspellen en te classificeren. Met andere woorden, het past geleerde kennis toe op nieuwe situaties. Hoewel het onderzoek naar machinaal leren in het midden van de vorige eeuw begon, is het recentelijk tot ongekende bloei gekomen met toepassingen zoals ChatGPT.

Machine learning wordt ook steeds vaker toegepast in grenswerk. Zelden gebruikt als een op zichzelf staande technologie, wordt het op grote schaal ingezet in combinatie met bestaande technologieën om reeds lang bestaande vormen van bewaking, identificatie en sortering te verbeteren en te versnellen. Zo vervangt  algoritmische voorspelling, die grote hoeveelheden gegevens analyseert, waaronder bewegingspatronen, posts op sociale media, politieke conflicten, natuurrampen en meer, steeds vaker statistische migratiemodellen om migratiepatronen in kaart te brengen. De Europese Commissie financiert momenteel onderzoek naar algoritmische methoden die bestaande vormen van risicoanalyse zouden uitbreiden door gebruik te maken van bredere gegevensbronnen om nieuwe vormen van ‘riskant’ gedrag te identificeren. Machine learning wordt ook getest of gebruikt in ‘leugendetector’ grenswachtendialectherkenningtracking en identificatie van verdachte schepengezichtsherkenning aan de binnengrenzen van de EU en gedragsanalyse van gevangenen in Griekse kampen. Zoals dit brede scala aan toepassingen illustreert, lijkt geen enkele grenstechnologie vrijgesteld te zijn van machine learning, of het nu gaat om ondersteunde beeldanalyse van dronebeelden of het doorlichten van asielaanvragen.

Classificatie vormt de kern van machinaal leren – of tenminste het type van datagestuurd machinaal leren dat vandaag de dag dominant is geworden. Individuele gegevenspunten worden georganiseerd in categorieën en subcategorieën, een proces dat wordt uitgevoerd door middel van supervised of unsupervised learning. Bij gesuperviseerd leren worden trainingsgegevens gelabeld volgens een vooraf gedefinieerde taxonomie. In de praktijk betekent dit meestal dat mensen labels toekennen aan gegevens zoals ‘hond’ aan een afbeelding van die hond. Het model voor machinaal leren leert van deze gelabelde dataset door patronen te identificeren die correleren met de labels. Bij leren zonder toezicht worden de gegevens niet gelabeld door mensen. In plaats daarvan identificeert het algoritme zelfstandig patronen en structuren in de gegevens. Met andere woorden, het algoritme classificeert de gegevens door zijn eigen clusters te maken op basis van patronen die inherent zijn aan de dataset. Het creëert zijn eigen taxonomie van categorieën, die al dan niet kunnen overeenkomen met door mensen gecreëerde systemen.

Het veronderstelde criminele type

Zoals de AI- en grenswetenschapper Louise Amoore opmerkt, is het creëren van algoritmische clusters als een representatie van inherente, ‘natuurlijke’ patronen uit data een ‘buitengewoon krachtig politiek voorstel’ omdat het ‘de belofte biedt van een neutrale, objectieve en waardevrije politieke gemeenschap’.18 Het idee van het algoritmische cluster als een ‘natuurlijke gemeenschap’ behelst een belangrijke racialiserende zet: vormen van gedrag die geassocieerd worden met irreguliere migratie worden daardoor als ‘riskant’ bestempeld. Omdat deze clusters worden gevormd zonder verwijzing naar vooraf gedefinieerde criteria, zoals ‘klassieke’ proxy’s voor ras zoals nationaliteit of religie, zijn ze moeilijk aan te vechten met bestaande concepten zoals beschermde kenmerken of bias.19 Een migrant kan bijvoorbeeld als een veiligheidsrisico worden geïdentificeerd door een machine learning-algoritme op basis van een ondoorzichtige correlatie tussen reisroutes, posts op sociale media, persoonlijke en professionele netwerken en weerpatronen.

De creatie van categorieën op basis van inherente attributen is een echo van en een uitbreiding op andere negentiende-eeuwse praktijken: namelijk een reeks wetenschappelijke inspanningen waarbij metingen en statistieken werden gebruikt om regelmatigheden en patronen te identificeren die zouden wijzen op crimineel gedrag. Net als bij automatisch leren zonder toezicht, verzamelden de craniometrie, frenologie en criminele antropologie systematisch gegevens over menselijke proefpersonen om patronen te ontdekken die konden worden gesorteerd in categorieën van criminaliteit.

Frenologen zoals Franz Joseph Gall koppelden bijvoorbeeld specifieke persoonlijkheidskenmerken aan de prominente aanwezigheid van delen van de schedel. Op het verwante gebied van de fysionomie deden figuren als de Zwitserse dominee Johann Kaspar Lavater een systematische studie van gelaatstrekken als leidraad voor crimineel gedrag. Aangewakkerd door de ontwikkeling van de fotografie, wonnen studies die tekenen van criminaliteit in het gezicht onderzochten aan kracht en werden veroordeelden en bewoners van gestichten herhaaldelijk onderworpen aan dergelijke ‘studies’. De compositiefoto’s van Frances Galton, de oprichter van de eugenetica-beweging en een pionier op het gebied van vingerafdrukidentificatie, zijn hier een goed voorbeeld van: foto’s van veroordeelden werden over elkaar heen gelegd om regelmatigheden te ontdekken als fysieke markers van criminaliteit.20

De criminele antropologie consolideerde deze benaderingen in een coherente poging om het criminele lichaam aan een wetenschappelijk onderzoek te onderwerpen. Onder leiding van de Italiaanse psychiater en antropoloog Cesare Lombroso gebruikten criminele antropologen een breed scala aan antropomorfe meetinstrumenten, van Bertillons precieze metingen van ledematen tot schedelmetingen, het in kaart brengen van gelaatstrekken en het noteren van opvallende kenmerken zoals littekens en tatoeages. Op basis hiervan maakten ze een lijst van zogenaamde ‘stigmata’ of lichamelijke regelmatigheden die in het lichaam van de ‘geboren misdadiger’ werden aangetroffen. Hoewel dit begrip tegenwoordig alom in diskrediet is gebracht, bestaat de onderliggende methode van classificatie op basis van massale gegevenskenmerken nog steeds.

Het vertrouwen in de conclusies die worden getrokken uit een kwantitatieve analyse van gezichtskenmerken blijft een sterke aantrekkingskracht houden. Een 2016 paper beweerde dat het met succes een diep neuraal netwerkalgoritme had getraind om criminaliteit te voorspellen op basis van hoofdfoto’s van rijbewijzen, terwijl een 2018 studie vergelijkbare beweringen deed over het lezen van seksuele geaardheid uit foto’s van datingsites.

Bij het kritisch omgaan met deze systemen is het noodzakelijk om rekening te houden met het grotere politieke project waarvoor ze worden ingezet. AI-onderzoeker Kate Crawford schrijft: “Het in verband brengen van schedelmorfologie met intelligentie en aanspraken op wettelijke rechten fungeert als een technisch alibi voor kolonialisme en slavernij. Hoewel er een tendens is om te focussen op de fouten in schedelmetingen en hoe daarvoor te corrigeren, zit de veel grotere fout in het onderliggende wereldbeeld dat deze methodologie bezielt. Het doel zou dan ook niet moeten zijn om op te roepen tot nauwkeurigere of “eerlijkere” schedelmetingen om racistische modellen van intelligentie te ondersteunen, maar om de benadering in zijn geheel te veroordelen.’21 Anders gezegd, technieken voor classificatie en kwantificering kunnen niet los worden gezien van de sociaal-politieke context die ze moeten verifiëren en garanderen. Om met de woorden van Robert Cox, wetenschapper op het gebied van internationale betrekkingen, te spreken: classificatie en kwantificering zijn altijd voor iemand en met een bepaald doel.22

Maar, zoals Helga Nowotny, wetenschapper op het gebied van wetenschaps- en technologiestudies, waarschuwt, als we de resultaten van algoritmische voorspellingen als fundamenteel waar ‘vertrouwen’, begrijpen we de logica van diepe neurale netwerken verkeerd. Deze netwerken “kunnen alleen regelmatigheden detecteren en patronen identificeren op basis van gegevens uit het verleden. Er komt geen causaal redeneren aan te pas, en een AI doet ook niet alsof.’23

Hoewel deze machines ‘praktische en meetbare voorspellingen’ kunnen doen, hebben ze geen besef van oorzaak en gevolg – kortom, ze hebben geen ‘begrip’ in de menselijke betekenis.24 Bovendien drijft een overmatig vertrouwen in algoritmes ons in de richting van determinisme, waardoor ons gedrag wordt afgestemd op machinale voorspellingen in plaats van op alternatieve paden. Dit is een probleem in politieke culturen die gebaseerd zijn op verantwoordingsplicht. Als we willen leren van het verleden om betere toekomsten te bouwen, kunnen we niet vertrouwen op de voorspellende uitkomsten van een model voor machinaal leren.

AI déjà-vu

Naast de gedeelde en voortdurende afhankelijkheid van kwantificering en classificering zijn er nog vele andere thema’s waarmee de verstrengelde geschiedenis van bewakings- en identificatietechnologieën van de negentiende eeuw tot nu kan worden onderzocht. Gemarginaliseerde, overtollige bevolkingsgroepen zoals veroordeelden en gekoloniseerde mensen zijn lang gebruikt als ‘technologische proeftuinen‘ om classificatiesystemen aan te scherpen en algoritmes te trainen. De angst voor ongecontroleerde menselijke mobiliteit wordt nog steeds gebruikt als drijfveer voor onderzoek en ontwikkeling, waarbij technologie op haar beurt wordt ingezet om problemen op te lossen die ze zelf heeft gecreëerd. En positivistische sociaal-wetenschappelijke methoden blijven instrumenteel voor de taak om brullende multipliciteiten te vertalen in nette, numerieke waarden.

In plaats van in de AI-hype te trappen, kunnen we ons beter afstemmen op een gevoel van déjà-vu: het verontrustende gevoel dat we dit allemaal al eerder hebben gezien. Op deze manier kunnen we ons beter verzetten tegen de fantastische beweringen van bedrijven en grensbewakers en kunnen we beginnen met het loskoppelen van technologieën van wereldwijde overheersingsprojecten.

**

Dit artikel is gebaseerd op onderzoek dat is uitgevoerd tijdens het project ‘Elastic Borders: Rethinking the Borders of the 21st Century’ gevestigd aan de Universiteit van Graz, gefinancierd door de NOMIS stichting.

1 A. Bertillon, Instructons signalétiques, Melun, 1893, plaat 16, p. 262.

2 Ik maak deel uit van een team onderzoekers van het door NOMIS gefinancierde Elastic Borders project, Universiteit van Graz, Oostenrijk.

3 Zie ook: M. Maguire, 'Biopower, Racialization and New Security Technology', Social Identities, Vol. 18, No.5, 2012, pp. 593-607; K. Donnelly, 'We Have Always Been Biased: Measuring the human body from anthropometry to the computational social sciences', Public, Vol. 30, No. 60, 2020, pp. 20-33; A. Valdivia en M. Tazzioli, 'Genealogies beyond Algorithmic Fairness: Making up racialized subjects', in Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency, FAccT '23, Association for Computing Machinery, 2023, pp. 840-50.

4 Als de vingerafdrukken in Griekenland zijn genomen, maar de asielzoeker later in Duitsland wordt aangehouden, kan hij worden uitgezet naar Griekenland voor de behandeling van zijn aanvraag.

5 B. Ayata, K. Cupers, C. Pagano, A. Fyssa en D. Alaa, De implementatie van de EU hotspotbenadering in Griekenland en Italië: A comparative and interdisciplinary analysis (working paper), Swiss Network for International Studies, 2021, p. 36.

6 J.B. Rule, Private Lives and Public Surveillance, Allen Lane, 1973.

7 Ibid., p. 91.

8 M. Foucault, De maatschappij moet verdedigd worden. Lezingen aan het Collège de France, 1975-76, trans. D. Macey, Picador, 2003, p. 244.

9 S. A. Cole, Identiteiten van verdachten: A history of fingerprinting and criminal identification, Harvard University Press, 2001, p.12.

10 Ibid., pp. 18-9.

11 Ibid., pp. 34-45.

12 Ibid., p.48.

13 M. Foucault, De orde der dingen. Routledge, 1975.

14 Z. Bauman, Moderniteit en de Holocaust, Blackwell Publishers, 1989.

15 D. Ferreira da Silva, Toward a Global Idea of Race, University of Minnesota Press, 2007.

16 S. Wynter, 'Unsettling the coloniality of being/power/truth/freedom: Towards the human, after man, its overrepresentation - an argument', CR: The New Centennial Review, Vol. 3, No. 3, 2003, pp. 257-337.

17 G. C. Bowker en S. L. Star, Dingen sorteren: Classificatie en de gevolgen ervan, MIT press, 2000, p. 196.

18 L. Amoore, 'De diepe grens', Politieke geografie, 2001, 102547.

19 Ibid.

20 Galton voerde een soortgelijk onderzoek uit onder joodse schooljongens, op zoek naar raciale kenmerken van joodsheid.

21 K. Crawford, De Atlas van AI: Macht, politiek en de planetaire kosten van kunstmatige intelligentie, Yale University Press, 2021, pp. 126-7.

22 R. W. Cox, 'Sociale krachten, staten en wereldorden: Beyond International Relations Theory', Millennium, Vol. 10, No. 2, 1981, pp. 126-155.

23 H. Nowotny, In AI We Trust: Power, Illusion and Control of Predictive Algorithms. Polity, 2021, p. 22.

24 Ibid.

Go to top