Menü

Europäische Nachrichten ohne Grenzen. In Ihrer Sprache.

Menü
×

Vermessung des mobilen Körpers

Europas High-Tech-Arsenal an Grenztechnologien wird oft als futuristisches Märchen von Licht, Geschwindigkeit und Rechenleistung dargestellt. Identifizierungssysteme wie die Eurodac-Datenbank speichern, verarbeiten und vergleichen die digitalisierten Fingerabdrücke von Migranten mithilfe von Nahinfrarotlicht, Glasfaserkabeln und zentralen Servern. Drohnen patrouillieren den Himmel mit ihren optischen Sensoren, die nicht blinken. Und große Datenmengen werden in Computerprogramme eingespeist, die die nächste Welle von Ankünften vorhersagen.

Nachrichtenberichte und NGO-Berichte die sich mit dem High-Tech-Charakter der europäischen Grenzen befassen, gibt es viele. In allen Berichten wird aufgezeigt, wie ferngesteuerte Formen der Überwachung, Abschreckung und Kontrolle die Grenzbefestigungen zunehmend ergänzen und in bestimmten Fällen sogar ersetzen. Diese Art von Forschung und Lobbyarbeit ist zwar wichtig, um die EU und Technologieentwickler für ihre Rolle bei der Vertreibung von Asylbewerbern auf tödliche Migrationsrouten zur Rechenschaft zu ziehen, doch wird dabei die lange Geschichte dieser Technologien und ihre etablierte Rolle in westlichen Regierungsapparaten ausgeblendet. Dies birgt nicht nur die Gefahr, dass die „AI-Hype‚ bei politischen Entscheidungsträgern und Entwicklern zu verstärken, die diese Werkzeuge als Mittel zur Schaffung „intelligenterer“ Grenzen und zum Schutz der Menschenrechte von Migranten anpreisen.Noch wichtiger ist, dass diese Art von historischer Amnesie dazu führen kann, dass die Gewalt und Ausgrenzung durch diese Technologien als ein technisches Problem der „Verzerrung“ missverstanden wird, das leicht durch genauere Messungen oder größere Datensätze korrigiert werden kann.

Stattdessen sollte ein Großteil des Schadens, der durch diese Technologien entsteht, als inhärent in ihrem Design verstanden werden.

Ein Katalog zur Identifizierung

Der Einsatz moderner Technologien zur Kontrolle der menschlichen Mobilität ist alles andere als neu. Stellen Sie sich eine städtische europäische Polizeistation im späten neunzehnten Jahrhundert vor. Hätte die Stadtverwaltung die neueste Identifizierungstechnologie eingesetzt, wären die Verdächtigen einem komplexen Messverfahren unterzogen worden. Die Aufnahme ihrer Maße war ein präziser und hochspezialisierter Prozess, der einen erfahrenen und geschulten Techniker erforderte.

Betrachten Sie diese Anleitung zur Messung eines Ohres:

Der Bediener bringt den festen Kiefer des Instruments an den oberen Rand des Ohrs und hält es fest, indem er seinen linken Daumen ziemlich fest auf das obere Ende des Kiefers des Instruments drückt, während die anderen Finger der Hand auf der Schädeldecke ruhen. Mit dem Stiel der Schieblehre parallel zur Achse des Ohres schiebt er die bewegliche Backe vorsichtig, bis sie das untere Ende des Ohrläppchens berührt, und vergewissert sich, bevor er die angezeigte Zahl abliest, dass die Ohrmuschel [äußerer Teil des Ohres] in keiner Weise von einer der beiden Backen eingedrückt wird.1

Dieses Verfahren mag wie ein kurioses Relikt aus dem Fin de Siècle klingen, aber es ist alles andere als das. Bertillonage, das System der Messung, Klassifizierung und Archivierung zur Identifizierung von Straftätern, das in den 1870er Jahren von dem gleichnamigen französischen Polizeibeamten entwickelt wurde, war ein Meilenstein in der Geschichte der Überwachungs- und Identifizierungstechnologie. Bemerkenswerterweise bilden seine Grundprinzipien bis heute die Grundlage für Identifizierungstechnologien, von der Datenbank bis zur Biometrie und zum maschinellen Lernen.

Es besteht eine enge und historisch gewachsene Verbindung zwischen der Angst vor der unkontrollierten Verbreitung verschiedener „unerwünschter Personen“ und technologischen Innovationen. Jahrhundert, die entwickelt und verfeinert wurden, um Probleme im Zusammenhang mit Landstreicherei, Kolonialherrschaft, Abweichung, Wahnsinn und Kriminalität zu lösen, bilden die Grundlage des heutigen High-Tech-Grenzüberwachungsapparats. Zu diesen Techniken gehören die Quantifizierung, die den menschlichen Körper als Code wiedergibt, die Klassifizierung und moderne Methoden der Indexierung und Archivierung.

Moderne invasive Registrierung

Smarte Grenzsysteme nutzen fortschrittliche Technologien, um ‚moderne, effektive und effiziente‚ Grenzen zu schaffen. In diesem Zusammenhang werden fortschrittliche Technologien oft so dargestellt, dass sie Grenzprozesse wie Identifizierung, Registrierung und Mobilitätskontrolle in ein rein technisches Verfahren umwandeln und dadurch den Prozess fairer und weniger anfällig für menschliche Fehler machen. Algorithmische Präzision wird als Mittel zur Vermeidung unethischer politischer Voreingenommenheit und zur Korrektur menschlicher Fehler dargestellt.

Als Forscher der technowissenschaftlichen Grundlagen des High-Tech-Grenzapparats der EU,2 erkenne ich sowohl die zunehmende Elastizität der zeitgenössischen Grenzpraktiken als auch die historisch gewachsene Methodik ihrer Instrumente und Praktiken.3

Zum Beispiel die Eurodac-Datenbank, ein Eckpfeiler des EU-Grenzmanagements. Der 2003 eingerichtete Index speichert die Fingerabdrücke von Asylbewerbern zur Durchsetzung der Dublin-Verordnung über die Ersteinreise.4 Die Abnahme von Fingerabdrücken und die Erfassung in interoperablen Datenbanken sind auch zentrale Instrumente, die in neueren Ansätzen zur Migrationssteuerung wie dem Hotspot-Ansatz eingesetzt werden, bei dem die Identitätszuweisung als Mittel dient, um „verdiente“ von „unverdienten“ Migranten herauszufiltern.5

Im Laufe der Jahre haben sich sowohl die Art der in Eurodac gespeicherten Daten als auch ihre Verwendungszwecke ausgeweitet: Der Anwendungsbereich wurde erweitert, um „weiteren Migrationszwecken“ zu dienen, wobei nicht nur Daten über Asylbewerber, sondern auch über irreguläre Migranten gespeichert werden, um deren Abschiebung zu erleichtern. Ein kürzlich angenommener Vorschlag hat die Erfassung von Fingerabdrücken um Gesichtsbilder und biografische Informationen, einschließlich Name, Staatsangehörigkeit und Passdaten, ergänzt. Außerdem wurde das Mindestalter von Migranten, deren Daten gespeichert werden dürfen, von vierzehn auf sechs Jahre gesenkt.

Seit 2019 ist Eurodac „interoperabel“ mit einer Reihe anderer EU-Datenbanken, in denen Informationen über gesuchte Personen, ausländische Einwohner, Visuminhaber und andere Personen gespeichert sind, die für Strafjustiz-, Einwanderungs- und Asylbehörden von Interesse sind, was eine effektive Verknüpfung von Strafjustiz und Migration ermöglicht und gleichzeitig den Zugang zu diesen Daten erheblich erweitert. Eurodac spielt für die europäischen Behörden eine Schlüsselrolle, wie die Bemühungen um eine „100%ige Fingerabdruck-Erfassungsquote“ zeigen: Die Europäische Kommission hat die Mitgliedstaaten dazu gedrängt, jede neu ankommende Person in der Datenbank zu erfassen, notfalls mit physischem Zwang und Inhaftierung.

Kennzeichnung von Straftaten

Nationalstaaten sammeln zwar seit Jahrhunderten Daten über ihre Bürger, um sie zu besteuern und militärisch zu rekrutieren, doch die Indizierung, Organisation in Datenbanken und Klassifizierung für bestimmte staatliche Zwecke – wie die Kontrolle der Mobilität „unerwünschter“ Bevölkerungsgruppen – ist eine Erfindung des 19. Jahrhunderts.6 Der französische Historiker und Philosoph Michel Foucault beschreibt, wie sich die Staaten im Zusammenhang mit der zunehmenden Urbanisierung und Industrialisierung zunehmend mit der Frage der „Zirkulation“ beschäftigten. Personen und Waren sowie Krankheitserreger zirkulierten weiter als in der frühen Neuzeit.7 Während die Staaten nicht versuchten, diese Bewegungen vollständig zu unterdrücken oder zu kontrollieren, suchten sie nach Mitteln, um das, was als „positive“ Zirkulation angesehen wurde, zu erhöhen und die „negative“ Zirkulation zu minimieren. Zu diesem Zweck setzten sie die neuartigen Instrumente einer positivistischen Sozialwissenschaft ein: Im Bereich der Demografie wurden statistische Ansätze verwendet, um Phänomene wie Geburten, Unfälle, Krankheiten und Todesfälle zu verfolgen und zu regulieren.8 Der aufkommende managerielle Nationalstaat ging das Problem der Zirkulation an, indem er ein ganz bestimmtes Instrumentarium entwickelte, indem er detaillierte Informationen über die Bevölkerung zusammentrug und standardisierte Methoden zur Speicherung und Analyse entwickelte.

Ein besonders ärgerliches Problem war die Verbreitung von bekannten Verbrechern. Im neunzehnten Jahrhundert glaubte man allgemein, dass eine Person, die einmal straffällig geworden war, auch wieder straffällig werden würde. Die verfügbaren Systeme zur Identifizierung von Straftätern waren jedoch völlig unzureichend.

Wie der Kriminologe Simon Cole erklärt, erfordert die Identifizierung einer unbekannten Person ein „wirklich einzigartiges Körpermerkmal“.9 Vor dem Aufkommen moderner Identifizierungssysteme gab es jedoch nur zwei Möglichkeiten, dies zu erreichen: das Brandzeichen oder die Personenerkennung. Während die Brandmarkung in Europa und Nordamerika bei Sträflingen, Gefangenen und Versklavten weit verbreitet war, führten die sich entwickelnden Vorstellungen von Kriminalität und Bestrafung zu Beginn des 19. Jahrhunderts weitgehend zur Abschaffung der körperlichen Kennzeichnung. An ihre Stelle trat das Strafregister: ein schriftliches Dokument, das den Namen des Verurteilten und eine schriftliche Beschreibung seiner Person, einschließlich seiner Kennzeichen und Narben, enthält.

Allerdings erwies sich die Identifizierung eines Verdächtigen allein anhand einer schriftlichen Beschreibung als schwierig. Außerdem war das System anfällig für die Verwendung von Decknamen und unterschiedlichen Schreibweisen von Namen: Nur eine Person, die in ihrer Gemeinschaft bekannt war, konnte mit Sicherheit identifiziert werden. Frühe Systeme zur Identifizierung von Straftätern waren grundsätzlich anfällig für Mobilität.10 Vor allem diese Probleme sind auch heute noch im Migrationsmanagement präsent, da Datenbanken oft mehrere Einträge für ein und dieselbe Person enthalten, die sich aus unterschiedlichen Transliterationen von Namen aus dem arabischen in das römische Alphabet ergeben.

Die Erfindung der Fotografie in den 1840er Jahren trug wenig dazu bei, das Problem der Zuverlässigkeit der Identifizierung von Straftätern zu lösen. Nicht nur, dass eine fotografische Aufzeichnung immer noch von der persönlichen Wiedererkennung abhing, sondern sie warf auch die Frage der Archivierung auf. Vor der Bertillonage wurden Strafregister entweder in Form jährlicher Kompendien von Verbrechen oder alphabetischer Listen von Straftätern aufbewahrt. Fotografien boten zwar eine genauere Darstellung des Gesichts, aber es gab keine Möglichkeit, sie nach Merkmalen zu archivieren. Wenn man in der Kartei beispielsweise nach einer Person mit einem markanten Kinn suchen wollte, gab es kein Verfahren dafür. Die Fotos von Verurteilten wurden alphabetisch nach dem Namen des Verurteilten sortiert und wiesen damit die gleiche Schwäche auf wie andere Identifikationssysteme.

Vorläufer der Datenfizierung

Alphonse Bertillon war der erste, der dieses Problem löste, indem er systematische Messungen des menschlichen Körpers mit der Archivierung und Aufzeichnung von Daten verband. Der Kriminologe verbesserte die Auffindbarkeit von Akten, indem er die Einträge numerisch statt alphabetisch sortierte und ein Indexierungssystem schuf, das ausschließlich auf anthropomorphen Messungen basierte. Die Karteikarten wurden nach einem hierarchischen Klassifizierungssystem geordnet, wobei die Informationen zunächst nach Geschlecht, dann nach Kopflänge, Kopfbreite, Mittelfingerlänge und so weiter unterteilt wurden. Jeder Satz von Messungen wurde auf der Grundlage einer statistischen Bewertung ihrer Verteilung in der Bevölkerung in Gruppen eingeteilt, wobei die Durchschnittswerte durch Messungen an Verurteilten ermittelt wurden. Der Bertillon-Mitarbeiter nahm das Profil eines Verdächtigen in das Archiv auf und suchte nach einer Übereinstimmung durch ein Ausschlussverfahren: Zuerst wurde das Geschlecht ausgeschlossen, das nicht übereinstimmte, dann die Kopflänge, die nicht übereinstimmte, und so weiter. Wurde eine vorläufige Übereinstimmung gefunden, so wurde diese anhand der ebenfalls auf der Karte aufgeführten Körpermerkmale bestätigt. Überall, wo dieses System eingeführt wurde, stiegen die Erkennungsraten von „Wiederholungstätern“ sprunghaft an; Bertillons System verbreitete sich bald über den ganzen Globus.11

Mit Bertillon trat ein weiteres Merkmal der zeitgenössischen Grenz- und Überwachungstechnologie auf den Plan: die Quantifizierung oder das, was man heute als „Datafizierung“ bezeichnet. Bertillon maß nicht nur die Körpergröße und die Kopflänge von Gefangenen, sondern erfand auch eine Methode, um charakteristische Merkmale des Körpers in einen Code zu übersetzen. Hatte ein Gefangener beispielsweise eine Narbe am Unterarm, so wurde dies in früheren Systemen zur Identifizierung von Straftätern einfach in der Akte vermerkt. Bertillon hingegen maß die Entfernung zu einem bestimmten Referenzpunkt. Diese wurden dann in einer standardisierten Art und Weise unter Verwendung eines Idioms von Abkürzungen und Symbolen erfasst, die diese Beschreibungen in verkürzter Form wiedergaben. Das daraus resultierende portrait parlé, oder gesprochene Porträt, transkribierte den physischen Körper in eine „universelle Sprache“ aus „Wörtern, Zahlen und kodierten Abkürzungen“.12 Zum ersten Mal in der Geschichte konnte eine präzise Beschreibung des Subjekts telegrafiert werden.

Die Übersetzung des Körpers in einen Code liegt auch heutigen biometrischen Identifizierungsmethoden zugrunde. Fingerabdruckidentifikation Systeme, die erstmals im kolonialen Indien erprobt und eingeführt wurden, wandelten Papillarleistenmuster in einen Code um, der dann mit anderen, auf die gleiche Weise erzeugten Codes verglichen werden konnte. Gesichtserkennung Technologie erzeugt schematische Darstellungen des Gesichts und ordnet ihnen numerische Werte zu, die einen Vergleich und Abgleich ermöglichen. Andere Formen der biometrischen Identifizierung wie Stimmerkennung, Iris-Scans und Gangerkennung folgen demselben Prinzip.

Von der Taxonomie zum maschinellen Lernen

Neben der Quantifizierung ist die Klassifizierung – seit Jahrhunderten ein Schlüsselinstrument der Wissensgenerierung und -verwaltung – ein weiteres Kennzeichen moderner und zeitgenössischer Überwachungs- und Identifizierungstechnologien. Wie viele Wissenschaftler von Foucault13 bis Zygmunt Bauman14 und Denise Ferreira da Silva15  festgestellt haben, ist die Klassifizierung ein zentrales Instrument der europäischen Aufklärung, das am ikonischsten in der Taxonomie von Carl Linnaeus zum Ausdruck kommt. In seiner Stufentafel benannte, klassifizierte und hierarchisierte Linnaeus die natürliche Welt von Pflanzen über Insekten bis hin zu Menschen, wobei er jede Gruppe nach gemeinsamen Merkmalen einteilte und unterteilte. Klassifizierung und Taxonomie werden weithin als Ausdruck der grundlegenden erkenntnistheoretischen Verschiebungen von einer theozentrischen zu einer rationalistischen Erkenntnistheorie in der frühen Neuzeit gesehen, die wissenschaftliche Durchbrüche ermöglichten, aber auch mit Kolonisierung und Versklavung verbunden waren.16 In ihrem Buch zum Thema unterstreichen Geoffrey Bowker und Susan Leigh Star die Verwendung der Klassifizierung als mächtiges, aber oft unerkanntes Instrument der politischen Ordnung: „Politisch und sozial aufgeladene Agenden werden oft zunächst als rein technisch dargestellt und sind selbst schwer zu erkennen. In dem Maße, in dem sich die Schichten des Klassifikationssystems zu einer funktionierenden Infrastruktur entwickeln, verfestigt sich der ursprüngliche politische Eingriff immer mehr. In vielen Fällen führt dies zu einer Naturalisierung der politischen Kategorie durch einen Prozess der Konvergenz. Sie wird als selbstverständlich angesehen.‘17

Heute steht die Klassifizierung im Mittelpunkt des maschinellen Lernens, einem Teilbereich der künstlichen Intelligenz, der darauf abzielt, Muster in großen Datenmengen zu erkennen. Dadurch lassen sich nicht nur riesige Datenmengen kategorisieren, sondern auch neue, bisher ungesehene Daten vorhersagen und klassifizieren. Mit anderen Worten: Es wendet gelerntes Wissen auf neue Situationen an. Die Forschung im Bereich des maschinellen Lernens begann Mitte des letzten Jahrhunderts, hat aber in jüngster Zeit durch Anwendungen wie ChatGPT eine nie dagewesene Bedeutung erlangt.

Maschinelles Lernen wird auch zunehmend in der Grenzarbeit eingesetzt. Es wird selten als eigenständige Technologie verwendet, sondern wird häufig in Verbindung mit bestehenden Technologien eingesetzt, um altbewährte Formen der Überwachung, Identifizierung und Sortierung zu ergänzen und zu beschleunigen. So ersetzt beispielsweise die algorithmische Vorhersage, die große Datenmengen wie Bewegungsmuster, Posts in sozialen Medien, politische Konflikte, Naturkatastrophen usw. analysiert, zunehmend statistische Migrationsmodelle zur Erfassung von Migrationsmustern. Die Europäische Kommission finanziert derzeit Forschungsarbeiten zu algorithmischen Methoden die die bestehenden Formen der Risikoanalyse erweitern würden, indem sie auf breitere Datenquellen zurückgreifen, um neuartige Formen „riskanten“ Verhaltens zu ermitteln. Maschinelles Lernen wird auch in folgenden Bereichen erprobt oder eingesetzt: Lügendetektor für GrenzschutzbeamteDialekterkennungVerfolgung und Identifizierung verdächtiger SchiffeGesichtserkennung an den Binnengrenzen der EU und Verhaltensanalyse von Insassen in griechischen Lagern. Wie diese breite Palette von Anwendungen zeigt, scheint es keine Grenztechnologie zu geben, die vom maschinellen Lernen ausgenommen ist, sei es die unterstützte Bildanalyse von Drohnenaufnahmen oder die Überprüfung von Asylanträgen.

Das Herzstück des maschinellen Lernens ist die Klassifizierung – oder zumindest die Art des datengesteuerten maschinellen Lernens das sich heute durchgesetzt hat. Einzelne Datenpunkte werden in Kategorien und Unterkategorien eingeteilt, ein Prozess, der entweder durch überwachtes oder unüberwachtes Lernen durchgeführt wird. Beim überwachten Lernen werden die Trainingsdaten nach einer vordefinierten Taxonomie etikettiert. In der Praxis bedeutet dies in der Regel, dass Menschen den Daten Etiketten zuweisen, wie z. B. „Hund“ für ein Bild des besagten Hundes. Das maschinelle Lernmodell lernt aus diesem markierten Datensatz, indem es Muster identifiziert, die mit den Markierungen korrelieren. Beim unüberwachten Lernen werden die Daten nicht von Menschen beschriftet. Stattdessen identifiziert der Algorithmus selbstständig Muster und Strukturen in den Daten. Mit anderen Worten: Der Algorithmus klassifiziert die Daten, indem er auf der Grundlage der im Datensatz enthaltenen Muster seine eigenen Cluster erstellt. Er erstellt seine eigene Taxonomie von Kategorien, die mit den von Menschen geschaffenen Systemen übereinstimmen können oder auch nicht.

Der vermeintliche Verbrechertyp

Wie die KI- und Grenzwissenschaftlerin Louise Amoore betont, ist die Darstellung algorithmischer Cluster als Repräsentation inhärenter, „natürlicher“ Muster aus Daten ein „außerordentlich mächtiger politischer Vorschlag“, da er „das Versprechen einer neutralen, objektiven und wertfreien Bildung und Abgrenzung politischer Gemeinschaften“ bietet.18 Die Idee des algorithmischen Clusters als „natürliche Gemeinschaft“ beinhaltet einen bedeutenden rassifizierenden Schritt: Verhaltensweisen, die mit irregulärer Migration in Verbindung gebracht werden, werden folglich als „riskant“ bezeichnet. 19 Da diese Cluster ohne Bezugnahme auf vordefinierte Kriterien wie „klassische“ Proxies für Rasse wie Nationalität oder Religion gebildet werden, sind sie mit bestehenden Konzepten wie geschützten Merkmalen oder Voreingenommenheit nur schwer in Frage zu stellen.

Ein Migrant könnte beispielsweise von einem Algorithmus für maschinelles Lernen als Sicherheitsrisiko identifiziert werden, der auf einer undurchsichtigen Korrelation zwischen Reiserouten, Beiträgen in sozialen Medien, persönlichen und beruflichen Netzwerken und Wettermustern basiert.

Die Schaffung von Kategorien auf der Grundlage inhärenter Attribute erinnert an andere Praktiken des 19. Jahrhunderts, insbesondere an eine Reihe wissenschaftlicher Bemühungen, bei denen Messungen und Statistiken eingesetzt wurden, um Regelmäßigkeiten und Muster zu erkennen, die auf kriminelles Verhalten hindeuten würden. Ähnlich wie beim unüberwachten maschinellen Lernen wurden in den Bereichen Kraniometrie, Phrenologie und Kriminalanthropologie systematisch Daten über menschliche Probanden gesammelt, um Muster zu erkennen, die in Kategorien von Kriminalität eingeordnet werden konnten.

Zum Beispiel brachten Phrenologen wie Franz Joseph Gall bestimmte Persönlichkeitsmerkmale mit dem Hervortreten von Schädelregionen in Verbindung. Auf dem verwandten Gebiet der Physiognomie untersuchten Persönlichkeiten wie der Schweizer Pfarrer Johann Kaspar Lavater systematisch die Gesichtszüge, um daraus Rückschlüsse auf kriminelles Verhalten zu ziehen. Mit der Entwicklung der Fotografie gewannen Studien über die Anzeichen von Kriminalität im Gesicht an Bedeutung, und Sträflinge und Insassen von Irrenanstalten wurden wiederholt solchen „Studien“ unterzogen. Die zusammengesetzten Fotografien von Frances Galton, dem Begründer der Eugenik-Bewegung und Pionier der Fingerabdruckidentifizierung, sind ein Beispiel dafür: Bilder von Sträflingen wurden übereinander gelegt, um Regelmäßigkeiten als physische Marker für Kriminalität zu ermitteln.20

Die Kriminalanthropologie fasste diese Ansätze zu einem kohärenten Versuch zusammen, den kriminellen Körper einer wissenschaftlichen Untersuchung zu unterziehen. Unter der Leitung des italienischen Psychiaters und Anthropologen Cesare Lombroso verwendeten die Kriminalanthropologen eine breite Palette anthropomorpher Messinstrumente, von Bertillons präzisen Messungen der Gliedmaßen bis hin zur Vermessung des Schädels, der Kartierung von Gesichtszügen und der Erfassung markanter Merkmale wie Narben und Tätowierungen. Auf dieser Grundlage erstellten sie eine Liste so genannter „Stigmata“ oder physischer Regelmäßigkeiten, die am Körper des „geborenen Verbrechers“ zu finden waren. Während diese Vorstellung heute weitgehend diskreditiert ist, existiert die zugrunde liegende Methode der Klassifizierung auf der Grundlage einer Vielzahl von Datenmerkmalen immer noch.

Das Vertrauen in die Schlussfolgerungen, die aus der quantitativen Analyse von Gesichtsmerkmalen gezogen werden, ist nach wie vor eine starke Verlockung. In einer Studie aus dem Jahr 2016 wurde behauptet, dass es gelungen sei, einen Algorithmus für ein tiefes neuronales Netzwerk zu trainieren, der auf der Grundlage von Kopfbildern aus Führerscheinen Kriminalität vorhersagen kann, während in einer Studie aus dem Jahr 2018 ähnliche Behauptungen aufgestellt wurden, um die sexuelle Orientierung aus Fotos von Dating-Websites zu erkennen.

Wenn man sich kritisch mit diesen Systemen auseinandersetzt, muss man unbedingt das größere politische Projekt im Auge behalten, zu dessen Aufrechterhaltung sie eingesetzt werden. Die KI-Forscherin Kate Crawford schreibt: „Die Verknüpfung von Schädelmorphologie mit Intelligenz und Rechtsansprüchen dient als technisches Alibi für Kolonialismus und Sklaverei. Während man dazu neigt, sich auf die Fehler bei der Schädelvermessung und deren Korrektur zu konzentrieren, liegt der weitaus größere Fehler in der zugrunde liegenden Weltanschauung, die dieser Methodik zugrunde liegt. Das Ziel sollte also nicht sein, genauere oder „gerechtere“ Schädelmessungen zu fordern, um rassistische Intelligenzmodelle zu untermauern, sondern den Ansatz insgesamt zu verurteilen.‘21 Anders ausgedrückt: Klassifizierungs- und Quantifizierungstechniken können nicht von den sozio-politischen Kontexten getrennt werden, die sie überprüfen und belegen sollen. Um es mit den Worten des Wissenschaftlers für Internationale Beziehungen Robert Cox zu sagen: Klassifizierung und Quantifizierung sind immer für jemanden und für einen bestimmten Zweck bestimmt.22

Wie die Wissenschafts- und Technologiewissenschaftlerin Helga Nowotny warnt, missverstehen wir jedoch die Logik tiefer neuronaler Netze, wenn wir den Ergebnissen algorithmischer Vorhersagen als grundsätzlich wahr „vertrauen“. Diese Netze „können nur Regelmäßigkeiten erkennen und Muster auf der Grundlage von Daten aus der Vergangenheit identifizieren. Es geht nicht um kausale Schlussfolgerungen, und eine KI tut auch nicht so, als ob sie das könnte.‘23

Diese Maschinen mögen zwar „praktische und messbare Vorhersagen“ machen, aber sie haben keinen Sinn für Ursache und Wirkung – kurz gesagt, sie haben kein „Verständnis“ im menschlichen Sinne.24 Darüber hinaus führt ein übermäßiges Vertrauen in Algorithmen dazu, dass wir zum Determinismus neigen und unser Verhalten anstelle von alternativen Wegen an maschinellen Vorhersagen ausrichten. Dies ist ein Problem in politischen Kulturen, die auf Rechenschaftspflicht beruhen. Wenn wir aus der Vergangenheit lernen wollen, um eine bessere Zukunft zu gestalten, können wir uns nicht auf die Vorhersageergebnisse eines maschinellen Lernmodells verlassen.

AI déjà-vu

Neben dem gemeinsamen und anhaltenden Vertrauen auf Quantifizierung und Klassifizierung gibt es viele weitere Fäden, die man ziehen könnte, um die verwickelte Geschichte der Überwachungs- und Identifizierungstechnologien vom 19. Jahrhundert bis zur Gegenwart zu erkunden. Marginalisierte, überzählige Bevölkerungsgruppen wie Sträflinge und Kolonisierte wurden lange Zeit als technologisches Versuchsfeld“ genutzt, um Klassifizierungssysteme zu verbessern und Algorithmen zu trainieren. Die Angst vor unkontrollierter menschlicher Mobilität wird weiterhin als Antrieb für Forschung und Entwicklung genutzt, wobei die Technik wiederum eingesetzt wird, um Probleme zu lösen, die sie selbst geschaffen hat. Und positivistische sozialwissenschaftliche Methoden dienen nach wie vor dazu, die brüllende Vielfalt in saubere, numerische Werte zu übersetzen.

Anstatt auf den Hype um die KI hereinzufallen, könnten wir uns stattdessen auf ein Déjà-vu-Gefühl einstellen: das beunruhigende Gefühl, dass wir das alles schon einmal gesehen haben. Auf diese Weise könnten wir den phantastischen Behauptungen von Unternehmen und Grenzakteuren besser widerstehen und beginnen, Technologien von globalen Herrschaftsprojekten abzukoppeln.

**

Dieser Artikel basiert auf Forschungsarbeiten, die im Rahmen des Projekts ‚Elastic Borders: Rethinking the Borders of the 21st Century‘ mit Sitz an der Universität Graz, gefördert von der NOMIS-Stiftung.

1 A. Bertillon, Instructons signalétiques, Melun, 1893, Tafel 16, S. 262.

2 Ich bin Teil eines Forscherteams des NOMIS-geförderten Elastic Borders Projekts, Universität Graz, Österreich.

3 Siehe auch: M. Maguire, 'Biopower, Racialization and New Security Technology', Social Identities, Vol. 18, No.5, 2012, pp. 593-607; K. Donnelly, 'We Have Always Been Biased: Measuring the human body from anthropometry to the computational social sciences', Public, Vol. 30, No. 60, 2020, pp. 20-33; A. Valdivia and M. Tazzioli, 'Genealogies beyond Algorithmic Fairness: Making up racialized subjects', in Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency, FAccT '23, Association for Computing Machinery, 2023, S. 840-50.

4 Wenn die Fingerabdrücke in Griechenland genommen wurden, der Asylbewerber aber später in Deutschland aufgegriffen wurde, könnte er zur Bearbeitung seines Antrags nach Griechenland abgeschoben werden.

5 B. Ayata, K. Cupers, C. Pagano, A. Fyssa und D. Alaa, The Implementation of the EU Hotspot Approach in Greece and Italy: Eine vergleichende und interdisziplinäre Analyse (Arbeitspapier), Schweizerisches Netzwerk für Internationale Studien, 2021, S. 36.

6 J.B. Rule, Private Lives and Public Surveillance, Allen Lane, 1973.

7 Ibid., S. 91.

8 M. Foucault, Gesellschaft muss verteidigt werden. Lectures at the Collège de France, 1975-76, trans. D. Macey, Picador, 2003, S. 244.

9 S. A. Cole, Suspect identities: A history of fingerprinting and criminal identification, Harvard University Press, 2001, S.12.

10 Ibid., S. 18-9.

11 Ibid., S. 34-45.

12 Ibid., S.48.

13 M. Foucault, The Order of Things. Routledge, 1975.

14 Z. Bauman, Modernity and the Holocaust, Blackwell Publishers, 1989.

15 D. Ferreira da Silva, Toward a Global Idea of Race, University of Minnesota Press, 2007.

16 S. Wynter, "Die Kolonialität von Sein/Macht/Wahrheit/Freiheit aufheben: Towards the human, after man, its overrepresentation - an argument', CR: The New Centennial Review, Vol. 3, No. 3, 2003, pp. 257-337.

17 G. C. Bowker und S. L. Star, Sorting things out: Classification and its consequences, MIT press, 2000, S. 196.

18 L. Amoore, 'Die tiefe Grenze', Politische Geographie, 2001, 102547.

19 Ibid.

20 Galton führte eine ähnliche Studie an jüdischen Schuljungen durch und suchte nach rassischen Merkmalen für das Judentum.

21 K. Crawford, The Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021, S. 126-7.

22 R. W. Cox, 'Social Forces, States and World Orders: Beyond International Relations Theory', Millennium, Vol. 10, No. 2, 1981, pp. 126-155.

23 H. Nowotny, In AI We Trust: Macht, Illusion und Kontrolle von prädiktiven Algorithmen. Polity, 2021, S. 22.

24 Ibid.

Go to top