Menu

European news without borders. In your language.

Menu
×

Pomiar ruchomego ciała

Europejski arsenał zaawansowanych technologii granicznych jest często opisywany jako futurystyczna opowieść o świetle, szybkości i mocy obliczeniowej. Systemy identyfikacji, takie jak baza danych Eurodac, przechowują, przetwarzają i porównują zdigitalizowane odciski palców migrantów za pomocą światła bliskiej podczerwieni, kabli światłowodowych i scentralizowanych serwerów. Drony patrolują niebo za pomocą nieoślepiających czujników optycznych. Duże ilości danych są przekazywane do programów komputerowych, które przewidują kolejny wzrost liczby przyjazdów.

Wiadomości i raporty organizacji pozarządowych koncentrują się na zaawansowanym technologicznie charakterze europejskich granic. Każdy z nich wskazuje, w jaki sposób zdalne formy nadzoru, odstraszania i kontroli w coraz większym stopniu uzupełniają, a w niektórych przypadkach zastępują fortyfikacje graniczne. Podczas gdy tego rodzaju badania i rzecznictwo są niezbędne do pociągnięcia UE i twórców technologii do odpowiedzialności za ich rolę w kierowaniu osób ubiegających się o azyl na śmiertelne szlaki migracyjne, pomijają one długą historię tych technologii i ich ugruntowaną rolę w zachodnich aparatach zarządzania. Grozi to nie tylko zwiększeniem „szumu związanego ze sztuczną inteligencją” wśród decydentów i deweloperów, którzy chwalą te narzędzia jako środek zarówno do tworzenia „inteligentniejszych” granic, jak i do ochrony praw człowieka migrantów. Co ważniejsze, ten rodzaj historycznej amnezji może również błędnie odczytywać przemoc i wykluczenia wprowadzane przez te technologie jako techniczną kwestię „stronniczości”, którą można łatwo skorygować za pomocą dokładniejszych pomiarów lub większych zbiorów danych. Zamiast tego wiele szkód wyrządzonych przez te technologie należy rozumieć jako nieodłączne elementy ich projektu.

Katalog identyfikacji

Wdrażanie zaawansowanych technologii do kontrolowania ludzkiej mobilności nie jest niczym nowym. Wyobraź sobie miejski europejski posterunek policji pod koniec XIX wieku. Gdyby gmina zastosowała najnowszą technologię identyfikacji, podejrzani zostaliby poddani złożonemu procesowi pomiaru. Dokonywanie pomiarów było precyzyjnym i wysoce wyspecjalizowanym procesem, wymagającym wykwalifikowanego i przeszkolonego technika.

Poniższe instrukcje dotyczą pomiaru ucha:

Operator opiera nieruchomą szczękę instrumentu o górną krawędź ucha i unieruchamia ją, naciskając lewym kciukiem dość mocno na górny koniec szczęki instrumentu, a pozostałe palce dłoni spoczywają na górnej części czaszki. Z trzpieniem suwmiarki równoległym do osi ucha, delikatnie popycha ruchomą szczękę, aż dotknie dolnego końca płatka ucha, a przed odczytaniem wskazanej liczby upewnia się, że pinna [external part of the ear] nie jest w żaden sposób wciśnięta przez żadną ze szczęk.1

Proces ten może brzmieć jak osobliwy, choć nieco ciekawy relikt Fin de Siècle, ale wcale tak nie jest. Bertillonage, system pomiaru, klasyfikacji i archiwizacji do identyfikacji przestępców opracowany w latach 70. XIX wieku przez tytułowego francuskiego urzędnika policyjnego, był kamieniem milowym w historii technologii nadzoru i identyfikacji. Co ciekawe, jego kluczowe założenia do dziś leżą u podstaw technologii identyfikacji, od bazy danych po biometrię i uczenie maszynowe.

Istnieje ścisły i historycznie ugruntowany związek między obawami związanymi z niekontrolowanym obiegiem różnych „niepożądanych” substancji a innowacjami technologicznymi. Dziewiętnastowieczne techniki, opracowane i udoskonalone w celu rozwiązania problemów związanych z włóczęgostwem, zarządzaniem kolonialnym, dewiacją, szaleństwem i przestępczością, stanowią podstawę dzisiejszego zaawansowanego technologicznie aparatu nadzoru granic. Techniki te obejmują kwantyfikację, która renderuje ludzkie ciało jako kod, klasyfikację oraz nowoczesne metody indeksowania i archiwizacji.

Nowoczesna rejestracja inwazyjna

Inteligentne systemy graniczne wykorzystują zaawansowane technologie do tworzenia „nowoczesnych, skutecznych i wydajnych” granic. W tym kontekście zaawansowane technologie są często przedstawiane jako przekładające procesy graniczne, takie jak identyfikacja, rejestracja i kontrola mobilności, na czysto techniczną procedurę, czyniąc tym samym proces bardziej sprawiedliwym i mniej podatnym na ludzką zawodność. Algorytmiczna precyzja jest scharakteryzowana jako środek unikania nieetycznych uprzedzeń politycznych i korygowania błędów ludzkich.

Jako badacz technonaukowych podstaw zaawansowanego technologicznie aparatu granicznegoUE2 dostrzegam zarówno rosnącą elastyczność współczesnych praktyk granicznych, jak i historycznie ugruntowaną metodologię ich narzędzi ipraktyk3.

Weźmy na przykład bazę danych Eurodac, kamień węgielny zarządzania granicami UE. Utworzony w 2003 r. indeks przechowuje odciski palców osób ubiegających się o azyl w ramach egzekwowania rozporządzenia dublińskiego przy pierwszym wjeździe.4 Pobieranie odcisków palców i rejestracja w interoperacyjnych bazach danych są również głównymi narzędziami wykorzystywanymi w najnowszych podejściach do zarządzania migracją, takich jak Hotspot Approach, gdzie przypisanie tożsamości służy jako środek do odfiltrowania migrantów „zasługujących” od „niezasługujących”.5

Z biegiem lat zarówno rodzaj danych przechowywanych w systemie Eurodac, jak i jego zastosowania uległy rozszerzeniu: jego zakres został poszerzony, aby służyć „szerszym celom migracyjnym„, przechowując dane nie tylko o osobach ubiegających się o azyl, ale także o nielegalnych migrantach w celu ułatwienia ich deportacji. Niedawno przyjęta propozycja dodała do pobierania odcisków palców obrazy twarzy i informacje biograficzne, w tym imię i nazwisko, narodowość i dane paszportowe. Ponadto, minimalny wiek migrantów, których dane mogą być przechowywane, został obniżony z czternastu do sześciu lat.

Od 2019 r. Eurodac jest „interoperacyjny” z wieloma innymi bazami danych UE przechowującymi informacje o osobach poszukiwanych, rezydentach zagranicznych, posiadaczach wiz i innych osobach będących przedmiotem zainteresowania wymiaru sprawiedliwości w sprawach karnych, administracji imigracyjnej i azylowej, skutecznie łącząc wymiar sprawiedliwości w sprawach karnych z migracją, jednocześnie znacznie rozszerzając dostęp do tych danych. Eurodac odgrywa kluczową rolę dla władz europejskich, o czym świadczą wysiłki zmierzające do osiągnięcia „100% wskaźnika pobierania odcisków palców”: Komisja Europejska naciskała na państwa członkowskie, aby rejestrowały w bazie danych każdą nowo przybyłą osobę, stosując w razie potrzeby przymus fizyczny i zatrzymanie.

Oznaczanie przestępczości

Podczas gdy państwa narodowe od wieków gromadzą dane o obywatelach do celów podatkowych i rekrutacji wojskowej, ich indeksowanie, organizacja w bazach danych i klasyfikacja do określonych celów rządowych – takich jak kontrolowanie mobilności „niepożądanych” populacji – jest dziewiętnastowiecznym wynalazkiem.6 Francuski historyk i filozof Michel Foucault opisuje, jak w kontekście rosnącej urbanizacji i industrializacji państwa coraz bardziej zajmowały się kwestią „cyrkulacji”. Osoby i towary, a także patogeny, krążyły dalej niż we wczesnym okresie nowożytnym.7 Chociaż państwa nie starały się całkowicie tłumić ani kontrolować tych przepływów, szukały środków, aby zwiększyć to, co postrzegano jako „pozytywny” obieg i zminimalizować „negatywny” obieg. W tym celu wykorzystali nowatorskie narzędzia pozytywistycznych nauk społecznych: w dziedzinie demografii zastosowano podejścia statystyczne do śledzenia i regulowania zjawisk, takich jak narodziny, wypadki, choroby i zgony.8 Wyłaniające się menedżerskie państwo narodowe zajęło się problemem cyrkulacji, opracowując bardzo szczególny zestaw narzędzi gromadzących szczegółowe informacje o populacji oraz opracowując znormalizowane metody przechowywania i analizy.

Jednym ze szczególnie dokuczliwych problemów był obieg znanych przestępców. W XIX wieku powszechnie uważano, że jeśli ktoś raz obraził, to obrazi ponownie. Jednak systemy dostępne do identyfikacji przestępców były żałośnie nieadekwatne do tego zadania.

Jak wyjaśnia kryminolog Simon Cole, identyfikacja nieznanej osoby wymaga „prawdziwie unikalnego znaku ciała”.9 Jednak przed pojawieniem się nowoczesnych systemów identyfikacji istniały tylko dwa sposoby, aby to zrobić: branding lub osobiste rozpoznanie. Podczas gdy znakowanie było szeroko stosowane w Europie i Ameryce Północnej na skazańcach, więźniach i zniewolonych ludziach, ewoluujące idee dotyczące przestępczości i kary w dużej mierze doprowadziły do zniesienia fizycznego znakowania na początku XIX wieku. W jego miejsce ustanowiono rejestr karny: pisemny dokument zawierający imię i nazwisko skazanego oraz pisemny opis jego osoby, w tym znaki identyfikacyjne i blizny.

Identyfikacja podejrzanego na podstawie samego opisu okazała się jednak trudna. System był podatny na używanie pseudonimów i różnych pisowni nazwisk: tylko osoba znana społeczności mogła zostać zidentyfikowana z całą pewnością. Wczesne systemy identyfikacji przestępców były zasadniczo podatne na mobilność.10 W szczególności problemy te nadal prześladują współczesne zarządzanie migracją, ponieważ bazy danych często zawierają wiele wpisów dotyczących tej samej osoby, wynikających z różnych transliteracji nazwisk z alfabetu arabskiego na rzymski.

Wynalezienie fotografii w latach czterdziestych XIX wieku w niewielkim stopniu przyczyniło się do rozwiązania kwestii wiarygodności identyfikacji kryminalnej. Zapis fotograficzny był nie tylko nadal uzależniony od osobistego uznania, ale także podnosił kwestię archiwizacji. Rejestry karne przed Bertillonage były przechowywane jako roczne kompendia przestępstw lub alfabetyczne listy przestępców. Podczas gdy zdjęcia zapewniały dokładniejsze odwzorowanie twarzy, nie było sposobu, aby zarchiwizować je według cech. Jeśli ktoś chciał przeszukać indeks w poszukiwaniu, powiedzmy, osoby z wydatnym podbródkiem, nie było na to żadnej procedury. Fotografie skazanych były sortowane alfabetycznie według nazwiska podanego przez przestępcę, przez co cierpiały na tę samą słabość, co inne systemy identyfikacji.

Przodek Datafication

Alphonse Bertillon jako pierwszy rozwiązał ten problem, łącząc systematyczne pomiary ludzkiego ciała z archiwizacją i prowadzeniem dokumentacji. Kryminolog usprawnił wyszukiwanie rekordów, sortując wpisy numerycznie, a nie alfabetycznie, tworząc system indeksowania oparty w całości na pomiarach antropomorficznych. Karty indeksowe zostały uporządkowane zgodnie z hierarchicznym systemem klasyfikacji, z informacjami najpierw podzielonymi według płci, następnie długości głowy, szerokości głowy, długości środkowego palca i tak dalej. Każdy zestaw pomiarów został podzielony na grupy w oparciu o statystyczną ocenę ich rozkładu w populacji, a średnie zostały ustalone poprzez wykonanie pomiarów od skazanych. Operator Bertillon przenosił profil podejrzanego do archiwum i szukał dopasowania poprzez proces eliminacji: najpierw wykluczając płeć, która nie pasowała, następnie długość głowy, która nie pasowała, i tak dalej. Jeśli znaleziono wstępne dopasowanie, zostało ono potwierdzone w odniesieniu do śladów cielesnych również wymienionych na karcie. Wszędzie tam, gdzie system ten został wdrożony, wskaźniki rozpoznawalności „recydywistów” wzrosły; system Bertillona wkrótce rozprzestrzenił się na całyświat11.

Wraz z Bertillonem pojawił się kolejny znak rozpoznawczy współczesnej technologii granic i nadzoru: kwantyfikacja lub to, co dziś znane jest jako „datafication”. Bertillon nie tylko mierzył wzrost i długość głowy więźniów, ale także wynalazł metodę tłumaczenia charakterystycznych cech ciała na kod. Na przykład, jeśli więzień miał bliznę na przedramieniu, poprzednie systemy identyfikacji przestępców po prostu odnotowałyby to w aktach. Natomiast Bertillon zmierzył ich odległość od danego punktu odniesienia. Zostały one następnie zapisane w ustandaryzowany sposób przy użyciu idiomu skrótów i symboli, które nadały tym opisom skróconą formę. Powstały w ten sposób portrait parlé, czyli portret mówiony, przepisywał fizyczne ciało na „uniwersalny język” „słów, liczb i zakodowanych skrótów”.12 Po raz pierwszy w historii precyzyjny opis obiektu mógł zostać przesłany telegraficznie.

Tłumaczenie ciała na kod nadal stanowi podstawę współczesnych metod identyfikacji biometrycznej. Systemy identyfikacji odcisków palców, które zostały po raz pierwszy przetestowane i wdrożone w kolonialnych Indiach, przekształciły wzory grzbietów brodawek w kod, który można było następnie porównać z innymi kodami wygenerowanymi w ten sam sposób. Technologia rozpoznawania twarzy tworzy schematyczne reprezentacje twarzy i przypisuje im wartości liczbowe, umożliwiając w ten sposób porównywanie i dopasowywanie. Inne formy identyfikacji biometrycznej, takie jak identyfikacja głosowa, skanowanie tęczówki i rozpoznawanie chodu, opierają się na tej samej zasadzie.

Od taksonomii do uczenia maszynowego

Oprócz kwantyfikacji, klasyfikacja – kluczowy instrument generowania wiedzy i zarządzania przez wieki – jest kolejnym znakiem rozpoznawczym nowoczesnych i współczesnych technologii nadzoru i identyfikacji. Jak zauważyło wielu badaczy, od Foucaulta13 po Zygmunta Baumana14 i Denise Ferreirę da Silvę15, klasyfikacja jest głównym narzędziem europejskiego Oświecenia, czego najbardziej ikonicznym dowodem jest taksonomia Carla Linneusza. W swojej tabeli Linneusz nazwał, sklasyfikował i hierarchicznie uporządkował świat przyrody, od roślin przez owady po ludzi, dzieląc i dzieląc każdą grupę według wspólnych cech. Klasyfikacja i taksonomie są powszechnie postrzegane jako wyraz fundamentalnych zmian epistemologicznych od teocentrycznej do racjonalistycznej epistemologii we wczesnej epoce nowożytnej, które umożliwiły przełomy naukowe, ale były również związane z kolonizacją izniewoleniem16. W swojej książce na ten temat Geoffrey Bowker i Susan Leigh Star podkreślają wykorzystanie klasyfikacji jako potężnego, ale często nierozpoznanego instrumentu politycznego porządkowania: „Politycznie i społecznie naładowane programy są często początkowo przedstawiane jako czysto techniczne i trudno je nawet dostrzec. W miarę jak warstwy systemu klasyfikacji stają się częścią działającej infrastruktury, pierwotna interwencja polityczna staje się coraz mocniej zakorzeniona. W wielu przypadkach prowadzi to do naturalizacji kategorii politycznej poprzez proces konwergencji. Staje się ona czymś oczywistym”.17

Obecnie klasyfikacja ma kluczowe znaczenie dla uczenia maszynowego, poddziedziny sztucznej inteligencji zaprojektowanej w celu rozpoznawania wzorców w dużych ilościach danych. Pozwala to nie tylko kategoryzować ogromne ilości informacji, ale także przewidywać i klasyfikować nowe, wcześniej niewidoczne dane. Innymi słowy, stosuje wyuczoną wiedzę w nowych sytuacjach. Podczas gdy badania nad uczeniem maszynowym rozpoczęły się w połowie ubiegłego wieku, ostatnio zyskały one bezprecedensowe znaczenie dzięki aplikacjom takim jak ChatGPT.

Uczenie maszynowe jest również coraz częściej stosowane w pracy na granicy. Rzadko używana jako samodzielna technologia, jest szeroko stosowana w istniejących technologiach w celu rozszerzenia i przyspieszenia istniejących od dawna form nadzoru, identyfikacji i sortowania. Na przykład algorytmiczne przewidywanie, które analizuje duże ilości danych, w tym wzorce przemieszczania się, posty w mediach społecznościowych, konflikty polityczne, klęski żywiołowe i inne, coraz częściej zastępuje statystyczne modelowanie migracji w celu tworzenia wykresów wzorców migracyjnych. Komisja Europejska finansuje obecnie badania nad metodami algorytmicznymi, które rozszerzyłyby istniejące formy analizy ryzyka poprzez wykorzystanie szerszych źródeł danych w celu zidentyfikowania nowych form „ryzykownych” zachowań. Uczenie maszynowe jest również testowane lub wykorzystywane w „wykrywaczach kłamstw” straży granicznej, rozpoznawaniu dialektów, śledzeniu i identyfikacji podejrzanych statków, rozpoznawaniu twarzy na wewnętrznych granicach UE i analizie behawioralnej więźniów w greckich obozach. Jak pokazuje ten szeroki zakres zastosowań, wydaje się, że nie ma technologii granicznej wolnej od uczenia maszynowego, czy to wspomaganej analizy obrazu z dronów, czy weryfikacji wniosków o azyl.

Klasyfikacja leży u podstaw uczenia maszynowego – a przynajmniej tego rodzaju uczenia maszynowego opartego na danych, które stało się dziś dominujące. Poszczególne punkty danych są organizowane w kategorie i podkategorie, a proces ten odbywa się poprzez nadzorowane lub nienadzorowane uczenie się. W uczeniu nadzorowanym dane treningowe są etykietowane zgodnie z wcześniej zdefiniowaną taksonomią. W praktyce oznacza to zwykle, że ludzie przypisują etykiety do danych, takich jak „pies” do obrazu tego psa. Model uczenia maszynowego uczy się na podstawie tego etykietowanego zbioru danych, identyfikując wzorce, które korelują z etykietami. W uczeniu bez nadzoru dane nie są etykietowane przez ludzi. Zamiast tego algorytm niezależnie identyfikuje wzorce i struktury w danych. Innymi słowy, algorytm klasyfikuje dane, tworząc własne klastry w oparciu o wzorce występujące w zbiorze danych. Tworzy własną taksonomię kategorii, które mogą, ale nie muszą być zgodne z systemami stworzonymi przez człowieka.

Domniemany typ przestępcy

Jak zauważa Louise Amoore, badaczka sztucznej inteligencji i granic, tworzenie algorytmicznych klastrów jako reprezentacji nieodłącznych, „naturalnych” wzorców z danych jest „niezwykle potężną propozycją polityczną”, ponieważ „oferuje obietnicę neutralnego, obiektywnego i wolnego od wartości tworzenia i graniczenia wspólnoty politycznej”.18 Koncepcja klastra algorytmicznego jako „naturalnej społeczności” obejmuje znaczący ruch rasizujący: formy zachowania związane z nielegalną migracją są konsekwentnie oznaczane jako „ryzykowne”. Ponieważ klastry te są tworzone bez odniesienia do wcześniej zdefiniowanych kryteriów, takich jak „klasyczne” zamienniki rasy, takie jak narodowość lub religia, trudno jest je zakwestionować za pomocą istniejących pojęć, takich jak cechy chronione lub uprzedzenia.19 Na przykład migrant może zostać zidentyfikowany jako zagrożenie dla bezpieczeństwa przez algorytm uczenia maszynowego w oparciu o nieprzejrzystą korelację między trasami podróży, postami w mediach społecznościowych, sieciami osobistymi i zawodowymi oraz wzorcami pogodowymi.

Tworzenie kategorii zgodnie z nieodłącznymi atrybutami jest echem innych dziewiętnastowiecznych praktyk, a mianowicie szeregu przedsięwzięć naukowych wykorzystujących pomiary i statystyki w celu zidentyfikowania prawidłowości i wzorców, które wskazywałyby na zachowania przestępcze. Podobnie jak w przypadku nienadzorowanego uczenia maszynowego, dziedziny kraniometrii, frenologii i antropologii kryminalnej systematycznie gromadziły dane o ludziach, aby zebrać wzorce, które można było posortować w kategorie przestępczości.

Na przykład frenolodzy, tacy jak Franz Joseph Gall, łączyli określone cechy osobowości z wyeksponowanymi obszarami czaszki. W pokrewnej dziedzinie fizjonomiki, postacie takie jak szwajcarski pastor Johann Kaspar Lavater podjęły się systematycznego badania rysów twarzy jako przewodnika po zachowaniach przestępczych. Dzięki rozwojowi fotografii, badania nad oznakami przestępczości na twarzy zyskały na popularności, a skazańcy i więźniowie przytułków byli wielokrotnie poddawani takim „badaniom”. Złożone fotografie Frances Galton, założycielki ruchu eugenicznego i pionierki identyfikacji odcisków palców, są tego przykładem: zdjęcia skazańców zostały nałożone na siebie, aby wyodrębnić prawidłowości jako fizyczne markeryprzestępczości20.

Antropologia kryminalna połączyła te podejścia w spójną próbę poddania ciała przestępcy naukowej analizie. Pod przewodnictwem włoskiego psychiatry i antropologa Cesare Lombroso, antropolodzy kryminalni używali szerokiej gamy antropomorficznych narzędzi pomiarowych, od precyzyjnych pomiarów kończyn Bertillona po kraniometryczne pomiary czaszki, mapowanie rysów twarzy i odnotowywanie charakterystycznych znaków, takich jak blizny i tatuaże. Na tej podstawie wyliczyli listę tak zwanych „stygmatów” lub fizycznych prawidłowości występujących w ciele „urodzonego przestępcy”. Chociaż koncepcja ta jest dziś powszechnie dyskredytowana, podstawowa metoda klasyfikacji oparta na charakterystyce danych masowych nadal istnieje.

Zaufanie wnioskom wyciągniętym z ilościowej analizy rysów twarzy pozostaje silnym powabem. W artykule z 2016 roku twierdzono, że udało się wyszkolić algorytm głębokiej sieci neuronowej do przewidywania przestępczości na podstawie zdjęć głowy z prawa jazdy, podczas gdy badanie z 2018 roku zawierało podobne twierdzenia dotyczące odczytywania orientacji seksualnej ze zdjęć na portalach randkowych.

Podczas krytycznego angażowania się w te systemy konieczne jest zachowanie świadomości szerszego projektu politycznego, który mają one wspierać. Jak pisze Kate Crawford, badaczka sztucznej inteligencji: „Powiązanie morfologii czaszki z inteligencją i roszczeniami do praw stanowi techniczne alibi dla kolonializmu i niewolnictwa. Podczas gdy istnieje tendencja do skupiania się na błędach w pomiarach czaszki i sposobach ich korygowania, znacznie większym błędem jest leżący u podstaw światopogląd, który ożywił tę metodologię. Celem nie powinno być zatem wzywanie do dokładniejszych lub „uczciwych” pomiarów czaszki w celu wzmocnienia rasistowskich modeli inteligencji, ale całkowite potępienie tego podejścia”.21 Innymi słowy, techniki klasyfikacji i kwantyfikacji nie mogą być oderwane od kontekstów społeczno-politycznych, które mają weryfikować i za które mają ręczyć. Mówiąc słowami badacza stosunków międzynarodowych Roberta Coxa, klasyfikacja i kwantyfikacja są zawsze dla kogoś i w jakimścelu22.

Jednak, jak ostrzega Helga Nowotny, badaczka zajmująca się nauką i technologią, jeśli „ufamy” wynikom algorytmicznego przewidywania jako zasadniczo prawdziwym, źle rozumiemy logikę głębokich sieci neuronowych. Sieci te „mogą jedynie wykrywać prawidłowości i identyfikować wzorce w oparciu o dane pochodzące z przeszłości. Żadne rozumowanie przyczynowe nie jest zaangażowane, ani sztuczna inteligencja nie udaje, że tak jest. „23

Chociaż maszyny te mogą tworzyć „praktyczne i wymierne prognozy”, nie mają poczucia przyczyny i skutku – krótko mówiąc, nie mają „zrozumienia” w ludzkim sensie.24 Co więcej, nadmierne poleganie na algorytmach popycha nas w kierunku determinizmu, dostosowując nasze zachowanie do przewidywań maszyn zamiast alternatywnych ścieżek. Jest to problem w kulturach politycznych opartych na odpowiedzialności. Jeśli chcemy uczyć się na podstawie przeszłości, aby budować lepszą przyszłość, nie możemy polegać na predykcyjnych wynikach modelu uczenia maszynowego.

AI déjà-vu

Oprócz wspólnego i ciągłego polegania na kwantyfikacji i klasyfikacji istnieje wiele wątków, które można wykorzystać do zbadania splątanej historii technologii nadzoru i identyfikacji od XIX wieku do chwili obecnej. Zmarginalizowane, nadwyżkowe populacje, takie jak skazańcy i osoby skolonizowane, były od dawna wykorzystywane jako „technologiczne poligony doświadczalne” do doskonalenia systemów klasyfikacji i trenowania algorytmów. Strach przed niekontrolowaną mobilnością ludzi jest nadal wykorzystywany jako siła napędowa badań i rozwoju, a technologia z kolei jest wykorzystywana do rozwiązywania problemów, które sama stworzyła. A pozytywistyczne metody nauk społecznych pozostają instrumentalne w zadaniu przekładania ryczących mnogości na schludne, liczbowe wartości.

Zamiast nabierać się na szum związany ze sztuczną inteligencją, możemy zamiast tego nastawić się na poczucie déjà-vu: niepokojące uczucie, że już to wszystko widzieliśmy. W ten sposób możemy lepiej oprzeć się fantastycznym twierdzeniom korporacji i podmiotów granicznych i zacząć oddzielać technologie od globalnych projektów dominacji.

Laura Jung

Niniejszy artykuł opiera się na badaniach przeprowadzonych w ramach projektu „Elastyczne granice: Ponowne przemyślenie granic XXI wieku realizowanego na Uniwersytecie w Grazu, finansowanego przez fundację NOMIS.

1 A. Bertillon, Instructons signalétiques, Melun, 1893, plate 16, p. 262.

2 I am part of a team of researchers at the NOMIS-funded Elastic Borders project, University of Graz, Austria.

3 See also: M. Maguire, ‘Biopower, Racialization and New Security Technology’, Social Identities, Vol. 18, No.5, 2012, pp. 593-607; K. Donnelly, ‘We Have Always Been Biased: Measuring the human body from anthropometry to the computational social sciences’, Public, Vol. 30, No. 60, 2020, pp. 20-33; A. Valdivia and M. Tazzioli, ‘Genealogies beyond Algorithmic Fairness: Making up racialized subjects’, in Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency, FAccT ’23, Association for Computing Machinery, 2023, pp. 840-50.

4 If prints were taken in Greece, but the asylum seeker was later apprehended in Germany, they could face removal to Greece for processing their application.

5 B. Ayata, K. Cupers, C. Pagano, A. Fyssa and D. Alaa, The Implementation of the EU Hotspot Approach in Greece and Italy: A comparative and interdisciplinary analysis (working paper), Swiss Network for International Studies, 2021, p. 36.

6 J.B. Rule, Private Lives and Public Surveillance, Allen Lane, 1973.

7 Ibid., p. 91.

8 M. Foucault, Society Must be Defended. Lectures at the Collège de France, 1975-76, trans. D. Macey, Picador, 2003, p. 244.

9 S. A. Cole, Suspect identities: A history of fingerprinting and criminal identification, Harvard University Press, 2001, p.12.

10 Ibid., pp. 18-9.

11 Ibid., pp. 34-45.

12 Ibid., p.48.

13 M. Foucault, The Order of Things. Routledge, 1975.

14 Z. Bauman, Modernity and the Holocaust, Blackwell Publishers, 1989.

15 D. Ferreira da Silva, Toward a Global Idea of Race, University of Minnesota Press, 2007.

16 S. Wynter, ‘Unsettling the coloniality of being/power/truth/freedom: Towards the human, after man, its overrepresentation – an argument’, CR: The New Centennial Review, Vol. 3, No. 3, 2003, pp. 257-337.

17 G. C. Bowker and S. L. Star, Sorting things out: Classification and its consequences, MIT press, 2000, p. 196.

18 L. Amoore, ‘The deep border’, Political Geography, 2001, 102547.

19 Ibid.

20 Galton conducted a similar study on Jewish school boys, searching for racial markers of Jewishness.

21 K. Crawford, The Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021, pp. 126-7.

22 R. W. Cox, ‘Social Forces, States and World Orders: Beyond International Relations Theory’, Millennium, Vol. 10, No. 2, 1981, pp. 126–155.

23 H. Nowotny, In AI We Trust: Power, Illusion and Control of Predictive Algorithms. Polity, 2021, p. 22.

24 Ibid.

Go to top