Menu

European news without borders. In your language.

Menu

Medição do corpo móvel

O arsenal de alta tecnologia das tecnologias fronteiriças da Europa é frequentemente descrito como um conto futurista de luz, velocidade e poder computacional. Os sistemas de identificação, como a base de dados Eurodac, armazenam, processam e comparam as impressões digitais dos imigrantes utilizando luz infravermelha próxima, cabos de fibra ótica e servidores centralizados. Os drones patrulham os céus com os seus sensores ópticos que não piscam. E grandes volumes de dados são alimentados a programas informáticos que prevêem o próximo aumento de chegadas.

Notícias e Relatórios de ONG que se debruçam sobre a natureza de alta tecnologia das fronteiras europeias são abundantes. Cada um deles refere a forma como as formas remotas de vigilância, dissuasão e controlo complementam e, em certos casos, substituem cada vez mais as fortificações fronteiriças. Embora este tipo de investigação e de defesa seja essencial para responsabilizar a UE e os criadores de tecnologia pelo seu papel na condução dos requerentes de asilo para rotas de migração letais, encobre as longas histórias destas tecnologias e o seu papel estabelecido nos aparelhos de governação ocidentais. Isto não só corre o risco de amplificar ‘AI hype‘ entre os decisores políticos e os programadores, que aclamam estas ferramentas como um meio tanto para criar fronteiras “mais inteligentes” como para proteger os direitos humanos dos migrantes. Mais importante ainda, este tipo de amnésia histórica pode também interpretar erradamente a violência e as exclusões decretadas por estas tecnologias como uma questão técnica de “enviesamento” facilmente corrigida por medições mais exactas ou conjuntos de dados maiores. Em vez disso, grande parte dos danos incorridos por estas tecnologias devem ser entendidos como inerentes à sua conceção.

Um catálogo de identificação

A utilização de tecnologias avançadas para controlar a mobilidade humana é tudo menos nova. Imaginemos uma esquadra de polícia urbana europeia no final do século XIX. Se o município tivesse adotado a mais recente tecnologia de identificação, os suspeitos teriam sido submetidos a um complexo processo de medição. Anotar as suas medidas era um processo preciso e altamente especializado, que exigia um técnico qualificado e treinado.

Considere estas instruções para medir uma orelha:

O operador encosta a mandíbula fixa do instrumento à borda superior da orelha e imobiliza-a, pressionando o polegar esquerdo com bastante firmeza na extremidade superior da mandíbula do instrumento, com os outros dedos da mão apoiados na parte superior do crânio. Com a haste do paquímetro paralela ao eixo da orelha, ele empurra suavemente a mandíbula móvel até que ela toque a extremidade inferior do lóbulo e, antes de ler o número indicado, certifica-se de que o pavilhão auricular [parte externa da orelha] não está de forma alguma deprimido por nenhuma das mandíbulas.1

Este processo pode parecer uma relíquia pitoresca e um pouco curiosa do Fin de Siècle, mas é tudo menos isso. Bertillonage, o sistema de medição, classificação e arquivo para identificação criminal concebido na década de 1870 pelo escrivão de polícia francês com o mesmo nome, foi um marco na história da tecnologia de vigilância e identificação. Notavelmente, seus princípios fundamentais sustentam as tecnologias de identificação até hoje, desde o banco de dados até a biometria e o aprendizado de máquina.

Existe uma ligação estreita e historicamente estabelecida entre os receios em torno da circulação descontrolada de vários “indesejáveis” e a inovação tecnológica. As técnicas do século XIX, desenvolvidas e aperfeiçoadas para resolver problemas relacionados com a vadiagem, a governação colonial, o desvio, a loucura e a criminalidade, são as bases do atual aparelho de vigilância fronteiriça de alta tecnologia. Estas técnicas incluem a quantificação, que transforma o corpo humano em código, a classificação e os métodos modernos de indexação e arquivo.

Modernos registos de invasões

Os sistemas de fronteiras inteligentes utilizam tecnologias avançadas para criar fronteiras “modernas, eficazes e eficientes”. Neste contexto, as tecnologias avançadas são frequentemente apresentadas como a tradução dos processos fronteiriços, tais como a identificação, o registo e o controlo da mobilidade, num procedimento puramente técnico, tornando assim o processo mais justo e menos sujeito à falibilidade humana. A precisão algorítmica é caracterizada como um meio de evitar preconceitos políticos não éticos e de corrigir o erro humano.

Como investigador dos fundamentos tecnocientíficos do aparelho fronteiriço de alta tecnologia da UE,2 reconheço tanto a crescente elasticidade das práticas fronteiriças contemporâneas, como a metodologia historicamente estabelecida das suas ferramentas e práticas.3

Tomemos como exemplo a base de dados Eurodac, uma pedra angular da gestão das fronteiras da UE. Criado em 2003, o índice armazena as impressões digitais dos requerentes de asilo como aplicação do Regulamento de Dublin relativo à primeira entrada.4 A recolha de impressões digitais e o registo em bases de dados interoperáveis são também ferramentas centrais utilizadas em abordagens recentes à gestão da migração, como a Abordagem Hotspot, em que a atribuição de identidade serve como meio de filtrar os migrantes “merecedores” dos “não merecedores”.5

Ao longo dos anos, tanto o tipo de dados armazenados no Eurodac como as suas utilizações expandiram-se: o seu âmbito foi alargado para servir “propósitos de migração mais amplos“, armazenando dados não só sobre os requerentes de asilo, mas também sobre os migrantes em situação irregular para facilitar a sua deportação. Uma proposta recentemente aceite acrescentou à recolha de impressões digitais as imagens faciais e os dados biográficos, incluindo o nome, a nacionalidade e os dados do passaporte. Além disso, a idade mínima dos migrantes cujos dados podem ser armazenados foi reduzida de catorze para seis anos.

Desde 2019, o Eurodac é “interoperável” com uma série de outras bases de dados da UE que armazenam informações sobre pessoas procuradas, residentes estrangeiros, titulares de vistos e outras pessoas de interesse para a justiça penal, a imigração e as administrações de asilo, ligando eficazmente a justiça penal à migração e alargando simultaneamente o acesso a estes dados. O Eurodac desempenha um papel fundamental para as autoridades europeias, demonstrado pelos esforços para alcançar uma “taxa de 100% de recolha de impressões digitais”: a Comissão Europeia pressionou os Estados-Membros a registarem todas as pessoas recém-chegadas na base de dados, usando coerção física e detenção, se necessário.

Marcação da criminalidade

Embora os estados-nação tenham recolhido dados sobre os cidadãos para efeitos de tributação e recrutamento militar durante séculos, a sua indexação, organização em bases de dados e classificação para fins governamentais específicos – como o controlo da mobilidade de populações “indesejáveis” – é uma invenção do século XIX.6 O historiador e filósofo francês Michel Foucault descreve como, no contexto da crescente urbanização e industrialização, os estados se tornaram cada vez mais preocupados com a questão da “circulação”. As pessoas e os bens, bem como os agentes patogénicos, circulavam mais do que no início do período moderno.7 Embora os estados não procurassem suprimir ou controlar totalmente estes movimentos, procuravam meios para aumentar o que era visto como circulação “positiva” e minimizar a circulação “negativa”. Para o efeito, utilizaram as novas ferramentas de uma ciência social positivista: foram usadas abordagens estatísticas no campo da demografia para acompanhar e regular fenómenos como nascimentos, acidentes, doenças e mortes.8 O emergente Estado-nação gerencial abordou o problema da circulação desenvolvendo um conjunto de ferramentas muito particular, acumulando informações detalhadas sobre a população e desenvolvendo métodos padronizados de armazenamento e análise.

Um problema particularmente incómodo era a circulação de criminosos conhecidos. No século XIX, acreditava-se que, se uma pessoa ofendesse uma vez, voltaria a ofender. No entanto, os sistemas disponíveis para a identificação de criminosos eram lamentavelmente inadequados para a tarefa.

Como explica o criminologista Simon Cole, a identificação de uma pessoa desconhecida requer uma “marca corporal verdadeiramente única”.9 No entanto, antes do advento dos modernos sistemas de identificação, havia apenas duas formas de o fazer: a marca ou o reconhecimento pessoal. Embora a marcação tivesse sido amplamente utilizada na Europa e na América do Norte em condenados, prisioneiros e pessoas escravizadas, a evolução das ideias sobre criminalidade e punição levou, em grande medida, à abolição da marcação física no início do século XIX. Em seu lugar foi criado o registo criminal: um documento escrito que catalogava o nome do condenado e uma descrição escrita da sua pessoa, incluindo marcas e cicatrizes de identificação.

No entanto, a identificação de um suspeito apenas a partir de uma descrição escrita revelou-se um desafio. E o sistema era vulnerável ao uso de pseudónimos e diferentes grafias de nomes: só uma pessoa conhecida da sua comunidade podia ser identificada com certeza. Os primeiros sistemas de identificação criminal eram fundamentalmente vulneráveis à mobilidade.10 Nomeadamente, estes problemas continuaram a assombrar a gestão contemporânea da migração, uma vez que as bases de dados contêm frequentemente múltiplas entradas para a mesma pessoa, resultantes de diferentes transliterações de nomes do alfabeto árabe para o alfabeto romano.

A invenção da fotografia na década de 1840 pouco contribuiu para resolver a questão da fiabilidade da identificação criminal. Não só o registo fotográfico continuava a depender do reconhecimento pessoal, como também levantava a questão do arquivo. Os registos criminais antes da Bertillonage eram armazenados como compêndios anuais de crimes ou listas alfabéticas de criminosos. Embora as fotografias proporcionassem uma representação mais exacta do rosto, não havia forma de as arquivar de acordo com as características. Se se quisesse procurar no índice, por exemplo, uma pessoa com um queixo proeminente, não havia nenhum procedimento para o fazer. As fotografias de condenados eram ordenadas alfabeticamente de acordo com o nome fornecido pelo infrator, sofrendo assim da mesma fraqueza que outros sistemas de identificação.

O antepassado da desdatficação

Alphonse Bertillon foi o primeiro a resolver este problema, combinando medições sistemáticas do corpo humano com o arquivo e a manutenção de registos. O criminologista melhorou a recuperação de registos ao ordenar as entradas numericamente em vez de alfabeticamente, criando um sistema de indexação baseado inteiramente em medidas antropomórficas. Os cartões de índice eram organizados de acordo com um sistema de classificação hierárquico, com a informação dividida primeiro por sexo, depois pelo comprimento da cabeça, largura da cabeça, comprimento do dedo médio e assim por diante. Cada conjunto de medidas era dividido em grupos com base numa avaliação estatística da sua distribuição na população, sendo as médias estabelecidas através da recolha de medidas dos condenados. O operador do Bertillon levava o perfil de um suspeito para o arquivo e procurava uma correspondência através de um processo de eliminação: primeiro, excluía o sexo que não correspondia, depois o comprimento da cabeça que não correspondia, e assim por diante. Se fosse encontrada uma tentativa de correspondência, esta era confirmada com referência a marcas corporais também listadas no cartão. Onde quer que este sistema fosse implementado, as taxas de reconhecimento de “reincidentes” disparavam; o sistema de Bertillon rapidamente se espalhou por todo o mundo.11

Com Bertillon, entrou em cena outra caraterística da tecnologia contemporânea de fronteiras e vigilância: a quantificação, ou o que hoje é conhecido como “dataficação”. Bertillon não se limitou a medir a altura e o comprimento da cabeça dos prisioneiros, mas inventou um método para traduzir em código as características distintivas do corpo. Por exemplo, se um prisioneiro tivesse uma cicatriz no antebraço, os sistemas anteriores de identificação criminal limitavam-se a registar esse facto no processo. Em contrapartida, Bertillon media a sua distância a um determinado ponto de referência. Estes dados eram depois registados de forma normalizada, utilizando um idioma de abreviaturas e símbolos que tornavam estas descrições mais sucintas. O resultante portrait parlé, ou retrato falado, transcrevia o corpo físico numa “linguagem universal” de “palavras, números e abreviaturas codificadas”.12 Pela primeira vez na história, uma descrição precisa de um sujeito podia ser telegrafada.

A tradução do corpo em código ainda está subjacente aos métodos contemporâneos de identificação biométrica. Identificação por impressões digitais Os sistemas que foram testados e implementados pela primeira vez na Índia colonial converteram os padrões das cristas papilares num código, que podia depois ser comparado com outros códigos gerados da mesma forma. A tecnologia de reconhecimento facial produz representações esquemáticas do rosto e atribui-lhe valores numéricos, permitindo assim a comparação e a correspondência. Outras formas de identificação biométrica, como a identificação por voz, a leitura da íris e o reconhecimento da marcha, seguem o mesmo princípio.

Da taxonomia à aprendizagem automática

Além da quantificação, a classificação – um instrumento fundamental de geração de conhecimento e governação durante séculos – é outra marca das tecnologias de vigilância e identificação modernas e contemporâneas. Conforme observado por muitos estudiosos, de Foucault13 a Zygmunt Bauman14 e Denise Ferreira da Silva15 , a classificação é uma ferramenta central do Iluminismo europeu, evidenciada de forma mais emblemática pela taxonomia de Carl Linnaeus. Na sua tabela graduada, Linnaeus nomeou, classificou e ordenou hierarquicamente o mundo natural, desde as plantas aos insectos e aos seres humanos, dividindo e subdividindo cada grupo de acordo com características comuns. A classificação e as taxonomias são amplamente vistas como uma expressão das mudanças epistemológicas fundamentais de uma epistemologia teocêntrica para uma epistemologia racionalista no início da era moderna, que permitiram descobertas científicas, mas que também estavam ligadas à colonização e à escravatura.16 No seu livro sobre o tema, Geoffrey Bowker e Susan Leigh Star sublinham a utilização da classificação como um instrumento poderoso, mas muitas vezes não reconhecido, de ordenamento político: “As agendas política e socialmente carregadas são muitas vezes apresentadas primeiro como puramente técnicas e são difíceis de ver. À medida que as camadas do sistema de classificação se vão integrando numa infraestrutura de trabalho, a intervenção política original vai-se enraizando cada vez mais firmemente. Em muitos casos, isso leva a uma naturalização da categoria política, através de um processo de convergência. Torna-se um dado adquirido.’17

Hoje em dia, a classificação é fundamental para a aprendizagem automática, um subcampo da inteligência artificial concebido para discernir padrões em grandes quantidades de dados. Isto permite-lhe não só categorizar grandes quantidades de informação, mas também prever e classificar dados novos e nunca antes vistos. Por outras palavras, aplica o conhecimento adquirido a novas situações. Embora a pesquisa sobre aprendizado de máquina tenha começado em meados do século passado, ela ganhou um destaque sem precedentes recentemente com aplicativos como o ChatGPT.

A aprendizagem automática é também cada vez mais aplicada no trabalho fronteiriço. Raramente utilizada como uma tecnologia autónoma, é amplamente utilizada em tecnologias existentes para aumentar e acelerar formas há muito estabelecidas de vigilância, identificação e triagem. Por exemplo,  a previsão algorítmica, que analisa grandes quantidades de dados, incluindo padrões de movimento, publicações nas redes sociais, conflitos políticos, catástrofes naturais, etc., está a substituir cada vez mais a modelação estatística da migração para efeitos de mapeamento dos padrões migratórios. A Comissão Europeia está atualmente a financiar investigação sobre métodos algorítmicos que alargariam as formas existentes de análise de risco, recorrendo a fontes de dados mais vastas para identificar novas formas de conduta “arriscada”. A aprendizagem automática também está a ser testada ou utilizada em guardas fronteiriços ‘detectores de mentiras’reconhecimento de dialectosrastreio e identificação de embarcações suspeitasreconhecimento facial nas fronteiras internas da UE e análise comportamental dos reclusos nos campos gregos. Como ilustra esta vasta gama de aplicações, parece não haver nenhuma tecnologia fronteiriça isenta da aprendizagem automática, quer se trate da análise assistida de imagens de drones ou da análise de pedidos de asilo.

A classificação está no cerne do aprendizado de máquina – ou pelo menos do tipo de aprendizado de máquina orientado por dados que se tornou dominante atualmente. Os pontos de dados individuais são organizados em categorias e subcategorias, um processo efectuado através de aprendizagem supervisionada ou não supervisionada. Na aprendizagem supervisionada, os dados de treino são rotulados de acordo com uma taxonomia predefinida. Na prática, isto significa normalmente que os humanos atribuem rótulos a dados como “cão” a uma imagem do referido cão. O modelo de aprendizagem automática aprende com este conjunto de dados rotulados, identificando padrões que se correlacionam com as etiquetas. Na aprendizagem não supervisionada, os dados não são rotulados por humanos. Em vez disso, o algoritmo identifica de forma independente padrões e estruturas nos dados. Por outras palavras, o algoritmo classifica os dados criando os seus próprios agrupamentos com base em padrões inerentes ao conjunto de dados. Ele cria sua própria taxonomia de categorias, que pode ou não se alinhar com sistemas criados por humanos.

O suposto tipo penal

Como salienta a estudiosa de IA e fronteiras Louise Amoore, a criação de clusters algorítmicos como uma representação de padrões inerentes e “naturais” a partir de dados é uma “proposta política extraordinariamente poderosa”, uma vez que “oferece a promessa de uma criação e delimitação de comunidade política neutra, objetiva e livre de valores”.18 A ideia do cluster algorítmico como uma “comunidade natural” compreende um movimento racializante significativo: as formas de conduta associadas à migração irregular são consequentemente rotuladas como “arriscadas”. Como esses clusters são formados sem referência a critérios pré-definidos, como proxies “clássicos” para raça, como nacionalidade ou religião, eles são difíceis de desafiar com conceitos existentes, como características protegidas ou preconceito.19 Por exemplo, um migrante pode ser identificado como um risco de segurança por um algoritmo de aprendizado de máquina com base em uma correlação opaca entre itinerários de viagem, postagens de mídia social, redes pessoais e profissionais e padrões climáticos.

A criação de categorias de acordo com atributos inerentes ecoa e estende-se a outras práticas do século XIX: nomeadamente, uma série de esforços científicos que utilizam a medição e a estatística para identificar regularidades e padrões que apontariam para um comportamento criminoso. À semelhança da aprendizagem automática não supervisionada, os domínios da craniometria, da frenologia e da antropologia criminal acumularam sistematicamente dados sobre sujeitos humanos para recolher padrões que pudessem ser classificados em categorias de criminalidade.

Por exemplo, frenologistas como Franz Joseph Gall associaram traços específicos de personalidade à proeminência de regiões do crânio. No domínio conexo da fisiognomia, figuras como o pastor suíço Johann Kaspar Lavater efectuaram um estudo sistemático das características faciais como guia do comportamento criminoso. Impulsionados pelo desenvolvimento da fotografia, os estudos que investigavam sinais de criminalidade no rosto ganharam força, com condenados e reclusos de asilos a serem repetidamente sujeitos a tais “estudos”. As fotografias compostas de Frances Galton, o fundador do movimento eugénico e um pioneiro da identificação de impressões digitais, são um exemplo disso: imagens de condenados foram sobrepostas umas às outras para obter regularidades como marcadores físicos de criminalidade.20

A antropologia criminal consolidou estas abordagens numa tentativa coerente de submeter o corpo criminoso a um escrutínio científico. Sob a liderança do psiquiatra e antropólogo italiano Cesare Lombroso, os antropólogos criminais utilizaram uma vasta gama de instrumentos antropomórficos de medição, desde as medidas precisas dos membros de Bertillon até às medidas craniométricas do crânio, mapeando as características faciais e registando marcas distintivas como cicatrizes e tatuagens. Com base nisso, enumeraram uma lista dos chamados “estigmas” ou regularidades físicas encontradas no corpo do “criminoso nato”. Embora essa noção seja hoje amplamente desacreditada, o método subjacente de classificação baseado em características de dados em massa ainda existe.

Confiar nas conclusões tiradas da análise quantitativa das características faciais continua a ser um forte atrativo. Um  artigo de 2016 alegou ter treinado com sucesso um algoritmo de rede neural profunda para prever a criminalidade com base em fotos de cabeças de cartas de condução, enquanto um  estudo de 2018 fez afirmações semelhantes sobre a leitura da orientação sexual a partir de fotos de sites de encontros.

Ao se envolver criticamente com esses sistemas, é imperativo permanecer atento ao projeto político mais amplo que eles são implantados para defender. Como escreve a estudiosa de IA Kate Crawford: “Correlacionar a morfologia craniana com inteligência e reivindicações de direitos legais funciona como um álibi técnico para o colonialismo e a escravatura. Embora haja uma tendência para nos concentrarmos nos erros das medições do crânio e na forma de os corrigir, o erro muito maior está na visão do mundo subjacente que animou esta metodologia. O objetivo, portanto, não deve ser o de exigir medições mais exactas ou “justas” do crânio para reforçar modelos racistas de inteligência, mas sim o de condenar a abordagem por completo.’21 Por outras palavras, as técnicas de classificação e quantificação não podem ser divorciadas dos contextos sociopolíticos que são incumbidas de verificar e atestar. Para reformular o académico de Relações Internacionais Robert Cox, a classificação e a quantificação são sempre para alguém, e com algum objetivo.22

No entanto, como adverte a académica de Estudos de Ciência e Tecnologia Helga Nowotny, se “confiarmos” nos resultados da previsão algorítmica como fundamentalmente verdadeiros, compreendemos mal a lógica das redes neurais profundas. Estas redes “só conseguem detetar regularidades e identificar padrões com base em dados que vêm do passado. Não está envolvido qualquer raciocínio causal, nem uma IA pretende que esteja.”23

Embora estas máquinas possam produzir “previsões práticas e mensuráveis”, não têm qualquer sentido de causa e efeito – em suma, não têm “compreensão” no sentido humano.24 Além disso, uma dependência excessiva dos algoritmos empurra-nos para o determinismo, alinhando o nosso comportamento com a previsão mecânica em vez de caminhos alternativos. Este é um problema nas culturas políticas baseadas na responsabilidade. Se quisermos aprender com o passado para construir um futuro melhor, não podemos confiar nos resultados preditivos de um modelo de aprendizagem automática.

AI déjà-vu

Para além da dependência partilhada e contínua da quantificação e da classificação, há muitos fios que se podem puxar para explorar a história emaranhada das tecnologias de vigilância e identificação desde o século XIX até ao presente. As populações marginalizadas e excedentárias, como os condenados e as pessoas colonizadas, foram durante muito tempo utilizadas como ‘campos de ensaio tecnológicos‘ para aperfeiçoar os sistemas de classificação e treinar algoritmos. O medo da mobilidade humana descontrolada continua a ser utilizado como motor de investigação e desenvolvimento, sendo a tecnologia, por sua vez, utilizada para resolver problemas que ela própria criou. E os métodos científicos sociais positivistas continuam a ser instrumentais para a tarefa de traduzir multiplicidades estrondosas em valores numéricos puros.

Em vez de cairmos no hype da IA, podemos antes sintonizar-nos com uma sensação de déjà-vu: o sentimento inquietante de que já vimos tudo isto antes. Desta forma, podemos resistir melhor às alegações fantasiosas feitas por actores corporativos e fronteiriços, e começar a desacoplar as tecnologias dos projectos globais de dominação.

**

Este artigo baseia-se na investigação realizada durante o projeto ‘Fronteiras Elásticas: Rethinking the Borders of the 21st Century’ sediado na Universidade de Graz, financiado pela fundação NOMIS.

1 A. Bertillon, Instructons signalétiques, Melun, 1893, placa 16, p. 262.

2 Faço parte de uma equipa de investigadores no projeto NOMIS-funded Elastic Borders, Universidade de Graz, Áustria.

3 Ver também: M. Maguire, 'Biopower, Racialization and New Security Technology', Social Identities, Vol. 18, No.5, 2012, pp. 593-607; K. Donnelly, 'We Have Always Been Biased: Medindo o corpo humano da antropometria às ciências sociais computacionais',   Public, Vol. 30, No. 60, 2020, pp. 20-33; A. Valdivia e M. Tazzioli, 'Genealogias além da justiça algorítmica: Inventando sujeitos racializados', em Proceedings of the 2023 ACM Conference on Fairness, Accountability, and Transparency, FAccT '23, Association for Computing Machinery, 2023, pp. 840-50.

4 Se as impressões digitais forem recolhidas na Grécia, mas o requerente de asilo for posteriormente detido na Alemanha, poderá ser confrontado com o afastamento para a Grécia para processamento do seu pedido.

5 B. Ayata, K. Cupers, C. Pagano, A. Fyssa e D. Alaa, A implementação da abordagem de Hotspot da UE na Grécia e em Itália: Uma análise comparativa e interdisciplinar (documento de trabalho), Rede Suíça de Estudos Internacionais, 2021, p. 36.

6 J.B. Rule, Private Lives and Public Surveillance, Allen Lane, 1973.

7 Ibid., p. 91.

8 M. Foucault, A sociedade deve ser defendida. Lectures at the Collège de France, 1975-76, trans. D. Macey, Picador, 2003, p. 244.

9 S. A. Cole, Identidades de suspeitos: A history of fingerprinting and criminal identification, Harvard University Press, 2001, p.12.

10 Ibid., pp. 18-9.

11 Ibid., pp. 34-45.

12 Ibid., p.48.

13 M. Foucault, The Order of Things. Routledge, 1975.

14 Z. Bauman, Modernity and the Holocaust, Blackwell Publishers, 1989.

15 D. Ferreira da Silva, Toward a Global Idea of Race, University of Minnesota Press, 2007.

16 S. Wynter, 'Unsettling the coloniality of being/power/truth/freedom: Towards the human, after man, its overrepresentation - an argument', CR: The New Centennial Review, Vol. 3, No. 3, 2003, pp. 257-337.

17 G. C. Bowker e S. L. Star, Sorting things out: Classification and its consequences, MIT press, 2000, p. 196.

18 L. Amoore, 'The deep border', Political Geography, 2001, 102547.

19 Ibid.

20 Galton conduziu um estudo similar em meninos de escolas judaicas, procurando por marcadores raciais de judaísmo.

21 K. Crawford, The Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press, 2021, pp. 126-7.

22 R. W. Cox, 'Social Forces, States and World Orders: Beyond International Relations Theory', Millennium, Vol. 10, No. 2, 1981, pp. 126-155.

23 H. Nowotny, Em IA confiamos: Poder, ilusão e controlo dos algoritmos preditivos. Polity, 2021, p. 22.

24 Ibid.

Go to top