Deves ter medo da inteligência artificial?
Anunciada como uma revolução tecnológica iminente, a inteligência artificial (IA) está a ser aplicada em cada vez mais áreas da vida quotidiana, provocando tanto alarme como entusiasmo. Os apoiantes estão convencidos de que a IA vai ajudar a resolver muitos dos problemas que a humanidade enfrenta (e criar alguns novos bilionários no processo). Os dissidentes apontam para os riscos ainda desconhecidos colocados por máquinas capazes de pensar e agir infinitamente mais depressa do que os humanos.
No entanto, como refere Nello Cristianini, professor de Inteligência Artificial na Universidade de Bath (Reino Unido), em The Conversation nenhum dos cenários acima” – quer sejam imaginados por especialistas ou empresários do sector – “parece traçar um caminho específico para a extinção humana. Isto significa que ficamos com um sentimento genérico de alarme, mas sem qualquer ação possível a tomar”. Esta posição é partilhada por Christopher Wylie, o denunciante por detrás do escândalo da Cambridge Analytica, no artigo que publicamos esta semana.
Num artigo (para assinantes) da New Scientist, a investigadora em ética Mhairi Aitken, do Alan Turing Institute, segue uma linha semelhante. Considera que estes avisos apocalípticos “são assustadores porque estão a marcar uma diferença decisiva no debate sobre as consequências da inteligência artificial”. Profundamente enraizado no imaginário coletivo, este pensamento “entrou agora na esfera política e regulamentar”. O que é preocupante, diz ela, “porque as provas que sustentam estas teorias alarmistas são praticamente inexistentes e não resistem a um exame minucioso”. Na opinião de Aitken, o objetivo destes avisos é “desviar as exigências de transparência e apagar o debate sobre as responsabilidades dos promotores”.
E qual é a posição da Europa no meio disto tudo? Por uma vez, a União Europeia foi rápida a abordar a questão, elaborando um regulamento – o Lei da IA . O regulamento deverá entrar em vigor em 2024 e “prevê classes de risco para as quais os procedimentos de certificação a efetuar pelo produtor são mais rigorosos à medida que o risco aumenta”, explica Francesca Lagioia, investigadora nos departamentos de direito e engenharia da Comissão Europeia, em entrevista ao Internazionale’ Annamaria Testa. “As classes de risco devem garantir os níveis de fiabilidade e de segurança de um sistema através de controlos prévios e de procedimentos de conformidade e de certificação, ou seja, antes de estas tecnologias serem comercializadas e utilizadas e antes de ocorrerem quaisquer danos”. Adverte para a principal limitação deste sistema: “Os produtores poderão auto-avaliar o cumprimento das normas dos sistemas de alto risco”.
Também em Internazionale Francesca Spinelli entrevista Caterina Rodelli, analista da Access now, uma organização de defesa das liberdades digitais, sobre as lacunas do AI Act. Rodelli salienta que os mecanismos de recurso para os sistemas de alto risco não permitem que as organizações de interesse público interponham um recurso em nome de um indivíduo, uma vez que “as autoridades receiam ser sobrecarregadas por acções judiciais interpostas por ONG”. O texto atual, acrescenta, “exclui também da categoria de alto risco os sistemas de previsão da migração, muito populares entre os governos determinados a bloquear a chegada dos requerentes de asilo e dos ‘migrantes irregulares’, bem como entre as organizações de acolhimento”. Por seu lado, cerca de sessenta organizações de defesa dos direitos humanos publicaram uma carta aberta sobre as Liberdades dirigida aos legisladores europeus, apelando a que a Lei da IA “exija que a UE adopte salvaguardas sólidas para proteger os próprios fundamentos da nossa União. A utilização indevida de sistemas de IA, incluindo a utilização opaca e irresponsável de sistemas de IA pelas autoridades públicas, representa uma séria ameaça ao Estado de direito e à democracia”.
Sobre o mesmo assunto
A inteligência artificial generativa está a entrar lentamente na vida das crianças
Nathalie Koubayová | AlgorithmWatch | 25 setembro | PT
A Amazon está a desenvolver uma funcionalidade para o seu dispositivo Alexa Echo que permite criar histórias de embalar para crianças utilizando o seu modelo de linguagem de grande dimensão (LLM). O sistema gera histórias personalizadas com base nos contributos das crianças e em funcionalidades como o reconhecimento de caracteres através da câmara do dispositivo. Esta iniciativa visa competir com outros assistentes de voz de empresas tecnológicas como a Google e a Apple. No entanto, a mudança da Amazon para a IA amiga das crianças deparou-se com preocupações de privacidade, dado o envolvimento anterior da empresa num acordo de 25 milhões de dólares por recolher ilegalmente dados de crianças sem o consentimento dos pais. Atualmente, está a ser preparada legislação para regular a tecnologia de IA destinada a crianças, com regras mais rigorosas na União Europeia e em alguns estados dos EUA.
A IA é uma ameaça à liberdade na Internet
Leonhard Pitz | Netzpolitik | 5 outubro | DE
O relatório Freedom of the Net 2023 da ONG Freedom House revela que a IA “é a próxima ameaça à liberdade na Internet “ . A tecnologia está a ser utilizada para amplificar a desinformação em muitos países e para tornar a censura mais sofisticada. A utilização da IA pelos governos, combinada com a auto-moderação das plataformas, está a conduzir a um declínio da liberdade na Internet. O relatório sublinha a necessidade de uma regulamentação baseada nos direitos humanos, na transparência e na supervisão independente.
Também vale a pena ler
Thierry Breton na arena de Elon Musk
Markus Reuter | Netzpolitik | 11 outubro | DE
O comissário europeu para o mercado interno, Thierry Breton, enviou uma carta ao mercurial chefe da rede social X (antigo Twitter) a partir da sua conta no Mastodon, uma rede rival (e aberta). Breton refere a desinformação espalhada na X após os ataques do Hamas a Israel e lembra a Elon Musk que a Lei dos Serviços Digitais exige que a X remova conteúdos ilegais no prazo de 24 horas. Embora o objetivo da carta faça sentido, observa Markus Reuter,“o que temos aqui é um espetáculo político sobre o direito comunitário, uma troca pública entre dois homens no ringue de boxe emocional das redes sociais“.
O modelo de adesão “menu fixo” da UE está a falhar. Está na altura de adotar uma abordagem “à la carte”
Alberto Alemanno | The Guardian | 10 outubro | PT
A potencial adesão de novos Estados à UE, nomeadamente a Ucrânia, “oferece uma oportunidade imperdível para tornar a União estrategicamente independente numa nova ordem mundial ameaçadora e capaz de liderar a emergência climática”, afirma este professor de Direito Europeu no HEC (e membro do conselho consultivo da Voxeurop), que apela a uma revisão da governação da UE. Duas iniciativas, uma do Parlamento Europeu e outra de um grupo franco-alemão, para reformar as estruturas da UE – incluindo uma possível configuração a várias velocidades – poderiam promover a integração e ajudar a UE a enfrentar os desafios globais.
Traduzido por Harry Bowden