Doit-on avoir peur de l’intelligence artificielle ?
Annoncée comme l’imminente grande révolution technologique, l’intelligence artificielle (IA) et son application à des champs de plus en plus vastes suscite autant d’inquiétudes que d’enthousiasme. Aux tenants du second, persuadés que l’IA va aider à résoudre la plupart des problèmes auxquels l’humanité est confrontée (créant quelques nouveaux milliardaires au passage), de nombreux observateurs opposent les risques encore inconnus que représentent des machines capables de penser et d’agir infiniment plus rapidement que les humains. Des machines, mettent-ils en garde dans un scénario qui ressemble à de la science fiction, qui pourraient être tentées d’identifier justement dans les humains les causes des problèmes et donc finir par vouloir les éliminer.
Toutefois, comme le souligne Nello Cristianini, professeur d’intelligence artificielle à l’Université de Bath (Royaume-Uni) dans The Conversation, “aucun des scénarios susmentionnés” – qu’ils proviennent d’experts ou d’entrepreneurs du secteur – “ne semble tracer une voie spécifique vers l’extinction de l’humanité. Cela signifie que nous nous retrouvons avec un sentiment d’alarme générique, sans aucune action possible à entreprendre”. Une position partagée par Christopher Wylie, le lanceur d’alerte à l’origine du scandale Cambridge Analytica, dans l’article que nous publions cette semaine.
Sur la même longueur d’onde, dans un article paru dans New Scientist (sur abonnement), la chercheuse en éthique auprès de l’Alan Turing Institute Mhairi Aitken estime que ces mises en garde apocalyptiques “font peur parce qu’elles infléchissent de manière décisive le débat sur les conséquences de l’intelligence artificielle et son développement responsable”. Profondément ancrée dans l’imaginaire collectif, cette idée “s’est à présent insinuée dans les sphères politiques et réglementaires. Et c’est inquiétant”, ajoute-t-elle, “car les preuves à l’appui des thèses alarmistes sont pratiquement inexistantes et ne résistent pas à un examen approfondi”. Le but de ces alertes n’est autre, estime Aitken, que celui de “détourner les demandes de transparence et effacer le débat sur les responsabilités des développeurs”. C’est pourquoi, conclut-elle, “il est essentiel de contrer les rumeurs sur la superintelligence et les risques existentiels pour éviter que le débat ne se concentre sur ce qui intéresse les géants de l’informatique plutôt que sur les voix des communautés concernées, et sur des épouvantails imaginaires plutôt que sur des effets concrets”.
Et l’Europe dans tout cela ? Une fois n’est pas coutume, l’Union européenne s’est penchée assez rapidement sur la question de l’IA, en élaborant une réglementation – l’AI Act – qui doit entrer en vigueur en 2024 et “qui prévoit des classes de risque pour lesquelles les procédures de certification à charge du producteurs sont plus sévères au fur et à mesure que le risque augmente”, explique Francesca Lagioia, chercheuse aux départements de droit et d’ingénierie de l’université de Bologne et à l’Institut universitaire européen, dans un entretien avec Annamaria Testa pour Internazionale. “Les classes de risque doivent garantir les niveaux de fiabilité et de sécurité d’un système au moyen de contrôles et de procédures de conformité et de certification préalables, c’est-à-dire avant que ces technologies ne soient commercialisées et utilisées et avant qu’un préjudice ne se produise”, ajoute-t-elle, tout en mettant en garde contre la principale limite de ce système: “les producteurs pourront auto-évaluer la conformité aux standards des systèmes à haut risque”. Autre limite, note Francesca Lagioia : “en théorie, la loi sur l’IA interdit la production ou la vente de systèmes d’intelligence artificielle manipulateurs (destinés à induire en erreur le comportement humain). Mais il est peu probable que les fabricants déclarent cette finalité. Et pour contourner l’interdiction, il suffit de vendre des systèmes d’IA génériques qui peuvent ensuite être reconfigurés par les utilisateurs”.
Toujours dans Internazionale, Francesca Spinelli a interrogé Caterina Rodelli, analyste à Access now, une organisation de défense des droits civiques numériques, sur les lacunes de l’AI Act. Rodelli souligne que les mécanismes de recours en ce qui concerne les systèmes à haut risque ne prévoient pas que les organisations d’intérêt public puissent introduire un recours au nom d’un individu, “les autorités craignant d’être débordées par les actions en justice lancées par les ONG”. Le texte actuel, ajoute-t-elle, “exclut également de la catégorie à haut risque les systèmes de prévision des mouvements migratoires, très populaires tant parmi les gouvernements déterminés à bloquer les arrivées de demandeurs d’asile et de ‘migrants irréguliers’ que par les organisations actives dans le domaine de l’accueil”. Pour leur part, une soixantaine d’organisations pour la défense des droits humains ont publié sur la plateforme Liberties une lettre ouverte adressée au législateur européen pour demander que l’IA Act “adopte des garde-fous solides pour protéger les fondements mêmes sur lesquels repose [l’]Union. L’utilisation abusive des systèmes d’IA, notamment leur déploiement opaque et non responsable par les autorités publiques”, affirment-ils, “constitue une menace sérieuse pour l’état de droit et la démocratie”.
Sur le même sujet
L’intelligence artificielle générative entre peu à peu dans la vie des enfants
Nathalie Koubayová | AlgorithmWatch | 25 septembre | EN
Amazon développe pour son appareil Alexa Echo une fonction permettant de créer des histoires à lire aux enfants le soir à l’aide de son modèle linguistique interne. Le système génère des histoires personnalisées en fonction des contributions des enfants et de fonctionnalités telles que la reconnaissance de personnes via la caméra de l’appareil. Cette initiative vise à concurrencer d’autres entreprises d’assistants vocaux comme Google et Apple. Cependant, la démarche d’Amazon dans le domaine de l’IA adaptée aux enfants s’est heurtée à des problèmes de protection de la vie privée, l’entreprise ayant déjà dû s’acquitter de 25 millions de dollars pour avoir collecté illégalement des données sur des enfants sans le consentement de leurs parents. L’Union européenne et certains Etats des Etats-Unis sont en train d’élaborer des règles plus strictes sur l’IA destinées aux enfants.
L’IA est une menace pour la liberté d’internet
Leonhard Pitz | Netzpolitik | 5 octobre | DE
Le rapport Freedom of the Net 2023 de l’ONG Freedom House révèle que l’IA “est la prochaine menace pour la liberté d’internet”. L’IA est utilisée pour amplifier la désinformation dans de nombreux pays, rendant la censure plus sophistiquée. L’utilisation de l’IA par les autorités, combinée à une auto modération par les plateformes, entraîne un déclin de la liberté sur internet. Le rapport souligne la nécessité d’une réglementation basée sur les droits humains, de la transparence et d’une supervision indépendante en ce qui concerne l’IA.
À lire aussi
Politiser la réforme des règles budgétaires de l’Union
Shahin Vallée, Philippe Lamberts | Le Grand Continent | 19 septembre (FR)
Pour l’économiste Shahin Vallée et le coprésident des Verts au Parlement européen Philippe Lamberts, les divisions entre les Etats membres, l’incapacité à séparer les négociations budgétaires nationales de celles sur le budget commun de l’Union, et des compromis insuffisants constituent des obstacles à la réforme de la gouvernance économique européenne. Ils plaident donc pour une réforme plus transparente, moins procyclique et davantage axée sur l’investissement public, nécessitant des ajustements fiscaux et des ressources accrues pour le budget de l’Union. Voilà pourquoi, estiment-ils, “ces questions doivent être au cœur de la prochaine campagne électorale européenne”.
Thierry Breton dans l’arène d’Elon Musk
Markus Reuter | Netzpolitik | 11 octobre | DE
Le commissaire européen pour le Marché intérieur et les Services Thierry Breton a envoyé une lettre au patron du réseau social X (anciennement Twitter) Elon Musk depuis son compte sur le réseau social concurrent (et ouvert) Mastodon. Breton pointe du doigt la désinformation diffusée sur X après les attaques du Hamas contre Israël. Musk devrait supprimer les contenus illégaux et réagir dans un délai de 24 heures, comme le prescrit le Digital Services Act. Si l’objet de la lettre fait sens, note Markus Reuter, “l’on assiste ici à de la politique spectacle, avec l’application de la loi de l’UE comme un échange public entre deux hommes sur le ring de boxe émotionnel des médias sociaux”.
Le modèle d’adhésion à “menu fixe” de l’UE est en train d’échouer. Il est temps d’adopter une approche “à la carte”
Alberto Alemanno | The Guardian | 10 octobre | EN
L’adhésion potentielle de nouveaux Etats, notamment l’Ukraine, “offre une occasion unique de rendre l’Union stratégiquement indépendante dans un nouvel ordre mondial”, estime le professeur en droit européen à HEC (et membre du comité consultatif de Voxeurop) et oblige à revoir la gouvernance de l’UE. Les deux initiatives, l’une du Parlement européen et l’autre d’un groupe franco-allemand, visant à réformer les structures de l’UE, y compris la possibilité d’un système à plusieurs vitesses, pourraient favoriser l’intégration et améliorer la capacité de l’UE à relever les défis mondiaux.