Dobbiamo temere l’intelligenza artificiale?
Annunciata come la nuova grande rivoluzione tecnologica l’intelligenza artificiale (ia) e la sua applicazione a campi sempre più ampi suscita allo stesso tempo preoccupazione ed entusiasmo. I suoi sostenitori sono convinti che l’ia contribuirà a risolvere la maggior parte dei problemi dell’umanità (e a creare qualche nuovo miliardario); altri oppongono i rischi ancora sconosciuti posti da macchine capaci di pensare e agire in modo infinitamente più veloce degli esseri umani.
Delle macchine, mettono in guardia in un copione da fantascienza, che potrebbero avere la tentazione di identificare proprio negli umani la causa dei problemi, e quindi di finire per volerli eliminare.
Come sottolinea Nello Cristianini, professore di Intelligenza artificiale presso l’Università di Bath (Regno Unito), in The Conversation, “nessuno di questi scenari” – sia che provengano da esperti o da imprenditori del settore – “sembra tracciare un percorso specifico verso l’estinzione dell’umanità. Veniamo lasciati con un generico senso di allarme, senza poter intervenire”. Una posizione condivisa da Christopher Wylie, il whistleblower che rivelò lo scandalo Cambridge Analytica, nell’articolo che pubblichiamo questa settimana.
Sulla stessa lunghezza d’onda, in un articolo pubblicato su New Scientist (su abbonamento), la ricercatrice di etica dell’Alan Turing Institute Mhairi Aitken spiega che questi avvertimenti apocalittici “fanno paura perché influenzano in modo decisivo il dibattito sulle conseguenze dell’intelligenza artificiale e sul suo sviluppo responsabile”. Profondamente radicata nell’immaginario collettivo, questa idea “si è ora insinuata nella sfera politica e normativa. E questo è preoccupante”, aggiunge, “perché le prove a sostegno delle teorie allarmistiche sono praticamente inesistenti”. Secondo Aitken, l’obiettivo di questi annunci è quello di “sviare le richieste di trasparenza e mettere in sordina il dibattito sulle responsabilità degli sviluppatori”. Per questo motivo, conclude, “contrastare le voci sulla superintelligenza e sul rischio esistenziale è quindi importante per evitare che il dibattito si concentri su ciò che interessa ai giganti dell’informatica invece che sulle voci delle comunità colpite, e sugli spauracchi immaginari invece che sugli effetti concreti”.
Qual è la posizione dell’Europa in tutto questo? Per una volta, l’Unione europea si è affrettata ad affrontare il tema dell’IA, elaborando una normativa – l‘AI Act – che entrerà in vigore nel 2024 e “in relazione alla classe di rischio, la procedura di certificazione a carico del produttore viene resa via via più stringenti”, spiega Francesca Lagioia, ricercatrice presso i dipartimenti di Giurisprudenza e Ingegneria dell’Università di Bologna e presso l’Istituto Universitario Europeo, in un’intervista ad Annamaria Testa per Internazionale. “Le classi di rischio dovrebbero garantire i livelli di affidabilità e sicurezza di un sistema mediante controlli e procedure di conformità e certificazione ex ante, vale a dire prima della messa in commercio e dell’uso di queste tecnologie e prima che si verifichino eventuali danni”, aggiunge l’esperta, avvertendo però il principale limite di questo sistema: “i produttori potranno autovalutare la conformità agli standard della maggior parte dei sistemi ad alto rischio”.
Sempre su Internazionale, Francesca Spinelli ha chiesto a Caterina Rodelli, analista di Access now, un’organizzazione per i diritti civili digitali, quali sono le lacune dell’AI Act. Rodelli sottolinea che i meccanismi di ricorso per i sistemi ad alto rischio non prevedono la possibilità per le organizzazioni di interesse pubblico di presentare un ricorso per conto di un individuo, “Le autorità temono di essere sommerse da azioni legali avviate dalle ong”. Il testo attuale, aggiunge, “restano inoltre fuori della categoria ad alto rischio i sistemi di predizione dei movimenti migratori, che spopolano sia tra i governi decisi a bloccare gli arrivi di richiedenti asilo e “migranti irregolari” sia tra le organizzazioni attive nel campo dell’accoglienza”.
Da parte loro, circa sessanta organizzazioni per i diritti umani hanno pubblicato sulla piattaforma Liberties una lettera aperta indirizzata al legislatore europeo in cui si chiede che la legge sull’AI “adotti forti garanzie per proteggere le fondamenta stesse su cui poggia [l’Unione]. L’uso improprio dei sistemi di IA, compreso il loro impiego opaco e non rendicontabile da parte delle autorità pubbliche”, affermano, “rappresenta una grave minaccia per lo stato di diritto e la democrazia”.
Sullo stesso tema
L’intelligenza artificiale generativa sta entrando gradualmente nella vita dei bambini
Nathalie Koubayová | AlgorithmWatch | 25 settembre | EN
Amazon sta sviluppando una funzione per il suo dispositivo Alexa Echo per creare storie da leggere ai bambini durante la notte utilizzando il suo modello linguistico interno. Il sistema genera storie personalizzate in base agli input dei bambini e a funzioni quali il riconoscimento delle persone tramite la fotocamera del dispositivo. Questa iniziativa mira a competere con altre aziende produttrici di assistenti vocali come Google e Apple. Tuttavia, il passaggio di Amazon all’intelligenza artificiale a misura di bambino si è scontrato con problemi di privacy: l’azienda ha già dovuto pagare 25 milioni di dollari per aver raccolto illegalmente dati su bambini senza il consenso dei genitori. L’Unione Europea e alcuni Stati degli USA stanno elaborando regole più severe sull’ia per i bambini.
L’intelligenza artificiale è una minaccia per la libertà di Internet
Leonhard Pitz | Netzpolitik | 5 ottobre | DE
Il rapporto Freedom of the Net 2023 dell’ONG Freedom House rivela che l‘intelligenza artificiale “è la prossima minaccia alla libertà di Internet”. L’ia viene utilizzata per amplificare la disinformazione in molti Paesi, rendendo la censura più sofisticata. L’uso dell’ia da parte delle autorità, combinato con l’automoderazione da parte delle piattaforme, sta portando a un declino della libertà di Internet. Il rapporto sottolinea la necessità di una regolamentazione basata sui diritti umani, la trasparenza e la supervisione indipendente dell’ia.
Da leggere
Thierry Breton nell’arena di Elon Musk
Markus Reuter | Netzpolitik | 11 octobre | DE
Il commissario europeo per il mercato interno e i servizi, Thierry Breton, ha inviato una lettera al capo del social network X (ex Twitter), Elon Musk, dal suo account sul social network rivale (e aperto) Mastodon. Breton punta il dito contro la disinformazione diffusa su X dopo gli attacchi di Hamas a Israele. Musk dovrebbe rimuovere i contenuti illegali e rispondere entro 24 ore, come richiesto dal Digital Services Act. Sebbene l’oggetto della lettera sia sensato, osserva Markus Reuter, “quello che abbiamo qui è politica dello spettacolo, con l’applicazione del diritto dell’UE come scambio pubblico tra due uomini sul ring emotivo dei social media”.
Il modello di adesione dell’UE a “menu fisso” sta fallendo. È ora di adottare un approccio “à la carte”
Alberto Alemanno | The Guardian | 10 ottobre | EN
La potenziale adesione di nuovi Stati, in particolare l’Ucraina, “offre un’opportunità unica per rendere l’Unione strategicamente indipendente in un nuovo ordine mondiale”, afferma il professore di diritto europeo alla HEC (e membro del comitato consultivo di Voxeurop), e chiede una revisione della governance dell’UE. Le due iniziative, una del Parlamento europeo e l’altra di un gruppo franco-tedesco, volte a riformare le strutture dell’UE, compresa la possibilità di un sistema a più velocità, potrebbero favorire l’integrazione e migliorare la capacità dell’UE di affrontare le sfide globali.