L’8 dicembre scorso, gli Stati membri e il Parlamento europeo hanno raggiunto un’intesa senza precedenti a livello internazionale nel campo dell’AI. Con l’Artificial Intelligence Act, l’Ue regolamenterà lo sviluppo e l’uso di questa tecnologia. 

Storico”. Così Thierry Breton, commissario europeo per il mercato interno, definisce l’Artificial Intelligence Act in un post del social X (ex-Twitter) decisione. Dopo tre giorni e più di 35 ore di negoziazioni, i legislatori europei sono arrivati al termine di un lungo processo iniziato ad aprile 2021. Con quest’accordo, l’Unione europea diventa il primo attore globale a proporre un’inquadratura legislativa e normativa per meglio controllare gli sviluppi dell’AI. Nel passato era già stata la prima ad imporre regolamenti sull’uso dei dati su Internet. 

Chat GPT, una sfida moderna

L’urgenza di questa decisione si può fare risalire al terremoto che ha conosciuto ultimamente il mondo dell’AI con il lancio, alla fine del 2022, di Chat GPT – generatore di testi della società californiana OpenAI. Capace di redigere testi, poesie e traduzioni nello spazio di qualche secondo, questa tecnologia innovativa ha in breve tempo rivelato al grande pubblico il gigantesco potenziale dell’intelligenza artificiale, ma anche numerosi rischi. Si pensi ad esempio alla diffusione recente sui social di deep fake generate da Dall-e, un programma concepito anch’esso da OpenAI, che rappresentano un rischio enorme per la sicurezza e la privacy dei cittadini

Chat GPT però ha lanciato una corsa internazionale all’emulazione di un algoritmo potente e performante: velocemente sono apparsi Gemini (Google), Llama (Meta), ma anche generatori d’immagini come il popolarissimo Mid Journey. Quest’esplosione tecnologica senza controllo ha dato l’impulso al processo legislativo europeo rimasto in standby dal 2021. Non di meno il recente conflitto ideologico venuto alla luce proprio all’interno della sede di OpenAI ha mostrato l’esistenza di una profonda frattura nelle prospettive e nei valori della comunità scientifica che opera nel settore.  

Si procede verso regolamentazioni su vari livelli

La sensibilità di queste nuove tecnologie è la ragione per la quale la sicurezza è l’obiettivo centrale del nuovo regolamento UE.  In particolare, il cuore del progetto normativo è costituito da norme imposte all’uso dell’AI in settori considerati “ad alto rischio”. Si pensi in tal senso all’ambito dell’educazione, delle risorse umane o al mantenimento dell’ordine pubblico dove verrà così imposto un sistema di controllo umano sulla macchina, la redazione di una dettagliata documentazione tecnica e l’istituzione di un sistema trasparente ed efficace di gestione del rischio. Non di meno, viene richiesto ai sistemi IA di avvisare l’utente segnalando che sta per entrare in relazione con una macchina e non con un altro essere umano. Dal testo emergono infine alcuni espliciti divieti, benché rari. Si parla principalmente delle applicazioni contrarie ai valori europei proibendo di fatto forme di sorveglianza di massa ispirate al modello cinese quali l’identificazione biometrica a distanza delle persone nei luoghi pubblici. Un’eccezione a quest’ultima restrizione è stata fatta per attività di lotta contro il terrorismo.

Per completare il quadro, a partire dal 2025 verrà istituito un ufficio europeo dell’intelligenza artificiale all’interno dell’UE che potrà infliggere multe fino al 7% del fatturato aziendale alle imprese ree, con un limite massimo di 35 milioni di euro per le infrazioni più gravi.

Negoziazioni divisive: cosa possiamo aspettarci?

Per arrivare fin qui il testo ha percorso una strada piuttosto lunga. Il documento odierno è frutto del compromesso di due interessi distinti. Da un lato, quello del Parlamento europeo, che voleva privilegiare un approccio basato sulla sicurezza. Dall’altro, quello di certi Stati membri dell’UE, in particolare Francia, Italia e Germania, che temevano una battuta d’arresto sul fronte dell’innovazione. La difficoltà delle negoziazioni risiedeva infatti nel complesso equilibrio tra la capacità di far emergere dei campioni nazionali e la stringente necessità di perimetrare l’area di possibile intervento di tecnologie sensibili. Non a caso oggi le principali lobby del settore parlano di negoziati in cui “la rapidità ha prevalso sulla qualità”.

In altre parole, questi Stati temevano che una regolazione eccessiva avrebbe stroncato sul nascere progetti promettenti come Aleph Alpha (Germania) o Mistral AI (Francia) rendendo proibitivi i prezzi di sviluppo; il tutto in un mercato globale dove l’Europa è chiaramente in ritardo in termini qualitativi e quantitativi se paragonata agli Stati Uniti e alla Cina. 

 

Fonti

  • M. Orange, « L’Europe se dote d’une législation sur l’intelligence artificielle », Mediapart, 10 dicembre 2023.
  • V. Fagot, « AI Act : l’Union européenne pionnière dans la régulation de l’intelligence artificielle », Le Monde, 9 dicembre 2023.
  • « L’Union européenne trouve un accord pour encadrer le développement de l’intelligence artificielle », Le Monde, 9 dicembre 2023.
  • E. Viniacourt, « « Historique ! » : l’UE trouve un accord pour réguler les IA après des négociations marathon », Libération, 8 dicembre 2023.
  • Théophane Hartmann, « Les coulisses de l’opposition de la France à la réglementation des modèles d’IA », Euractiv, 29 novembre 2023.
  • L. Rojouan, « Intelligence artificielle : ce que contient l’IA Act, l’accord « historique » de l’Union européenne », Ouest-France, 9 dicembre 2023.
  • F. Meta, «Intelligenza artificiale, la Ue trova la quadra. Scatta la corsa al rush finale», CorCom, 9 dicembre 2023.