-
Tipo NewsREDAZIONALE
-
FonteART-ER
-
Del
“Primi nel Mondo”. Tale la portata dell’annuncio nei canali ufficiali che annunciano l'accordo politico sul Regolamento sull’Intelligenza Artificiale tra Consiglio dell’Unione europea e Parlamento europeo, anche detto AI Act. Si tratta della normativa europea che disciplina la gestione e l’uso dei sistemi di Intelligenza Artificiale, la prima ad essere stata approvata a livello globale e che potrebbe segnare lo standard per il futuro.
Con questo Atto, l'Europa intende stabilire norme armonizzate seguendo come principio di fondo per regolamentare l’IA un approccio basato sul rischio, da quello minimo a quello inaccettabile, per cui maggiore è il rischio, più severe sono le disposizioni.
Il contesto che ha portato all’accordo sull’AI Act
La proposta della Commissione europea di una nuova legge sull'IA risale ad aprile 2021 e segue il Libro bianco sull'intelligenza artificiale pubblicato nel febbraio 2020, in cui già si evidenziava il ruolo centrale dell’IA nell’apportare molteplici benefici sociali ed economici multisettoriali.
L’iter ha visto in ultima battuta il recente confronto durato tre giorni tra le due istituzioni europee, Consiglio dell’Unione europea e Parlamento europeo.
Il trilogo tra le istituzioni è contestuale all’evoluzione normativa europea in atto, spinta dalle grandi opportunità offerte dalla transizione digitale. L’AI Act si inserisce infatti nella più ampia Agenda digitale 2030 dell’Unione europea, centrata su due perni: la Strategia europea per il digitale e il Decennio digitale europeo. Il valore aggiunto dell’AI Act si lega pertanto alle regolamentazioni che affrontano complessivamente le sfide inerenti l’uso delle tecnologie digitali.
Gli aspetti chiave dell’accordo: tutela, sicurezza, innovazione
I punti salienti dell’accordo consentono di scoprire consapevolmente le basi poste per l’utilizzo in futuro di questa tecnologia all’interno dell’Unione europea.
Uno dei punti focali dell’accordo è la definizione dei sistemi di IA e delle informazioni processabili.
Innanzitutto, tramite la sua applicazione, il Regolamento permetterà di distinguere con criteri chiari l'IA dai sistemi software più semplici, definendone il campo di applicazione. In questo modo infatti si intende rendere più chiaro il quadro per gli utenti, promuovere la ricerca e l’innovazione e allo stesso tempo preservare la sicurezza nazionale degli Stati membri.
La classificazione dei sistemi di IA a seconda del rischio, da minimo a inaccettabile, imporrà diversi obblighi di trasparenza, più o meno estesi, per l’accesso al mercato dell’Unione europea. Nel caso comportino rischi inaccettabili per i diritti fondamentali, i sistemi di IA saranno vietati.
Sulle informazioni, l'accordo provvisorio vieta, ad esempio, la manipolazione cognitivo-comportamentale, la raccolta non mirata di immagini facciali da internet o da filmati di telecamere a circuito chiuso, il riconoscimento delle emozioni sul posto di lavoro e negli istituti scolastici, il social scoring, la categorizzazione biometrica per dedurre dati sensibili e alcuni casi di polizia predittiva per gli individui.
A tal proposito, va ricordato che vi sono specifiche eccezioni per le forze dell’ordine, che potranno avvalersi di particolari servizi di IA (es. uso di sistemi di identificazione biometrica) per affrontare indagini inerenti la ricerca di vittime di specifici reati, la prevenzione di minacce reali, attuali o prevedibili, come gli attacchi terroristici, e le ricerche di persone sospettate degli illeciti più gravi.
In linea con questo approccio, volto a definire al meglio il mondo dell’IA, per le catene del valore dei sistemi di IA vengono stabiliti ruoli e responsabilità distribuite, armonizzati con la normativa per la protezione dei dati e le regolamentazioni settoriali.
Un altro elemento centrale del draft del Regolamento riguarda le finalità dei sistemi di IA.
In particolare, si distinguono dall’IA per scopi generali i foundation models (modelli di base) ovvero sistemi di grandi dimensioni in grado di eseguire con competenza un'ampia rosa di compiti. Questi saranno soggetti a forti obblighi di trasparenza per evitare rischi sistemici nella catena del valore.
Sempre a tutela degli utenti, l'accordo provvisorio prevede una valutazione dell'impatto sui diritti fondamentali, prima che un sistema di IA ad alto rischio venga immesso sul mercato da chi lo utilizza, e un alto grado di trasparenza.
Le persone fisiche o giuridiche avranno, inoltre, la possibilità di presentare un reclamo all'autorità di vigilanza del mercato competente in merito alla non conformità con l’AI Act o all’impatto sui propri diritti.
Infine, molte modifiche rispetto al testo iniziale riguardano il filone dei sistemi di IA legati all’innovazione. Condizioni specifiche riguarderanno in particolare le sandbox normative e i test per i nuovi ambienti.
Per quanto riguarda le sanzioni, queste vengono definite in percentuale rispetto al fatturato dei soggetti interessati.
Chi seguirà l’attuazione dell’AI Act?
A livello nazionale, agiranno le autorità competenti per la sorveglianza del mercato.
A livello europeo, la struttura di governance che farà rispettare la nuova normativa si articola come segue:
- Lato Commissione europea - l’Ufficio IA, con il compito di supervisionare i modelli IA più avanzati e promuovere standard e pratiche di test, con il supporto di un gruppo scientifico di esperti indipendenti.
- Lato Stati membri - l’AI Board, che rimarrà una piattaforma di coordinamento e un organo consultivo della Commissione.
- Lato stakeholder - l’advisory forum.
Cosa succede dopo l’accordo politico
Il testo dovrà ora essere formalmente adottato dalle istituzioni dell’Unione europea e successivamente pubblicato nella Gazzetta Ufficiale UE. L’obiettivo è giungere alla definitiva approvazione del Regolamento entro la fine dell’attuale legislatura europea affinché poi possa entrare in vigore. La sua applicazione avverrà progressivamente entro 2 anni: i divieti si applicheranno già dopo 6 mesi, mentre le norme sull'IA per finalità generali, dopo 12 mesi.