Dopo tanto dibattito, il Regolamento Europeo sull’IA è stato pubblicato in Gazzetta ufficiale dell’UE. La legge entrerà in vigore tra venti giorni e sarà pienamente applicabile dal 2 agosto 2026.
AI Act entra finalmente “in funzione” con la pubblicazione in Gazzetta Ufficiale. Ne abbiamo parlato già negli scorsi numeri di quanto sia importante questo documento, che ha visto la collaborazione di tutti i paesi europei e rappresenta un passo decisivo per l’utilizzo e lo sviluppo dell’intelligenza artificiale.
Obiettivo primario dell’AI Act è tutelare i cittadini dai sistemi di intelligenza artificiale ad alto rischio, quelli che potrebbero impattare significativamente la loro vita, come ad esempio i sistemi di riconoscimento facciale o i software utilizzati per le assunzioni. Per questi sistemi, il regolamento stabilisce requisiti rigorosi di sicurezza, trasparenza e controllo umano.
L’AI Act non ostacola però l’innovazione nel settore, anzi, intende favorirla creando un quadro normativo chiaro e sicuro per le aziende che operano nel campo dell’intelligenza artificiale. L’Europa punta così a diventare leader globale nello sviluppo di un’intelligenza artificiale responsabile e al servizio del bene comune.
Le tappe fondamentali
La nuova legge entrerà in vigore il 2 agosto e avrà piena operatività tra 2 anni, questa la tabella di marcia:
- 02/08/2024: entrata in vigore della legge;
- dopo 6 mesi: Divieto sui sistemi di IA con rischio inaccettabile;
- dopo 9 mesi: Applicazione dei codici di condotta;
- dopo 12 mesi: Applicazione delle regole a livello istituzionale e degli obblighi per l’AI di scopo generale;
- dopo 24 mesi: Inizio dell’applicazione dell’AI Act per i sistemi di IA
- dopo 36 mesi: fine del processo di applicazione a tutti i sistemi di IA
“La Ue si è mossa per tempo e l’entrata in vigore dell’AI Act è più rapida rispetto a quelle del DSA e del DMA Act che riguardano i social media, ora comincia un iter di adeguamento a tappe”, ha detto Ernesto Belisario, Avvocato di diritto amministrativo, Segretario Generale dell’Istituto per le politiche dell’innovazione.
Ovviamente la priorità è data alla proibizione di sistemi di IA con un rischio inaccettabile per l’uomo. Come esempio di queste tecnologie troviamo quelle per manipolare i comportamenti delle persone, la sorveglianza biometrica, la raccolta massiccia e illimitata di foto di volti da internet, il riconoscimento delle emozioni sul posto di lavoro o a scuola, i sistemi di punteggio sociale o la polizia predittiva, cioè l’uso di dati sensibili per calcolare le probabilità che una persona commetta un reato.
Dopo aver stabilito cosa non è consentito si passa al codice di condotta per ciò che è consentito. In questa fase gli sviluppatori, aziende e associazioni dell’industria si impegnano con l’Unione per garantire l’inclusione dei principi dell’AI Act nello sviluppo delle loro attività.
In particolare, i codici di condotta sono pensati per allargare gli impegni in ambito di sostenibilità ambientale e sociale, formazione e alfabetizzazione, adozione di principi etici nella produzione di tecnologia.
Le IA generaliste
A partire dall’agosto del 2025, tocca alle IA generaliste come ChatGPT, Gemini, Claude, ecc. I sistemi dovranno rispettare parametri più stringenti e gli sviluppatori devono assicurarsi che i contenuti siano riconoscibili come generati da un’intelligenza artificiale. I contenuti deepfake devono essere etichettati come tali.
Questa tappa rappresenta anche l’introduzione di un impianto sanzionatorio che prevede multe fino a 35 milioni di euro o il 7% del fatturato annuo, oltre all’istituzione di una banca dati europea per i sistemi di IA ad alto rischio.
Infine, l’agosto del 2026 vede la piena applicazione della legge per i sistemi di IA ad alto rischio. Sono elencati nell’allegato 3 della legge e riguardano sistemi di identificazione e categorizzazione biometrica, software educativi o di formazione, per valutare i risultati di studio, per assegnare corsi o per controllare gli studenti durante gli esami.
E poi vi sono gli algoritmi usati sul lavoro, per valutare curriculum o distribuire compiti e impieghi; quelli adoperati dalla pubblica amministrazione o da enti privati per distribuire sussidi, per classificare richieste di emergenza, per smascherare frodi finanziarie.
Ricadono in questa categoria anche gli algoritmi usati dalle forze dell’ordine e dalla giustizia, che però avranno delle deroghe in presenza di alcuni reati specifici.
Conclusioni
L’AI Act rappresenta un traguardo importante per l’Europa, che si posiziona all’avanguardia nella regolamentazione dell’intelligenza artificiale. Il regolamento contribuirà a garantire che questa tecnologia sia sviluppata e utilizzata in modo responsabile, a beneficio di tutti i cittadini europei.
Chi controllerà tutti questi processi? L’italiana Lucilla Sioli, che opererà dall’interno della Commissione, per supervisionare l’applicazione e l’attuazione della legge sull’AI con gli Stati membri, ma anche per creare un ambiente in cui le tecnologie di intelligenza artificiale rispettino appunto la dignità umana, i diritti e la fiducia. L’intero testo della legge è consultabile a questo link.