AI Act: la mappa delle misure di rilievo in 6 punti

Come ampiamente noto, il Parlamento europeo ha approvato in via definitiva il Regolamento Europeo sull’intelligenza artificiale (AI ACT), che dovrà ormai solo attendere la pubblicazione in Gazzetta Ufficiale dell’Unione europea per essere pienamente in vigore. Nelle prossime settimane ci saranno ulteriori passaggi procedurali in vista della pubblicazione del testo sulla Gazzetta Ufficiale dell’Unione Europea. L’entrata in vigore è prevista per il prossimo mese di maggio.
Dopo l’accordo politico diventa ora concreto il testo di legge, utile per capire cosa cambierà e in cosa consisterà il percorso di adeguamento, che inizierà nelle prossime settimane.
Di seguito forniamo alcune informazioni (in una ideale mappa suddivisa in 6 punti) sui contenuti del Regolamento, dai principi al campo di applicazione, passando per le tempistiche relative all’entrata in vigore, in collaborazione con la redazione di Legge Zero, la newsletter di E-Lex Studio Legale e Gruppo Maggioli che esplora le connessioni e i legami tra diritto e avvento dell’intelligenza artificiale.

I principi dell’AI Act

Il Regolamento richiama i principi etici elaborati nel 2019 dall’High-Level Expert Group on Artificial Intelligence nominato dalla Commissione europea:
– intervento e sorveglianza umani (art. 14);
– robustezza tecnica e sicurezza (art. 15);
– vita privata e governance dei dati (art. 10);
– trasparenza (artt. 13 e 50);
– diversità, non discriminazione ed equità (cons. 27);
– benessere sociale e ambientale (cons. 27);
– responsabilità dei fornitori di sistemi IA (art. 25).

Il campo di applicazione dell’AI Act

L’AI Act si applica non solo ai providers (fornitori) dei sistemi di intelligenza artificiale che immettono sul mercato o mettono in servizio sistemi di IA nell’Unione Europea, ma anche a quelli extraeuropei, laddove gli output prodotti dal sistema di IA siano utilizzati in Europa.
In secondo luogo, il Regolamento si applica ai deployers (utilizzatori) dei sistemi di intelligenza artificiale, indipendentemente dal fatto che siano soggetti pubblici o privati.
Da ultimo, l’AI Act trova applicazione anche nei confronti di importatori e distributori dei sistemi di IA e alle persone interessate dall’utilizzo di tali sistemi.

Gli adempimenti

Sono numerosi gli obblighi indirizzati a fornitori, deployers, distributori e importatori in relazione ai sistemi ad alto rischio. I principali obblighi imposti ai fornitori di sistemi IA ad alto rischio (art. 16) e agli importatori (art. 23), sono:
– garantire che i sistemi siano conformi a specifici requisiti tecnici indicati dal Regolamento;
– indicare sul sistema di IA ad alto rischio nome, denominazione commerciale registrata o marchio registrato e indirizzo al quale possono essere contattati;
– disporre di un sistema di gestione della qualità (art. 17), ad es. un documento che garantisca la conformità all’AI Act;
– elaborare una dichiarazione di conformità UE (art. 47);
– adottare misure correttive (es. ritirare, disabilitare) nel caso in cui ritengano che un sistema di IA ad alto rischio da essi immesso sul mercato o messo in servizio non sia conforme all’AI Act;
– fornire alle Autorità competenti tutte le informazioni e la documentazione richiesta.

>> LEGGE ZERO, la newsletter gratuita di Maggioli Editore su intelligenza artificiale, diritto e l’interazione tra questi due ambiti. ISCRIVITI QUI.

Le misure in materia di IA generativa

Il Regolamento (art. 53) prevede specifici obblighi per i fornitori di modelli di IA per finalità generali, compresi i modelli di IA generativa di grandi dimensioni (es. ChatGPT). In particolare, tali fornitori dovranno:
– redigere e mantenere aggiornata la documentazione tecnica del modello, compresi il processo di addestramento e prova e i risultati della sua valutazione;
– attuare una politica volta ad adempiere alla normativa dell’Unione in materia di diritto d’autore;
– redigere e mettere a disposizione del pubblico una sintesi dei contenuti utilizzati per l’addestramento del modello di IA (in modo da consentire opt-out da parte degli interessati).

I fornitori di modelli rilasciati con licenza libera o open source sono esentati da questi obblighi a meno che non presentino un rischio sistemico.

Le sanzioni previste per le violazioni dell’AI Act

Per le violazioni relative ad applicazioni di IA vietate, la sanzione può arrivare fino a 35 milioni di euro o essere pari al 7 % del fatturato mondiale totale annuo se superiore. Per violazione degli altri obblighi invece le sanzioni possono arrivare fino a 15 milioni di euro o il 3% del fatturato mondiale annuo. Invece, per chi fornisce informazioni inesatte la sanzione può arrivare a 7,5 milioni di euro o l’1,5% del fatturato mondiale annuo.

L’entrata in vigore dell’AI Act?

Il Regolamento entrerà in vigore il 20° giorno successivo alla sua pubblicazione nella Gazzetta ufficiale dell’Unione europea, divenendo pienamente applicabile a decorrere da 24 mesi dalla data di entrata in vigore (art. 113, par.1). Numerose sono tuttavia le ipotesi di applicazione anticipata di alcune delle disposizioni del Regolamento. Ad esempio, le disposizioni generali e quelle relative ai divieti troveranno esecuzione a partire da sei mesi dall’entrata in vigore mentre quelle sui sistemi di IA per finalità generali saranno applicabili a partire dal dodicesimo mese dall’entrata in vigore. Per facilitare una tempestiva applicazione del Regolamento, la Commissione UE ha lanciato l’iniziativa denominata AI Pact, un sistema per promuovere l’attuazione anticipata dell’AI Act, ovviamente su base volontaria.

>> IL TESTO DELL’AI ACT.

© RIPRODUZIONE RISERVATA

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *