Skip to content Skip to footer

Accordo politico sulla legge sull’intelligenza artificiale accolto con favore dalla Commissione Ue

Ursula von der Leyen , presidente della Commissione europea, ha dichiarato: “L’intelligenza artificiale sta già cambiando la nostra vita quotidiana. E questo è solo l’inizio. Usata saggiamente e ampiamente, l’intelligenza artificiale promette enormi vantaggi per la nostra economia e società. Accolgo pertanto con grande favore l’accordo politico odierno del Parlamento europeo e del Consiglio sulla legge sull’intelligenza artificiale. L’Ai Act dell’Ue è il primo quadro giuridico completo sull’intelligenza artificiale a livello mondiale. Quindi, questo è un momento storico. L’Ai Act traspone i valori europei in una nuova era. Focalizzando la regolamentazione sui rischi identificabili, l’accordo odierno favorirà l’innovazione responsabile in Europa. Garantendo la sicurezza e i diritti fondamentali delle persone e delle imprese, sosterrà lo sviluppo, la diffusione e l’adozione di un’Ia affidabile nell’Ue. La nostra legge sull’intelligenza artificiale darà un contributo sostanziale allo sviluppo di regole e principi globali per un’intelligenza artificiale incentrata sull’uomo”. 

L’approccio europeo all’Ia affidabile. Le nuove norme saranno applicate direttamente allo stesso modo in tutti gli Stati membri, sulla base di una definizione di Ia a prova di futuro. Seguono un approccio basato sul rischio: Rischio minimo: la stragrande maggioranza dei sistemi di intelligenza artificiale rientra nella categoria del rischio minimo. Le applicazioni a rischio minimo come i sistemi di raccomandazione abilitati all’intelligenza artificiale o i filtri antispam beneficeranno di un pass gratuito e dell’assenza di obblighi, poiché questi sistemi presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini. Su base volontaria, le aziende possono tuttavia impegnarsi ad adottare ulteriori codici di condotta per questi sistemi di Ia. Ad alto rischio: i sistemi di Ia identificati come ad alto rischio dovranno rispettare requisiti rigorosi, tra cui sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare sugli utenti, supervisione umana e un alto livello di robustezza, accuratezza e sicurezza informatica. I sandbox normativi faciliteranno l’innovazione responsabile e lo sviluppo di sistemi di intelligenza artificiale conformi.

Esempi di tali sistemi di Ia ad alto rischio includono alcune infrastrutture critiche, ad esempio nei settori dell’acqua, del gas e dell’elettricità; dispositivi medici; sistemi per determinare l’accesso alle istituzioni educative o per il reclutamento delle persone; o determinati sistemi utilizzati nei settori dell’applicazione della legge, del controllo delle frontiere, dell’amministrazione della giustizia e dei processi democratici. Inoltre, anche i sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni sono considerati ad alto rischio.  Rischio inaccettabile: i sistemi di intelligenza artificiale considerati una chiara minaccia ai diritti fondamentali delle persone saranno vietati. Ciò include sistemi o applicazioni di intelligenza artificiale che manipolano il comportamento umano per eludere il libero arbitrio degli utenti, come giocattoli che utilizzano l’assistenza vocale che incoraggiano comportamenti pericolosi di minori o sistemi che consentono il “punteggio sociale” da parte di governi o aziende e alcune applicazioni di polizia predittiva. Inoltre, saranno vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone o l’identificazione biometrica remota in tempo reale per scopi di contrasto in spazi accessibili al pubblico (con limitate eccezioni). Rischio specifico per la trasparenza : quando si utilizzano sistemi di intelligenza artificiale come i chatbot, gli utenti dovrebbero essere consapevoli che stanno interagendo con una macchina. I deep fake e altri contenuti generati dall’intelligenza artificiale dovranno essere etichettati come tali e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo tale che il contenuto sintetico di audio, video, testo e immagini sia contrassegnato in un formato leggibile dalla macchina e rilevabile come generato o manipolato artificialmente.

Multe. Le aziende che non rispetteranno le regole verranno multate. Le sanzioni varierebbero da 35 milioni di euro o il 7% del fatturato annuo globale (a seconda di quale sia il più alto) per violazioni di applicazioni di Ia vietate, 15 milioni di euro o 3% per violazioni di altri obblighi e 7,5 milioni di euro o 1,5% per aver fornito informazioni errate. Sono previsti massimali più proporzionati per le sanzioni amministrative per le PMI e le start-up in caso di violazione della legge sull’Ai.

Ia per scopi generali. L’Ai Act introduce norme dedicate per modelli di Ia di carattere generale che garantiranno la trasparenza lungo la catena del valore. Per i modelli molto potenti che potrebbero comportare rischi sistemici, ci saranno ulteriori obblighi vincolanti relativi alla gestione dei rischi e al monitoraggio degli incidenti gravi, all’esecuzione della valutazione del modello e ai test contraddittori. Questi nuovi obblighi saranno resi operativi attraverso codici di buone pratiche sviluppati dall’industria, dalla comunità scientifica, dalla società civile e da altre parti interessate insieme alla Commissione.

In termini di governance, le autorità nazionali competenti in materia di vigilanza del mercato supervisioneranno l’attuazione delle nuove norme a livello nazionale, mentre la creazione di un nuovo Ufficio europeo per l’Ia all’interno della Commissione europea garantirà il coordinamento a livello europeo. Il nuovo Ufficio Ai supervisionerà inoltre l’attuazione e l’applicazione delle nuove norme sui modelli di Ia per scopi generali. Insieme alle autorità nazionali di vigilanza del mercato, l’Ufficio Ai sarà il primo organismo a livello globale ad applicare norme vincolanti sull’Ia e dovrebbe quindi diventare un punto di riferimento internazionale. Per i modelli di uso generale, un gruppo scientifico di esperti indipendenti svolgerà un ruolo centrale emettendo allerte sui rischi sistemici e contribuendo a classificare e testare i modelli.

Show CommentsClose Comments

Leave a comment

Potrebbe interessarti anche...