Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828.
Il Regolamento segue un approccio “basato sul rischio”: tanto maggiore è il rischio di arrecare danni alla società, quanto più rigorose sono le regole. Si tratta del primo di questo tipo al mondo e può fissare uno standard globale per la regolamentazione dell’IA.
Il nuovo regolamento mira a promuovere lo sviluppo e l’adozione, da parte di attori sia pubblici che privati, di sistemi di IA sicuri e affidabili in tutto il mercato unico dell’UE. Al tempo stesso, punta a garantire il rispetto dei diritti fondamentali dei cittadini dell’UE e a stimolare gli investimenti e l’innovazione nell’intelligenza artificiale in Europa. Il regolamento sull’IA si applica unicamente ai settori che rientrano nel diritto dell’UE e prevede esenzioni, ad esempio per i sistemi utilizzati esclusivamente per scopi militari e di difesa, nonché a fini di ricerca.
l nuovo regolamento classifica i diversi tipi di intelligenza artificiale in funzione del rischio. I sistemi di IA che presentano solo un rischio limitato sarebbero soggetti a obblighi di trasparenza molto leggeri, mentre quelli ad alto rischio sarebbero autorizzati, ma soggetti a una serie di requisiti e obblighi per accedere al mercato dell’UE. Sistemi di IA, quali ad esempio la manipolazione comportamentale cognitiva e il punteggio sociale, saranno vietati dall’UE in quanto il loro rischio è ritenuto inaccettabile. Il regolamento vieta inoltre l’uso dell’IA per attività di polizia predittiva basate sulla profilazione e su sistemi che utilizzano dati biometrici per classificare le persone sulla base di specifiche categorie, quali la razza, la religione o l’orientamento sessuale di una persona.
Il regolamento sull’IA si occupa inoltre dell’utilizzo di modelli di IA per finalità generali.
I modelli di IA per finalità generali che non comportano rischi sistemici dovranno soddisfare alcuni requisiti limitati, ad esempio in materia di trasparenza, mentre quelli che pongono rischi sistemici dovranno rispettare regole più rigorose.