Disegno di legge S. 1146 – 19ª Legislatura (senato.it)
Articolo 1
(Finalità e ambito di applicazione)
Il comma 1 afferma che la presente legge reca princìpi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli di intelligenza artificiale. Promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne le opportunità. Garantisce la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali dell’intelligenza artificiale.
Il comma 2 chiarisce che le disposizioni della presente legge si interpretano e si applicano conformemente al diritto dell’Unione europea.
Articolo 2
(Definizioni)
L’articolo 2 reca le definizioni dei vocaboli utilizzati all’interno del provvedimento, quali:
- “sistemi di intelligenza artificiale”;
- “dato”;
- “modelli di intelligenza artificiale”.
L’articolo 2 riporta le seguenti definizioni, riprese in parte dal diritto dell’Unione europea, che sono utilizzate nel provvedimento in esame.
In particolare, la lettera a) reca la definizione di sistema di intelligenza artificiale. Con tale termine si intendeun sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.
Come ricordato anche dalla Relazione illustrativa, tale definizione è identica a quella contenuta nell’art. 3, par. 1, n. 1) dell’AI Act (approvato dal Consiglio UE in via definitiva il 21 maggio 2024).
La lettera b)introduce la definizione di dato, considerato come qualsiasi rappresentazione digitale di atti, fatti o informazioni e qualsiasi raccolta di tali atti, fatti o informazioni, anche sotto forma di registrazione sonora, visiva o audiovisiva.
Tale definizione è presa dal regolamento (UE) 2022/868, cosiddetto Data governance Act.
Infine, la lettera c) riporta la definizione di modelli di intelligenza artificiale. Si tratta – secondo il dettato dell’articolo in commento – di modelli che identificano strutture ricorrenti attraverso l’uso di collezioni di dati, che hanno la capacità di svolgere un’ampia gamma di compiti distinti e che possono essere integrati in una varietà di sistemi o applicazioni.
Si segnala che questa definizione differisce da quella riportata dal citato art. 3, par. 1, al n. 63 dell’AI Act, la quale concerne, specificamente, un “modello di IA per finalità generali”; quest’ultimo è definito come un “modello di IA, anche laddove tale modello di IA sia addestrato con grandi quantità di dati utilizzando l’auto-supervisione su larga scala, che sia caratterizzato da una generalità significativa e sia in grado di svolgere con competenza un’ampia gamma di compiti distinti, indipendentemente dalle modalità con cui il modello è immesso sul mercato, e che può essere integrato in una varietà di sistemi o applicazioni a valle, ad eccezione dei modelli di IA che sono utilizzati per attività di ricerca, sviluppo o prototipazione prima di essere immessi sul mercato”.
Si valuti l’opportunità di coordinare la definizione in sede nazionale con quella suddetta del regolamento europeo, poiché la difformità tra le definizioni potrebbe generare problemi di armonizzazione fra la normativa europea e nazionale.
Articolo 3
(Princìpi generali)
L’articolo 3 definisce i principi generali della disciplina posta dal disegno di legge.
Vi è ricompreso il preservamento dei diritti fondamentali, delle libertà, dello svolgimento con metodo democratico della vita istituzionale e politica.
La disciplina prevista dal disegno di legge ha quale ambito di applicazione – si è ricordato trattando dell’articolo 1 – la ricerca, sperimentazione, sviluppo, adozione, applicazione ed utilizzo di sistemi e di modelli di intelligenza artificiale.
L’articolo 3 prescrive loro alcuni obblighi. Sono:
- il rispetto dei diritti fondamentali e delle libertà previsti dall’ordinamento italiano ed europeo;
- il rispetto dei principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità (comma 1);
- la correttezza, attendibilità, sicurezza, qualità, appropriatezza e trasparenza, secondo il principio di proporzionalità, dei dati e processi su cui si sviluppa l’intelligenza artificiale (comma 2);
- il rispetto dell’autonomia e del potere decisionale umani;
- la prevenzione del danno;
- la conoscibilità e spiegabilità (comma 3).
- il rispetto dell’autonomia e del potere decisionale umani;
- la prevenzione del danno;
- la conoscibilità e spiegabilità (comma 3).
L’utilizzo di sistemi di intelligenza artificiale non deve recare pregiudizio allo svolgimento con metodo democratico della vita istituzionale e politica (comma 4).
Il comma 5 prescrive la cybersicurezza (protezione dagli attacchi informatici) lungo l’intero ciclo di vita dei sistemi e modelli di intelligenza artificiale, sulla base del rischio e con specifici controlli di sicurezza, con riguardo tra l’altro ai tentativi di alterarne l’utilizzo, il comportamento previsto, le prestazioni o le impostazioni di sicurezza.
Infine, il comma 6 dispone che l’accesso delle persone con disabilità avvenga su base di uguaglianza e senza alcuna forma di discriminazione e di pregiudizio (in conformità alle disposizioni della Convenzione delle Nazioni Unite sui diritti delle persone con disabilità, fatta a New York il 13 dicembre 2006, ratificata e resa esecutiva in Italia con la legge n. 18 del 2009).
Articolo 5
(Princìpi in materia di sviluppo economico)
L’articolo 5 prevede che lo Stato e le altre autorità pubbliche promuovano l’utilizzo dell’intelligenza artificiale (IA) per migliorare la produttività e la competitività del sistema economico nazionale, favoriscano un mercato dell’IA innovativo, equo, aperto e concorrenziale, facilitino la disponibilità di dati di alta qualità per le imprese che sviluppano o utilizzano sistemi di IA, indirizzino le piattaforme di e-procurement delle pubbliche amministrazioni a scegliere fornitori di sistemi e modelli di IA che garantiscono una localizzazione e elaborazione dei dati critici presso data center sul territorio nazionale ed elevati standard di trasparenza.
L’articolo 5 stabilisce una serie di linee strategiche che lo Stato e le altre autorità pubbliche sono tenute a porre in essere. In particolare, viene disposto che essi:
a) promuovano l’utilizzo dell’intelligenza artificiale come strumento per migliorare l’interazione uomo-macchina nei settori produttivi, la produttività in tutte le catene del valore e le funzioni organizzative, nonché quale strumento utile all’avvio di nuove attività economiche, al fine di accrescere la competitività del sistema economico nazionale e la sovranità tecnologica della Nazione nel quadro della strategia europea;
b) favoriscano la creazione di un mercato dell’intelligenza artificiale innovativo, equo, aperto e concorrenziale e di ecosistemi innovativi;
c) facilitino la disponibilità e l’accesso a dati di alta qualità per le imprese che sviluppano o utilizzano sistemi di intelligenza artificiale e per la comunità scientifica e dell’innovazione;
d) indirizzino le piattaforme di e-procurement delle amministrazioni pubbliche di cui all’articolo 1, comma 2, del decreto legislativo n. 165 del 2001, in modo che, nella scelta dei fornitori di sistemi e di modelli di intelligenza artificiale, siano privilegiate quelle soluzioni che garantiscono la localizzazione e l’elaborazione dei dati critici presso data center posti sul territorio nazionale, nonché modelli in grado di assicurare elevati standard in termini di trasparenza nelle modalità di addestramento e di sviluppo di applicazioni basate sull’intelligenza artificiale generativa, nel rispetto della normativa sulla concorrenza e dei princìpi di non discriminazione e proporzionalità.
Ai sensi dell’articolo 1, comma 2, del decreto legislativo n. 165 del 2001, per amministrazioni pubbliche si intendono tutte le amministrazioni dello Stato, ivi compresi gli istituti e scuole di ogni ordine e grado e le istituzioni educative, le aziende ed amministrazioni dello Stato ad ordinamento autonomo, le Regioni, le Province, i Comuni, le Comunità montane, e loro consorzi e associazioni, le istituzioni universitarie, gli Istituti autonomi case popolari, le Camere di commercio, industria, artigianato e agricoltura e loro associazioni, tutti gli enti pubblici non economici nazionali, regionali e locali, le amministrazioni, le aziende e gli enti del Servizio sanitario nazionale, l’Agenzia per la rappresentanza negoziale delle pubbliche amministrazioni (ARAN), le Agenzie di cui al decreto legislativo n. 300 del 1999 e il CONI.
Articolo 10
(Disposizioni sull’uso dell’intelligenza artificiale in materia di lavoro)
L’articolo 10 disciplina l’utilizzo dell’intelligenza artificiale all’interno del mondo del lavoro. In particolare, la norma esamina gli obiettivi che si intendono perseguire mediante l’impiego della nuova tecnologia – quali il miglioramento delle condizioni di lavoro, la salvaguardia dell’integrità psico-fisica dei lavoratori, l’incremento delle prestazioni lavorative e della produttività delle persone – prevedendo, allo stesso tempo, il rispetto della dignità umana, la riservatezza dei dati personali e la tutela dei diritti inviolabili dei prestatori, in conformità a quanto prescritto dal diritto europeo.
Il comma 1 individua le finalità che deve perseguire l’utilizzo dell’intelligenza artificiale all’interno del mondo del lavoro.
In particolare, gli obiettivi richiamati riguardano:
- il miglioramento delle condizioni di lavoro;
- la salvaguardia dell’integrità psico-fisica dei lavoratori;
- l’incremento delle prestazioni lavorative e della produttività delle persone.
Si può osservare come le predette finalità valorizzino un approccio cd. antropocentrico, come sottolineato anche dalla Relazione Illustrativa, in conformità con quanto prescritto dalla normativa sovranazionale, in particolare dal Considerando n. 8 del Regolamento del Parlamento europeo e del Consiglio UE del 2024 cd. “AI Act”.
A tal riguardo, si ricorda che il predetto Regolamento europeo ha dettato una normativa dettagliata in materia di IA, disciplinando anche gli aspetti concernenti l’impatto della nuova tecnologia sul mercato del lavoro (per approfondimento cfr. scheda su articolo 22, comma 2).
Nello specifico l’allegato III del Regolamento (a cui fa espresso rinvio l’articolo 6, paragrafo 7 del medesimo atto), analizza, tra gli altri, i sistemi di IA ad alto rischio nell’ambito dell’“occupazione, gestione dei lavoratori e accesso al lavoro autonomo”.
In questa categoria sono, pertanto, ricompresi:
- “i sistemi di IA destinati ad essere utilizzati per l’assunzione o la selezione di persone fisiche, in particolare per pubblicare annunci di lavoro mirati, analizzare o filtrare le candidature e valutare i candidati”;
- “i sistemi di IA destinati a essere utilizzati per adottare decisioni riguardanti le condizioni dei rapporti di lavoro, la promozione o cessazione dei rapporti contrattuali di lavoro, per assegnare compiti sulla base del comportamento individuale o dei tratti e delle caratteristiche personali o per monitorare e valutare le prestazioni e il comportamento delle persone nell’ambito di tali rapporti di lavoro”.
Il comma 2 specifica che il ricorso a sistemi di IA non può ledere i diritti inviolabili della dignità umana e della riservatezza dei dati personali.
A tal riguardo l’impiego della nuova tecnologia deve possedere i caratteri della sicurezza, dell’affidabilità e della trasparenza.
Inoltre, con specifico riferimento a quest’ultimo elemento, la norma prevede che il datore sia tenuto a fornire al lavoratore un’informativa trasparente sugli ambiti di impiego di sistemi di IA.
La disposizione rinvia all’articolo 1-bis del D.Lgs. 26 maggio 1997, n. 152 per l’individuazione dei casi e delle modalità con cui il datore deve adempiere ai predetti obblighi di informazione.
Si ricorda che l’articolo 1-bis, appena richiamato, prevede che il datore sia tenuto ad informare il prestatore dell’utilizzo di sistemi decisionali o di monitoraggio, integralmente automatizzati, che siano in grado di fornire indicazioni in materia di: assunzione, conferimento dell’incarico, gestione e cessazione del rapporto di lavoro, assegnazione di compiti o mansioni, sorveglianza, valutazione, adempimento degli obblighi contrattuali da parte dei prestatori (comma1).
L’articolo prescrive, inoltre, che il datore (o il committente) debba fornire le suddette informazioni “in modo trasparente, in formato strutturato, di uso comune e leggibile da dispositivo automatico”. Le informazioni devono essere comunicate anche alle RSA o RSU competenti, ovvero, in mancanza, alle sedi territoriali delle associazioni sindacali comparativamente più rappresentative sul piano nazionale (comma 6).
Il comma 3 prende in esame l’ipotesi specifica di utilizzo dell’intelligenza artificiale negli ambiti dell’organizzazione e della gestione del rapporto di lavoro.
A tal riguardo, la disposizione prescrive che, durante i suddetti impieghi dell’IA, occorre garantire i diritti inviolabili degli individui, evitando forme di discriminazione fondate sul sesso, sull’età, delle origini etniche, del credo religioso, dell’orientamento sessuale, delle opinioni politiche e sulle condizioni personali, sociali ed economiche, anche alla luce di quanto prescritto dal diritto europeo(17) .
Attraverso tale disposizione, inoltre, vengono applicati anche al mondo del lavoro principi già espressi in via generale dall’articolo 3, comma 1, di questo stesso disegno di legge (per approfondimento cfr. scheda di lettura articolo 3).