17 SETTEMBRE
AI ACT: L’ADOZIONE DI SISTEMI DI INTELLIGENZA ARTIFICIALE NELL'UNIONE EUROPEA, TRA RISCHI ED OPPORTUNITÀ
MANAGEMENT CONSULTING
7 MIN READ
AI ACT: L’ADOZIONE DI SISTEMI DI INTELLIGENZA ARTIFICIALE NELL'UNIONE EUROPEA, TRA RISCHI ED OPPORTUNITÀ
Premessa
L’interesse per l’intelligenza artificiale (IA) è significativamente aumentato negli ultimi anni, accompagnato da evoluzioni tecnologiche sempre più veloci che rafforzano l’idea di una innovazione destinata a far parte delle nostre vite.
Secondo una ricerca del Politecnico di Milano solo in Italia gli investimenti in intelligenza artificiale nel 2023 sono stati pari a 760 milioni di Euro (destinati a superare il miliardo di Euro nel 2024) in un mercato che a livello mondiale è stimato in 200 miliardi di Euro nel 2024.
Il tema non è sfuggito all’attenzione delle Istituzioni e nella Gazzetta Ufficiale dell’Unione Europea del 12 luglio 2024 è stato pubblicato l’AI Act - ovvero il Regolamento (UE) 2024/1689 del 13 giugno 2024 - che stabilisce regole armonizzate sull’intelligenza artificiale.
Contesto
Il Regolamento si propone di agevolare la protezione delle persone fisiche, delle imprese, della democrazia e dello Stato di diritto e la protezione dell'ambiente, promuovendo nel contempo l'innovazione e l'occupazione, rendendo l'Unione Europea un leader nell'adozione di un'IA affidabile. Ciò perché i sistemi di IA possono essere facilmente impiegati in un'ampia gamma di settori dell'economia e in molte parti della società, anche a livello transfrontaliero, e possono facilmente circolare in tutta l'Unione.
L'IA consiste infatti in una famiglia di tecnologie in rapida evoluzione che contribuisce al conseguimento di un'ampia gamma di benefici a livello economico, ambientale e sociale nell'intero spettro delle attività industriali e sociali ma può, nel contempo, a seconda delle circostanze relative alla sua applicazione ed al suo utilizzo, comportare rischi e pregiudicare gli interessi pubblici e i diritti fondamentali tutelati dal diritto dell'Unione.
E’ chiara la volontà di sostenere nuove soluzioni innovative e consentire la formazione di un ecosistema europeo di attori pubblici e privati che creino sistemi di IA in linea con i valori dell'Unione e sblocchino il potenziale della trasformazione digitale in tutte le regioni dell'Unione. Tale trasformazione può avvenire stabilendo regole nonché misure a sostegno dell'innovazione, con particolare attenzione alle piccole e medie imprese (PMI), comprese le start-up.
Elemento chiave è la nozione di «deployer» inteso come qualsiasi persona fisica o giuridica, compresi un'autorità pubblica, un'agenzia o altro organismo, che utilizza un sistema di IA sotto la propria autorità, salvo nel caso in cui il sistema di IA sia utilizzato nel corso di un'attività personale non professionale. È altresì opportuno ricordare che il Regolamento si applica alle istituzioni, agli organi e agli organismi dell'Unione quando agiscono in qualità di fornitori o “deployer” di un sistema di IA.
Al fine di introdurre un insieme proporzionato ed efficace di regole vincolanti per i sistemi di IA è infine opportuno avvalersi di un approccio basato sul rischio definito in modo chiaro.
Obiettivi
Lo scopo del Regolamento è migliorare il funzionamento del mercato interno e promuovere la diffusione di un'intelligenza artificiale (IA) antropocentrica e affidabile, nel rispetto della privacy e dell’ambiente: in particolare, il Regolamento stabilisce:
Ambito di applicazione
Il Regolamento si applica:
Definizioni
Oltre alla definizione di “deployer” soprariportata, l’AI Act riporta le seguenti ulteriori principali definizioni; in particolare:
Pratiche di IA vietate
Sono vietate le pratiche di IA seguenti:
Sistemi di IA ad alto rischio
Un sistema di IA è considerato ad alto rischio se si verificano entrambe le condizioni:
a) il sistema di IA è destinato a essere utilizzato come componente di sicurezza di un prodotto, o il sistema di IA è esso stesso un prodotto;
b) il prodotto, il cui componente di sicurezza a norma della lettera a) è il sistema di IA, o il sistema di IA stesso in quanto prodotto, è soggetto a una valutazione della conformità da parte di terzi ai fini dell’immissione sul mercato o della messa in servizio di tale prodotto.
D’altro canto, un sistema di IA non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale.
In ogni caso prima che un sistema di intelligenza artificiale ad alto rischio venga utilizzato da alcuni enti che forniscono servizi pubblici, dovrà in ogni caso essere valutato l’impatto sui diritti fondamentali.
Sistema di gestione dei rischi
In relazione ai sistemi di IA ad alto rischio deve essere istituito, attuato, documentato e mantenuto un sistema di gestione dei rischi. Tale sistema è inteso come un processo iterativo continuo pianificato ed eseguito nel corso dell'intero ciclo di vita di un sistema di IA ad alto rischio, che richiede un riesame e un aggiornamento costanti e sistematici. Esso comprende le fasi seguenti:
Obblighi dei Deployer
I deployer di sistemi di IA ad alto rischio:
Governance
Al fine di assicurare un’applicazione adeguata, sono stati istituiti diversi organi di governo:
Infine, ciascuno Stato membro istituisce o designa, come autorità nazionali competenti ai fini del Regolamento, almeno un'autorità di notifica e almeno un'autorità di vigilanza del mercato.
Sanzioni
Gli Stati membri stabiliscono le norme relative alle sanzioni e alle altre misure di esecuzione, che possono includere anche avvertimenti e misure non pecuniarie, applicabili in caso di violazione del Regolamento da parte degli operatori; le sanzioni previste sono effettive e proporzionate. Tali sanzioni tengono conto degli interessi delle PMI, comprese le start-up, e della loro sostenibilità economica.
A titolo esemplificativo, la non conformità al divieto delle pratiche di IA è soggetta a sanzioni amministrative pecuniarie fino a 35 milioni di Euro o, se l'autore del reato è un'impresa, fino al 7% del fatturato mondiale totale annuo dell'esercizio precedente, se superiore.
Entrata in vigore e applicazione
Il Regolamento è entrato in vigore il ventesimo giorno successivo alla pubblicazione nella Gazzetta ufficiale dell'Unione europea e si applicherà a decorrere dal 2 agosto 2026.
Tuttavia:
Il Regolamento è obbligatorio in tutti i suoi elementi e direttamente applicabile in ciascuno degli Stati membri.
Conclusioni
L’attuale ritmo del progresso nel campo dell’intelligenza artificiale – generativa e non – rende per nulla semplice prevedere come influenzerà le Aziende e la società nel suo complesso ma sicuramente avrà un impatto su componenti chiave della crescita come capitale, lavoro e produttività.
In questo contesto, anche se l’Unione Europea è sicuramente indietro nello sviluppo dell’IA rispetto a Stati Uniti e Cina, con l’AI Act avvia un processo di adozione di una regolamentazione nel settore, destinato ad essere la base per altri atti normativi nazionali ed internazionali.
Il principio guida fondante sarà rappresentato dal fatto che i sistemi di intelligenza artificiale non potranno muovere e svilupparsi in un contesto non regolamentato, anche al fine di arrivare ad una competitività responsabile ed assicurare un elevato livello di protezione dei diritti umani.
A cura della Divisione Management Consulting di Consilia Business Management
BACK TO TOP
HEADQUARTER
Sede legale: Via Garofalo, 4
20133, Milano (MI)
Sede operativa: Corso Europa, 13
20122, Milano (MI)
info@consiliabm.com
SOCIAL MEDIA