Garantire il rispetto dei diritti dei cittadini e allo stesso tempo stimolare gli investimenti, trasformando l’Europa nell’hub globale per l’intelligenza artificiale (AI) affidabile: questo è l’obiettivo della proposta di regolamento sull’intelligenza artificiale (AI) presentata oggi dalla Commissione Europea. Si tratta di una proposta perché il regolamento viene poi adottato da Consiglio e Parlamento europeo.

Un obiettivo ambizioso per un progetto complesso: creare il primo quadro giuridico al mondo relativo alle tecnologie dell’intelligenza artificiale. Un quadro che, come si legge nel documento “sia al tempo stesso robusto e flessibile” – per proteggere i diritti dei cittadini senza ostacolare gli investimenti delle imprese in queste tecnologie – e al tempo stesso “a prova di futuro“, perché elenca i criteri di base a cui tutte le tecnologie future dovranno attenersi.

“L’intelligenza artificiale deve servire le persone e pertanto deve sempre rispettare i diritti umani. Vogliamo incoraggiare le nostre aziende, i nostri ricercatori, innovatori e imprenditori a sviluppare l’intelligenza artificiale e vogliamo incoraggiare i nostri cittadini a sentirsi sicuri nel suo utilizzo”, commenta la Presidente della Commissione, Ursula von der Leyen.

Un approccio basato sui concetti di rischio e fiducia

Il regolamento crea un sistema basato sull’individuazione del rischio che un determinato sistema di intelligenza artificiale pone alla salute, alla sicurezza o a altri diritti fondamentali di cui godono i cittadini dell’Unione. In base a questa classificazione, tutti i sistemi AI considerati una chiara minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone saranno vietati, in quanto rappresentano un “rischio inaccettabile”.

Questo include sistemi o applicazioni di AI che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che usano l’assistenza vocale incoraggiando comportamenti pericolosi dei minori) e sistemi che permettono il “punteggio sociale” da parte dei governi (come avviene in Cina con il Social Credit Score).

Il livello di “rischio alto”  include tecnologie utilizzate in:

Questi sistemi dovranno aderire ad obblighi e standard rigorosi prima di venire immessi sul mercato, che includono: adeguati sistemi di valutazione e mitigazione del rischio; alta qualità delle serie di dati che alimentano il sistema per minimizzare i rischi e i risultati discriminatori; registrazione delle attività per garantire la tracciabilità dei risultati; documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo per consentire alle autorità di valutarne la conformità; informazioni chiare e adeguate all’utente; misure appropriate di supervisione umana per minimizzare il rischio e alto livello di robustezza, sicurezza e accuratezza.

In questa categoria rientrano, ad esempio, tutti i sistemi di identificazione biometrica a distanza, il cui utilizzo dal vivo in spazi pubblicamente accessibili per scopi di applicazione della legge è vietato, in linea di principio. Sono presenti alcune eccezioni, come nell’utilizzo per il ritrovamento di un minore scomparso, nella prevenzione di una minaccia terroristica seria e imminente o per individuare, localizzare, identificare o perseguire un autore o un sospetto di un grave reato.

In tali casi, l’utilizzo è soggetto all’autorizzazione di un organo giudiziario o di un altro organo indipendente e a limiti appropriati in termini di tempo, portata geografica e banche dati ricercate.

Rappresentano, invece, un “rischio limitato” tutti quei sistemi di AI che richiedono specifici obblighi di trasparenza. Appartengono a questa categoria i chatbot, la cui presenza deve essere sempre segnalata, sostiene il regolamento, “in modo che gli utenti possano prendere una decisione informata di continuare o fare un passo indietro”.

Vi sono, infine, i sistemi di AI che presentano un “rischio minimo”, come filtri anti-spam o videogiochi abilitati dall’intelligenza artificiale, a cui il regolamento non verrà applicato.

La parola chiave è fiducia: il regolamento punta, infatti, ad avvicinare ai cittadini all’AI, per poter usufruire dei vantaggi che questa tecnologia può offrire, garantendo allo stesso tempo il rispetto dei diritti civili e il rispetto dei valori fondamentali dell’Unione.

“Sull’intelligenza artificiale, la fiducia è un must, non un nice to have. Stabilendo gli standard, possiamo aprire la strada alla tecnologia etica in tutto il mondo e garantire che l’UE rimanga competitiva. A prova di futuro e di innovazione, le nostre norme interverranno dove strettamente necessario: quando la sicurezza e i diritti fondamentali dei cittadini dell’UE sono in gioco”, commenta Margrethe Vestager, vicepresidente esecutivo per la strategia “Un’Europa pronta all’era digitale”.

Anche per questo è stato scelto il mezzo del regolamento, che deve essere applicato (in tutti i suoi punti) in tutti gli Stati dell’Unione e che ha prevalenza giuridica sulle leggi statali, come stabilito dai trattati (art. 288, par. 2 del Trattato sul funzionamento dell’UE, o TFEU).

Quadro europeo sull’AI, chi vigilerà sul rispetto delle regole e le multe per i trasgressori

In termini di governance, la Commissione propone che le autorità nazionali di sorveglianza del mercato competenti supervisionino le nuove regole, mentre per facilitare la loro attuazione sarà creato un comitato europeo ad hoc, incaricato anche di guidare lo sviluppo di standard per l’AI.

La Commissione avrà invece il compito di registrare le applicazioni autonome di AI ad alto rischio in una banca dati europea pubblica. La registrazione e la banca dati permetteranno alle autorità competenti, agli utenti e ad altre persone interessate di verificare se il sistema di intelligenza artificiale ad alto rischio rispetta i requisiti stabiliti nel regolamento in merito alla tutela dei diritti dei cittadini. Per alimentare questo database, i fornitori saranno obbligati a dare informazioni significative sui loro sistemi e sulla valutazione di conformità effettuata su tali sistemi.

I fornitori potranno, inoltre, adottare e implementare codici di condotta volontari per i sistemi di intelligenza artificiale non ad alto rischio. A questa proposta, la Commissione affianca quella di creare sandbox normativi per facilitare l‘innovazione responsabile.

Gli Stati membri saranno incaricati di stilare le regole relative alle multe amministrative, che dovranno essere “efficaci, proporzionali e persuasive”, tenendo conto in particolare degli interessi dei piccoli fornitori e delle start-up, nonché della loro vitalità economica.

Nel caso di mancato rispetto della normativa riguardante i sistemi di intelligenza artificiale a “rischio inaccettabile” e ad “alto rischio”, la multa potrà raggiungere un valore massimo di 30 milioni di euro o, nel caso che il soggetto violatore sia un’azienda, la multa potrà raggiungere il 6% del fatturato mondiale per l’anno finanziario precedente a quello in cui si è verificata l’infrazione. In questo caso la scelta deve essere indirizzata a infliggere la penalità più alta, indica il regolamento.

Criteri simili vengono applicati nel caso del mancato rispetto degli obblighi e degli standard precedenti all’immissione sul mercato di queste tecnologie (art. 5 e 10 del regolamento), per cui si applicherà una multa che può arrivare fino a 20 milioni di euro o (nel caso di una compagnia) fino al 2% del suo fatturato totale dell’anno finanziario precedente.

La fornitura di informazioni scorrette, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti in risposta a una richiesta, è invece soggetta a una multa fino a 10 milioni di euro o al 2% del fatturato totale annuale (nel caso di un’azienda).

Nel decidere la sanzione amministrativa da applicare, gli Stati terranno conto della natura dell’infrazione, dell’eventuale recidività del soggetto colpevole (o dell’azienda) e della natura del soggetto stesso (privati, grandi aziende o PMI).

Il regolamento utilizzerà i finanziamenti assegnati attraverso i programmi Digital Europe e Horizon Europe, così come il Recovery and Resilience Facility, che prevede un obiettivo di spesa digitale del 20%, e i programmi della Politica di Coesione.

Il regolamento dovrà essere ratificato dal Parlamento europeo e dai parlamenti dei singoli stati. Dopo la ratifica, verrà applicato uniformemente in tutto il territorio dell’Unione.

Dalla Direttiva Macchine al nuovo Regolamento Macchine

Con il regolamento la Commissione ha presentato altri due documenti complementari: il Piano Coordinato con gli Stati Membri, che guiderà i prossimi passi nell’implementazione del regolamento all’interno del sistema giuridico di ciascun stato, e il Nuovo Regolamento Macchine, che sostituirà la vecchia Direttiva macchine (ricordiamo che il regolamento equivale a una legge ed è immediatamente applicabile in tutta l’UE, mentre la direttiva deve essere recepita dai singoli stati) e ha l’obiettivo di “adattare le norme di sicurezza per aumentare la fiducia degli utenti nella nuova e versatile generazione di prodotti”.

Il Nuovo Regolamento Macchine assicurerà che la nuova generazione di macchine garantisca la sicurezza degli utenti e dei consumatori e incoraggi l’innovazione. Mentre il regolamento AI affronterà i rischi di sicurezza dei sistemi di intelligenza artificiale, il nuovo regolamento macchine assicurerà l’integrazione sicura del sistema AI nel macchinario complessivo. Le aziende dovranno eseguire solo una singola valutazione di conformità.

Inoltre, il nuovo regolamento macchine punta a rispondere alle esigenze del mercato, portando una maggiore chiarezza giuridica alle disposizioni attuali, semplificando l’onere amministrativo e i costi per le aziende consentendo i formati digitali per la documentazione e adattando le tasse di valutazione della conformità per le PMI, garantendo al contempo la coerenza con il quadro legislativo dell’UE per i prodotti.

Clicca per il download gratuito del documento