L’Unione Europea ha compiuto un passo avanti nella storia approvando il primo atto normativo globale sull’intelligenza artificiale, noto come AI Act. Dopo un negoziato durato oltre 36 ore, le istituzioni europee hanno raggiunto un accordo che delineerà i limiti e le regole per lo sviluppo e l’uso di questa tecnologia rivoluzionaria, ma anche molto discussa per le sue implicazioni etiche. E’ la prima volta al mondo che viene approvata una legge ad hoc per definire limiti e regole al settore.
Obiettivi chiave dell’AI Act
La normativa europea sull’AI punta infatti a garantire che lo sviluppo di questa tecnologia avanzata non comprometta i diritti fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale. L’obiettivo è bilanciare l’innovazione nel settore con la protezione dei cittadini e dell’ambiente.
Tra i punti salienti dell’accordo c’è la restrizione all’uso dei sistemi di riconoscimento facciale o identificazione biometrica (Rbi). L’AI Act consente tale tecnologia solo in casi limitati, come nelle ricerche di vittime di crimini gravi o per la prevenzione di minacce terroristiche specifiche.
AI Act: le reazioni
Il commissario europeo al Mercato Interno, Thierry Breton, ha annunciato l’intesa, definendo l’AI Act un passo “storico”: “L’AI Act è molto più di un regolamento: rappresenta un trampolino di lancio per le startup e per i ricercatori dell’Ue, che potranno guidare la corsa globale all’intelligenza artificiale. Il meglio deve ancora venire”.
La presidente della Commissione europea, Ursula von der Leyen, ha aggiunto: “Un quadro giuridico unico per lo sviluppo di un’intelligenza artificiale di cui ci si può fidare. Garantendo la sicurezza e i diritti fondamentali delle persone e delle imprese”.
Soddisfazione è stata espressa anche dalla presidente del Parlamento europeo, Roberta Metsola: “Una legislazione all’avanguardia, responsabile e completa, che fissa standard globali”.
Applicazioni vietate
Riconoscendo la potenziale minaccia ai diritti dei cittadini e alla democrazia rappresentata da determinate applicazioni dell’IA, ecco l’elenco completo delle applicazioni che i legislatori hanno poi deciso di vietare:
sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (es. convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza);
raccolta non mirata di immagini facciali da Internet o filmati CCTV per creare database di riconoscimento facciale;
riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative;
punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali;
sistemi di intelligenza artificiale che manipolano il comportamento umano per aggirare il loro libero arbitrio;
applicazioni che sfruttano le vulnerabilità delle persone (a causa della loro età, disabilità, situazione sociale o economica).
Esenzioni per le forze dell’ordine
I negoziatori hanno concordato però una serie di garanzie ed eccezioni limitate per l’uso dei sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico per scopi di contrasto dei crimini, soggette ad autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. Gli strumenti di identificazione biometrica “da remoto” potranno essere così utilizzati rigorosamente nella ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave.
Quelli “in tempo reale” dovranno rispettare precise limitazione di tempo, luogo e scopo: ricerche mirate delle vittime (sequestro, tratta, sfruttamento sessuale), prevenzione di una minaccia terroristica specifica e attuale, localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nella norma (es.: terrorismo, tratta, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).
Obblighi per i sistemi ad alto rischio
Per i sistemi di AI classificati come ad alto rischio (a causa del loro significativo potenziale danno alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto), sono stati concordati obblighi chiari. Gli eurodeputati sono riusciti con successo a includere, tra gli altri requisiti, una valutazione d’impatto obbligatoria sui diritti fondamentali, applicabile anche ai settori assicurativo e bancario. Anche i sistemi di intelligenza artificiale utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori sono classificati come ad alto rischio. I cittadini avranno il diritto di presentare reclami sui sistemi di intelligenza artificiale e ricevere spiegazioni sulle decisioni basate su AI ad alto rischio che incidono sui loro diritti.
Misure a sostegno dell’innovazione e delle PMI
I deputati volevano garantire che le imprese, in particolare le PMI, possano sviluppare soluzioni di intelligenza artificiale senza indebite pressioni da parte dei giganti del settore che controllano la catena del valore. A tal fine, l’accordo promuove i cosiddetti “sandbox normativi” (strumenti che consentono alle imprese di testare prodotti, servizi e modelli innovativi direttamente sul mercato in un contesto regolatorio adattato, quindi in un “ambiente protetto”) e i test nel mondo reale, istituiti dalle autorità nazionali per sviluppare e formare un’intelligenza artificiale innovativa prima del collocamento sul mercato.
Sanzioni ed entrata in vigore
Il mancato rispetto delle norme può portare a sanzioni che da 7,5 milioni (o 1,5% del fatturato) a 35 milioni di euro (o 7% del fatturato globale) a seconda della violazione e delle dimensioni dell’azienda.
Il testo concordato dovrà ora essere adottato formalmente sia dal Parlamento che dal Consiglio per diventare legge dell’Ue. Le commissioni Mercato interno e Libertà civili del Parlamento voteranno sull’accordo in una prossima riunione.