Regolamento europeo intelligenza artificiale (AI Act): raggiunto l’accordo sulle regole fondamentali

intelligenza artificiale 1
regolamento intelligenza artificiale

1. Cos’è l’intelligenza artificiale ?

L’intelligenza artificiale, nota anche come IA (Intelligenza Artificiale) o AI (Artificial Intelligence), è l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività.

L’intelligenza artificiale si riferisce a sistemi che mostrano un comportamento intelligente analizzando il loro ambiente e in grado di intraprendere azioni – con un certo grado di autonomia – per raggiungere obiettivi specifici. I sistemi di intelligenza artificiale possono essere basati su software e agire nel mondo virtuale (ad esempio: assistenti vocali, analisi di immagini software, motori di ricerca, sistemi di riconoscimento vocale e facciale) o possono essere incorporati in dispositivi hardware (ad esempio: robot avanzati, automobili autonome, droni o applicazioni Internet of Things). Questa è la definizione di intelligenza artificiale proposta dalla Commissione Europea e maggiormente utilizzata.

2. Accordo sulle regole che dovrebbero garantire un’intelligenza artificiale affidabile

L’8 dicembre 2023 è stato raggiunto un accordo provvisorio sul Regolamento europeo che regolerà l’utilizzo dell’intelligenza artificiale. La nuova normativa mira a proteggere i diritti fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale. Al tempo stesso la nuova regolamentazione ha come obiettivo l’innovazione e fare in modo che l’Europa sia leader in questo settore.

L’accordo stabilisce gli obblighi per l’Intelligenza Artificiale in base ai rischi potenziali e al suo livello di impatto.

Alcune applicazioni dell’Intelligenza Artificiale potrebbero rappresentare una minaccia per i diritti delle persone e, per tali ragioni, l’accordo prevede il divieto:

  • di eseguire scraping di immagini facciali al fine di creare banche dati;
  • di sistemi di categorizzazione biometrica che utilizzano informazioni sensibili (ad esempio: convinzioni politiche, convinzioni religiose, convinzioni filosofiche, orientamento sessuale e razza);
  • di eseguire il riconoscimento delle emozioni sul posto di lavoro e presso gli istituti di formazione;
  • di attribuire un punteggio sociale basato sul comportamento o sulle caratteristiche personali;
  • di sistemi di intelligenza artificiale che manipolano il comportamento umano per aggirare il libero arbitrio;
  • di usare l’intelligenza artificiale per sfruttare le vulnerabilità delle persone (ad esempio: a causa della loro età, disabilità, condizione sociale o situazione economica).

3. Identificazione biometrica

identificazione biometrica

L’accordo prevede l’utilizzo di sistemi di identificazione biometrica (Post-remote RBI) negli spazi accessibili al pubblico per l’applicazione della legge, soggetto alla previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. Sarà possibile l’utilizzo dell’identificazione biometrica per la ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave.

L’accordo prevede anche la possibilità dell’identificazione biometrica in tempo reale (Real-time RBI) a condizione che rispetti specifiche condizioni e che l’utilizzo sia limitato nello spazio e nel tempo.

Il Real-time RBI sarà consentito allo scopo di:

  • ricercare vittime di sequestri, tratta di esseri umani, sfruttamento sessuale;
  • prevenire minacce terroristiche specifiche e attuali o
  • localizzare o identificare una persona sospettata di aver commesso uno dei reati specifici individuati dall’accordo (ad esempio: terrorismo, tratta di esseri umani, violenza sessuale), omicidio, rapimento, stupro, rapina a mano armata, partecipazione ad una organizzazione criminale, criminalità ambientale).

4. Obblighi per i sistemi di intelligenza artificiale ad alto rischio

Per i sistemi di intelligenza artificiale classificati ad alto rischio, a causa del loro significativo danno potenziale alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo stato di diritto, sono stati concordati obblighi specifici.

In particolare, l’accordo raggiunto prevede una valutazione d’impatto obbligatoria sui diritti fondamentali, insieme ad altri requisiti, applicabili anche ai settori assicurativo e bancario.

Sono altresì considerati ad alto rischio i sistemi di intelligenza artificiale utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori.
I cittadini avranno il diritto di presentare reclami contro i sistemi di intelligenza artificiale e ricevere spiegazioni in merito alle decisioni basate su tali sistemi, perchè possono incidere sull’esercizio dei diritti fondamentali.

5. Sistemi di intelligenza artificiale per scopi generali

Tenuto conto dell’ampia gamma di compiti che i sistemi di intelligenza artificiale sono in grado di svolgere e della rapida espansione delle loro capacità, è stato concordato che i sistemi di intelligenza artificiale per scopi generali (GPAI) e i modelli GPAI su cui si basano, dovranno rispettare i requisiti di trasparenza inizialmente proposti dal Parlamento. Questi includono la stesura della documentazione tecnica, il rispetto del diritto d’autore dell’UE e la diffusione dei contenuti e strumenti utilizzati per la formazione.

Per i modelli GPAI ad alto impatto con rischio sistemico sono previsti obblighi più stringenti. Se questi modelli soddisfano determinati criteri, dovranno condurre valutazioni dei modelli, mitigare i rischi sistemici, eseguire test, riferire alla Commissione sugli incidenti gravi, garantire la sicurezza informatica e riferire sulla loro efficienza energetica. Fino a quando non saranno pubblicate norme UE armonizzate, i GPAI con rischio sistemico possono fare affidamento su codici di condotta per uniformarsi al regolamento.

6. Misure a sostegno dell’innovazione e delle PMI

L’accordo raggiunto mira a garantire che le imprese, in particolare le PMI, possano sviluppare soluzioni di intelligenza artificiale senza pressioni indebite da parte dei giganti del settore. A tal fine, vengono promossi i cosiddetti sandboxes” normativi” e test nel mondo reale, stabiliti a livello nazionale dalle competenti autorità, per sviluppare e formare un’intelligenza artificiale innovativa prima dell’immissione sul mercato.

7. Sanzioni

sanzioni intelligenza artificiale

Il mancato rispetto delle regole può portare a sanzioni da 35.000.000 di euro o il 7% del fatturato globale fino a 7.500.000 di euro o l’1,5 % del fatturato, a seconda della violazione e dell’entità della violazione.

8. L’ultimo step

intelligenza artificiale 1

Il testo del regolamento è stato approvato dal Parlamento UE e, il 21 maggio 2024, anche dal Consiglio UE.

Dopo essere stato firmato dai presidenti del Parlamento Europeo e del Consiglio, l’atto legislativo sarà pubblicato a breve sulla Gazzetta Ufficiale dell’Ue ed entrerà in vigore 20 giorni dopo tale pubblicazione. Il nuovo regolamento si applicherà 2 anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.

9. Un atto normativo tradizionale sarà sufficiente per “contenere” l’intelligenza artificiale e renderla “affidabile”?

L’EU Artificial Intelligence Act ha l’ambizioso obiettivo di creare una “intelligenza artificiale affidabile”, quindi rispettosa dei diritti fondamentali delle persone. Molti dei divieti che l’EU Artificial Act dovrebbe imporre rappresentano altresì – in caso di assenza del consenso – violazioni della normativa privacy, come lo scraping di immagini o l’utilizzo di informazioni (anche sensibili) per creare categorie di persone in base al comportamento. Il Regolamento UE 679/2016 sulla privacy ha fatto si che le multinazionali e i giganti del web si adeguassero alla normativa privacy, ma ciò è stato sufficiente per evitare violazioni della privacy? Assolutamente no. In una società globalizzata, all’interno della quale vengono create continuamente nuove tecnologie che consentono l’utilizzo dei dati personali delle persone (anche senza consenso), ha ancora senso discutere su una normativa tradizionale con tradizionali strumenti di tutela?

L’evoluzione tecnologica ha, di fatto, reso gli atti normativi tradizionali obsoleti? Questa è, senza dubbio, una delle domande fondamentali nel momento in cui si “cerca” di regolamentare l’intelligenza artificiale.

L’iter di creazione di una norma (anche a livello europeo) è troppo lento e nel momento in cui viene approvata, sarà – probabilmente – già “vecchia” nell’arco di poco tempo. Forse, una regolamentazione non rigida, basata su Principi Fondamentali, consentirebbe una maggiore elasticità e rapidità di intervento da parte delle Autorità a tutela dei diritti fondamentali.

Ad esempio, chi potrà impedire ad un esperto informatico che opera in un Paese extra UE senza estradizione di sviluppare una intelligenza artificiale che violi i divieti imposti dalla normativa UE? Il Web non ha confini, come sarà possibile tutelare, in queste situazioni, i cittadini UE e, in generale, i diritti fondamentali delle persone? E se un giorno un Paese ostile creasse una AI senziente, in grado di evolversi autonomamente, chi e come potrebbe intervenire?

Queste domande, che sino a poco tempo fa potevano rappresentare la trama di un film di fantascienza fanno parte del nostro presente. Ha ancora senso cercare di “imbrigliare” la tecnologia con obsoleti iter legislativi? “Alla pratica” l’ardua sentenza.

avv. Gianfranco Leggio

(Tutti i diritti riservati)

Aggiornato il 28.05.2024

Se utilizzi un sistema di intelligenza artificiale, verifica se stai violando diritti di terzi: Prenota una Consulenza

top