Intelligenza artificiale: tutele per i cittadini

a cura di paolo


Legge sull'intelligenza artificiale approvata dal Parlamento europeo: scopi e tutele per i cittadini. 
Il Parlamento Europeo ha approvato la legge sull'intelligenza artificiale (IA), che garantisce sicurezza e rispetto dei diritti fondamentali e promuove l'innovazione.

Come si legge nel comunicato datato 12 marzo pubblicato sul sito istituzionale del Parlamento UE dopo l'accordo di tutti gli stati membri, i deputati hanno approvato il regolamento con 523 voti favorevoli, 46 contrari e 49 astensioni.

Scopo della Legge sull'IA è proteggere:

  • i diritti fondamentali,
  • la democrazia, 
  • lo Stato di diritto e la sostenibilità ambientale 

dai sistemi di IA ad alto rischio, promuovendo nel contempo l'innovazione e assicurando all'Europa un ruolo guida nel settore. 

E' bene segnalare che le norme stabiliscono obblighi per l'IA sulla base dei possibili rischi e del livello d'impatto.

Il contesto in cui il regolamento ha preso piede è stato quello della Conferenza sul futuro dell'Europa (COFE), dove sono arrivate le proposte dei cittadin sui seguenti temi:

  • proposta 12 sul rafforzamento della competitività dell'UE nei settori strategici, 
  • proposta 33 su una società sicura e affidabile, tra cui la lotta alla disinformazione e la garanzia di un controllo umano di ultima istanza, 
  • proposta 35 sulla promozione dell'innovazione digitale, garantendo la supervisione umana e l'uso affidabile e responsabile dell'IA, stabilendo salvaguardie e garantendo la trasparenza,
  • proposta 37 sull'utilizzo dell'IA e degli strumenti digitali per migliorare l'accesso dei cittadini alle informazioni, comprese le persone con disabilità.

Dettagliamo i principali contenuti delle norme come evidenziati dal comunicato del Parlamento UE.

1) Legge europea sull'intelligenza artificiale: applicazioni vietate

Il comunicato evidenzia che le nuove norme rendono fuori legge alcune applicazioni di IA che minacciano i diritti dei cittadini. 

Tra queste, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l'estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. 

Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.

In tale ambito sono previste specifiche eccezione per le forze dell'ordine, in linea di principio, non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. L'identificazione "in tempo reale" potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l'uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. 

Gli usi ammessi includono, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L'utilizzo di questi sistemi a posteriori è considerato ad alto rischio. Per questo, per potervi fare ricorso, l'autorizzazione giudiziaria dovrà essere collegata a un reato.

2) Legge europea sull'intelligenza artificiale: i sistemi ad alto rischio

Sono previsti obblighi chiari anche per altri sistemi di IA ad alto rischio (che potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all'ambiente, alla democrazia e allo Stato di diritto). 

Rientrano in questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche, ecc.), alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni). 

Per questi sistemi vige l'obbligo di valutare e ridurre i rischi, mantenere registri d'uso, essere trasparenti e accurati e garantire la sorveglianza umana. 

I cittadini avranno diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.

3) Legge europea sulla intelligenza artificiale: entrata in vigore

Il regolamento deve ancora essere sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura (procedura di rettifica).

Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio.

Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell'UE e inizierà ad applicarsi 24 mesi dopo l'entrata in vigore, salvo per quanto riguarda:

  • i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; 
  • i codici di buone pratiche (nove mesi dopo); 
  • le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi)

 

Torna indietro