Giornalismo sotto attacco in Italia

La prima legge italiana sull’intelligenza artificiale: ecco cosa non va

0 0
Il 17 settembre è stata approvata dal Senato la prima legge organica italiana sull’intelligenza artificiale (IA). Avrebbe dovuto rappresentare il pilastro sul quale costruire un’era normativa, invece si è rivelata un’occasione persa.
Ci sono voluti oltre un anno di lavori parlamentari e tre votazioni per avere una legge priva di sostanza, con pericolosi vuoti normativi in materia di tutela dei diritti umani. Accanto a un mucchietto di petizioni di principio, infatti, la legge delega pone le basi legali per i futuri decreti securitari del governo.
Secondo la Rete per i diritti umani digitali – una coalizione di organizzazioni della società civile tra cui The Good Lobby, Hermes Center, Amnesty International Italia, Privacy Network, StraLi e Period Think Tank – sono tre gli aspetti maggiormente deludenti.
Nessuna autorità indipendente, ma una governance affiliata al governo 
Al contrario di quanto previsto dal Regolamento europeo in materia (AI Act), non sarà istituita alcuna autorità indipendente per l’IA. Tale ipotesi è stata respinta in favore di un controllo diretto dell’esecutivo, che sarà effettuato per mezzo di agenzie governative i cui vertici sono nominati dal governo stesso (AGID e ACN).
Con due agenzie governative al posto dell’autorità indipendente sono da aspettarsi indebite influenze sui finanziamenti e sugli indirizzi politici in materia di IA. Si sacrificherà in tal modo la prospettiva di un’IA in grado di generare fiducia nella cittadinanza, avvalorando al contrario la sensazione di poter essere sottoposti a sorveglianza di massa e a sfruttamento dei propri dati.
Nessuno strumento di ricorso per rendere effettivo il diritto alla spiegazione 
È stata respinta la proposta emendativa che avrebbe assegnato al Garante per la protezione dei dati personali il compito di tutelare il “diritto alla spiegazione” di chi ritiene di aver subito una violazione dei propri diritti umani (come il diritto alla salute, alla non discriminazione, alla libertà di opinione ed espressione) a causa di un sistema di intelligenza artificiale. L’AI Act europeo prevede che gli stati adottino un meccanismo di ricorso, alternativo al giudice, che consenta alle persone di ottenere chiarimenti su come è stata presa una decisione automatizzata. Tuttavia, il fatto che la legge italiana sull’IA non preveda tale strumento riduce concretamente le opportunità di tutela previste dal regolamento europeo, penalizzando cittadine, cittadini ed organizzazioni impegnate nella difesa dei diritti umani.
Nessuna regolamentazione degli utilizzi dell’IA a scopo di identificazione biometrica
Non è prevista alcuna garanzia nemmeno sul fronte dell’utilizzo dell’IA a scopo di riconoscimento facciale. Questo è un pericoloso vuoto normativo, che potrebbe inaugurare una stagione di sorveglianza biometrica senza regole. Nonostante la strenua lotta condotta dalla Rete per i diritti umani digitali per chiedere il divieto dell’utilizzo del riconoscimento biometrico negli spazi aperti al pubblico e numerosi e significativi emendamenti proposti dalle opposizioni in tal senso, la maggioranza parlamentare ha deliberatamente scelto di non disciplinare la materia, ostacolando il dibattito parlamentare. Si è lasciata quindi mano libera all’esecutivo per proseguire con il suo ambizioso progetto di sorveglianza biometrica negli stadi italiani, che potrebbe estendersi anche ad altri luoghi della vita pubblica, come piazze, stazioni, supermercati, cinema e ospedali.
In questo contesto, bisogna ricordare la legge che ha convertito il DL Sicurezza, che ha introdotto l’uso delle body-cam da parte delle forze di polizia senza richiamare espressamente l’opinione del Garante per la protezione dei dati personali in merito alle modalità di conservazione dei dati e alle finalità d’uso dei dispositivi. In assenza di una norma che sancisca queste tutele e di codici identificativi univoci per gli agenti in servizio, ogni persona ripresa potrebbe correre il rischio di essere analizzata, identificata e schedata, anche a distanza di tempo, se ritenuta “rilevante” per un’indagine. Questo approccio esporrebbe ogni persona al rischio di sorveglianza generalizzata, con gravi conseguenze per le libertà di espressione, manifestazione e partecipazione alla vita pubblica.
A ciò si aggiunge il fatto che tutti gli emendamenti volti a introdurre obblighi di trasparenza (come report periodici sull’uso dei sistemi biometrici e sulla percentuale di errore dei sistemi di riconoscimento in dotazione alle forze di polizia) sono stati bocciati in tutte le tre fasi di votazione.
In definitiva, la legge sull’IA conferisce un potere eccessivo al governo, senza adeguati contrappesi democratici: si temono dunque importanti risvolti securitari, già nei prossimi mesi, a partire proprio dalla sorveglianza biometrica.

Iscriviti alla Newsletter di Articolo21

Articolo21
Panoramica privacy

Questo sito Web utilizza i cookie in modo che possiamo fornirti la migliore esperienza utente possibile. Le informazioni sui cookie sono memorizzate nel tuo browser ed eseguono funzioni come riconoscerti quando ritorni sul nostro sito Web e aiutare il nostro team a capire quali sezioni del sito Web trovi più interessanti e utili.

This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.