Uno, due, tre… Report. È uno strano asse quello fra la Camera dei Deputati e la trasmissione d’inchiesta della Rai. Il programma di Sigfrido Ranucci, abituato a far infuriare onorevoli e senatori, due settimane fa ha dedicato il suo approfondimento al tema della videosorveglianza con riconoscimento facciale che, dalle telecamere addirittura installate in viale Mazzini, conducevano fino alla sorveglianza cinese in Occidente.
Nemmeno il tempo di un battito di ciglia ed ecco la proposta di legge. Del tema se ne è innamorato il Partito democratico a Montecitorio. Depositato il testo 12 aprile, la legge approda a giorni nelle commissioni per la discussione. Titolo? “Sospensione dell’installazione e dell’utilizzazione di impianti di videosorveglianza con sistemi di riconoscimento facciale operanti attraverso l’uso di dati biometrici in luoghi pubblici o aperti al pubblico”. Firmatari? Flippo Sensi, Enrico Borghi, Lia Quartapelle, Debora Serracchiani e Walter Verini.
Videosorveglianza con riconoscimento facciale, nuova la normativa in arrivo?
La legge Pd vuole regolamentare in maniera stringente la pratica del riconoscimento facciale (facial recognition technology) e l’accumulo e trattamento dei “dati biometrici”. Con l’obiettivo di garantire tutela della privacy e attenzione ai diritti civili.
Il gioco di sponda fra onorevoli e società civile o tecnici del settore rimbalza fra i report di Amnesty International che parla di “sorveglianza di massa indiscriminata” fino alle denunce di Giuseppe Busia, ex segretario generale del Garante per la protezione dei dati.
Ma alle stesse conclusioni sono giunte ormai da tempo Onge think tank. Rilevando i “bias” di cui sono dotate delle intelligenze artificiali e gli algoritmi che governano queste tecnologie. Per esempio bias razziali o di genere.
Proprio come avveneuto in Usa con l’intelligenza artificiale di Amazon costretta al pensionamento anticipato perché non assumeva donne e afroamericani, lo stesso sta avvenendo con la videosorveglianza per esempio sul riconoscimento di volti femminili o di persone appartenenti a minoranze etniche.
Lo dice il National Institute of Standards and Technology, che ha misurato gli effetti della razza, dell’età e del sesso sui principali sistemi di riconoscimento facciale utilizzati negli Stati Uniti d’America. Diverse aziende hanno messo in soffitta i loro piani o sospeso le loro attività nel settore. La prima? La IBM. Che in una lettera inviata al Congresso degli americano ha dichiarato di abbandonare il business collegato ai sistemi di riconoscimento facciale e di opporsi all’utilizzo di tali sistemi ai fini della sorveglianza di massa e della profilazione razziale.
In seguito, anche l’azienda di commercio elettronico statunitense Amazon ha previsto una moratoria di un anno sull’uso da parte delle Forze di polizia di Rekognition, il suo software di riconoscimento facciale basato sul cloud, utilizzato, tra l’altro, da numerose agenzie governative degli USA, tra le quali la United States Immigration and Customs Enforcement. Idem Microsoft.
La proposta Pd: strumenti di video-analisi sulla base di filtri
In Italia? Il laboratorio della sorveglianza è Como. Tra i motivi? Di certo la rotta migratoria che conduce verso la Svizzera e che è diventato la prima “frontiera” – è il caso di dire – dove sperimentare tecnologie e modelli di governance sui migranti da applicare poi su larga nei più svariati ambiti dell’amministrazione comunale.
Ma sono molte le città italiane dove si viaggia spediti. Nella relazione introduttiva alla proposta di legge viene citato il caso di Udine. Dove è stata annunciata l’installazione di un nuovo sistema di videosorveglianza, con 67 nuove telecamere, che vanno ad aggiungersi alle 75 telecamere già presenti nella città e agli 11 sistemi di lettura delle targhe dei veicoli.
Ma la vera novità di questo intervento consiste nella volontà di “implementare gli strumenti di video-analisi, come il riconoscimento di mezzi e individui (e un domani il riconoscimento facciale) sulla base di filtri come l’età, il sesso, gli abiti, l’orario, attraverso l’utilizzo di software di analisi forense”.
Tutto ciò avviene in assenza di un quadro normativo che regoli l’utilizzo dei dati da parte degli enti territoriali, in particolare per le funzioni di polizia giudiziaria riservate alla polizia locale, sempre più coinvolta anche non nuclei specializzati, che assicuri il rispetti dei diritti costituzionali dei cittadini.