Riconoscimento facciale: una minaccia per privacy e diritti umani
Fa parte del vasto insieme dei sistemi d'intelligenza artificiale. È impiegato con l'idea di prevenire crimini e rendere la società più sicura. Ma i sistemi di riconoscimento facciale si nutrono di pregiudizi e colpiscono le categorie più fragili. Se ne è parlato al Festival dei Diritti Umani 2021
Il 21 aprile la Commissione europea ha proposto per la prima volta una cornice legale comune per regolamentare l’uso dell’intelligenza artificiale. «Per promuovere lo sviluppo dell’Intelligenza artificiale (Ia) e affrontare i potenzialmente alti rischi che pone alla sicurezza e ai diritti fondamentali di uguaglianza, la Commissione sta presentando sia una proposta di quadro normativo sulla Ia, sia un modificato piano d’azione coordinato in materia di Ia», si legge nel documento introduttivo alle 108 pagine di proposta di regolamento.
Intelligenza artificiale: una definizione
“Intelligenza artificiale”, secondo la definizione della stessa Commissione, è un termine che si riferisce «ai sistemi che mostrano comportamenti intelligenti attraverso l’analisi dei loro ambienti e il compimento di azioni – con un certo grado di autonomia – per raggiungere un determinato scopo».
Dentro questo insieme sono incluse tecnologie molto diverse: dai “bot” che rispondono automaticamente a un messaggio sui social network, agli algoritmi che “leggono” le immagini per decodificare il loro contenuto; dai veicoli/macchinari che si muovono in autonomia, fino agli algoritmi che estrapolano dati allo scopo di fare previsioni e cataloghi oppure tramutano una voce in testo e viceversa.
Questo settore della tecnologia è esploso negli ultimi anni, tanto che l’intelligenza artificiale è ormai parte della tecnologia quotidiana, come il sistema per riconoscere le impronte digitali allo scopo di bloccare un telefonino.
Gli stessi governi, in partnership con le grandi aziende produttrici e sviluppatrici, cercano sempre più spesso nella tecnologia soluzioni a problemi complessi. Se uno strumento tecnologico è di per sé neutrale, il suo utilizzo – e soprattutto il modo in cui viene addestrato – non lo è. Questo governo della tecnologia è quello che il Festival dei diritti umani 2021, in corso proprio in questi giorni, definisce algoritmocrazia: un sistema di meccanismi automatizzati che condiziona sempre di più le scelte politiche e personali.
Leggi anche:
• Gdpr: il nuovo trattamento dei dati personali e la privacy nell’Ue
• Internet e minori: bambini e adolescenti tra diritto d’informazione e pericoli
Che cos’è il riconoscimento facciale: dallo smartphone alle manifestazioni pubbliche
Dentro il macroinsieme dell’algoritmocrazia, c’è un enorme comparto che ha già dimostrato quanto la tecnologia può essere lesiva dei diritti umani: il riconoscimento facciale e tutte le altre forme di riconoscimento biometrico (tramite voce, impronte digitali e addirittura odori).
Il principio è lo stesso attraverso cui uno smartphone riconosce la presenza umana attraverso la sua telecamera. Quando però si applica lo stesso strumento, invece che per identificare il proprietario di uno smartphone, per identificare dentro un gigantesco database chi ha partecipato a una certa manifestazione pubblica, allora il tema diventa più delicato. Il riconoscimento facciale come strumento d’indagine è promosso come soluzione per la società «a rischio zero», ma in realtà ha dimostrato di perpetrare alcune delle ingiustizie sociali più evidenti della nostra società.
Dell’argomento si è parlato nel talk del Festival dei Diritti Umani durante il talk “Lo scontro tra riconoscimento facciale e il diritto a manifestare il proprio dissenso” promosso da IrpiMedia insieme al centro per la trasparenza e i diritti digitali Hermes e Privacy International.
Leggi anche:
• Social network e minorenni: i rischi di internet per i più giovani
• Sicurezza e privacy: il sottile confine dove vengono spiati gli attivisti
Il caso di Williams a Detroit: quando il riconoscimento facciale sbaglia
Negli Stati Uniti, dove l’introduzione degli strumenti di riconoscimento biometrico è più datata, sono già numerosi i casi di errata identificazione di un soggetto. È il caso, ad esempio, di Robert Julian-Borchak Williams, accusato di aver rubato cinque orologi di lusso in un negozio di Detroit.
Portato in carcere, è stato scarcerato su cauzione di mille dollari dopo che la polizia ha riconosciuto un possibile errore nell’identificazione dell’uomo attraverso un sistema di riconoscimento facciale che ha analizzato le telecamere a circuito chiuso del negozio.
Episodi come questo avvengono soprattutto con tutti coloro che non sono bianchi. Al Congresso americano, una delegazione di democratici ha dimostrato come questa tecnologia fosse scientemente utilizzata dall’Fbi per identificare chi partecipava a manifestazioni di piazza, soprattutto a seguito delle violenze della polizia che hanno provocato la morte di George Floyd o Breonna Taylor, per citare i nomi delle vittime più conosciute (leggi Razzismo Usa: l’omicidio di George Floyd travolge gli Stati Uniti).
La pressione dei gruppi di sostegno per i diritti civili ha spinto Amazon, una delle aziende che produce queste tecnologie, a sospendere la vendita di Rekognition, il suo software dedicato.
Iscriviti alla newsletter di Osservatorio Diritti
Reclaim your face: la campagna europea
Se la Commissione europea ha proposto un quadro normativo è perché già ci sono casi simili anche in Europa. Reclaim your face è una campagna promossa da attivisti e avvocati che si occupano di privacy e diritti digitali per mettere al bando ogni strumento che permette la sorveglianza di massa.
Episodi controversi per altro si sono già verificati. A Como i giornalisti Riccardo Coluccini, Philip Di Salvo e Laura Carrer hanno scoperto attraverso diverse richieste di accesso agli atti l’impiego da parte dell’amministrazione comunale di un sistema di rilevamento “anti-bighellonnaggio” vicino alla stazione, zona occupata storicamente da migranti in transito. Il sistema era stato adottato ancor prima del collaudo, che poi ha rivelato addirittura che la tecnologia era diversa da quella prevista nel capitolato di gara e che il fornitore non era nemmeno la cinese Huawei, come immaginava il Comune, ma della coreana Hanwha.
In Francia, il gruppo di avvocati La Quadrature du Net sta mappando tutte le tecnologie di sorveglianza disposte nel Paese. Technopolice è un progetto cominciato con l’introduzione in Francia delle Smart Cities, concetto sempre più diffuso in Europa per città “intelligenti” e “connesse”, che in realtà diventa il cappello con cui proporre l’impiego di alcune tecnologie invasive.
In Francia questa situazione peggiorerà con la legge Sécurité Global, un provvedimento che aumenterà la possibilità per la polizia di impiegare droni, body camera e altri strumenti di monitoraggio e sorveglianza. Già dal 2012, le immagini della polizia possono essere confrontate con un casellario di precedenti penali per l’identificazione di chi partecipa a eventi di piazza. L’ambiguità dei comportamenti catturati dalle telecamere che possono essere ritenuti sospetti è l’elemento che preoccupa di più attivisti e giuristi, che considerano l’introduzione della legge una profonda sconfitta.
Leggi anche:
• Welfare digitale: quando la tecnologia minaccia i diritti
• Carceri italiane: detenuti in calo, ma aumentano i suicidi
Il Sistema Automatico Riconoscimento Immagini
Tra i principali bersagli della discriminazione tecnologica ci sono i migranti. Su IrpiMedia, Riccardo Coluccini ha pubblicato un’inchiesta in cui racconta come la polizia italiana abbia acquistato nel 2017 il Sistema Automatico Riconoscimento Immagini (Sari), successivamente potenziato attraverso i due programmi Sari Enterprise e Sari Real-Time.
È un sistema pensato soprattutto per tracciare in tempo reale i movimenti dei migranti irregolari che cercano di sbarcare in Italia. L’idea di perseguire l’introduzione di certe politiche era cominciata in Europa nel 2016, ma fu poi successivamente abbandonata.
Non è chiaro se il sistema Sari, pagato 246 mila euro, sia stato mai utilizzato davvero o no: il ministero dell’Interno ha interrotto dopo un anno la corrispondenza con il Garante della privacy, l’organismo che deve valutare l’impatto che ha questo programma sui diritti dei cittadini, e ha negato l’accesso alla informazioni a causa della sensibilità della materia. Alla fine, il 25 marzo, il Garante della privacy ha espresso parere negativo al Sari Real Time. Il sistema «oltre ad essere privo di una base giuridica che legittimi il trattamento automatizzato dei dati biometrici per il riconoscimento facciale a fini di sicurezza, realizzerebbe per come è progettato una forma di sorveglianza indiscriminata/di massa» si legge nel comunicato stampa del Garante.