Conosci il riconoscimento facciale?

0 Commenti
744 Visualizzazioni

Il riconoscimento facciale è una tecnologia innovativa che permette di acquisire immagini in tempo reale di una o più persone, ed identificarle in tempo reale attraverso il confronto di dati ed immagini presenti in un database.

Come funziona?

Il software, dopo aver acquisito l’immagine della persona (ad esempio tramite un sistema di videosorveglianza) ne elabora un modello matematico che viene poi applicato ad altre immagini, al fine di ricercare un modello analogo.

Questo modello è la rappresentazione di ciò che in gergo tecnico viene chiamato dato biometrico.

I dati biometrici sono dati ottenuti attraverso uno specifico trattamento tecnico che consentono l’identificazione univoca di una persona.

Questa tecnologia viene ormai sempre più utilizzata nell’ambito della videosorveglianza, con telecamere intelligenti che in tempo reale permettono di identificare le persone riprese.

Alcuni software, i più evoluti, sono in grado di identificare una persona basandosi anche sull’analisi dell’andatura (analisi Gait). Tutti noi abbiamo un modo unico di muoverci all’interno dello spazio, e proprio per questo è possibile identificarci.

Altri software riescono invece a creare modelli tridimensionali predittivi sulla base di immagini bidimensionali, anche parziali. Ad esempio, utilizzando la fotografia di una persona con il volto girato sul fianco.

Gli ambiti di applicazione del riconoscimento facciale sono tantissimi, basti pensare ad ogni ambito umano in cui è necessario identificare una persona: controllo degli accessi, pagamenti elettronici, esami online, sicurezza dei dispositivi personali, come gli smartphones…

…ma non solo. Per ovvi motivi, questa tecnologia è particolarmente attraente per le forze dell’ordine e in generale per le autorità pubbliche. I sistemi di riconoscimento facciale sono sempre più usati per prevenire, indagare e perseguire reati.


Mi sembra una bellissima tecnologia, qual è il problema?

Per quanto attraente, questa tecnologia non è priva di problemi, talvolta anche molto gravi.

Ci sono principalmente quattro tipi di rischi:

  • Malfunzionamenti ed errori di sviluppo dei software di riconoscimento facciale
  • Effetto scatola nera e discriminazione
  • Capovolgimento dei principi fondamentali del nostro ordinamento
  • Abuso di potere da parte delle forze dell’ordine

Vediamoli insieme.

Malfunzionamenti ed errori di sviluppo

I software di riconoscimento facciale usano algoritmi di machine learning. Questi algoritmi sono “addestrati” a riconoscere il viso delle persone in tempo reale attraverso enormi quantitativi di dati di repertorio.

Ad esempio, una famosa software house statunitense, ClearviewAI afferma di allenare i propri algoritmi attraverso le immagini di persone pubblicamente disponibili sul web, come le immagini presenti sui social network. Se hai foto del tuo viso pubbliche sul web o sui social networks, sappi che molto probabilmente sarà finita in qualcuno di questi database per allenare algoritmi di riconoscimento facciale.

Il problema è che la qualità dei risultati dipende dalla qualità dei dati usati per addestrare gli algoritmi. La maggior parte delle software house utilizza dati che non tengono conto delle peculiarità e caratteristiche della popolazione di riferimento. Questo crea rilevanti problemi per la capacità di riconoscere correttamente le persone che non rientrano in determinati standards.

Allo stato dell’arte, chiunque esuli dallo stereotipo di “uomo bianco americano”, rischia di non essere riconosciuto correttamente.

Il rischio, oltre a quello di essere fermati o arrestati perché l’algoritmo ci scambia per un’altra persona, è quello di non riuscire ad ottenere accesso a servizi fondamentali, come esami online o sistemi di pagamento.

Sempre più spesso si sentono casi di abuso e discriminazione derivanti proprio da erroneo riconoscimento da parte del software.

Il caso più recente è quello del sig. Robert Williams, ingiustamente indagato e arrestato per un crimine che non aveva commesso, soltanto perché un software di riconoscimento facciale lo aveva identificato erroneamente.

O ancora, la ricercatrice Joy Buolamwini, ex studentessa del MIT, mentre lavorava con un sistema di riconoscimento facciale, si è resa conto che il software non riconosceva il suo volto. Il motivo? Il colore della sua pelle.

In Italia, le forze dell’ordine hanno a disposizione il sistema “SARI Enterprise“, che comprende anche una componente di riconoscimento facciale in tempo reale. Da alcuni documenti pubblici, che risalgono al 2016 sappiamo che l’accuratezza del sistema non supera in molti casi l’80%.

Su 10 persone, almeno 2 potrebbero essere identificate erroneamente ed essere perseguite per reati che non hanno commesso.

Effetto scatola nera e discriminazione

La società democratica occidentale è fondata sulla trasparenza, sul contraddittorio e sull’accountability delle decisioni.

La diffusione di algoritmi che prendono decisioni automatizzate pone a rischio il tessuto democratico, per mancanza di trasparenza e accountability di queste decisioni. È spesso difficile se non impossibile comprendere le logiche di funzionamento di un algoritmo di machine learning, e mancano gli strumenti di contraddittorio.

Un cittadino, attraverso sistemi di riconoscimento facciale per la sorveglianza pubblica, può essere soggetto a processi decisionali automatizzati nascosti, che hanno dirette conseguenze giuridiche, senza possibilità di contestare queste decisioni.

Gli algoritmi di riconoscimento facciale per la sorveglianza pubblica spesso non si limitano ad associare un’identità ad un viso, ma sono anche in grado di identificare situazioni di rischio, attraverso la valutazione di comportamenti come l’andatura o l’espressione facciale.

Da queste valutazioni scaturiscono processi decisionali automatizzati nella completa ignoranza dei cittadini e senza possibilità di contestazione.

L’ulteriore problema è che le stesse forze dell’ordine non sono in grado di giudicare la bontà di questi processi automatizzati, affidandosi completamente alle loro decisioni. Il rischio concreto, in mancanza di trasparenza e contraddittorio, è quello di una dittatura dell’algoritmo.

A Udine sono al lavoro per lo sviluppo di sistemi per la segnalazione in tempo reale della presenza di “individui sospetti”. La qualifica di “individuo sospetto”, spetta all’algoritmo.

Capovolgimento dei principi fondamentali del nostro ordinamento

Questo tipo di sorveglianza è assimilabile alle intercettazioni, sia per pervasività che per specificità della sorveglianza.

Il nostro diritto penale, a buona ragione, prevede per le intercettazioni una disciplina molto rigorosa, a tutela delle persone. Le intercettazioni possono essere autorizzate solo se ci sono gravi indizi di reato e l’assoluta indispensabilità dell’intercettazione per il proseguimento delle indagini.

Questo significa che nessuno può sottoporre i cittadini italiani a sorveglianza preventiva, senza gravi indizi di reato e/o indagini già in corso.

La sorveglianza biometrica ribalta questo principio fondamentale. Questi sistemi sono utilizzati per cercare comportamenti sospetti e sorvegliare approfonditamente e specificatamente cittadini innocenti fino a prova contraria. Ogni cittadino diventa un potenziale individuo sospetto.

Abuso di potere

Il riconoscimento facciale si presta anche veri e propri abusi di potere da parte delle forze dell’ordine.

Il riconoscimento facciale è stato ampiamente usato per sopprimere sistematicamente le proteste di Hong Kong.

La potenza di questi strumenti, unita ad altri strumenti di indagine, è tale che ha il potenziale di sopprimere completamente qualsiasi possibilità di manifestazione libera del pensiero.

In altri paesi, dove queste tecnologie sono più diffuse, sono già ampiamente impiegate per compiere azioni preventive sulla base delle valutazioni di rischio del software.

In che modo il cittadino può contestare la decisione dell’algoritmo? In che modo il cittadino è tutelato in caso di arresto ingiustificato o preventivo? Dove finisce la sicurezza pubblica e dove invece inizia l’abuso di potere?

La diffusione incontrollata della videosorveglianza con riconoscimento facciale può diventare un enorme rischio per la nostra democrazia e libertà personale.

Immagina di avere un poliziotto che ti segue in ogni luogo della città, ti guarda da vicino, e conosce la tua identità. Come ti farebbe sentire?

La privacy, inteso come diritto alla riservatezza, è lo spazio vitale in cui nascono e fioriscono i nostri diritti e libertà. Senza privacy, non può esserci libertà di pensiero, libertà di movimento, libertà di manifestare, o libertà di autodeterminazione.


La situazione italiana

In Italia sempre più comuni vorrebbero iniziare a usare sistemi di riconoscimento facciale, contestualmente ad una diffusione capillare dei sistemi di videosorveglianza cittadina. Alcuni, come il Comune di Como, hanno già provato a utilizzarli – in modo assolutamente illegale.

Il Regolamento europeo per la protezione dei dati (GDPR) prevede che l’uso di sistemi di riconoscimento facciale debba essere autorizzato da una legge dello Stato membro. Questa legge ad oggi non esiste e nessun Comune è quindi autorizzato a dotarsi di sistemi di riconoscimento facciale.

La legge dovrebbe prevedere tutele e misure di garanzia per le persone, ed ogni Comune prima di installare questi sistemi dovrebbe valutare i rischi derivanti dal riconoscimento facciale. Solo nel caso in cui questi rischi siano sufficientemente mitigati, sarà possibile utilizzarli.

Il Garante Privacy si è già espresso in merito, vietando al Comune di Como l’uso dei sistemi di riconoscimento facciale. Non sembra però che l’intervento sia stato sufficiente a placare la bramosia dei Comuni…

L’unica vera tutela, è conoscere questa tecnologia ed i propri diritti, per accertarsi che sia sempre usata nel modo giusto e con le dovute garanzie.


Autore: Matteo Navacci