Tecnologie

Riconoscimento facciale: verso l’emanazione di leggi ad hoc

I sistemi di intelligenza artificiale “ad alto rischio” dovranno essere necessariamente trasparenti, tracciabili, conformi alle norme europee e dovranno garantire il controllo umano, specie in settori delicati come quelli della salute, della sicurezza e dei trasporti

Pubblicato il 24 Mar 2021

Anna Capoluongo

Avvocato, DPO, Vicepresidente I.R.L.E.S.S., membro GdL sull’intelligenza artificiale (ANORC)

Non è una novità che la tematica della face recognition, o riconoscimento facciale, sia da tempo sotto i riflettori, tanto per gli aspetti tecnici, quanto giuridici ed etici, come confermato – ex multis – anche dai tre recenti interventi dell’istituto statunitense NIST, dell’Autorità privacy francese e dell’AI Now Institute at NYU.

Premesso che nell’ordinamento italiano non esistono norme ad hoc per questa specifica materia – fatto salvo il rispetto delle disposizioni del GDPR e del Codice Privacy novellato, la Direttiva 680/2016 recepita nel D.lgs. n. 51 del 2018 e le indicazioni contenute nelle linee guida n. 3/2019 del Comitato Europeo per la Protezione dei dati personali (EDPB) sul trattamento dei dati personali attraverso dispositivi di videosorveglianza -, in ottica di regolamentazione, gli interventi più rilevanti da tenere in considerazione sono sicuramente i seguenti.

La Commissione europea, in primis, con il proprio white paper, aveva inizialmente valutato e previsto l’ipotesi di un blocco temporaneo (di 3-5 anni) delle tecnologie di riconoscimento facciale in alcuni specifici casi (ad esempio nei luoghi pubblici), al fine di consentire l’introduzione di nuove regole che, prevenendo possibili rischi, operassero in salvaguardia della privacy degli interessati.

Ad oggi, però, tale limite sembrerebbe essere stato rimosso e riproposto sotto forma di riserva di legge spettante ai singoli governi nazionali, sulla scorta della più generale protezione offerta dal GDPR, che vieterebbe – nella sua lettura complessiva – l’utilizzo di tali tecnologie laddove non debitamente giustificate e proporzionate. Diversamente, per le applicazioni a basso rischio dovrebbe essere previsto un sistema volontario di etichettatura. 

In ogni caso, i sistemi di intelligenza artificiale “ad alto rischio” (quali la face recognition) dovranno essere necessariamente trasparenti, tracciabili, conformi alle norme europee e dovranno garantire il controllo umano, specie in settori delicati come quelli della salute, della sicurezza e dei trasporti.

Riconoscimento facciale, alcune distinzioni

Nell’affrontare questo tema è bene effettuare una chiara e necessaria distinzione tra i termini “riconoscimento facciale“, “analisi facciale” e “rilevamento facciale“, spesso usati in maniera indifferenziata.

Per riconoscimento facciale (facial recognition), si deve intendere l’abbinamento di volti simili mediante una ricerca “uno-a-molti” o “uno-a- uno”, nel di tentativo identificare il soggetto e, quindi, di stabilire di chi sia quel volto.

L’analisi facciale (facial analysis), invece, si riferisce alla capacità di prevedere le caratteristiche di un individuo, quali l’età, il sesso o le emozioni, partendo da una foto dello stesso.

Infine, il rilevamento facciale (facial detection) è un concetto più ampio ed individua una tecnica utilizzata per identificare la presenza o meno di volti di persone all’interno di immagini digitali.

Riconoscimento facciale, le Linee Guida del Comitato della Convenzione 108

In considerazione delle – ormai note – potenziali gravi violazioni dei diritti degli interessati[1], il 28 gennaio 2021, il Comitato della Convenzione 108[2] (Comitato consultivo della Convenzione per la tutela delle individuali rispetto al trattamento automatico dei dati personali) ha, invece, adottato le Linee guida sul riconoscimento facciale che forniscono una serie di misure di riferimento che i governi, gli sviluppatori di riconoscimento facciale, i produttori, i fornitori di servizi e le entità che utilizzano tali tecnologie dovrebbero seguire e applicare per garantire la tutela della dignità umana, dei diritti umani e delle libertà fondamentali, incluso il diritto alla protezione dei dati personali.

Nello specifico, si articolano in linee guida per legislatori e decision-makers (capitolo I); per sviluppatori, produttori e servizi (capitolo II); per entità (ossia responsabili e titolari) che utilizzano il riconoscimento facciale tecnologie (capitolo III) e diritti degli interessati (capitolo IV).

Si legge nel documento che la necessità dell’uso delle tecnologie di riconoscimento facciale deve essere valutata unitamente alla proporzionalità rispetto allo scopo e all’impatto sui diritti degli interessati.

Andrebbe stilata una classifica delle differenti tipologie di utilizzo e andrebbe ragionato un quadro legislativo applicabile che, a seconda dei diversi usi, affronti in particolare i seguenti aspetti:

– spiegazione dettagliata dell’uso specifico e della finalità;

– affidabilità e accuratezza minima dell’algoritmo utilizzato;

– durata di conservazione delle foto utilizzate;

– possibilità di verificare questi criteri;

– tracciabilità del processo;

– garanzie.

Lo stesso dovrebbe, inoltre, considerare e affrontare:

– le diverse fasi di utilizzo delle tecnologie di riconoscimento facciale, compresa la creazione

di database e le fasi di distribuzione;

– i settori in cui vengono utilizzate queste tecnologie;

– l’invadenza di tipi di tecnologie di riconoscimento facciale (“live or non-live facial recognition technologies”), fornendo al contempo indicazioni chiare sulla liceità delle stesse.

Il Comitato ritiene che il consenso non dovrebbe, di norma, essere la base giuridica del trattamento da parte di autorità pubbliche (a causa dello squilibrio di poteri tra interessati e pubblica autorità), così come nel caso di soggetti privati autorizzati a svolgere compiti analoghi a quelli delle autorità pubbliche.

L’uso delle tecnologie di riconoscimento facciale da parte di soggetti privati diversi dai precedenti, richiederebbe, invece, il consenso esplicito, specifico, libero e informato degli interessati ex articolo 5 della Convenzione 108+. In tal caso, l’uso del riconoscimento facciale potrà avvenire solo in ambienti controllati (per finalità di verifica o autenticazione o categorizzazione), e quindi – ad esempio – non nei centri commerciali e in particolare per identificare persone di interesse, per scopi di marketing o per motivi di sicurezza privata.

Per garantire che il consenso sia prestato liberamente, agli interessati dovrebbe essere offerta un’alternativa al riconoscimento facciale di facile utilizzo, quali ad esempio l’uso di una password o di un badge identificativo.

La Commissione suggerisce, poi, ai legislatori l’istituzione di un meccanismo di certificazione indipendente e qualificato per il riconoscimento facciale al fine di dimostrare la piena conformità delle operazioni di trattamento effettuate e, così, di rafforzare la fiducia degli utenti.

Gli adempimenti per i vendor di tecnologie

Ancora, nel capitolo relativo agli sviluppatori viene indicato che gli algoritmi dovranno essere sviluppati utilizzando dataset sintetici basati su dati sufficientemente diversi (foto di uomini e donne, di diversi colori della pelle, diversa morfologia, di ogni età e provenienza, diversi angoli di ripresa…), al fine di garantire sia la qualità dei dati che l’efficienza degli algoritmi. Allo stesso modo, dovranno essere previste procedure di backup in caso di guasto del sistema, mentre i dati biometrici che rivelano altri dati particolari dovrebbero essere soggetti ad opportune misure e garanzie.

Le aziende che sviluppano e vendono tecnologie di riconoscimento facciale, a loro volta, dovrebbero adottare specifiche misure per garantire il rispetto dei principi di protezione dei dati, quali:

– integrare la protezione dei dati nella progettazione e nell’architettura dei prodotti di riconoscimento facciale e servizi, oltre che nei sistemi informatici interni;

– utilizzare strumenti che includono la cancellazione automatica dei dati grezzi dopo l’estrazione di modelli biometrici;

– offrire un certo livello di flessibilità nella progettazione per regolare le garanzie tecniche secondo i principi di limitazione delle finalità, di minimizzazione e di limitazione della durata della conservazione dei dati;

– implementare ex ante un processo di revisione interna progettato per identificare e mitigare il potenziale impatto sui diritti e sulle libertà fondamentali (DPIA);

– prevedere un approccio sistematico alla protezione dei dati nelle politiche aziendali e organizzative (personale dedicato, formazione, DPIA).

Infine, con riferimento al terzo capitolo, viene sottolineato come i principi di trasparenza e correttezza siano della massima importanza e che i responsabili/titolari dovranno fornire tutte le informazioni necessarie sul trattamento come previsto dall’articolo 8 della Convenzione 108+.

L’informativa di primo livello conterrà, dunque, informazioni intellegibili sullo scopo del trattamento, sull’autorità che utilizza la tecnologia, sulla durata del trattamento, sul perimetro d’interesse, e verrà apposta nelle opportune vicinanze del luogo di impiego di queste tecnologie.

L’informativa di secondo livello, invece, conterrà tutte le informazioni necessarie richieste dall’articolo 8 e sarà esposta all’ingresso dei luoghi interessati.

L’uso “occulto” di tecnologie di riconoscimento facciale dal vivo potrebbe essere possibile solo ove effettuato parte delle forze dell’ordine e solo se proporzionato e strettamente necessario ad evitare imminenti e sostanziali rischi per la sicurezza pubblica.

Riconoscimento facciale, come è regolato negli altri paesi

Con riferimento alla CNIL (Garante francese), ad esempio, questa ha ritenuto che l’uso del riconoscimento facciale vada autorizzato di volta in volta e solo laddove siano garantite: un’elevata affidabilità circa la verifica dell’identità delle persone interessate, la proporzionalità dei mezzi impiegati, la protezione per i minori, l’ottenimento del consenso degli interessati e la garanzia del pieno controllo sui dati trattati[3].

Per parte sua, invece, lo studio del NIST ha messo in luce come la capacità degli algoritmi di abbinare due immagini del medesimo soggetto non sia sempre pienamente attendibile, variando di molto i risultati tra differenti gruppi demografici e dando origine a numerosi casi di cd. falsi positivi, ad esempio, in caso di persone africane, asiatiche o di nativi americani.

Tra opportunità e rischi[4] (non ultimi, di sorveglianza di massa), è ormai palese come tali tecnologie stiano facendo emergere con forza la necessità di una regolamentazione specifica e rigorosa, dall’Europa all’America, dall’Oriente al Mondo intero.

Relativamente alla sorveglianza di massa, ad esempio, il Commissario canadese per la privacy ha confermato la decisione (risalente ad inizio 2020) di mettere al bando il sistema di intelligenza artificiale della società Clearview[5], poiché l’addestramento di tale tecnologia si sarebbe basato sull’utilizzo di contenuti per i quali non era stato richiesto e ottenuto il preventivo consenso al trattamento da parte degli utenti, dando, così, vita – di fatto – ad uno scraping[6 di miliardi di contenuti pubblicati su varie piattaforme on line[7], all’insaputa persino di queste ultime.

Pronunciamenti e normative nel Regno Unito e negli USA

Nel Regno Unito, invece, ha visto la luce la prima decisione in tema di riconoscimento facciale da parte della Corte di Cardiff (UK), la quale ha statuito l’adeguatezza dell’attuale regime giuridico inglese a garantire i diritti dell’individuo in presenza dell’uso, da parte delle autorità pubbliche, delle tecnologie più recenti.

Nel caso di specie tutto ha avuto inizio dalle doglianze di un attivista per i diritti civili che, ripreso a sua insaputa dalle telecamere (dotate di tecnologia AFR – Automated Facial Recognition) in un centro commerciale e durante una mostra, ha sostenuto il non rispetto da parte della Polizia del Galles della normativa privacy (Data Protection Act), della Convenzione per i diritti umani (CEDU) e dell’Equality Act, in special modo in quanto il trattamento riguardava persone comuni (non sospettate, indagate o ricercate), e non era strettamente necessario ai fini dell’applicazione della legge. Il ricorrente lamentava, inoltre, l’esistenza di bias ed errori di programmazione potenzialmente lesivi perché forieri di match errati.

I giudici, dopo attenta analisi, hanno deciso per il rigetto del ricorso e per la liceità della condotta delle autorità, che aveva correttamente operato sulla base e nel rispetto del regime giuridico esitente: “[w]hat is important is to focus on the substance of the actions that use of AFR Locate entails, not simply that it involves a first-time deployment by SWP of an emerging technology. The fact that a technology is new does not mean that it is outside the scope of existing regulation, or that it is always necessary to create a bespoke legal framework for it”.

Essendo finalizzata alla prevenzione dei reati, l’utilizzo della tecnologia AFR nel caso di specie è stato, quindi, ritenuto equilibrato e non sproporzionato, anche ai sensi della normativa privacy e dell’Equality Act.

I giudici inglesi hanno, inoltre, ritenuto di evidenziare come in mancanza di una corrispondenza tra immagine ripresa e soggetto inserito in una lista di controllo, tutti i dati venivano immediatamente e automaticamente cancellati, e ciò a maggior garanzia dei soggetti ripresi a loro insaputa.

Infine, parlando di vera e propria normazione, il New Hampshire e l’Oregon hanno proibito l’installazione o l’utilizzo del software di riconoscimento facciale nelle body cam, la California ha vietato la pratica per tre anni (a partire dall’anno scorso) e San Francisco, a maggio 2019, con la cd. “Stop Secret Surveillance Ordennance”, ha negato l’utilizzo di tecnologia per il riconoscimento facciale da parte della polizia, ammettendolo solo in luoghi come l’aeroporto e il porto.

Nel 2020, anche le città di Jackson (Mississippi), Portland (Oregon), Portland (Maine), Boston, Cambridge e Springfield (Massachusetts) hanno optato per il divieto di utilizzo del riconoscimento facciale.

Lo Stato di Washington, invece, ha firmato un progetto di legge (che dovrebbe entrare in vigore il 21 luglio 2021) circa l’uso del riconoscimento facciale da parte del Governo.

“Secondo la nuova legge, se un’agenzia governativa vuole utilizzare il riconoscimento facciale, deve prima dare un avviso pubblico, tenere almeno tre riunioni della comunità e pubblicare un rapporto che delinei il potenziale impatto della tecnologia sulle libertà civili.

La polizia potrebbe utilizzare il riconoscimento facciale per la sorveglianza continua o l’identificazione in tempo reale delle persone, ma prima avranno bisogno di un mandato o di un’ordinanza del tribunale. La tecnologia non può essere utilizzata per prendere decisioni governative significative senza una” revisione umana significativa “e i dipendenti del governo devono essere formati sui limiti della tecnologia”.

La legge in questione, infatti, vieta alle agenzie statali e alle forze dell’ordine di raccogliere o utilizzare un identificatore biometrico (compresi la voce, l’andatura e il riconoscimento facciale) senza prima fornire preavviso e ottenere il consenso degli interessati, eccetto in casi di emergenza. Le agenzie governative potranno utilizzare tali tecnologie solo ove sia assicurata un’interfaccia di programmazione dell’applicazione (API).

È stata, inoltre, istituita una task force per vigilare finalità e modalità di applicazione della tecnologia unitamente all’obbligo per le agenzie di presentare relazioni periodiche sull’uso della tecnologia di riconoscimento facciale.

Il cd. Justice in Policing Act, include – per le forze dell’ordine – il divieto di usare software di riconoscimento facciale nella scansione dei filmati delle cd. body cam senza un mandato, filmati che, infatti, non possono essere “subjected to facial recognition or any other form of automated analysis unless […] a judicial warrant providing authority is obtained”, sempre che il tribunale riscontri che “there is probable cause to believe that the requested use of facial recognition is relevant to an ongoing criminal investigation”.

Per completezza si riportano le principali disposizioni di legge previste:

  • Ambito di applicazione: si applica a tutte le agenzie governative statali e locali ad eccezione del department of licensing.
  • Definizioni chiave: “Facial recognition service ”, “Facial template ”, “Enroll” .
  • Dichiarazione di intenti: prima di procedere allo sviluppo/utilizzo di un sistema di riconoscimento facciale, l’agenzia è tenuta a presentare all’autorità legislativa una dichiarazione di intenti che contenga anche lo scopo per il quale la tecnologia deve essere utilizzata. Dopo aver presentato tale dichiarazione, dovrà procedere allo sviluppo del cd. accountability report.
  • Revisione umana significativa: quando il servizio di riconoscimento facciale produce “effetti legali o altrettanto significativi sugli individui”.
  • Formazione: le agenzie governative devono fornire una formazione periodica agli operatori del servizio o alle persone che elaborano i dati personali che comprenda anche le procedure per interpretare e agire sull’output del servizio.
Note
  1. Ad esempio, laddove si integri il riconoscimento facciale in sistemi di sorveglianza possono nascere seri rischi per la privacy, la protezione dei dati personali e altri diritti fondamentali dell’uomo
  2. La sensibilità delle informazioni di natura biometrica è stata riconosciuta esplicitamente con l’inclusione nell’ambito delle categorie speciali di dati di cui all’art. 6 del Convenzione 108+. Si veda anche il Protocollo di emendamento STCE n. 223 alla Convenzione 108: https://search.coe.int/cm/Pages/result_details.aspx?ObjectId=09000016807c65bf.
  3. In applicazione di tali principi, il Garante francese ha, per esempio, già individuato quale trattamento “autorizzato” il controllo delle frontiere negli aeroporti, mentre ha “bocciato” il controllo dell’accesso degli studenti nelle scuole.
  4. Si ricorda, ad esempio, in ambito bancario, il provvedimento con cui il Garante ha vietato l’uso di un sistema di riconoscimento facciale delle fotografie poste sui documenti di identità di soggetti che abbiano presentato a banche e intermediari finanziari richieste di finanziamento, da utilizzare per prevenire furti di identità (identity theft), doc. web. n. 4807744, 25 febbraio 2016.
  5. Contrattualmente impegnata, in questo caso, a fornire un servizio di riconoscimento facciale alla Royal Canadian Mounted Police, mediante la propria intelligenza artificiale descritta così dal team: “Clearview è come la ricerca di Google per le facce. Semplicemente si carica una fotografia nell’applicazione e istantaneamente si ottengono risultati da foto segnaletiche, social media e altre fonti disponibili pubblicamente”. Clearview AI è stata fondata tre anni fa a New York City ed ha già accumulato un database di 3 miliardi di immagini di volti.
  6. Il web scraping (o web harvesting o web data extraction) è una tecnica di estrazione di dati da un sito/piattaforme web, svolta di norma mediante l’uso di bot/software automatizzati. Nel caso d’immagini, il processo è chiamato image scraping.
  7. Come, ad esempio, Google, YouTube, Facebook e Twitter.
@RIPRODUZIONE RISERVATA

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

C
Anna Capoluongo
Avvocato, DPO, Vicepresidente I.R.L.E.S.S., membro GdL sull’intelligenza artificiale (ANORC)
Argomenti trattati

Approfondimenti

D
data privacy
I
Intelligenza Artificiale