Vai al contenuto

Riconoscimento facciale: il tuo viso a beneficio di aziende e governi?

Il riconoscimento facciale e il suo impatto sulla privacy
Tempo di lettura - 4 minuti

Sono passati più di due anni da quando Apple usciva con il suo nuovo iPhone X che implementava, fra le tante novità, il Face ID, un sistema che consente il riconoscimento facciale in 3D.

Due anni da quando Forbes mise alla prova l’impenetrabilità di questa tecnologia utilizzando la stampa 3D della testa di uno dei propri giornalisti. Riuscendo a sbloccare tutti i dispositivi Android coinvolti nel test, ma non gli iPhone di Apple.

I suoi utilizzi

Dallo sblocco del telefono ai pagamenti mobile, la tecnologia legata al riconoscimento facciale è ormai divenuta popolare e diffusa su molti altri dispositivi e contesti.

Nelle videocamere di sorveglianza, nei supermercati, nelle scuole e nei campi estivi (e non solo limitato agli ingressi dell’edificio), collegato con il chip biometrico della carta d’identità, nei passaporti, nelle patenti di guida, per l’acquisto di una SIM e la navigazione su internet (anche da casa).

Dilemma tra uso e abuso (illecito)

Quando usata in luoghi pubblici ecco riemergere dubbi, assolutamente legittimi, in merito a:

  • una diminuzione della privacy dei cittadini in nome della sicurezza;
  • quale sia l’utilizzo che viene fatto dei dati raccolti;
  • a un controllo oppressivo ed eccessivo di ogni azione dei cittadini (ovvero una sorveglianza di massa).

Dovremo attendere il prossimo 19 febbraio (giorno in cui si discuterà anche del mercato dei dati) per conoscere il Libro bianco sull’Intelligenza artificiale (IA) dell’Unione Europea.
Avrà l’arduo compito di fornire le risposte ai cittadini e al Gruppo di alto livello della Commissione europea su IA (composto da 52 esperti tra cui Luciano Floridi, Stefano Quintarelli, Andrea Renda) in merito a:

  • l’identificazione biometrica (come il riconoscimento facciale);
  • l’uso di sistemi autonomi di armi letali (come i robot militari);
  • la profilazione dei bambini con sistemi di Intelligenza artificiale;
  • l’impatto dell’IA sui diritti fondamentali dell’uomo.

Nella bozza pubblicata da Euractiv qualche anticipazione:

L’uso di tecnologie di riconoscimento facciale da parte del settore pubblico o da quello privato dovrebbe essere vietata per un periodo di tempo (da tre a cinque anni), durante il quale una metodologia per valutare l’impatto di queste tecnologie e possibili misure per mitigare i rischi possano essere identificate e sviluppate.

Rischi legati alla privacy e alle possibilità di falsi positivi, con tutti i guai che questo potrebbe creare in sede di processo.

Uniche eccezioni al divieto potrebbero essere fatte per i progetti di sicurezza e per la ricerca e lo sviluppo.

Come lo usano le Big Five

Le big five dell’hi-tech che sviluppano questa tecnologia (Microsoft, Google, Facebook, Apple e Amazon) sono ovviamente parte importante di questo delicato dibattito.

Facebook, ad esempio, seppur stia conducendo test per sbloccare l’app di Messanger tramite riconoscimento facciale, utilizzerà immagini che non saranno inviate ne memorizzate nei server Facebook.

telecamere abuso
Foto di Etienne Girardet su Unsplash

Come si usa nelle diverse nazioni

Quando si parla di riconoscimento facciale il pensiero si rivolge immediatamente alla Cina. In realtà nella lista degli sperimentatori del riconoscimento facciale figurano anche paesi saldamente appartenenti al novero delle democrazie.

In Italia, c’è il SARI (Sistema Automatico di Riconoscimento Immagini). Tale sistema presuppone che vengano catturate immagini non solo dei criminali coinvolti in un’indagine, ma anche di tutte le altre persone che si vengono a trovare nell’area di interesse.
E su cui attivisti ed esperti di privacy, oltre a un’interrogazione parlamentare, cercano inutilmente di fare chiarezza.

Ma mentre l’Italia e l’Europa si interrogano sull’impiego del riconoscimento facciale nei luoghi pubblici per garantire la sicurezza della collettività, di diverso avviso gli USA e la Gran Bretagna.

Stando a quanto dichiarato dal New York Times in USA si registrano sperimentazioni condotte da FBI, Dipartimento per la sicurezza interna nonchè polizie a livello locale su Clearview, una applicazione che consente di risalire, da una singola immagine di una persona, a tutte le foto pubbliche dell’interessato o dell’interessata. Inclusi i link di dove queste foto appaiono.

Dal mese di febbraio, invece, la polizia metropolitana di Londra (MET) inizierà a usare il sistema di riconoscimento facciale in tempo reale. Un sistema di controversa precisione che confronta migliaia e migliaia di immagini con quelle conservate in un data-base di volti di persone ricercate. In luoghi particolarmente affollati o in zone che presentano un alto tasso di criminalità.
Del resto Londra, con quasi mezzo milione di telecamere operanti col sistema tradizionale, è la seconda città più sorvegliata al mondo.

Conclusioni

È possibile escludere la presenza di errori? Che utilizzo viene fatto di queste immagini? È giusto, se dovesse capitare, che vengano tenute nel database immagini e informazioni relative a persone innocenti? Chi può avere accesso a questi dati?

Ma soprattutto come saremo tutelati dall’uso di immagini realistiche generate interamente da un’intelligenza artificiale che potrebbe essere utilizzata per manipolare le informazioni fornendo prove fotografiche di avvenimenti mai esistiti?

Mi viene in mente il generatore di volti di Rosebud Ai, società di San Francisco, che prende il nome di Generative.photos.

Mette a disposizione gratuitamente una collezione di 25mila foto in alta risoluzione, personalizzabili e interamente generate da un’intelligenza artificiale.

«Generative.photos è un primo passo della nostra offerta di foto sintetiche e Api, che alla fine consentirà agli utenti di modificare e sintetizzare completamente i contenuti visivi con un’interfaccia intuitiva. Tutti i volti della nostra raccolta di 25mila foto non sono persone reali»

Lisha Li – fondatrice di Rosebud Ai

Cosa è certo è che sul riconoscimento facciale si giocherà una buona parte delle presenti e future battaglie per difendere i diritti umani, battaglie ridotte a dati e analisi di dati.

Impensabile si possa imporre alla cittadinanza con noncuranza, senza dibatterne in modo democratico prima, e senza pensare alle conseguenze che produrrà nel tessuto sociale e nella vita di ogni individuo.

Immagini collegate:

Antonella Bruzzone

Antonella Bruzzone

Founder del blog ConsapevolMente Connessi, Ingegnere Informatico appassionata di CyberSecurity approdata da qualche anno al Coaching. Un mix di competenze che sa farmi apprezzare le opportunità offerte dalla trasformazione digitale in cui viviamo, ben consapevole dei rischi insiti in essa. Perché la onlife è come un salto con lo skateboard: potresti cadere, lo sai, ma è altrettanto vero che, con la giusta guida, potresti imparare a chiudere i trick più difficili.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

error: Il contenuto è protetto