Nel 2010 i proprietari del più grande database mondiale di volti, Facebook, hanno imparato a distinguere un ritratto da un paesaggio: il social network cercava volti nelle foto ed etichettava quelle aree. A volte si sbagliava. Quattro anni dopo, Facebook era in grado di stabilire, con un’accuratezza del 97%, chi fosse raffigurato nella foto, se una persona sola o due diverse.
Si tratta di un progresso importante per Facebook, ma nel 3% dei casi il suo algoritmo perde ancora terreno nei confronti del cervello umano. Se qualcuno ci chiedesse di riconoscere una persona familiare in foto con cattiva risoluzione faremmo meglio dei computer, anche se queste immagini fossero scattate da un angolo insolito.
Ciò non è la consuetudine, dato che in genere i computer sono più accurati degli esseri umani. Perché siamo più bravi a risolvere questi problemi e in che modo i computer tentano di fare lo stesso?
Il nostro cervello affronta un duro allenamento
È emerso che una certa area cerebrale sia deputata unicamente al riconoscimento facciale. Viene chiamata circonvoluzione fusiforme e fa parte del lobo temporale e del lobo occipitale. Gli esseri umani imparano a identificare i volti fin dalla loro nascita: i neonati sviluppano quest’abilità durante i primi giorni di vita. Ad appena quattro mesi, il cervello dei bambini già distingue uno zio da un altro, e ovviamente anche le zie.
Occhi, zigomi, naso, bocca e sopracciglia sono i lineamenti chiave che ci aiutano a riconoscerci l’un l’altro. Anche la pelle è importante, specialmente il suo aspetto e il colore. È da notare che il nostro cervello tende a elaborare un volto nel suo insieme, solitamente non si concentra sui singoli lineamenti. Ecco perché siamo in grado di riconoscere le persone con facilità anche se nascondono metà del volto con una sciarpa o un pezzo di carta. Tuttavia, nel caso di un semplice collage che unisce i volti di persone famose, all’osservatore potrebbe servire un po’ di tempo per capire “chi è chi” in una foto.
Il nostro cervello memorizza volti fin dalla nascita. Gradualmente creiamo uno schema generale e lo utilizziamo per l’elaborazione facciale. Se si potesse disegnare questo schema, apparirebbe così:
L’elaborazione dei volti procede uno alla volta quando il nostro cervello confronta l’aspetto della persona con uno schema interno: se il naso della persona è più largo, le labbra più carnose, se la carnagione ha toni caldi o freddi ecc. Chi viaggia di rado, a volte dice che le persone di altre etnie si assomigliano tutte: questo perché i loro schemi sono “sensibili” ai lineamenti comuni di chi li circonda.
A proposito, anche alcuni animali sono in grado di distinguere volti, come i cani e le scimmie. Sebbene annusando ottengano molte informazioni utili, anche le immagini visive li aiutano a riconoscere altri esseri viventi. È interessante come il migliore amico dell’uomo, il cane, non solo comprenda con facilità cosa indichino i nostri gesti, ma sia anche in grado di imparare a sorridere.
Un computer come riconosce i volti?
Qual è il legame tra i sorrisi umani e l’elaborazione facciale? Queste due componenti sono quasi inseparabili perché qualsiasi espressione cambia le nostre facce al di là del riconoscimento, soprattutto per gli algoritmi dei computer.
Il software può confrontare due immagini frontali di volti e stabilire se ritraggono la stessa persona. Questi programmi lavorano come i ritrattisti: analizzano i cosiddetti punti nodali sui volti umani. Tali punti servono a stabilire i nostri: altri metodi trovano da 80 a 150 punti nodali su un solo volto.
Per esempio, sia gli artisti che i software misurano la distanza tra gli occhi, la larghezza del naso, la profondità dell’orbita, la forma degli zigomi, la lunghezza della linea mascellare e così via.
Quando cambiate l’altezza degli occhi o chiedete al modello di girare la testa, queste misurazioni si modificano. Poiché molti algoritmi di elaborazione facciale analizzano le immagini solo nello spazio bidimensionale, la prospettiva è fondamentale per un riconoscimento accurato. Volete rimanere in incognito? Per mantenere l’anonimato, nascondete gli occhi e gli zigomi dietro un paio di occhiali da sole e coprite il mento e la bocca con una sciarpa. Quando abbiamo testato lo scandaloso servizio FindFace, era in grado di riconoscere i modelli sono in ritratti frontali.
Ecco come potete ingannare i programmi di riconoscimento facciale, che funzionano con “immagini piatte”. Tuttavia, tutto cambia e sono già in circolazione degli algoritmi più avanzati.
Cosa verrà dopo?
Il nostro cervello si allena a elaborare i volti durante la crescita. L’abilità di distinguere tra “noi” e “loro” è una delle capacità necessarie alla sopravvivenza. I moderni computer sono in grado di apprendere come gli umani e di programmarsi. Per migliorare i risultati dell’elaborazione facciale delle macchine, gli sviluppatori si servono di algoritmi di autoapprendimento, e li riforniscono di centinaia di ritratti umani come se fosse un libro di testo. Non è difficile trovare queste immagini, ce ne sono un sacco online, sui social, sui siti di photo hosting, photo stock e altre risorse in rete.
Поигрались с сервисом распознавания лиц и пришли к выводу, что это реально страшная штука: https://t.co/hn1c4MnM5N pic.twitter.com/DCPec76zAn
— Kaspersky (@Kaspersky_ru) April 18, 2016
L’identificazione basata sul volto è diventata più efficiente quando gli algoritmi hanno cominciato a lavorare con i modelli in 3D. Proiettando una griglia sul volto e integrando l’acquisizione video della testa umana, il software comprende come questa persona appaia da differenti angoli. A proposito, anche nel cervello umano gli schemi sono tridimensionali. Sebbene questa tecnologia sia ancora in fase di sviluppo, sul mercato si possono già trovare diversi software.
Anche gli studi sui gesti cominciano a diffonderdi. La rappresentazione realistica delle emozioni è una miniera d’oro per l’industria dei videogiochi e una gran quantità di aziende lavora duramente per rendere i propri personaggi sempre più convincenti. La stessa tecnologia sarebbe di grande aiuto al software di riconoscimento facciale: quando questi programmi raggiungeranno la mimica umana, sapranno che quel sorriso divertito probabilmente appartiene alla ragazzina per strada.
Oltre ai modelli in 3D, gli sviluppatori lavorano su altri fronti: per esempio, la società Identix ha creato una tecnologia biometrica per il riconoscimento facciale chiamata FaceIt Argus, che analizza l’unicità della grana della pelle: linee, pori, cicatrici e altre cose del genere. I creatori di FaceIt Argus affermano che la loro elaborazione riesca a identificare le differenze tra gemelli identici, il che non è ancora possibile usando il solo software di riconoscimento facciale.
Si dice che questo sistema sia insensibile alle espressioni facciali (ammiccante, corrucciata, o sorridente) ed è capace di rimediare alla crescita di baffi e barba e alla comparsa degli occhiali. L’accuratezza dell’identificazione può essere incrementata dal 20 al 25% se FaceIt Argus viene utilizzato insieme ad altri sistemi di elaborazione facciale. D’altra parte, questa tecnologia fallisce se si utilizzano immagini a bassa risoluzione scattate in condizioni di scarsa luminosità.
Ad ogni modo, per coprire quell’eventualità esiste un’altra tecnologia. Gli informatici del Karlsruher Institut für Technologie, in Germania, hanno sviluppato la nuova tecnica che riconosce i ritratti a infrarossi dei soggetti, scattati con poca illuminazione o anche in totale oscurità.
Questa tecnologia analizza le segnature termiche umane e associa le loro immagini a medio o lontano infrarossi a foto comuni con un’accuratezza dell’80% al massimo. Maggiore è il numero di immagini disponibili, meglio funziona l’algoritmo. Quando è disponibile solo un’immagine visibile, l’accuratezza scende al 55%.
Creare un abbinamento del genere non è così semplice come potrebbe sembrare a prima vista: il punto è che non ci sono delle correlazioni lineari tra i volti alla luce normale e a quella infrarossi. L’immagine, che è costruita sulla base delle emissioni termiche, appare molto diversa da un normale ritratto scattato alla luce del giorno.
L’intensità delle emissioni dipende molto dalle temperature della pelle e dell’ambiente e perfino dall’umore della persona. Inoltre, in genere le immagini a infrarossi hanno una risoluzione inferiore alle foto normali, che non fa altro che rendere il compito più difficile.
Per risolvere questo problema, gli scienziati sono ricorsi alla macchina che apprende l’algoritmo e “nutre” il loro sistema con 1586 foto di 82 persone.
È ovunque!
Oggigiorno, le tecnologie di riconoscimento facciale sono utilizzate quasi in tutto il mondo. Di recente Uber ha presentato un programma simile in Cina per mantenere il controllo sui propri tassisti. NEC e Microsoft combinano elaborazione facciale e Internet delle Cose per consentire agli specialisti di marketing di conoscere sempre meglio i propri clienti. Allo stesso tempo, i troll del forum russo 2ch.ru utilizzano un servizio di riconoscimento facciale per attaccare online le attrici porno.
О том, как двачеры травят порноактрис и почему это может плохо кончиться для любого из нас: https://t.co/RV3DAQEaVh pic.twitter.com/GZT0izr7Ez
— Kaspersky (@Kaspersky_ru) April 22, 2016
Lo sviluppo della tecnologia del riconoscimento facciale ci farà rivalutare tutto ciò che sappiamo sulla privacy. Non avverrà oggi e neanche in un anno, ma è già ora di prepararsi. Dopo tutto, non potete sostituire la vostra faccia, vero?
Se vi chiedete quale possa essere l’esito dell’invasione tecnologica della privacy, vi raccomandiamo di vedere la mini serie britannica “Black mirror,” in particolare l’episodio “Fifteen Million Merits”.