Una ricerca della New York University ha dimostrato che usando l'intelligenza artificiale si possono creare impronte digitali false capaci di ingannare i sistemi di sicurezza veri. Si potrebbero usare come passepartout negli attacchi su larga scala.
Le impronte digitali sono sempre più usate per accertare l’identità di un individuo: per aprire le porte, per proteggere smartphone e computer, per autorizzare pagamenti. Grazie ai lettori di impronte digitali ci sentiamo più al sicuro, ma forse non dovremmo. In una ricerca della New York University, infatti, è esposto un metodo per generale impronte digitali false che ingannano i sensori biometrici. Il risultato è che i falsi hanno fatto registrare un tasso di errore di uno su cinque nel migliore dei casi. Nei sistemi più sicuri però la percentuale crolla all’8,61%.
Per capire cosa hanno fatto i ricercatori bisogna prima sapere come funziona un sensore biometrico. Nella maggioranza dei casi, il sensore non rileva l’impronta completa, ma solo un certo numero di punti. Pertanto l’identità di una persona viene accertata mediante il riscontro fra la scansione parziale appena eseguita e quelle – sempre parziali – presenti nel database.
I ricercatori hanno sfruttato una rete neurale per generare impronte digitali artificiali che funzionino alla stregua di un “passepartout” per sbloccare i sistemi di identificazione biometrica. Una “DeepMasterPrints” come l’hanno chiamata, una serie di impronte digitali false, fra cui una potrebbe prendere per il naso un sistema di autenticazione.
Tutto sfruttando due proprietà note dei sistemi di autenticazione. Il primo, di cui abbiamo già parlato, è appunto che la maggior parte dei lettori di impronte digitali non legge l’intero polpastrello, con quello che ne segue. Il secondo è che alcune peculiarità delle impronte digitali sono più comuni di altre (l’unicità delle impronte è data da una combinazione unica di fattori, non dal fattore singolo). Ecco che, quindi, un’impronta falsa potrebbe corrispondere casualmente a una o più impronte parziali presenti nel database.
I ricercatori hanno usato l’intelligenza artificiale e una tecnica di apprendimento automatico ben nota, chiamata generative adversarial network (in italiano rete antagonista generativa). La richiesta era di generare artificialmente impronte digitali che corrispondessero al maggior numero possibile di impronte parziali. Il computer si è messo al lavoro e ne ha prodotte diverse, peraltro sfornando falsi che all’occhio umano sembravano una vera impronta digitale. Questo significa che a un’ispezione visiva passerebbero indenni. Esperimenti analoghi condotti in passato, invece, avevano realizzato impronte che erano facilmente smascherabili con un’occhiata.
In soldoni, cosa significa? Che un malintenzionato potrebbe usare un’impronta parziale falsa per violare un sistema, facendosi identificare come un utente a caso fra quelli accreditati. Una tecnica che potrebbe essere efficace in attacchi su larga scala, dove un maggior numero di riscontri possibili alza la percentuale di un potenziale successo.
L’evoluzione tecnologica, come sempre, porta con sé vantaggi e svantaggi. Per limitare gli effetti collaterali occorre adeguare continuamente le contromisure, di modo che non perdano di efficacia. È anche grazie a ricerche come questa se spesso si riesce a prevenire, o almeno contenere, i danni.