Timeo Danaos et dona ferentes, sono le parole che Virgilio fa pronunciare a Laocoonte, per dissuadere, senza successo, i Troiani dall’accogliere nella città il cavallo di legno lasciato dai Greci. Sono parole che, egualmente senza successo, qualcuno magari avrà pronunciato – o avrebbe dovuto pronunciare – al Governo ucraino quando ClearviewAI, la società di riconoscimento facciale che batte bandiera americana, gli ha offerto gratuitamente i propri servizi per – stando a quanto ha riferito tra le prime la Reuters – “scoprire assassini russi, combattere la disinformazione e identificare i morti”.
Il Governo ucraino, tuttavia, sembrerebbe aver accettato l’offerta di Clearview e starebbe utilizzando i suoi servizi a scopi non meglio precisati. Naturalmente è difficile stando comodamente seduti davanti a un pc in Italia dire che il Governo di Kiev avrebbe dovuto respingere al mittente la proposta. Troppo facile farlo senza il fragore di missili e bombardamenti diventato, ormai, un suono quotidiano, senza avere costantemente davanti agli occhi quelle immagini di corpi dilaniati dalle esplosioni, senza ascoltare le urla disperate di persone che vorrebbero anche solo sapere se i loro figli o i loro genitori sono vivi o morti. Sorge, persino, il sospetto di avere il diritto di commentare certe decisioni assunte in un contesto che non ha niente di ordinario, niente di naturale e, soprattutto, niente ma niente per davvero di umano.
E, quindi, è in punta di dita, con tutto il rispetto che si deve a chi sta vivendo un dramma del quale, probabilmente, da qui, si fa persino fatica a cogliere l’intensità e a chi è chiamato ad assumere decisioni immediate e da tempo di guerra che mi permetto due considerazioni a bassa voce, ma a basa voce davvero.
ClearviewAI, come è probabilmente ormai noto ai più, ha per anni pescato a strascico nel web globale miliardi – dieci per l’esattezza – di immagini di miliardi di persone, ne ha estratto un’impronta biometrica e oggi vende alle polizie di mezzo mondo un servizio attraverso il quale, data la fotografia del volto di una persona, promette di ricondurla a un’identità, a un nome, a un cognome, a un Paese di residenza e a una serie di altre informazioni, tante quante sono quelle associate alle immagini presenti nel suo database su questo o quel social network.
La prima necessaria considerazione in relazione all’uso dei servizi della società americana da parte del Governo ucraino, dunque, è che si tratta di servizi incapaci, per definizione, di identificare in maniera certa, univoca e sicura una persona per tante ragioni diverse. Gli algoritmi di riconoscimento facciale, innanzitutto, sono ancora fallibili e potrebbero suggerire riconoscimenti errati. E, anche a prescindere dalla fallibilità degli algoritmi, il punto è che la circostanza – l’unica che ClearviewAI è in grado di documentare – che un’immagine risulti associata a un nome e a un cognome su un social network, naturalmente, non è sufficiente per identificare per davvero chicchessia, semplicemente perché le associazioni di foto e immagini nell’universo social possono essere figlie di errori, di scherzi, di giochi, di malizie, astuzie e frodi di ogni genere.
Tanto basta – o almeno dovrebbe – per provare a immaginare quali drammatiche, disastrose, talvolta irreparabili conseguenze potrebbe determinare l’uso dei servizi di ClearviewAI per “scoprire assassini russi, combattere la disinformazione e identificare i morti”. E questo specie in tempo di guerra, quando il tempo per assumere ogni decisione è ridotto al minimo, le garanzie i diritti e le libertà sono necessariamente attenuate, l’emotività il dolore e la rabbia giocano un ruolo importante in ogni scelta da chiunque assunta.
Confondere un cittadino ucraino con un assassino russo può voler dire uccidere un innocente, trattare un fratello da nemico. Confondere un cittadino ucraino caduto in guerra con un altro può voler dire far piombare la famiglia sbagliata in un dolore senza fine e ritardare a comunicare alla famiglia del caduto una notizia che ha diritto a ricevere pur essendo l’ultima che vorrebbe ricevere.
E c’è poi una seconda considerazione più difficile da fare della prima, più difficile da indirizzare a un Governo, come quello ucraino, aggredito in casa propria, assediato da settimane, colpito con colpi di cannone, missili e mortaio. Ma non è meno importante. Il fine non giustifica i mezzi, la dignità e i diritti delle persone non possono essere travolti e calpestati neppure in guerra, un servizio realizzato facendo carne da macello del diritto alla privacy e all’identità personale di miliardi di persone resta illecito, pirata, fuori legge anche se usato in guerra, anche se usato a fin di bene. E ClearviewAI funziona, per come funziona, perché ignorando i diritti di miliardi di persone a scegliere se lasciar finire o meno il loro volto nello stomaco di un algoritmo ha dato quei volti in pasto ai suoi algoritmi. Non è vero, non deve essere vero che tutto quello che è tecnologicamente possibile può considerarsi giuridicamente legittimo e democraticamente sostenibile. E se cediamo a questo principio, anche se solo in un contesto di emergenza, quando l’emergenza non ci sarà più ci ritroveremo inesorabilmente con la soglia di comprimibilità dei diritti fondamentali alzata oltre il limite della sostenibilità democratica e sarà difficile riabbassarla.
Quel drammatico 11 settembre 2001 in nome del quale abbiamo rinunciato, davanti a un’emergenza dettata da una sorta di dichiarazione di guerra globale, a decine di diritti e garanzie che rendevano le nostre democrazie più solide è lì a ricordarcelo: che si parli di intercettazioni, accesso a dati personali, perquisizioni personali, body scanner, scambi di dati di volo, accumulo di dati di traffico telefonico, nessuna delle misure eccezionali adottata in quei mesi drammatici è stata poi mandata in pensione quando quell’emergenza è, almeno, rientrata sotto livelli di guardia.