Fra luglio e settembre Facebook ha cancellato 8,7 milioni di immagini di nudità infantile grazie all’aiuto dell’Intelligenza Artificiale (AI), che passa al setaccio tutto il materiale pubblicato sul social network e segnala potenziali violazioni delle norme.
Questa iniziativa fa parte dell’impegno dell’azienda nel contrastare la pedopornografia online e lo sfruttamento dei minori. Per un essere umano sarebbe impossibile esaminare ogni singola immagine pubblicata, per questo è indispensabile l’apporto dei computer. In particolare, Facebook ha messo in campo una tecnologia di apprendimento automatico basata su AI, sviluppata e implementata nell’ultimo anno. Il sistema è in grado di riconoscere sia i bambini che la nudità, consentendo di applicare meglio il divieto di Facebook di pubblicare foto che mostrano i minorenni in un contesto sessuale.
Un’altra tecnica attivata consente l’identificazione degli utenti impegnati nel “grooming”, ossia nel tentativo di adescare minori ai fini dello sfruttamento sessuale. In sostanza, l’intelligenza artificiale si accorge se un adulto sta tentando di contattare più bambini in tempi brevi, e segnala ai revisori la necessità di bloccare la sua attività.
Accorpando i dati e passando le segnalazioni ai moderatori in carne e ossa, è stato possibile rimuovere il 99% delle immagini prima che qualche utente le segnalasse. Il capo della sicurezza globale di Facebook, Antigone Davis, ha infatti sottolineato che “il sistema ci aiuta a stabilire le priorità” e ad adottare un sistema di controllo più efficiente.
La tecnica non è perfetta, tant’è vero che ci sono state diverse lamentele da parte di agenzie pubblicitarie e non solo, per la cancellazione di immagini che nulla avevano a che vedere con la pedopornografia. Facebook però ha una posizione condivisibile: meglio sbagliare a favore dei bambini (cioè eccedere) che il contrario. In caso di errori gli utenti possono fare appello contro il provvedimento adottato.
Il cambiamento di rotta rispetto al passato è notevole perché, prima che fosse introdotto il nuovo software, Facebook doveva fare affidamento sulle segnalazioni degli utenti o sui filtri per la nudità degli adulti, strumenti non molto efficaci nel contesto della tutela dei minori.
A pensarci bene, queste tecnologie sono simili a quelle adottate sulla app di Instagram e sono ormai un mezzo indispensabile e preziosissimo per contrastare in maniera efficace una delle maggiori insidie della Rete per i minori: la pedopornografia. Per dare una misura del problema, il NCMEC si aspetta quest’anno di ricevere circa 16 milioni di segnalazioni di pornografia infantile da Facebook e altre aziende tecnologiche, rispetto ai 10 milioni dell’anno scorso. Senza software di apprendimento automatico che setacciano miliardi di immagini, non sarebbe possibile portare avanti l’azione necessaria di controllo capillare e preventivo.
Detto questo, il problema non è comunque risolto, e i genitori dovrebbero tenere alta la guardia, perché applicazioni come le chat crittografate non permettono alcun controllo con sistemi di apprendimento automatico. In altre parole, con programmi come WhatsApp o Telegram non si possono condurre controlli, così come nei meandri del cosiddetto “dark web“, cioè il lato oscuro di Internet, irraggiungibile con i normali browser di navigazione.
Chiudiamo con un invito ai genitori dei minori, che spesso hanno lamentato la cancellazione dai social network di foto innocenti in cui i loro bambini erano ritratti nudi – magari perché in spiaggia: le foto dei bambini su Facebook piacciono moltissimo ai pedofili. Magistrati e forze dell’ordine, anche italiani, esortano a limitarne il più possibile la pubblicazione, per impedire che siano proprio i genitori ad agevolare i pedofili e la loro perversione. Non vedetela come una limitazione, ma come un gesto di tutela nei confronti dei vostri figli.