Il fenomeno è in continua crescita e semplicemente sovrasta le capacità di risposta delle forze dell’ordine. Online si commettono decine di migliaia di reati l’anno, legati alla pedofilia o alla pedopornografia. Non c’è modo di segnalarli tutti, di seguirli, di evitarli. Bisogna prevenirli. Lo dicono gli esperti: lo squilibrio tra il numero di persone che cercano vittime e quello di agenti che tentano di ostacolarli non è “umanamente” colmabile. Bisogna andare quindi oltre l’umano, e ora si può grazie all’intelligenza artificiale (Ai).

Chatgpt, Bard e la miriade di funzioni a esse correlate esistono già. Presto ne arriveranno altre. Combatterle è inutile, abbiamo già avuto l’esperienza del luddismo e sappiamo come va a finire. Quello che si può fare è usare le cose, regolamentarle e cercare di trarne il meglio. Poi ci sarà sempre qualcuno che ne abusa, ma questo succede anche per i coltelli del pane, le zappe, le penne, le automobili, i computer o gli antidepressivi. E allora proprio per utilizzare al meglio quello che abbiamo a disposizione l’Unione europea ha finanziato lo sviluppo di un’applicazione, Salus, che grazie all’Ai dovrebbe essere in grado, una volta messa a punto, di identificare immagini e video pedopornografici bloccandoli in tempo reale. Come sempre c’è bisogno di addestrare il sistema a riconoscere i contenuti violenti, ma il processo è già in atto. Centottanta utenti stanno testando l’App in cinque Paesi: Germania, Paesi Bassi, Belgio, Repubblica d’Irlanda e Regno Unito. Il processo durerà diversi mesi.

Ma per capire esattamente cosa cercano online le persone attratte da materiale pedopornografico bisogna conoscerle bene, definire scientificamente le loro tendenze, studiare a fondo il fenomeno, magari per anni, oppure chiederlo direttamente a loro. Ed è questa strada che è stata scelta. Il progetto prevede una seconda fase nella quale saranno coinvolti volontari che in passato hanno cercato materiale pedopornografico sul web. Queste persone verranno scelte da associazioni come Lucy Faithfull Foundation, che gestiscono iniziative di assistenza per pedofili che vogliono uscire da quel mondo. Tra di loro ci possono essere anche soggetti condannati per abuso su minori che hanno avviato un cammino di recupero.

Donald Findlater, uno degli esperti che guidano il programma, ha spiegato che strumenti come la nuova App rappresentano «un aiuto pratico per le persone che riconoscono una vulnerabilità in se stesse» e vogliono superarla. Inoltre chi ha già trovato materiale pedopornografico online è sicuramente più capace di altri anche di scovare falle nell’intelligenza artificiale e di eseguire test accurati per evitare che restino zone franche nel deepweb dove la mercificazione sessuale dei minori possa continuare.

Due obiettivi in uno quindi: combattere la pedofilia e aiutare chi vuole uscire da quella condizione. L’intelligenza artificiale è uno strumento, potentissimo, ma come tutti gli altri dipende dall’uso che l’uomo è in grado di farne. Bisognerà farci l’abitudine.

Iscriviti alla nostra newsletter

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione