INTELLIGENZA ARTIFICIALE
ANCHE LA SEGRETARIA GENERALE DEL CONSIGLIO D’EUROPA VERTICE DI BLETCHLEY PARK

 

Anche chi non è incline agli anglicismi dovrà forzatamente imparare la parola deepfake. Coniata nel 2017 questa crasi tra “profondo” (deep) e falso (fake) indica una tecnica per la sintesi dell’immagine umana basata sull’intelligenza artificiale. In pratica si possono creare foto e video che ritraggono persone che sembrano reali ma non esistono, oppure creare false immagini di celebrità o gente comune che fa cose che in realtà non si è mai sognato di fare. La tecnica è in corso di perfezionamento anche per quanto riguarda le voci, ma è già possibile riprodurre la voce di chiunque che dice qualsiasi cosa in una lingua a scelta. Non possiamo quindi escludere l’uscita a breve di un “nuovo” brano di Elvis Presley che canta Maledetta primavera in malayalam o un discorso del presidente degli Stati Uniti Joe Biden sul fuorigioco nell’era del Var. Ovviamente la fantasia dei più “perspicaci” si è già esercitata nella creazione di falsi video ritraenti celebrità o ex fidanzate in momenti intimi che non hanno mai avuto.

Dalla satira al cyberbullismo, dalle fake news alle truffe, dai crimini informatici alle bufale, tutto può passare attraverso il filtro del deepfake, che non rende le cose vere, ma le mostra come credibili. E proprio per sottolineare la necessità di definire e riconoscere il confine tra autentico e falso la segretaria generale del Consiglio d’Europa (Coe), Marija Pejčinović Burić, ha partecipato al Vertice sulla sicurezza dell’intelligenza artificiale a Bletchley Park, nel Regno Unito. La segretaria generale ha ribadito l’intenzione di continuare a collaborare con gli Stati membri e non membri, nonché con la società civile e le organizzazioni del settore privato di tutto il mondo, per superare le sfide transfrontaliere e prevenire la discriminazione. Marija Pejčinović Burić ha inoltre rimarcato i pericoli derivanti dall’uso dei deepfake nelle campagne politiche come strumento di manipolazione e disinformazione.

Dall’incontro è scaturita una Dichiarazione congiunta che coinvolge Paesi decisi a comprendere e gestire collettivamente i potenziali rischi attraverso uno sforzo globale congiunto per garantire che l’intelligenza artificiale (Ia) sia sviluppata e implementata in modo sicuro e responsabile a beneficio della comunità globale. In primo luogo è stato posto un forte accento sulla promozione della cooperazione internazionale per navigare il complesso panorama della sicurezza. La dichiarazione prevede inoltre l’adesione a standard di sicurezza elevati nella progettazione, nello sviluppo e nell’implementazione dei sistemi di Ia. I partecipanti hanno poi messo in luce l’importanza della trasparenza e della responsabilità nei sistemi di Ia e la necessità che si lavori in un clima di condivisione della ricerca per accelerare la comprensione globale e la mitigazione dei rischi. Ma il punto più importante, e al tempo stesso la criticità maggiore, resta, come in ogni cosa, la bussola morale che deve guidare l’agire dell’umanità. In sostanza la necessità assoluta che le tecnologie di Ia rispettino i diritti umani, la privacy e i valori democratici.

La stessa cosa si potrebbe dire di qualunque creazione della mente umana, dalla ruota allo Shuttle. E come è sempre accaduto ci sarà qualcuno che vuole controllare le nuove scoperte o l’invenzione del momento. Lo scontro è già iniziato e, per fare solo l’esempio più eclatante, proprio mentre in Europa sta nascendo un laboratorio sull’Ia che sembra seguire le orme di OpenAI, la società californiana ha licenziato in tronco il suo Amministratore delegato, Sam Altman. Nel 2015 OpenAI era una dei tanti esperimenti no profit in giro per il mondo. Diventata popolare alla fine dell’anno scorso dopo aver rilasciato al pubblico ChatGPT, uno strumento di elaborazione del linguaggio naturale potente e versatile che utilizza algoritmi avanzati di apprendimento automatico per generare risposte simili a quelle umane all’interno di un discorso, ecco che le prime increspature sulla gestione del successo globale sono cominciate ad apparire. Fino ad arrivare alla rimozione di Altman con la motivazione che non sarebbe sempre stato «candido nelle sue comunicazioni con il consiglio di amministrazione, ostacolando le sue capacità all’esercizio delle sue responsabilità». Comunque sia andata veramente, è evidente che la gestione di strumenti così potenti non è mai indolore.

Di certo l’intelligenza artificiale sarà regolamentata e saranno anche previste sanzioni per chi non rispetta i patti. La questione che rimane aperta, come nel caso dei Diritti Umani, è sempre la stessa: chi farà rispettare gli accordi?

Iscriviti alla nostra newsletter

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione