Seguici
Iscriviti alla nostra newsletter

    Come ridurre i danni della manipolazione online

    Le tecnologie dei media sintetici, popolarmente conosciute come deepfake, potrebbero essere sfruttate a scopi positivi, seguendo una serie di indicazioni di carattere generale.

    di Aviv Ovadya

    La sintesi vocale, per esempio, ci permetterà di parlare in centinaia di lingue con la nostra stessa voce. La sintesi video può aiutarci a simulare incidenti in auto senza conducente per evitare errori in futuro. E la sintesi del testo può accelerare la nostra capacità di scrivere in stili del tutto diversi. 

    Ma questi progressi possono avere un costo enorme se non si presta attenzione al fatto che le stesse tecnologie sottostanti possono anche consentire l’inganno con conseguenze di tipo globale. Per fortuna, possiamo mitigarne il pericolo. Ci vorrà solo un duro lavoro. 

    Quello che sto discutendo qui è un invito all’azione per intreprendere questo lavoro e una guida per supportare quelli di noi che creano tale tecnologia, sia che stiamo facendo ricerche pionieristiche, sviluppando nuovi prodotti o semplicemente creando sistemi aperti a scopo ricreativo. 

    Si può obiettare: “Non c’è niente che possiamo fare se le persone abusano degli strumenti tecnologici”. Invece ci sono cose che si possono fare; è solo che spesso si evita di farlo. Si dice anche: “Questa tecnologia funziona così”; non è del tutto falso, ma il come e il quando contano in modo significativo e possono cambiare a seguito delle nostre scelte (Per ulteriori informazioni si può consultare il nostro documento completo, in particolare la Sezione 2 sugli aspetti più negativi).

    Infine, non possiamo nasconderci dietro il banale riconoscimento che “c’è sempre stato un inganno”, ignorando le differenze significative in grado e impatto rispetto agli anni precedenti.

    I costi della tecnologia deepfake non sono solo teorici. I video sintetici di scambio di volti vogliono intimidire i giornalisti; le voci sintetiche vengono utilizzate per importanti transazioni fraudolente e la manipolazione dei volti è legata ad azioni di spionaggio.

    Al di là delle attuali sfide poste dall’utilizzo di software hackerato di qualità beta, gli ostacoli all’uso dei media sintetici sono tali che la tecnologia non appare ancora convincente, ma con il passaggio di questi strumenti da qualche esperto di laboratorio alle mani di miliardi di persone, si impone la responsabilità di evitare gli scenari peggiori, rendendo il più difficile possibile usare deepfake per ingannare. Come è possibile farlo?

    Approccio 1: limitare chi può usare uno strumento … e come
    Ci sono molte cose che possiamo fare che rendono molto meno probabile l’uso a scopo di inganno. Un approccio ovvio, semplice ed efficace è quello di controllare rigorosamente coloro che possono utilizzare uno strumento. Questo è ciò che stanno facendo aziende come Synthesia, essenzialmente lavorando solo con clienti aziendali che rispettano alcune regole. 

    Un’alternativa è limitare ciò che gli utenti possono sintetizzare. Per esempio, è possibile creare strumenti per garantire che solo determinate voci o volti preselezionati possano essere manipolati. Questo è ciò che Humen sta facendo: fornire una serie limitata di movimenti che la persona in un video generato può fare. Tuttavia, queste potrebbero non rappresentare opzioni praticabili per molti sistemi. Quindi cos’altro si può fare?

    Approccio 2: scoraggiare l’uso dannoso
    Per strumenti di supporto sintetici di valore generale e ampiamenti disponibili, ci sono ancora molti modi possibili per ridurre l’uso dannoso. Ecco alcuni esempi.

    Divulgazione chiara: richiedere che i media sintetizzati siano chiaramente indicati come tali, in particolare il materiale che potrebbe essere utilizzato per indurre in errore. Gli strumenti potrebbero essere in grado di supportarlo includendo avvisi visivi o sonori chiari nei file di output, come avvisi visibili o divulgazioni vocali. Come minimo, i metadati dovrebbero indicare come i media sono stati sintetizzati o manipolati.

    Protezione del consenso:  chi viene impersonato deve essere d’accordo. Lo strumento di clonazione vocale
    Lyrebird richiede agli utenti di pronunciare frasi particolari per modellare la propria voce. Ciò rende più difficile impersonare qualcuno senza consenso, il che sarebbe molto più semplice se generasse semplicemente voci utilizzando qualsiasi set di dati fornito. Questo, ovviamente, è applicabile solo agli strumenti che consentono l’impersonificazione. 

    Facilità di rilevamento: assicurarsi che i media sintetizzati non siano eccessivamente difficili da rilevare;
    mantenere aggiornati gli strumenti di chi monitora;
    collaborare con coloro che lavorano al rilevamento per tenerli aggiornati su nuovi sviluppi.

    Filigrane nascoste: incorporazione di filigrane robuste, difficili da rimuovere, come nel caso delle filigrane audio di Modulate.ai, filigrane audio o prodotti come Imatag o i loro equivalenti open source che prevedono la filigrana per le immagini).

    Registri di utilizzo: archivia le informazioni sull’utilizzo e sui risultati multimediali in modo che i ricercatori e i giornalisti possano accedere per identificare se, per esempio, un video è stato sintetizzato utilizzando uno strumento specifico. Ciò potrebbe includere la memorizzazione di una marca temporale di sintesi con un hash robusto o incorporamento dei media.

    Limitazioni d’uso: fornire e applicare termini d’uso contrattuali che vietano e penalizzano azioni indesiderate, come il tentativo di rimuovere comunicazioni informative o filigrane o violare il consenso di altre persone. Una versione più avanzata di questa tecnica prevede l’elaborazione esplicita degli usi consentiti della tecnologia o degli output.

    Non tutte queste strategie sono applicabili a tutti i sistemi. Alcuni possono avere i loro rischi e nessuno è perfetto, o sufficiente da solo. Fanno parte nell’insieme di una “difesa su più fronti”. Anche in presenza di controlli o vincoli, questi approcci rendono un sistema meno aggredibile da chi lo vuole attaccare. 

    E mentre seguire queste regole potrebbe funzionare meglio per i sistemi “software as a service”, vale a dire un modello di distribuzione del software applicativo dove l’applicazione web viene messa a disposizione dei clienti via Internet, potrebbero comunque rappresentare un valore per strumenti e modelli open source.

    Molti malintenzionati non avranno le capacità tecniche per aggirare queste misure di protezione (iNella prima parte, l documento completo esplora quando pubblicare il codice sorgente). 

    Supporto di strumenti etici di deepfake 
    Fare un lavoro extra per proteggere le persone dai pericoli può essere difficile da giustificare nel contesto economico competitivo odierno, fino a quando non si verifica una catastrofe irreversibile. Quindi, come possiamo aiutare a garantire che questi approcci siano implementati prima che sia troppo tardi? Qui ci sono quattro iniziative che finanziatori, governi, giornalisti e il pubblico possono intraprendere da subito per supportare coloro che creano strumenti etici per i media sintetici. 

    Rendere facile la cosa giusta
    Ciò significa investire nella ricerca in tutti questi settori in modo da disporre di strumenti ampiamente disponibili, ben finanziati e open source per attuare questi approcci. La storia della sicurezza delle informazioni mostra che quando si possono usare strumenti open source facili da usare per proteggere i materiali, la sicurezza aumenta.

    Qui si applica la stessa logica: è rapidamente necessario rendere più semplice fornire metadati, filigrane e registrazione standardizzati. C’è anche bisogno di ricerche per scoprire se è fattibile definire la rilevabilità in modelli addestrati prima della distribuzione. Senza questo tipo di infrastrutture e ricerche, si vedranno molti nuovi strumenti caratterizzati da ottime intenzionati, ma utilizzati in modi decisamente discutibile. 

    Promuovere la competenza nel controllo degli abusi
    Proprio come nella privacy e nella sicurezza, si devono sostenere le comunità che implementano i sistemi di contrasto ai malintenzionati, e le aziende devono pagare le persone per fare questo lavoro, sia come consulenti sia come interni.

    Evitare il finanziamento, la progettazione e la distribuzione di strumenti impropri
    Gli sviluppatori dovrebbero ostacolare politiche poco chiare delle aziende. I produttori di strumenti che non implementano le migliori pratiche sopra elencate devono avere ottime ragioni per farlo e gli app store dovrebbero imporre delle impostazione predefinite.

    Creare norme per “colpire” le persone responsabili
    Se qualcuno è negligente, dovrebbe essere sanzionato. Si possono creare norme etiche che valorizzano coloro che fanno la cosa giusta e tengono ai margini quelli che le rispettano.

    Le organizzazioni che promuovono la tecnologia deepfake, come Nvidia, Adobe, Facebook e Google, dovrebbero adeguarsi a queste regole. Anche i venture capitalist e le fondazioni dovrebbero fare la loro parte nel sostenere questo lavoro ed essere attenti a chi supportano. 

    Questa è solo una parte delle politiche necessarie, e in molti casi possono farci guadagnare solo del tempo. Ciò significa che è indispensabile garantire che le piattaforme e chi ha delle responsabilità utilizzino saggiamente questo tempo per rendere il nostro ecosistema di informazioni più resiliente.

    Aviv Ovadya è il fondatore del Thoughtful Technology Project  e collabora con German Marshall Fund’s Alliance for Securing Democracy del German Marshall Fund. 

    (rp)

    Related Posts
    Total
    0
    Share