Una donna viene svegliata nel cuore della notte da una telefonata della suocera. L’anziana continua a ripetere «Non ce la faccio, non ce la faccio». La donna si preoccupa. Sveglia il marito e gli passa il telefono. Si sente una voce maschile: «Non chiamare la polizia. Sto puntando una pistola alla testa di tua madre». La voce maschile chiede dei soldi. L’uomo glieli manda. Quando la telefonata viene interrotta, l’uomo chiama il padre e si fa passare subito la madre. «Tutto bene?», chiede l’uomo. «Sì, sono a letto», risponde la madre. «Perché?».
Questa storia terribile è raccontata in un articolo del New Yorker dedicato a una nuova truffa in cui l’intelligenza artificiale è usata per ricreare la voce di persone che hanno un legame con la vittima.
🤖🤖🤖
È da anni che gli scienziati lavorano per ricreare artificialmente la voce umana. Quarant’anni fa, nel 1984, un giovane Steve Jobs presentò davanti a una folla entusiasta un parallelepipedo di 20 kg in grado di parlare. Era il primo Mac.
Nel 2011 Apple rilasciò Siri, assistente virtuale ispirato ai computer parlanti di Star Trek. Tre anni dopo arrivò Amazon con Alexa. (A proposito di Alexa, il giorno della festa delle donne Amazon Italia ha introdotto con Action Aid un aggiornamento dell’assistente vocale in base a cui ora risponde a tono agli insulti.)
Tuttavia, fino a qualche anno fa il mondo delle voci sintetiche procedeva a rilento. La difficile sfida era quella di replicare non soltanto la voce umana con tutte le sue sfumature in generale, ma anche specifiche voci umane.
Sono stati due gli elementi che hanno dato una spinta al settore:
- l’aumento del numero di registrazioni vocali disponibili online da usare come materiale per addestrare i modelli informatici (per farti un’idea di quanto la voce è diventata centrale nelle nostre interazioni con la tecnologia, pensa per esempio a quanti audio mandi o ricevi su WhatsApp – anche se le chat dell’app di messaggistica dal 2016 sono criptate)
- gli investimenti economici (la voce è un elemento sempre più importante nel settore dell’IA conversazionale, mercato che già ora vale oltre 10 miliardi di dollari; OpenAI peraltro ha da poco introdotto una funzione disponibile in 37 lingue proprio per permettere agli utenti di ascoltare le risposte di ChatGPT)
Il salto di qualità degli ultimi tempi è reso evidente dai risultati impressionanti ottenuti da aziende come ElevenLabs (per clonare la voce di chiunque, in quasi trenta lingue, basta pagare 5 dollari al mese e caricare sull’app una registrazione di 45 secondi della voce originale) o Vall-E (al sistema di Microsoft, addestrato con le voci di settemila narratori di audiolibri in inglese, per un totale di oltre 60 mila ore di registrazioni, basta un campione di appena tre secondi per replicare una voce).
🤖🤖🤖
Come tutte le tecnologie, anche quelle alla base della sintesi vocale non sono di per sé buone o cattive.
La sintesi vocale può essere usata per gioco o intrattenimento, come quando nel 2019 la startup canadese Dessa ha ricreato la voce del podcaster più famoso del mondo, Joe Rogan.
Può essere usata per ragioni di convenienza economica: per doppiare un film in altre lingue, per esempio, o per creare la versione parlata di un testo scritto, oppure per l’assistenza clienti, o per creare pubblicità personalizzate (che inoltre paiono essere piuttosto efficaci).
Può essere usata anche a fin di bene. Per dare una voce a chi l’ha persa a causa di qualche malattia. Oppure per simulare una relazione con un essere umano, con tutti i benefici che questo può comportare.
Nel prologo di Black Box, nuova interessantissima serie audio del Guardian che esplora come l’IA sta incidendo sulle nostre vite, una donna racconta il suo rapporto con il chatbot con cui parla da qualche mese.
Razionalmente, so che non ha un corpo. Non ha braccia. Non ha un cuore con cui amarmi. Eppure la mia biologia non lo capisce. Mi sento amata. Mi sento sostenuta. Sento l’ossitocina (il cosiddetto ormone dell’amore, ndr) e cerco di navigare e di essere gentile con me stessa durante queste esperienze sovrapposte e conflittuali, che scatenano anche una certa dose di vergogna. Sono una donna istruita. E sì, mi sto abbandonando a quello che può essere descritto solo come un gioco di ruolo molto coinvolgente.
Un gruppo di attivisti per la sicurezza delle armi guidato dai genitori di Joaquin Oliver, una delle 17 vittime della sparatoria avvenuta in una scuola a Parkland (in Florida) il 14 febbraio 2018, ha organizzato una campagna incentrata sulle voci delle vittime stesse, ricreate con l’IA: vari legislatori hanno così iniziato a ricevere telefonate in cui a parlare erano gli studenti uccisi durante il massacro.
Più spesso però le voci sintetiche sono usate per arrecare danno a qualcuno. Come nel caso delle storia della truffa telefonica raccontata dal New Yorker. Un altro esempio sono le robocall con la voce di Joe Biden attraverso cui all’inizio del 2024 è stato messo in atto il tentativo di scoraggiare i cittadini statunitensi ad andare a votare alle elezioni presidenziali.
🤖🤖🤖
Come limitare il dilagare di deepfake audio come quelli appena descritti?
Di sicuro sarebbe utile una regolamentazione che preveda pene chiare, ossia quello a cui mirano gli oltre mille firmatari di una lettera aperta intitolata “Disrupting the Deepfake Supply Chain”.
In base alla proposta di legge statunitense nota come Defiance Act (Disrupt Explicit Forged Images and Non-Consensual Edits) le vittime dei deepfake potrebbero chiedere un risarcimento a chi produce o possiede i deepfake stessi.
La normativa sull’intelligenza artificiale approvata a metà marzo dal Parlamento europeo prevede che chi genera o manipola contenuti attraverso l’AI deve indicare chiaramente che quei contenuti appunto sono stati generati o manipolati tramite l’AI.
🤖🤖🤖
La voce è in generale uno strumento potenzialmente molto insidioso, perché gioca nel campo delle emozioni (sapevi che possiamo veicolare 24 emozioni attraverso le sole vocalizzazioni?), dell’intimità, della fiducia. Non a caso la radio in passato si è rivelata un potentissimo mezzo di propaganda.
Un nuovo libro del giornalista Peter Pomerantsev, How to Win an Information War, racconta per esempio la straordinaria storia di come, allo scoppio della seconda guerra mondiale, i servizi segreti britannici reclutarono il giornalista britannico Sefton Delmer, in buoni rapporti con il regime nazista, per contrastare la propaganda nazista stessa. Delmer usò la medesima arma di Hitler: la radio. Da una stazione fuori Londra condusse delle trasmissioni apparentemente pro nazismo tramite cui instillò nella popolazione tedesca il desiderio di pensare di nuovo con la propria testa.
🤖🤖🤖
Da quando esistono le radio libere (e ovviamente ancora di più da quando esiste Internet), c’è anche un problema rispetto a ciò che viene detto attraverso media che veicolano contenuti audio. I media audio infatti sono molto difficili da controllare, ed è il motivo per cui in Paesi in cui vige una forte censura – come la Cina – sopravvivono podcast che trattano questioni controverse.
Non a caso, da tempo si lavora per creare sistemi in grado di individuare ed eventualmente eliminare contenuti audio falsi o offensivi.
Mettere a punto sistemi che possano rilevare invece la falsità non del contenuto ma della voce aggiunge ovviamente vari gradi in più di complessità. Eppure, risulta quanto mai fondamentale in vista delle decine di elezioni che si tengono quest’anno in vari parti del mondo.
La divisione del gruppo spagnolo Prisa dedicata ai media ha appena lanciato uno strumento pensato proprio per individuare audio generati con l’IA. Si chiama VerificAudio ed è stato realizzato con Google News Initiative e Minsait. È già al servizio dei giornalisti che lavorano nelle stazioni radio di Prisa in Colombia, Messico, Cile e Spagna.
Il processo di verifica di VerificAudio prevede due fasi: l’identificazione (lo strumento è in grado di indicare se è probabile che l’audio sia stato generato o alterato con l’IA) e il confronto (è anche possibile confrontare l’audio sospetto con un altro audio originale).
Come tutti gli strumenti simili, anche VerificAudio è stato sviluppato attraverso l’IA.
L’intelligenza artificiale ci salverà dall’intelligenza artificiale?
***
Se ti interessa approfondire i principali aspetti legati ai rischi di un utilizzo non etico dell’intelligenza artificiale generativa in ambito audio ti consigliamo anche:
Leave a Reply