Grazie all’avanzamento dell’Intelligenza Artificiale, la tecnologia del voice cloning, o clonazione vocale, ha raggiunto livelli di realismo tali da permettere la riproduzione fedele della voce di una persona con un breve campione audio. Questo strumento, che rientra nei cosiddetti deepfake, utilizza complessi algoritmi per replicare intonazione, accento e ritmo del parlato, rendendo possibile creare audio che suonano come se provenissero direttamente dalla persona campionata. Se da un lato questa tecnologia offre nuove opportunità nell’intrattenimento e nel supporto a persone con disabilità vocali, dall’altro presenta un grave rischio quando usata in modo fraudolento.
La clonazione vocale richiede solo pochi secondi di registrazione audio per creare una replica convincente della voce. In questo breve campione, l’algoritmo riesce a catturare dettagli come intonazioni, pause e inflessioni specifiche della persona, e usa queste informazioni per generare nuovi contenuti audio realistici. La tecnologia è abbastanza avanzata da replicare caratteristiche come esitazioni, accenti o cadenze particolari, avvicinandosi al parlato naturale in modo impressionante.
Il voice cloning è già stato sfruttato per attività fraudolente. I truffatori possono creare falsi messaggi audio, usati spesso per richieste di emergenza, in cui imitano voci di persone conosciute dalla vittima per richiedere trasferimenti di denaro, spesso in criptovalute o su piattaforme non tracciabili. Esemplare è il caso australiano in cui la voce del Premier del Queensland è stata clonata per promuovere un falso investimento, truffando decine di cittadini. Altri esempi includono una truffa negli Emirati Arabi, dove l’imitazione della voce di un dirigente ha portato a un furto di 51 milioni di dollari.
Questi rischi, però, non riguardano solo grandi frodi internazionali: molte truffe mirano anche a vittime comuni, specialmente anziani, manipolando audio falsi raccolti da brevi registrazioni pubbliche o conversazioni informali.
Per contrastare queste minacce, è necessario sensibilizzare i cittadini attraverso campagne informative che rendano noto il problema e adottare sistemi di sicurezza come il riconoscimento biometrico vocale, capace di distinguere tra voci reali e clonate. Per le aziende, l’integrazione dell’autenticazione a più fattori rappresenta un’altra misura efficace. Inoltre, i governi stanno cercando di intervenire: in Australia, per esempio, è stato introdotto un piano nazionale contro il crimine informatico che coinvolge aziende hi-tech e banche per prevenire frodi basate su voice cloning.
© 2023 Near Future - Testata Giornalistica registrata al Tribunale di Napoli (Registrazione n. 31 del 21/07/2022)
Gruppo Editoriale: USB - Animalsland - Findyourtravel - Foodando - Worldculture
© 2023 Near Future - Testata Giornalistica registrata al Tribunale di Napoli (Registrazione n. 31 del 21/07/2022)
Gruppo Editoriale: USB - Animalsland - Findyourtravel - Foodando - Worldculture