Home » Tecnologia » Cybercrime, i nuovi criminali clonano la voce con l’Intelligenza Artificiale
Nel vasto panorama delle minacce informatiche, emergono sempre nuove e sorprendenti sfide contro il cybercrime. Oggi, le tecnologie emergenti come l’intelligenza artificiale (IA) e il machine learning non sono solo una benedizione per l’innovazione, ma anche un’arma nelle mani dei criminali informatici. Una minaccia recente e inquietante riguarda la clonazione vocale attraverso l’uso astuto di queste tecnologie avanzate, un fenomeno conosciuto come “rapimento virtuale.” Gli esperti di sicurezza informatica, in particolare quelli dell’azienda Trend Micro, lanciano l’allarme su questo crescente pericolo.
Un episodio avvenuto in Arizona ha messo in evidenza la portata di questa nuova minaccia. Una donna qualche tempo fa ha ricevuto una chiamata angosciosa in cui un anonimo affermava di aver rapito sua figlia. Ciò che è risultato davvero impressionante è che il criminale era riuscito a replicare in modo sorprendentemente accurato la voce e il pianto della bambina, facendo credere alla madre che fosse la sua stessa voce.
L’intelligenza artificiale aveva reso possibile questa sinistra rappresentazione. Fortunatamente, prima di cedere al pagamento richiesto, la madre è stata in grado di accertarsi che sua figlia fosse al sicuro e che non fosse mai stata rapita. La polizia successivamente ha identificato la telefonata come un tentativo di truffa. Secondo la Federal Trade Commission degli Stati Uniti, nel 2022, le perdite derivanti da questi crimini hanno raggiunto la cifra sbalorditiva di 2,6 miliardi di dollari.
Il modus operandi svelato da Trend Micro è inquietante quanto sofisticato. I criminali informatici iniziano raccogliendo informazioni sulle vittime e sui loro cari dai social media, comprese foto e video. Successivamente, utilizzando strumenti tecnologici avanzati, sono in grado di replicare con precisione la voce delle persone. Questo processo, noto come “clonazione vocale,” viene impiegato per estorsioni e frodi.
Ciò che rende ancora più pericoloso questo schema di attacco è la possibilità di automatizzarlo ulteriormente grazie all’IA. Con l’ausilio di chatbot, i criminali possono combinare grandi dataset di potenziali vittime con altri dati come la geolocalizzazione. Gli esperti avvertono che questo può essere utilizzato per creare un sistema di valutazione del rischio per selezionare le vittime, rendendo gli attacchi ancora più redditizi e scalabili.
© 2023 Near Future - Testata Giornalistica registrata al Tribunale di Napoli (Registrazione n. 31 del 21/07/2022)
Gruppo Editoriale: USB - Animalsland - Findyourtravel - Foodando - Worldculture
© 2023 Near Future - Testata Giornalistica registrata al Tribunale di Napoli (Registrazione n. 31 del 21/07/2022)
Gruppo Editoriale: USB - Animalsland - Findyourtravel - Foodando - Worldculture