Truffe e 'fake news': le minacce alla base della tecnologia del futuro

È il 16 marzo 2022. Dopo più settimane da quando i soldati russi hanno cominciato a piantare i loro stivali solo in Ucraina, il mezzo 'Ukraine 24' mostra un video in aggiunta ai contributi sociali del presidente Volodimir Zelensky. In apparenza, la registrazione non ha nulla di strano. Il regista si presenta davanti alle telecamere in abito da corte marziale, quello che lo accompagna dall'inizio del conflitto. I suoi lineamenti sono i suoi, anche la sua voce. Per questo, quando afferma guardando la telecamera di aver preso la decisione di arrendersi alla Russia, non sarebbe strano che chi sta dall'altra parte, anche incredulo, cada nella trappola. Che c'è, e grande. Il trucco in questo caso si chiama 'deepfake', una tecnologia che permette, grazie all'utilizzo dell'intelligenza artificiale (AI), di alterare volti e audio, ottenendo risultati iperrealistici. Capacità di lasciare a bocca aperta anche gli esperti di cybersecurity. E, inoltre, per raggiungere questo obiettivo, il "cattivo" non ha bisogno di essere un genio del computer; Basta scaricare uno dei migliaia di software attualmente su Internet. Il caso del falso video di Zelenski, prodotto di un 'hacking' subito dal medium precedentemente citato, è solo uno dei tanti che, in questi mesi, hanno mostrato come l'enorme sviluppo tecnologico ci renda sempre più vulnerabili all'inganno; e non solo agli utenti ordinari o ai media. Anche all'azienda, indipendentemente dalle sue dimensioni, e persino ai governi. E in caso ci fosse qualche dubbio, ci pensa la guerra in Ucraina a chiarirlo completamente. Fin dalle prime impasse del conflitto ucraino, i social network, e persino i media, hanno condiviso immagini catturate da videogiochi in stile bellico e le hanno spacciate per vere. Uno dei più utilizzati è stato 'Arma 3', un titolo sviluppato dallo studio ceco indipendente Bohemia Interactive. Nonostante il passare del tempo, la compagnia è riuscita a impedire che le immagini venissero utilizzate per disinformare mostrando presunti attacchi di artiglieria o movimenti di truppe. I Mondiali, su YouTube “Abbiamo provato a contrastare questo tipo di contenuti indirizzando questi video ai provider delle piattaforme su cui sono pubblicati (YouTube, Facebook, Twitter, Instagram, ecc.), ma ha dimostrato di essere del tutto inefficace. Per ogni video che riusciamo a ritirare, ne compaiono altri dieci ogni giorno", ha spiegato Pavel Křižka, direttore delle pubbliche relazioni di Bohemia Interactive, in un comunicato inviato alla ABC. Il dirigente sottolinea, tuttavia, di essere consapevole che il suo titolo è in grado di ricreare conflitti di guerra "in modo molto realistico". Ed è proprio verso lì, verso la replica perfetta della realtà, verso cui rema da anni l'industria dei videogiochi. Un business che muove in Spagna più del doppio dei soldi di film e musica registrata insieme e accumula milioni di giocatori. “L'industria sta sfruttando molto la capacità grafica. Il lancio di un missile in un videogioco, oggi, può sembrare del tutto reale, è addirittura possibile far sembrare che si stia registrando da un cellulare. Colpisce totalmente nel segno”, ha spiegato a questo giornale Jon Cortázar, direttore esecutivo dello studio di sviluppo spagnolo Relevo. Lo sviluppatore sottolinea inoltre che il realismo è perseguito soprattutto in alcuni generi all'interno del videogioco: "L'utente, inoltre, è ciò che pretende in molti casi. Ad esempio, in "FIFA" il giocatore suda e la sua maglia si copre di fango. La stessa cosa accade con i giochi di macchine, devono rompersi e sporcarsi. Nei titoli bellici non ve lo voglio nemmeno più dire, i giocatori sono i cosiddetti 'hardcore gamers' e tendono ad essere tra i più esigenti in termini di qualità grafica”. In effetti, il caso di "Arma 3" non è aneddotico. Solo pochi giorni fa, i vietnamiti sono stati truffati da un gruppo di criminali informatici, che hanno mostrato partite del popolare titolo di calcio "FIFA 23" su YouTube, spacciandosi per vere partite della Coppa del Mondo in Qatar. Gli utenti arrivano sulla piattaforma tentati dalla possibilità di guardare le partite gratuitamente; nel frattempo, i criminali cercavano di guadagnare dall'afflusso di persone sul sito di proprietà di Google. A volte i registi avevano 40.000 persone con gli occhi incollati allo schermo. Negli ultimi anni, gli esperti di sicurezza informatica hanno messo in guardia in numerose occasioni sui pericoli dietro lo sviluppo dell'intelligenza artificiale. E non solo in quello che si riferisce all'alterazione dell'immagine video, come avvenuto nel caso di Zelenski. Alla fine del 2019, un gruppo di criminali informatici è costato a un'azienda britannica 220.000 euro. Per ottenere ciò, ha ottenuto un software destinato ad alterare la voce del direttore dell'azienda, il quale ha un subordinato che sposta denaro. Nel 2020, la clonazione vocale AI è stata utilizzata anche nella rapina da 35 milioni di dollari di una banca di Hong Kong. L'autore del reato, in questo caso, si è presentato come cliente dell'ente attraverso una telefonata. “I 'deepfake' sono avanzati a passi da gigante. Qualche anno fa lasciavano ancora a desiderare, ma sono stati notevolmente migliorati e ora sono sempre più realistici. Inoltre, non è necessario sapere nulla di informatica per generarli, ci sono molti programmi su Internet per farlo", ha detto a questo giornale David Sancho, responsabile dell'analisi delle minacce presso la società di sicurezza informatica Trend Micro. Immagine e testo dal nulla L'esperto afferma che "l'IA sta usando sempre di più" nello sviluppo di attacchi informatici, e osserva che "con gli algoritmi di oggi" praticamente tutto è possibile: "Se hai abbastanza audio, voce e video della persona che stai vuoi fare il "deepfake", ottieni cose molto, molto convincenti. Anche i professionisti dell'informatica possono farci dubitare”. Per tutto il 2022 le aziende dedite a lavorare con l'intelligenza artificiale hanno messo a disposizione di chiunque, inoltre, nuovi strumenti in grado di creare contenuti realistici, praticamente, dal nulla. "Sebbene all'inizio questi sistemi generassero testi o immagini che non erano di alta qualità, abbiamo osservato una rapida progressione", afferma Josep Curto, esperto di IA e professore di Informatica presso l'Università Aperta della Catalogna. Tra i più potenti ci sono DALL-E 2 e ChatGPT, sempre strumenti sviluppati da OpenAI. Innanzitutto l'utente può creare immagini realistiche semplicemente inserendo una breve descrizione del risultato che si vuole ottenere. Basta digitare 'manifestante ucraino per le strade di Mosca', e in pochi secondi è in grado di creare diverse immagini, alcune abbastanza riuscite. Il secondo è un'intelligenza artificiale conversazionale, un fortunato chatbot che risponde all'utente quando fa una domanda. Tuttavia, in questo caso le risposte offerte possono essere tremendamente umane. Quasi perché dall'altra parte non c'è una macchina, ma una persona. Precisamente, la scorsa estate un ingegnere di Google è stato sospeso dall'azienda tecnologica dopo aver confermato che l'intelligenza artificiale del motore di ricerca, chiamata LaMDA, sarà un essere "cosciente" e "sensibile". Arrivò persino a confrontare il genio con un bambino piccolo. Tutti gli esperti di sicurezza informatica consultati avvertono del rischio che questo tipo di soluzioni continuino a diventare popolari e finiscano per essere sfruttate da terze parti malintenzionate. Ovunque ti riferisci alla generazione di immagini, per disinformare gli utenti, software di chat, il mio a volte, c'è un grande potenziale nello sviluppo di e-mail e truffe sui social media. MAGGIORI INFORMAZIONI news No Lotteria di Natale 2022: tutti i trucchi che usano per truffarti news No Hai ricevuto una mail dal tuo stesso indirizzo?: la nuova truffa che usano per derubarti «Campagne create con chatbot in grado di dialogare con lo scopo di raccogliere informazioni personali dagli utenti esiste già", afferma José Luis Palletti, ingegnere delle vendite per la società di sicurezza informatica Watchguard. Sancho, da parte sua, commenta il potenziale che le intelligenze artificiali conversazionali hanno nelle 'truffe', quelle truffe romantiche volte a rubare denaro agli utenti in cui, attraverso la posta elettronica, i criminali si atteggiano a qualcuno che, in realtà, non esiste. nemmeno strumenti in grado di rilevare il cheat. Nessun consiglio per evitare di caderci dentro.