Estafes i 'fake news': les amenaces després de la tecnologia del futur

És 16 de març de 2022. Després de més setmanes des que els soldats russos van començar a plantar les botes només a Ucraïna, el mitjà 'Ucraïna 24' mostra un vídeo a més de les aportacions socials del president Volodimir Zelenski. Aparentment, l'enregistrament no té res estrany. El directent apareix davant les càmeres amb vestimenta de tall marcial, la que el porta acompanyant des de l'inici del conflicte. Les seves característiques són els seus, la veu també ho és. Per això, quan afirma mirant a càmera que ha pres la decisió de rendir-se a Rússia, no seria estrany que qui estigui a l'altra banda, fins i tot presa de la incredulitat, s'empassi el parany. Que n'hi ha, i gran. El truc en aquest cas rep el nom de 'deepfake', una tecnologia que permet, gràcies a l'ús d'intel·ligència artificial (IA), alterar cares i àudio i arribar a aconseguir resultats hiperrealistes. Capacitats de deixar bocabadats, fins i tot, els experts en ciberseguretat. I, a més, per aconseguir-ho no cal que el 'dolent' de torn sigui cap geni de la informàtica; només cal descarregar un programari dels milers que hi ha actualment a Internet. El cas del vídeo fals de Zelenski, producte d'un 'hackeig' patit pel mitjà esmentat anteriorment, només és un més dels gols que, durant els últims mesos, han demostrat com l'enorme desenvolupament tecnològic ens fa cada cop més vulnerables a l'engany ; i no només els usuaris corrents o els mitjans de comunicació. També l'empresa, independentment de la seva mida, i fins i tot els governs. I per si quedarà algun dubte, la guerra a Ucraïna, s'està ocupant d'aclarir-lo del tot. Des dels primers impostos del conflicte ucraïnès, xarxes socials, i fins i tot mitjans de comunicació, han compartit imatges capturades de videojocs de tall bèl·lic i les han fet passar per reals. Un dels més empleats ha estat 'Arma 3', títol desenvolupat per l'estudi independent txec Bohemia Interactive. Tot i el pas del temps, l'empresa ha aconseguit que les imatges deixin de fer-se servir per desinformar mostrant presumptes atacs d'artilleria o moviments de tropes. El Mundial, a YouTube “Hem intentat lluitar contra aquest tipus de contingut assenyalant aquests vídeos als proveïdors de les plataformes en què es publiquen (YouTube, Facebook, Twitter, Instagram, etc.), però ha demostrat ser força ineficaç. Per cada vídeo que aconseguim que es retracti, n'apareix deu més cada dia”, va explicar Pavel Křižka, director de relacions públiques de Bohèmia Interactive, en un comunicat enviat a ABC. L'executiu assenyala, no obstant, que és conscient que el seu títol és capaç de recrear conflictes bèl·lics “de manera molt realista”. I és que és precisament cap aquí, cap a la rèplica perfecta de la realitat, cap on rema la indústria del videojoc des de fa anys. Un negoci que mou a Espanya més del doble de diners que el cinema i la música gravat juntes i acumula milions de jugadors. “La indústria està explotant molt la capacitat gràfica. Un llançament de míssils en un videojoc, un dia d?avui, pot semblar completament real, fins i tot és possible aconseguir que sembli que està gravant des d?un mòbil. Dóna el pego totalment”, va explicar a aquest diari Jon Cortázar, director executiu de l'estudi de desenvolupament espanyol Relevo. El desenvolupador apunta, a més, que el realisme persegueix especialment en determinats gèneres dins del videojoc: “L'usuari, a més, és allò que demana en molts casos. Per exemple, que a 'FIFA' el jugador suï i que la samarreta se l'ompli de fang. Amb els jocs de cotxes passa el mateix, s'han de trencar i embrutar. In títols de tall bèl·lic ja no t'estimo ni comptar, els jugadors són dels anomenats 'hardcore gamers' i solen ser dels més demandeis amb la qualitat gràfica”. Efectivament, el cas d''Arma 3' no és anecdòtic. Fa uns dies de vietnamites van ser estafats per un grup de cibercriminals, que la van mostrar a través de YouTube partits del popular títol de futbol 'FIFA 23' fent-los passar per trobades reals del Mundial de Qatar. Els usuaris arriben a la plataforma temptats per la possibilitat de veure els enfrontaments de manera gratuïta; mentrestant, els delinqüents buscaven generar diners gràcies a l'afluència de públic al lloc propietat de Google. En alguns moments dels directors van arribar a tenir 40.000 persones amb els ulls enganxats a la pantalla. Durant els darrers anys, els experts en ciberseguretat han alertat en nombroses ocasions sobre els perills darrere del desenvolupament de la intel·ligència artificial. I no només pel que fa a l'alteració de la imatge de vídeo, com va passar en el cas de Zelenski. A finals del 2019, un grup de ciberdelinqüents va costar 220.000 euros a una empresa britànica. Per aconseguir-ho, va obtenir un programari destinat a alterar la veu del directó de la companyia, que el sol·licitat té un subordinat que realitza el moviment de diners. El 2020, la clonació de veu mitjançant IA també va ser emprada en el robatori de 35 milions de dòlars en un banc de Hong Kong. El delinqüent, en aquest cas, es va fer passar mitjançant una trucada telefònica per un client de l'entitat. “Els 'deepfakes' han avançat amb passos de gegant. Fa uns anys encara deixaven alguna cosa a desitjar, però s'ha millorat molt i ara són cada cop més realistes. A més, no cal saber res d'informàtica per generar-los, hi ha multitud de programes a Internet per fer-ho”, assenyala aquest diari David Sancho, cap d'anàlisi d'amenaces a l'empresa de ciberseguretat Trend Micro. Imatge i text del no-res L'expert diu que “la IA està utilitzant cada vegada més” en el desenvolupament de ciberatacs, i noti que “amb els algorismes d'avui dia” pràcticament tot és possible: “Si té prou àudio, veu i vídeo de la persona a qui vols fer-li el 'deepfake', s'aconsegueixen coses molt però molt convincents. Fins i tot els professionals de la informàtica ens poden fer dubtar”. Al llarg del 2022, les empreses dedicades a treballar amb intel·ligència artificial han posat abast de qualsevol, a més, noves eines capaces de crear contingut realista, pràcticament, des del no-res. “Encara que al principi aquests sistemes generaven text o imatges que no eren de molta qualitat, hem observat una progressió ràpida”, afirma Josep Curto, expert en IA i catedràtic d'Informàtica de la Universitat Oberta de Catalunya. Entre les més potents hi ha DALL-E 2 i ChatGPT, de nou eines desenvolupades per OpenAI. En primer lloc, lusuari pot crear imatges realistes simplement introduint una breu descripció del resultat que obtindrà. Només cal escriure 'manifestant ucraïnès als carrers de Moscou', i en segons és capaç de crear diverses imatges diferents, algunes força aconseguides. El segon és una IA conversacional, un chatbot sort que respon a lusuari quan li planta una pregunta. Tot i això, en aquest cas les respostes que s'ofereixen poden arribar a ser tremendament humanes. Gairebé perquè a l'altra banda no hi ha una màquina, sinó una persona. Precisament, l'estiu passat un enginyer de Google va ser suspès per la tecnològica després de confirmar que la intel·ligència artificial del cercador, anomenat LaMDA, serà un ésser «conscient» i «sensible». Fins i tot va arribar a comparar l'enginy amb un nen petit. Tots els experts en ciberseguretat consultats alerten sobre el risc que aquest tipus de solucions es continuïn popularitzant i acabin sent explotades per tercers maliciosos. On sigui que es refereixi a la generació d'imatges, per desinformar els usuaris, el programari conversacional, el meu de vegades, hi ha un gran potencial en el desenvolupament d'estafes per correu electrònic i xarxes socials. MÉS INFORMACIÓ notícia No Loteria de Nadal 2022: tots els trucs que estan usant per estafar-te notícia No Has rebut un correu des de la teva pròpia adreça?: la nova estafa que usen per robar-te «Les campanyes creades usant chatbots que són capaços de mainner converses amb l'objecte de demanar informació personal dels usuaris ja existeix”, assenyala José Luis Palletti, enginyer de vendes de l'empresa de ciberseguretat Watchguard. Sancho, per la seva banda, comenta el potencial que tenen les intel·ligències artificials conversacionals a 'scams', aquestes estafes romàntiques destinades a robar diners als usuaris en què, a través de correu, els criminals es fan passar per algú que, realment, no existeix I tampoc no hi ha eines capaces de detectar el parany. Ni consells per evitar caure-hi.