Escroqueries et 'fake news' : les menaces derrière la technologie du futur

Nous sommes le 16 mars 2022. Après plus de semaines que les soldats russes ont commencé à planter leurs bottes uniquement en Ukraine, le média 'Ukraine 24' montre une vidéo en plus des contributions sociales du président Volodimir Zelensky. En apparence, l'enregistrement n'a rien d'étrange. Le réalisateur se présente devant les caméras en tenue de cour martiale, celle qui l'accompagne depuis le début du conflit. Ses traits sont les siens, sa voix aussi. Pour cette raison, lorsqu'il affirme devant la caméra qu'il a pris la décision de se rendre à la Russie, il ne serait pas étrange que celui qui est de l'autre côté, même incrédule, tombe dans le piège. Qu'il y a, et grand. L'astuce dans ce cas s'appelle 'deepfake', une technologie qui permet, grâce à l'utilisation de l'intelligence artificielle (IA), de modifier les visages et l'audio, obtenant des résultats hyperréalistes. Des capacités à laisser sans voix, même les experts en cybersécurité. Et, de plus, pour y parvenir, le "méchant" n'a pas besoin d'être un génie de l'informatique ; Il suffit de télécharger un des milliers de logiciels actuellement sur Internet. Le cas de la fausse vidéo de Zelenski, produit d'un "piratage" subi par le média susmentionné, n'est qu'un cas de plus parmi tant d'autres qui, ces derniers mois, ont montré comment l'énorme développement technologique nous rend de plus en plus vulnérables à la tromperie ; et pas seulement aux utilisateurs ordinaires ou aux médias. Aussi à l'entreprise, quelle que soit sa taille, et même aux gouvernements. Et au cas où il y aurait le moindre doute, la guerre en Ukraine s'occupe de l'éclaircir complètement. Depuis les premières impasses du conflit ukrainien, les réseaux sociaux, voire les médias, ont partagé des images captées de jeux vidéo de guerre et les ont fait passer pour réelles. L'un des plus utilisés est « Arma 3 », un titre développé par l'étude tchèque indépendante Bohemia Interactive. Malgré le passage du temps, la société a réussi à empêcher que les images ne soient utilisées pour désinformer en montrant de prétendues attaques d'artillerie ou des mouvements de troupes. La Coupe du Monde, sur YouTube « Nous avons essayé de lutter contre ce type de contenus en pointant ces vidéos vers les fournisseurs des plateformes sur lesquelles elles sont publiées (YouTube, Facebook, Twitter, Instagram, etc.), mais cela s'est avéré être assez inefficace. Pour chaque vidéo que nous parvenons à faire retirer, dix autres apparaissent chaque jour", a expliqué Pavel Křižka, directeur des relations publiques de Bohemia Interactive, dans un communiqué envoyé à ABC. L'exécutif souligne toutefois qu'il est conscient que son titre est capable de recréer des conflits de guerre "de manière très réaliste". Et c'est précisément vers là, vers la réplique parfaite de la réalité, vers laquelle rame l'industrie du jeu vidéo depuis des années. Une entreprise qui se déplace en Espagne plus du double de l'argent que le film et la musique enregistrée ensemble et accumule des millions de joueurs. « L'industrie exploite beaucoup la capacité graphique. Un lancement de missile dans un jeu vidéo, aujourd'hui, peut sembler tout à fait réel, il est même possible de donner l'impression que vous enregistrez depuis un mobile. Il frappe totalement la cible », a expliqué Jon Cortázar, directeur exécutif du studio de développement espagnol Relevo, à ce journal. Le développeur souligne également que le réalisme est recherché notamment dans certains genres au sein du jeu vidéo : « L'utilisateur, en plus, est ce qu'il demande dans de nombreux cas. Par exemple, dans 'FIFA', le joueur transpire et sa chemise est couverte de boue. La même chose se produit avec les jeux de voiture, ils doivent casser et se salir. Dans les titres guerriers, je ne veux même plus vous en dire plus, les joueurs sont ce qu'on appelle les 'hardcore gamers' et ils ont tendance à être parmi les plus exigeants en matière de qualité graphique ». En effet, le cas de 'Arma 3' n'est pas anecdotique. Il y a quelques jours à peine, des Vietnamiens ont été arnaqués par un groupe de cybercriminels, qui ont montré des matchs du titre de football populaire "FIFA 23" sur YouTube, se faisant passer pour de vrais matchs de la Coupe du monde au Qatar. Les utilisateurs viennent sur la plateforme tentés par la possibilité de regarder les matchs gratuitement ; pendant ce temps, les criminels cherchaient à gagner de l'argent grâce à l'afflux de personnes sur le site appartenant à Google. Parfois, les réalisateurs avaient 40.000 XNUMX personnes les yeux rivés sur l'écran. Ces dernières années, les experts en cybersécurité ont alerté à de nombreuses reprises sur les dangers du développement de l'intelligence artificielle. Et pas seulement en ce qui concerne l'altération de l'image vidéo, comme cela s'est produit dans le cas de Zelenski. Fin 2019, un groupe de cybercriminels a coûté 220.000 XNUMX € à une entreprise britannique. Pour y parvenir, il s'est procuré un logiciel destiné à modifier la voix du directeur de l'entreprise, qui le sollicite a un subordonné qui déplace de l'argent. En 2020, le clonage de voix par IA a également été utilisé dans le braquage de 35 millions de dollars d'une banque de Hong Kong. Le contrevenant, dans ce cas, s'est fait passer pour un client de l'entité par le biais d'un appel téléphonique. « Les 'deepfakes' ont avancé à pas de géant. Il y a quelques années, ils laissaient encore à désirer, mais ils ont été grandement améliorés et maintenant ils sont de plus en plus réalistes. De plus, vous n'avez pas besoin de connaître quoi que ce soit en informatique pour les générer, il existe de nombreux programmes sur Internet pour le faire », a déclaré David Sancho, responsable de l'analyse des menaces à la société de cybersécurité Trend Micro, à ce journal. Image et texte à partir de rien L'expert dit que "l'IA utilise de plus en plus" dans le développement des cyberattaques, et note qu'"avec les algorithmes d'aujourd'hui" pratiquement tout est possible : "Si vous avez suffisamment d'audio, de voix et de vidéo de la personne que vous voulez faire le 'deepfake', vous obtenez des choses très, très convaincantes. Même les professionnels de l'informatique peuvent nous faire douter ». Tout au long de 2022, les entreprises dédiées à travailler avec l'intelligence artificielle l'ont mise à la disposition de tous, en plus, de nouveaux outils capables de créer un contenu réaliste, pratiquement, à partir de rien. "Bien qu'au début ces systèmes généraient du texte ou des images qui n'étaient pas de haute qualité, nous avons observé une progression rapide", explique Josep Curto, expert en IA et professeur d'informatique à l'Université ouverte de Catalogne. Parmi les plus puissants figurent DALL-E 2 et ChatGPT, là encore des outils développés par OpenAI. Tout d'abord, l'utilisateur peut créer des images réalistes simplement en entrant une courte description du résultat à obtenir. Il suffit de taper "manifestant ukrainien dans les rues de Moscou", et en quelques secondes, il est capable de créer plusieurs images différentes, certaines assez réussies. Le second est une IA conversationnelle, un chatbot chanceux qui répond à l'utilisateur lorsqu'il pose une question. Cependant, dans ce cas, les réponses proposées peuvent être extrêmement humaines. Presque parce que de l'autre côté il n'y a pas une machine, mais une personne. Justement, l'été dernier un ingénieur de Google a été suspendu par l'entreprise technologique après avoir confirmé que l'intelligence artificielle du moteur de recherche, baptisée LaMDA, sera un être "conscient" et "sensible". Il en est même venu à comparer le génie à un petit enfant. Tous les experts en cybersécurité consultés alertent sur le risque que ces types de solutions continuent à se populariser et finissent par être exploitées par des tiers malveillants. Partout où vous faites référence à la génération d'images, à la désinformation des utilisateurs, au logiciel de chat, parfois au mien, il y a un grand potentiel dans le développement d'escroqueries par e-mail et sur les réseaux sociaux. PLUS D'INFORMATIONS actualités No Christmas Lottery 2022 : toutes les astuces qu'ils utilisent pour vous arnaquer actualités Non Avez-vous reçu un e-mail de votre propre adresse ? : la nouvelle arnaque qu'ils utilisent pour vous voler « Des campagnes créées à l'aide de chatbots capables d'avoir des conversations avec le but de collecter des informations personnelles auprès des utilisateurs existe déjà », explique José Luis Palletti, ingénieur commercial pour la société de cybersécurité Watchguard. Sancho, pour sa part, commente le potentiel des intelligences artificielles conversationnelles dans les "arnaques", ces arnaques romantiques visant à voler de l'argent aux utilisateurs dans lesquelles, par e-mail, les criminels se font passer pour quelqu'un qui, en réalité, n'existe pas. aucun outil capable de détecter la triche non plus. Aucun conseil pour ne pas tomber dedans.