Escrocherii și „știri false”: amenințările din spatele tehnologiei viitorului

Este 16 martie 2022. După mai multe săptămâni de când soldații ruși au început să-și planteze cizmele doar în Ucraina, mass-media „Ukraine 24” arată un videoclip pe lângă contribuțiile sociale ale președintelui Volodymyr Zelensky. La suprafață, nu este nimic ciudat la înregistrare. Liderul apare în fața camerelor în haine de curte marțială, cea care l-a însoțit încă de la începutul conflictului. Caracteristicile lui sunt ale lui, și vocea lui. Prin urmare, atunci când afirmă privind la camera că a luat decizia de a se preda Rusiei, nu ar fi ciudat ca oricine se află de partea cealaltă, încă neîncrezător, să cadă în capcană. Există și unul mare. Trucul în acest caz se numește „deepfake”, o tehnologie care permite, datorită utilizării inteligenței artificiale (AI), să modifice fețele și sunetul, obținând rezultate hiperrealiste. Capacitatea de a lăsa cu gura căscată chiar și experții în securitate cibernetică. Și, în plus, pentru a realiza acest lucru nu este necesar ca „băiatul rău” de serviciu să fie un geniu al computerului; Tot ce trebuie să faceți este să descărcați unul dintre miile de software aflate în prezent pe Internet. Cazul videoclipului fals al lui Zelensky, produsul unui „hack” suferit de mass-media menționate mai sus, este doar unul dintre multele care, în ultimele luni, au arătat cât de enormă dezvoltare tehnologică ne face din ce în ce mai vulnerabili la înșelăciune. ; și nu doar utilizatorilor obișnuiți sau mass-media. De asemenea companiei, indiferent de mărimea acesteia, și chiar guvernelor. Și în cazul în care există vreo îndoială, războiul din Ucraina se rezolvă complet. De la primele impas ale conflictului ucrainean, rețelele de socializare și chiar mass-media au distribuit imagini capturate din jocuri video de război și le-au dat drept reale. Unul dintre cele mai folosite a fost „Arma 3”, un titlu dezvoltat de studioul independent ceh Bohemia Interactive. În ciuda trecerii timpului, compania a reușit să împiedice utilizarea imaginilor pentru a răspândi dezinformații care arată presupuse atacuri de artilerie sau mișcări de trupe. Cupa Mondială, pe YouTube „Am încercat să luptăm cu acest tip de conținut, îndreptând aceste videoclipuri către furnizorii platformelor pe care sunt publicate (YouTube, Facebook, Twitter, Instagram etc.), dar s-a dovedit a fi destul de ineficient. Pentru fiecare videoclip pe care îl retragem, mai apar zece în fiecare zi”, a explicat Pavel Křižka, director de relații publice la Bohemia Interactive, într-o declarație transmisă ABC. Executivul subliniază, însă, că este conștient că titlul său este capabil să recreeze conflicte de război „într-un mod foarte realist”. Și tocmai acolo, spre replica perfectă a realității, se îndreaptă industria jocurilor video de ani de zile. O afacere care mută mai mult decât dublul bani în Spania decât filmul și muzica înregistrată combinate și acumulează milioane de jucători. „Industria exploatează multă capacitate grafică. O lansare de rachetă într-un joc video, astăzi, poate părea complet reală, este chiar posibil să pară că este înregistrată de pe un telefon mobil. Ajunge complet acasă”, a explicat pentru acest ziar Jon Cortázar, director executiv al studioului de dezvoltare spaniol Relevo. Dezvoltatorul mai arată că realismul este urmărit mai ales în anumite genuri din cadrul jocului video: „Utilizatorul, în plus, este ceea ce el cere în multe cazuri. De exemplu, în „FIFA” jucătorul transpiră și tricoul său este acoperit de noroi. Același lucru se întâmplă și cu jocurile cu mașini, acestea trebuie să fie sparte și murdare. În titlurile de război nici nu vreau să vă spun, jucătorii sunt așa-numiții „jucători hardcore” și tind să fie printre cei mai pretențioși cu calitatea grafică.” Într-adevăr, cazul „Arma 3” nu este anecdotic. În urmă cu doar câteva zile, vietnamezii au fost înșelați de un grup de criminali cibernetici, care au afișat pe YouTube meciuri din popularul titlu de fotbal „FIFA 23”, pretinzându-le drept meciuri reale de la Cupa Mondială din Qatar. Utilizatorii vin pe platformă tentați de posibilitatea de a viziona gratuit meciurile; Între timp, infractorii au căutat să genereze bani grație afluxului de public pe site-ul deținut de Google. La unele momente, regizorii aveau 40.000 de oameni cu ochii lipiți de ecran. În ultimii ani, experții în securitate cibernetică au avertizat în numeroase rânduri despre pericolele din spatele dezvoltării inteligenței artificiale. Și nu numai în ceea ce privește modificarea imaginii video, așa cum sa întâmplat în cazul lui Zelensky. La sfârșitul anului 2019, un grup de infractori cibernetici a costat o companie britanică 220.000 de euro. Pentru a realiza acest lucru, a obținut un software menit să modifice vocea directorului companiei, căruia i se cere să aibă un subordonat care să efectueze mișcarea banilor. În 2020, clonarea vocii AI a fost folosită și în jaful de 35 de milioane de dolari la o bancă din Hong Kong. Infractorul, în speță, s-a pozat în client al entității printr-un apel telefonic. „Deepfake-urile au făcut pași uriași. Acum câțiva ani mai lăsau de dorit, dar a fost mult îmbunătățit și acum sunt din ce în ce mai realiști. În plus, nu trebuie să știi nimic despre calcul pentru a le genera, există multe programe pe internet pentru a face acest lucru”, spune David Sancho, șeful analizei amenințărilor la compania de securitate cibernetică Trend Micro, pentru acest ziar. Imagine și text de nicăieri Expertul spune că „AI este folosit din ce în ce mai mult” în dezvoltarea atacurilor cibernetice și observă că „cu algoritmii de astăzi” practic orice este posibil: „Dacă ai suficient audio, voce și video ale persoanei vrei să faci deepfake, obții lucruri foarte, foarte convingătoare. Chiar și profesioniștii în computere ne pot face să ne îndoim.” Pe tot parcursul anului 2022, companiile dedicate lucrului cu inteligența artificială au pus și noi instrumente la dispoziția oricui este capabil să creeze conținut realist, practic, din nimic. „Deși la început aceste sisteme generau text sau imagini care nu erau de înaltă calitate, am observat o progresie rapidă”, spune Josep Curto, expert în inteligență artificială și profesor de informatică la Universitatea Deschisă din Catalonia. Printre cele mai puternice se numără DALL-E 2 și ChatGPT, din nou instrumente dezvoltate de OpenAI. În primul rând, utilizatorul poate crea imagini realiste prin simpla introducere a unei scurte descriere a rezultatului pe care îl va obține. Pur și simplu introduceți „Protestar ucrainean pe străzile Moscovei” și în câteva secunde puteți crea mai multe imagini diferite, unele destul de reușite. Al doilea este un AI conversațional, un chatbot aleatoriu care răspunde utilizatorului atunci când pun o întrebare. Cu toate acestea, în acest caz răspunsurile oferite pot fi extrem de umane. Aproape pentru că pe cealaltă parte nu există o mașină, ci o persoană. Tocmai, vara trecută un inginer Google a fost suspendat de compania de tehnologie după ce a confirmat că inteligența artificială a motorului de căutare, numită LaMDA, va fi o ființă „conștientă” și „sensibilă”. El a comparat chiar ingeniozitatea cu un copil mic. Toți experții în securitate cibernetică consultați avertizează asupra riscului ca aceste tipuri de soluții să continue să devină populare și să ajungă să fie exploatate de terțe părți rău intenționate. Oriunde este vorba de generarea de imagini, de a dezinforma utilizatorii, software-ul conversațional, al meu uneori, există un potențial mare în dezvoltarea escrocherilor prin e-mail și rețelele sociale. MAI MULTE INFORMAȚII știri Nu Loteria de Crăciun 2022: toate trucurile pe care le folosesc pentru a vă înșela nou știri Nu Ați primit un e-mail de la propria adresă?: noua înșelătorie pe care o folosesc pentru a vă fura «Campanii create folosind chatbot care sunt capabili să întrețină conversații cu scopul de a colecta informații personale de la utilizatori există deja”, spune José Luis Palletti, inginer de vânzări la compania de securitate cibernetică Watchguard. Sancho, la rândul său, comentează potențialul pe care îl are inteligența artificială conversațională în „escrocherii”, acele escrocherii romantice menite să fure bani de la utilizatori în care, prin e-mail, infractorii se pozează în cineva care, într-adevăr, nu există ȘI acolo. nici unelte capabile să detecteze capcana. Niciun sfat pentru a evita căderea în el.