Prevare in 'lažne novice': grožnje za tehnologijo prihodnosti

Piše se 16. marec 2022. Po več tednih, odkar so ruski vojaki začeli zasajati svoje škornje samo v Ukrajini, medij 'Ukrajina 24' poleg socialnih prispevkov predsednika Volodimirja Zelenskega prikazuje video. Na videz posnetek nima nič čudnega. Režiser se pred kamerami pojavi v vojnih sodniških oblačilih, v tistih, ki ga nosijo že od začetka spopada. Njegove poteze so njegove, njegov glas prav tako. Zato, ko ob pogledu v kamero zatrjuje, da se je odločil predati Rusiji, ne bi bilo nič čudnega, če bi kdorkoli na drugi strani, tudi v nejeveri, ujel v past. To obstaja, in to veliko. Trik v tem primeru se imenuje 'deepfake', tehnologija, ki omogoča, zahvaljujoč uporabi umetne inteligence (AI), spreminjanje obrazov in zvoka ter doseganje hiperrealističnih rezultatov. Zmogljivosti, ki pustijo brez besed celo strokovnjake za kibernetsko varnost. In poleg tega, da bi to dosegel, "slabemu fantu" ni treba biti računalniški genij; Dovolj je, da prenesete eno od tisočih programov, ki so trenutno na internetu. Primer lažnega videa Zelenskega, produkta 'hekanja' omenjenega medija, je le še eden od mnogih, ki so v zadnjih mesecih pokazali, kako smo zaradi ogromnega tehnološkega razvoja vse bolj ranljivi za prevare; in ne le navadnim uporabnikom ali medijem. Tudi podjetju, ne glede na njegovo velikost, in celo vladam. In če obstaja kakršen koli dvom, vojna v Ukrajini poskrbi, da ga popolnoma razjasni. Od prvih slepih ulic ukrajinskega konflikta so družbena omrežja in celo mediji delili slike, posnete iz videoiger v vojnem slogu, in jih predstavljali za resnične. Eden najbolj razširjenih je bil "Arma 3", naslov, ki ga je razvila neodvisna češka študija Bohemia Interactive. Kljub poteku časa je podjetju uspelo preprečiti uporabo slik za napačne informacije, ki prikazujejo domnevne topniške napade ali premike enot. Svetovno prvenstvo, na YouTubu »Proti tovrstni vsebini smo se poskušali boriti tako, da smo te videoposnetke usmerili na ponudnike platform, na katerih so objavljeni (YouTube, Facebook, Twitter, Instagram itd.), vendar se je izkazalo, da biti precej neučinkovita. Za vsak videoposnetek, ki nam ga uspe umakniti, se jih vsak dan pojavi še deset,« je pojasnil Pavel Křižka, direktor odnosov z javnostjo pri Bohemia Interactive, v izjavi, poslani ABC. Izvršni direktor pa poudarja, da se zaveda, da je njegov naslov sposoben poustvariti vojne konflikte "na zelo realističen način". In prav tja, proti popolni repliki resničnosti, proti kateri industrija videoiger vesla že leta. Podjetje, ki v Španiji preseli več kot dvakrat več denarja kot film in posneta glasba skupaj, ter zbere milijone igralcev. »Industrija zelo izkorišča grafično zmogljivost. Izstrelitev rakete v videoigri se danes lahko zdi povsem resnična, mogoče je celo videti, kot da snemaš z mobilnika. Popolnoma zadene v cilj,« je za ta časnik pojasnil Jon Cortázar, izvršni direktor španskega razvojnega studia Relevo. Razvijalec še poudarja, da se v video igrici zasleduje predvsem realističnost v določenih žanrih: »Poleg tega je uporabnik v mnogih primerih tisto, kar zahteva. Na primer, v 'FIFA' se igralec preznoji in njegova majica je prekrita z blatom. Enako se zgodi z igrami z avtomobili, ki se morajo razbiti in umazati. Pri vojnih naslovih, ki vam jih sploh ne želim več povedati, so igralci tako imenovani 'hardcore igralci' in so ponavadi eni najzahtevnejših glede grafične kakovosti.” Dejansko primer 'Arma 3' ni anekdotičen. Pred nekaj dnevi je Vietnamce prevarala skupina kiberkriminalcev, ki so na YouTubu prikazovali tekme priljubljenega nogometnega naslova 'FIFA 23', ki so se predstavljali kot prave tekme svetovnega prvenstva v Katarju. Uporabnike na platformo zamika možnost brezplačnega ogleda tekem; medtem pa so kriminalci želeli zaslužiti s prihodom ljudi na spletno mesto v lasti Googla. Včasih so imeli režiserji 40.000 ljudi z očmi uprtimi v ekran. V zadnjih letih so strokovnjaki za kibernetsko varnost večkrat opozorili na nevarnosti, ki se skrivajo za razvojem umetne inteligence. Pa ne le v tem, kar se nanaša na spreminjanje video slike, kot se je zgodilo v primeru Zelenskega. Konec leta 2019 je skupina kiberkriminalcev britansko podjetje stala 220.000 evrov. Da bi to dosegel, je pridobil programsko opremo za spreminjanje glasu direktorja podjetja, ki ima zahtevanega podrejenega, ki premika denar. Leta 2020 je bilo kloniranje glasu z umetno inteligenco uporabljeno tudi pri 35 milijonov dolarjev vrednem ropu hongkonške banke. Storilec se je v tem primeru preko telefonskega klica predstavil kot stranka subjekta. »'Deepfake' so napredovali z velikanskimi koraki. Pred nekaj leti so še pustili nekaj želenega, vendar so bili močno izboljšani in zdaj so vse bolj realni. Poleg tega vam ni treba vedeti ničesar o računalništvu, da jih ustvarite, na internetu je veliko programov za to,« je za ta časnik povedal David Sancho, vodja analize groženj pri podjetju za kibernetsko varnost Trend Micro. Slika in besedilo iz nič. Strokovnjak pravi, da "umetna inteligenca uporablja vedno več" pri razvoju kibernetskih napadov in ugotavlja, da je "z današnjimi algoritmi" praktično vse mogoče: "Če imate dovolj zvoka, glasu in videa oseba, ki ji želiš narediti 'deepfake', dobiš zelo, zelo prepričljive stvari. Celo IT-strokovnjaki nas lahko spravijo v dvome. Skozi leto 2022 so podjetja, ki se posvečajo delu z umetno inteligenco, dala na voljo vsakomur, poleg tega pa nova orodja, ki so sposobna ustvariti realistično vsebino, praktično iz nič. "Čeprav so ti sistemi na začetku ustvarili besedilo ali slike, ki niso bile visoke kakovosti, smo opazili hiter napredek," pravi Josep Curto, strokovnjak za AI in profesor računalništva na Odprti univerzi v Kataloniji. Med najmočnejšimi sta DALL-E 2 in ChatGPT, spet orodji, ki ju je razvil OpenAI. Prvič, uporabnik lahko ustvari realistične slike preprosto z vnosom kratkega opisa rezultata, ki ga želi doseči. Samo vtipkajte 'ukrajinski protestnik na ulicah Moskve' in v nekaj sekundah je sposoben ustvariti več različnih podob, nekatere zelo uspešne. Drugi je pogovorni AI, posrečen chatbot, ki uporabniku odgovori, ko postavi vprašanje. Vendar pa so v tem primeru ponujeni odgovori lahko izjemno človeški. Skoraj zato, ker na drugi strani ni stroj, ampak človek. Natančneje, lansko poletje je tehnološko podjetje suspendiralo Googlovega inženirja, potem ko je potrdilo, da bo umetna inteligenca iskalnika, imenovana LaMDA, "zavestno" in "občutljivo" bitje. Prišel je celo primerjati genija z majhnim otrokom. Vsi strokovnjaki za kibernetsko varnost, s katerimi so sodelovali, opozarjajo na tveganje, da bodo tovrstne rešitve še naprej postajale priljubljene in da jih bodo zlonamerne tretje osebe izkoriščale. Ne glede na to, kje omenjate ustvarjanje slik, napačno informiranje uporabnikov, programsko opremo za klepet, včasih tudi mojo, obstaja velik potencial pri razvijanju e-poštnih in družabnih omrežij. VEČ INFORMACIJ novice Ne Božična loterija 2022: vsi triki, ki jih uporabljajo, da vas prevarajo novice Ne Ste prejeli e-pošto s svojega naslova?: nova prevara, s katero vas oropajo «Kampanje, ustvarjene z uporabo chatbotov, ki se lahko pogovarjajo z namen zbiranja osebnih podatkov od uporabnikov že obstaja,« pravi José Luis Palletti, prodajni inženir pri podjetju za kibernetsko varnost Watchguard. Sancho pa komentira potencial, ki ga ima pogovorna umetna inteligenca pri 'prevarah', tistih romantičnih prevarah, namenjenih kraji denarja uporabnikom, v katerih se kriminalci prek elektronske pošte predstavljajo kot nekdo, ki v resnici ne obstaja. prav tako ni orodij, ki bi lahko zaznala goljufijo. Nobenega nasveta, kako se izogniti temu.