Svindel og "falske nyheter": truslene bak fremtidens teknologi

Det er 16. mars 2022. Etter flere uker siden de russiske soldatene begynte å plante støvlene sine kun i Ukraina, viser mediet 'Ukraine 24' en video i tillegg til de sosiale bidragene til president Volodimir Zelensky. Utseendemessig har ikke opptaket noe rart. Regissøren dukker opp foran kameraene i krigsrettsklær, den som har vært med ham siden starten av konflikten. Hans trekk er hans egne, stemmen hans er det også. Av denne grunn, når han bekrefter å se på kameraet at han har tatt beslutningen om å overgi seg til Russland, ville det ikke være rart for den som er på den andre siden, selv i vantro, å falle i fellen. Det er det, og stort. Trikset i dette tilfellet kalles "deepfake", en teknologi som tillater, takket være bruken av kunstig intelligens (AI), å endre ansikter og lyd, og oppnå hyperrealistiske resultater. Evner til å forlate målløse, til og med cybersikkerhetseksperter. Og dessuten, for å oppnå dette, trenger ikke den "slemme fyren" å være et datageni; Det er nok å laste ned en av de tusenvis av programvare som for tiden er på Internett. Saken om den falske videoen av Zelenski, et produkt av en "hacking" som det nevnte mediet lider, er bare ett av de mange som de siste månedene har vist hvordan den enorme teknologiske utviklingen gjør oss stadig mer sårbare for bedrag; og ikke bare til vanlige brukere eller media. Også til selskapet, uansett størrelse, og til og med til myndigheter. Og i tilfelle det er noen tvil, sørger krigen i Ukraina for å rydde helt opp. Siden de første blindgatene i den ukrainske konflikten har sosiale nettverk, og til og med media, delt bilder tatt fra videospill i krigsstil og har gitt dem ut som ekte. En av de mest brukte har vært 'Arma 3', en tittel utviklet av den uavhengige tsjekkiske studien Bohemia Interactive. Til tross for tidens gang har selskapet klart å stoppe bildene fra å bli brukt til å feilinformere som viser påståtte artilleriangrep eller troppebevegelser. VM, på YouTube «Vi har forsøkt å kjempe mot denne typen innhold ved å peke disse videoene til leverandørene av plattformene de publiseres på (YouTube, Facebook, Twitter, Instagram, etc.), men det har vist seg å være ganske ineffektiv. For hver video vi klarer å få trukket tilbake, dukker det opp ti til hver dag», forklarte Pavel Křižka, direktør for PR i Bohemia Interactive, i en uttalelse sendt til ABC. Direktøren påpeker imidlertid at han er klar over at tittelen hans er i stand til å gjenskape krigskonflikter «på en svært realistisk måte». Og det er nettopp dit, mot den perfekte kopien av virkeligheten, som videospillindustrien har rodd mot i årevis. En bedrift som beveger seg i Spania mer enn dobbelt så mye penger enn film og innspilt musikk sammen og samler millioner av spillere. – Bransjen utnytter den grafiske kapasiteten mye. En rakettoppskyting i et videospill, i dag, kan virke helt ekte, det er til og med mulig å få det til å se ut som om du tar opp fra en mobil. Det treffer helt blink,» forklarte Jon Cortázar, administrerende direktør for det spanske utviklingsstudioet Relevo, til denne avisen. Utvikleren påpeker også at realisme etterstrebes spesielt i visse sjangere innenfor videospillet: «Brukeren er i tillegg det de krever i mange tilfeller. For eksempel, i "FIFA" svetter spilleren og skjorten hans blir dekket av gjørme. Det samme skjer med bilspill, de må gå i stykker og bli skitne. I krigslignende titler vil jeg ikke engang fortelle deg mer, spillerne er de såkalte 'hardcore-spillerne' og de pleier å være en av de mest krevende med grafisk kvalitet». Saken om 'Arma 3' er faktisk ikke anekdotisk. For bare noen dager siden ble vietnamesere svindlet av en gruppe nettkriminelle, som viste kamper med den populære fotballtittelen 'FIFA 23' på YouTube, og utgir seg for å være ekte VM-kamper i Qatar. Brukere kommer til plattformen fristet av muligheten til å se kampene gratis; i mellomtiden var de kriminelle ute etter å tjene penger på tilstrømningen av mennesker på det Google-eide nettstedet. Til tider hadde regissørene 40.000 XNUMX mennesker med øynene klistret til skjermen. De siste årene har eksperter på nettsikkerhet ved flere anledninger advart om farene bak utviklingen av kunstig intelligens. Og ikke bare i det som refererer til endringen av videobildet, som skjedde i tilfellet Zelenski. På slutten av 2019 kostet en gruppe nettkriminelle et britisk selskap € 220.000 XNUMX. For å oppnå dette, skaffet han programvare beregnet på å endre stemmen til direktøren i selskapet, som den forespurte har en underordnet som flytter penger. I 2020 ble AI-stemmekloning også brukt i ranet på 35 millioner dollar av en bank i Hong Kong. Gjerningsmannen utga seg i dette tilfellet som en klient av enheten gjennom en telefonsamtale. «Deepfakes» har avansert med gigantiske skritt. For noen år siden la de fortsatt noe å ønske, men de har blitt kraftig forbedret og nå er de mer og mer realistiske. I tillegg trenger du ikke å vite noe om databehandling for å generere dem, det er mange programmer på Internett for å gjøre det, sier David Sancho, leder for trusselanalyse i nettsikkerhetsselskapet Trend Micro, til denne avisen. Bilde og tekst fra ingenting Eksperten sier at «AI bruker mer og mer» i utviklingen av cyberangrep, og bemerker at «med dagens algoritmer» er praktisk talt alt mulig: «Hvis du har nok lyd, stemme og video av personen du ønsker å gjøre "deepfake" for å få veldig, veldig overbevisende ting. Selv IT-fagfolk kan få oss til å tvile”. Gjennom 2022 har selskaper dedikert til å jobbe med kunstig intelligens gjort det tilgjengelig for alle, i tillegg nye verktøy som er i stand til å skape realistisk innhold, praktisk talt, fra ingenting. "Selv om disse systemene i begynnelsen genererte tekst eller bilder som ikke var av høy kvalitet, har vi observert en rask progresjon," sier Josep Curto, ekspert i AI og professor i informatikk ved Open University of Catalonia. Blant de kraftigste er DALL-E 2 og ChatGPT, igjen verktøy utviklet av OpenAI. Først av alt kan brukeren lage realistiske bilder ved å skrive inn en kort beskrivelse av resultatet som skal oppnås. Bare skriv "Ukrainsk demonstrant på gatene i Moskva", og på sekunder er den i stand til å lage flere forskjellige bilder, noen ganske vellykkede. Den andre er en samtale-AI, en heldig chatbot som svarer brukeren når de stiller et spørsmål. Men i dette tilfellet kan svarene som tilbys være enormt menneskelige. Nesten fordi det på den andre siden ikke er en maskin, men en person. Nettopp i fjor sommer ble en Google-ingeniør suspendert av teknologiselskapet etter å ha bekreftet at den kunstige intelligensen til søkemotoren, kalt LaMDA, vil være et «bevisst» og «sensitivt» vesen. Han kom til og med for å sammenligne geniet med et lite barn. Alle cybersikkerhetsekspertene som er konsultert advarer om risikoen for at denne typen løsninger fortsetter å bli populære og ender opp med å bli utnyttet av ondsinnede tredjeparter. Uansett hvor du refererer til bildegenerering, for å feilinformere brukere, chatprogramvare, min noen ganger, er det et stort potensiale i å utvikle svindel med e-post og sosiale medier. MER INFORMASJON nyheter No Christmas Lottery 2022: alle triksene de bruker for å lure deg nyheter Nei Har du mottatt en e-post fra din egen adresse?: den nye svindelen de bruker for å rane deg «Kampanjer opprettet ved hjelp av chatbots som er i stand til å ha samtaler med formålet med å samle inn personlig informasjon fra brukere eksisterer allerede, sier José Luis Palletti, salgsingeniør for cybersikkerhetsselskapet Watchguard. Sancho kommenterer på sin side potensialet som kunstig intelligens i samtale har i "svindel", de romantiske svindelene som tar sikte på å stjele penger fra brukere der kriminelle via e-post poserer som noen som egentlig ikke eksisterer. Og det finnes ingen verktøy som er i stand til å oppdage juksen heller. Ingen råd for å unngå å falle inn i det.