Fraŭdoj kaj "falsaj novaĵoj": la minacoj malantaŭ la teknologio de la estonteco

Estas la 16-a de marto 2022. Post pli da semajnoj de kiam la rusaj soldatoj komencis planti siajn botojn nur en Ukrainio, la mediumo 'Ukraine 24' montras filmeton krom la sociaj kontribuoj de prezidanto Volodimir Zelensky. En aspekto, la registrado ne havas ion strangan. La direktoro aperas antaŭ la fotiloj en militkortuma vestaĵo, tiu kiu estis kun li ekde la komenco de la konflikto. Liaj trajtoj estas liaj, ankaŭ lia voĉo. Tial, kiam li asertas rigardante la fotilon, ke li faris la decidon kapitulaci al Rusio, ne estus strange, ke kiu estas ĉe la alia flanko, eĉ nekrede, falus en la kaptilo. Tio estas, kaj granda. La lertaĵo en ĉi tiu kazo nomiĝas 'deepfake', teknologio kiu permesas, danke al la uzo de artefarita inteligenteco (AI), ŝanĝi vizaĝojn kaj audio, atingante hiperrealismajn rezultojn. Kapabloj lasi senvortaj, eĉ spertuloj pri cibersekureco. Kaj, krome, por atingi tion, la 'malbonulo' ne bezonas esti komputila geniulo; Sufiĉas elŝuti unu el la miloj da programoj nuntempe en la Interreto. La kazo de la falsa video de Zelenski, produkto de 'hacking' suferita de la menciita medio, estas nur unu pli el la multaj kiuj, en la lastaj monatoj, montris kiel la enorma teknologia disvolviĝo faras nin ĉiufoje pli vundeblaj al trompo; kaj ne nur al ordinaraj uzantoj aŭ amaskomunikiloj. Ankaŭ al la kompanio, sendepende de ĝia grandeco, kaj eĉ al registaroj. Kaj se estas ia dubo, la milito en Ukrainio zorgas pri plene purigi ĝin. Ekde la unuaj blokiĝoj de la ukraina konflikto, sociaj retoj, kaj eĉ la amaskomunikilaro, dividis bildojn kaptitajn el militstilaj videoludoj kaj pasigis ilin kiel realajn. Unu el la plej uzataj estis 'Arma 3', titolo evoluigita de la sendependa ĉeĥa studo Bohemia Interactive. Malgraŭ la paso de la tempo, la firmao sukcesis malhelpi la bildojn esti uzataj por misinformi montrante kvazaŭajn artileriatakojn aŭ trupmovojn. La Monda Pokalo, en Jutubo "Ni provis batali kontraŭ ĉi tiu tipo de enhavo indikante ĉi tiujn videojn al la provizantoj de la platformoj sur kiuj ili estas publikigitaj (YouTube, Facebook, Twitter, Instagram, ktp.), sed ĝi pruvis, ke esti tute neefika. Por ĉiu filmeto, kiun ni sukcesas retiri, dek pli aperas ĉiutage," klarigis Pavel Křižka, direktoro de publikaj rilatoj ĉe Bohemia Interactive, en deklaro sendita al ABC. La ekzekutivo atentigas, tamen, ke li konscias, ke lia titolo kapablas rekrei militkonfliktojn "en tre realisma maniero". Kaj ĝuste al tie, al la perfekta kopio de la realo, al kiu remas de jaroj la industrio de la videoludoj. Negoco kiu movas en Hispanio pli ol duobla mono ol filmo kaj surbendigita muziko kune kaj amasigas milionojn da ludantoj. “La industrio multe ekspluatas la grafikan kapablon. Lanĉo de misilo en videoludo, hodiaŭ, povas ŝajni tute reala, eĉ eblas aspekti kiel vi registras de poŝtelefono. Ĝi plene trafas la markon,” Jon Cortázar, plenuma direktoro de la hispana evolustudio Relevo, klarigis al ĉi tiu gazeto. La programisto ankaŭ atentigas, ke realismo estas persekutata precipe en certaj ĝenroj ene de la videoludo: "La uzanto, krome, estas tio, kion ili postulas en multaj kazoj. Ekzemple, en "FIFA" la ludanto ŝvitas kaj lia ĉemizo estas kovrita de koto. La sama afero okazas kun aŭtoludoj, ili devas rompi kaj malpuriĝi. En militemaj titoloj mi eĉ ne volas rakonti al vi plu, la ludantoj estas la tiel nomataj 'hardcore gamers' kaj ili tendencas esti unu el la plej postulemaj kun grafika kvalito”. Efektive, la kazo de 'Arma 3' ne estas anekdota. Antaŭ nur kelkaj tagoj, vjetnamanoj estis fraŭditaj de grupo da ciberkrimuloj, kiuj montris matĉojn de la populara futbala titolo 'FIFA 23' en Jutubo, prezentiĝante kiel realaj matĉoj de la Mondpokalo en Kataro. Uzantoj venas al la platformo tentataj de la ebleco spekti la matĉojn senpage; dume, la krimuloj serĉis gajni monon de la enfluo de homoj sur la Guglo-posedata retejo. Foje la direktoroj havis 40.000 homojn kun siaj okuloj gluitaj al la ekrano. En la lastaj jaroj, spertuloj pri cibersekureco avertis multfoje pri la danĝeroj malantaŭ la disvolviĝo de artefarita inteligenteco. Kaj ne nur en kio raportas al la alteración de la bildo de la video, kiel ĝi okazis en la kazo de Zelenski. Fine de 2019, grupo de ciberkrimuloj kostis al brita kompanio €220.000. Por atingi tion, li akiris programaron intencitan ŝanĝi la voĉon de la direktoro de la firmao, kiu la petita havas subulon kiu movas monon. En 2020, AI-voĉklonado ankaŭ estis uzita en la 35 milionoj USD rabo de Honkonga banko. La leĝrompinto, en ĉi tiu kazo, pozis kiel kliento de la ento per telefonvoko. "La "profundaj falsaĵoj" progresis per gigantaj paŝoj. Antaŭ kelkaj jaroj ili ankoraŭ lasis ion por deziri, sed ili estas multe plibonigitaj kaj nun ili estas pli kaj pli realismaj. Krome, vi ne bezonas scii ion pri komputado por generi ilin, ekzistas multaj programoj en la Interreto por fari ĝin, " diris David Sancho, estro de minacanalizo ĉe la cibersekurecfirmao Trend Micro, diris al ĉi tiu gazeto. Bildo kaj teksto el nenio La fakulo diras, ke "AI uzas pli kaj pli" en la disvolviĝo de ciberatakoj, kaj rimarkas, ke "per la hodiaŭaj algoritmoj" preskaŭ ĉio eblas: "Se vi havas sufiĉe da audio, voĉo kaj video de la persono, kiun vi volas fari la 'deepfake' por, vi ricevas tre, tre konvinkajn aferojn. Eĉ IT-profesiuloj povas dubi nin”. Laŭlonge de 2022, kompanioj dediĉitaj al laboro kun artefarita inteligenteco disponigis ĝin al ĉiu, krome, novajn ilojn kapablajn krei realisman enhavon, praktike, el nenio. "Kvankam en la komenco ĉi tiuj sistemoj generis tekstojn aŭ bildojn kiuj ne estis altkvalitaj, ni observis rapidan progresadon," diras Josep Curto, fakulo pri AI kaj profesoro pri Komputika Scienco ĉe la Malferma Universitato de Katalunio. Inter la plej potencaj estas DALL-E 2 kaj ChatGPT, denove iloj evoluigitaj de OpenAI. Antaŭ ĉio, la uzanto povas krei realismajn bildojn simple enmetante mallongan priskribon de la rezultota akirita. Nur tajpu 'Ukraina manifestaciano sur la stratoj de Moskvo', kaj en sekundoj ĝi kapablas krei plurajn malsamajn bildojn, iuj sufiĉe sukcesaj. La dua estas konversacia AI, bonŝanca babilejo, kiu respondas al la uzanto kiam ili faras demandon. Tamen, ĉi-kaze la ofertitaj respondoj povas esti ege homaj. Preskaŭ ĉar ĉe la alia flanko estas ne maŝino, sed homo. Ĝuste, pasintsomere inĝeniero de Guglo estis malakceptita de la teknologia kompanio post konfirmi, ke la artefarita inteligenteco de la serĉilo, nomata LaMDA, estos "konscia" kaj "sentema" estaĵo. Li eĉ venis por kompari la geniulon kun malgranda infano. Ĉiuj fakuloj pri cibersekureco konsultitaj avertas pri la risko, ke ĉi tiuj specoj de solvoj daŭre populariĝas kaj finiĝas ekspluataj de malicaj triaj partioj. Kie ajn vi aludas al bildgenerado, por misinformi uzantojn, babilprogramon, mian foje, ekzistas granda potencialo por disvolvi retpoŝtajn kaj sociajn amaskomunikilajn fraŭdojn. PLI INFORMOJ novaĵoj Neniu Kristnaska Loterio 2022: ĉiuj lertaĵoj, kiujn ili uzas por trompi vin novaĵoj Ne Ĉu vi ricevis retmesaĝon de via propra adreso?: la nova fraŭdo, kiun ili uzas por rabi vin «Kampanjoj kreitaj per babilrotoj, kiuj kapablas konversacii kun vi. la celo kolekti personajn informojn de uzantoj jam ekzistas,” diras José Luis Palletti, venda inĝeniero de la kompanio pri cibersekureco Watchguard. Sancho, siaflanke, komentas pri la potencialo, kiun havas konversaciaj artefaritaj inteligentecoj en "fraŭdoj", tiuj romantikaj fraŭdoj celantaj ŝteli monon de uzantoj, en kiuj, per retpoŝto, krimuloj pozas kiel iu kiu, vere, ne ekzistas.Kaj ekzistas. ankaŭ neniuj iloj kapablaj detekti la trompaĵon. Neniu konsilo por eviti fali en ĝi.