Podvody a „falešné zprávy“: hrozby za technologií budoucnosti

Je 16. března 2022. Po více týdnech od doby, kdy ruští vojáci začali nasazovat své boty pouze na Ukrajině, ukazuje médium ‚Ukrajina 24‘ kromě sociálních příspěvků prezidenta Volodimira Zelenského i video. Vzhledově na nahrávce není nic divného. Režisér předstupuje před kamery v oblečení pro válečný soud, v tom, který ho provází od začátku konfliktu. Jeho rysy jsou jeho vlastní, jeho hlas také. Z tohoto důvodu, když pohledem na kameru potvrzuje, že se rozhodl vzdát se Rusku, nebylo by divné, kdyby se do pasti chytil kdokoli na druhé straně, byť nevěřícně. To existuje a je velké. Trik se v tomto případě nazývá 'deepfake', což je technologie, která umožňuje díky použití umělé inteligence (AI) měnit obličeje a zvuk a dosáhnout tak hyperrealistických výsledků. Schopnosti nechat beze slova, dokonce i experty na kybernetickou bezpečnost. A navíc, aby toho dosáhl, „zlý člověk“ nemusí být počítačový génius; stačí si stáhnout jeden z tisíců softwaru, který je aktuálně na internetu. Případ falešného videa Zelenského, produktu „hackingu“, kterým trpí výše uvedené médium, je jen jedním z mnoha, které v posledních měsících ukázaly, jak nás obrovský technologický rozvoj činí stále zranitelnějšími vůči podvodům; a to nejen běžným uživatelům nebo médiím. Také společnosti, bez ohledu na její velikost, a dokonce i vládám. A v případě jakýchkoli pochybností se válka na Ukrajině postará o to, aby se to úplně vyjasnilo. Od prvních slepých uliček ukrajinského konfliktu sociální sítě a dokonce i média sdílely snímky zachycené z videoher ve válečném stylu a vydávaly je za skutečné. Jedním z nejpoužívanějších je 'Arma 3', titul vyvinutý nezávislou českou studií Bohemia Interactive. I přes uplynulý čas se společnosti podařilo zabránit tomu, aby byly obrázky používány k dezinformování údajných dělostřeleckých útoků nebo přesunů vojsk. Mistrovství světa ve fotbale na YouTube „Snažili jsme se bojovat proti tomuto typu obsahu tím, že jsme tato videa nasměrovali na poskytovatele platforem, na kterých jsou publikována (YouTube, Facebook, Twitter, Instagram atd.), ale ukázalo se, že být dost neefektivní. Na každé video, které se nám podaří stáhnout, se každý den objeví deset dalších,“ vysvětlil Pavel Křižka, ředitel pro styk s veřejností Bohemia Interactive, v prohlášení zaslaném ABC. Jednatel však poukazuje na to, že si je vědom toho, že jeho titul je schopen obnovit válečné konflikty „velmi realistickým způsobem“. A právě tam, k dokonalé replice reality, ke které videoherní průmysl léta vesluje. Podnik, který se pohybuje ve Španělsku za více než dvojnásobek peněz než film a reprodukovaná hudba dohromady a hromadí miliony hráčů. „Průmysl hodně využívá grafické kapacity. Odpálení střely ve videohře se dnes může zdát zcela reálné, dokonce je možné, aby to vypadalo, že nahráváte z mobilu. Naprosto trefuje do černého,“ vysvětlil tomuto deníku Jon Cortázar, výkonný ředitel španělského vývojářského studia Relevo. Vývojář také poukazuje na to, že realismus je ve videohře sledován zejména v určitých žánrech: „Uživatel je navíc tím, co v mnoha případech požadují. Například ve hře FIFA se hráč zpotí a jeho triko se zanese blátem. Totéž se děje s automobilovými hrami, musí se rozbít a ušpinit. Ve válečných titulech už vám ani nechci říkat, hráči jsou takzvaní 'hardcore hráči' a bývají jedni z nejnáročnějších na grafickou kvalitu“. Případ 'Arma 3' skutečně není neoficiální. Jen před pár dny byli Vietnamci podvedeni skupinou kyberzločinců, kteří na YouTube ukazovali zápasy populárního fotbalového titulu 'FIFA 23', vydávající se za skutečné zápasy mistrovství světa v Kataru. Uživatelé přicházejí na platformu lákáni možností sledovat zápasy zdarma; mezitím se zločinci snažili vydělat peníze na přílivu lidí na stránky vlastněné společností Google. Občas měli režiséři 40.000 XNUMX lidí s očima přilepenýma k obrazovce. V posledních letech odborníci na kybernetickou bezpečnost při mnoha příležitostech varovali před nebezpečím rozvoje umělé inteligence. A to nejen v tom, co se týká změny obrazu videa, jak tomu bylo v případě Zelenského. Na konci roku 2019 stála skupina kyberzločinců britskou společnost 220.000 XNUMX eur. Aby toho dosáhl, získal software určený ke změně hlasu ředitele společnosti, který má žádaného podřízeného, ​​který přesouvá peníze. V roce 2020 bylo klonování hlasu AI použito také při loupeži hongkongské banky za 35 milionů dolarů. Pachatel se v tomto případě prostřednictvím telefonátu vydával za klienta subjektu. „‚Deepfake‘ pokročili obrovskými kroky. Před pár lety ještě něco zanechávaly, ale byly značně vylepšeny a nyní jsou stále realističtější. Navíc k jejich generování nepotřebujete vědět nic o počítačích, na internetu je k tomu spousta programů,“ řekl tomuto deníku David Sancho, vedoucí analýzy hrozeb ve společnosti Trend Micro, která se zabývá kybernetickou bezpečností. Obrázek a text z ničeho Odborník říká, že „AI využívá stále více“ při vývoji kybernetických útoků, a poznamenává, že „s dnešními algoritmy“ je možné prakticky cokoliv: „Pokud máte dostatek zvuku, hlasu a videa osoby, kterou chcete udělat 'deepfake', dostanete velmi, velmi přesvědčivé věci. Dokonce i IT profesionálové nás mohou přimět pochybovat.“ Po celý rok 2022 ji společnosti věnující se práci s umělou inteligencí zpřístupnily komukoli, navíc nové nástroje schopné vytvářet realistický obsah prakticky z ničeho. „Ačkoli na začátku tyto systémy generovaly text nebo obrázky, které nebyly vysoké kvality, pozorovali jsme rychlý vývoj,“ říká Josep Curto, odborník na AI a profesor informatiky na Open University of Catalonia. Mezi nejvýkonnější patří DALL-E 2 a ChatGPT, opět nástroje vyvinuté OpenAI. Za prvé, uživatel může vytvořit realistické obrázky jednoduše zadáním krátkého popisu výsledku, který má být získán. Stačí napsat „Ukrajinský demonstrant v ulicích Moskvy“ a během několika sekund je schopen vytvořit několik různých obrázků, některé docela úspěšné. Druhým je konverzační umělá inteligence, šťastný chatbot, který odpovídá uživateli, když položí otázku. V tomto případě však mohou být nabízené odpovědi nesmírně lidské. Skoro proto, že na druhé straně nestojí stroj, ale člověk. Přesně minulé léto byl technologickou společností suspendován inženýr Google poté, co potvrdil, že umělá inteligence vyhledávače, nazývaná LaMDA, bude „vědomou“ a „citlivou“ bytostí. Dokonce přišel porovnat génia s malým dítětem. Všichni konzultovaní odborníci na kybernetickou bezpečnost varují před rizikem, že tyto typy řešení budou i nadále populární a nakonec je zneužijí škodlivé třetí strany. Ať už máte na mysli generování obrázků, dezinformování uživatelů, chatovací software, někdy i můj, existuje velký potenciál ve vývoji podvodů prostřednictvím e-mailů a sociálních sítí. VÍCE INFORMACÍ novinky Ne Vánoční loterie 2022: všechny triky, které používají, aby vás podvedli novinky Ne Obdrželi jste e-mail ze své vlastní adresy?: nový podvod, kterým vás okradou «Kampaně vytvořené pomocí chatbotů, se kterými mohou konverzovat účel shromažďování osobních údajů od uživatelů již existuje,“ říká José Luis Palletti, obchodní inženýr společnosti Watchguard zabývající se kybernetickou bezpečností. Sancho ze své strany komentuje potenciál, který konverzační umělé inteligence mají v „podvodech“, těch romantických podvodech zaměřených na krádež peněz od uživatelů, v nichž se zločinci prostřednictvím e-mailu tváří jako někdo, kdo ve skutečnosti neexistuje. žádné nástroje schopné odhalit cheat. Žádná rada, jak do toho nespadnout.