Oszustwa i „fałszywe wiadomości”: zagrożenia stojące za technologią przyszłości

Jest 16 marca 2022 roku. Po kilku tygodniach, odkąd rosyjscy żołnierze zaczęli zakładać buty tylko na Ukrainie, medium „Ukraine 24” pokazuje wideo jako dodatek do składek na ubezpieczenie społeczne prezydenta Wołodimira Zełenskiego. Z wyglądu nagranie nie ma w sobie nic dziwnego. Reżyser pojawia się przed kamerami w sądowym stroju, który towarzyszy mu od początku konfliktu. Jego cechy są jego własne, jego głos też. Z tego powodu, gdy patrząc w kamerę stwierdza, że ​​podjął decyzję o poddaniu się Rosji, nie byłoby niczym dziwnym, gdyby ten, kto jest po drugiej stronie, nawet z niedowierzaniem, wpadł w pułapkę. Że istnieje i to duże. Sztuczka w tym przypadku nazywa się „deepfake”, technologią, która pozwala, dzięki zastosowaniu sztucznej inteligencji (AI), zmieniać twarze i dźwięk, osiągając hiperrealistyczne rezultaty. Możliwości, które pozostawią bez słowa nawet ekspertów ds. cyberbezpieczeństwa. Co więcej, aby to osiągnąć, „zły facet” nie musi być geniuszem komputerowym; Wystarczy pobrać jedno z tysięcy programów dostępnych obecnie w Internecie. Przypadek fałszywego wideo Zełenskiego, będącego produktem „hakowania” wspomnianego medium, jest tylko jednym z wielu, które w ostatnich miesiącach pokazały, jak ogromny rozwój technologiczny czyni nas coraz bardziej podatnymi na oszustwa; a nie tylko zwykłym użytkownikom lub mediom. Również firmie, niezależnie od jej wielkości, a nawet rządom. A jeśli są jakieś wątpliwości, to wojna na Ukrainie dba o ich całkowite wyjaśnienie. Od pierwszych impasów ukraińskiego konfliktu sieci społecznościowe, a nawet media, udostępniają obrazy przechwycone z gier wideo w stylu wojennym i przedstawiają je jako prawdziwe. Jednym z najczęściej używanych jest „Arma 3”, tytuł opracowany przez niezależne czeskie studio Bohemia Interactive. Mimo upływu czasu firmie udało się zapobiec wykorzystywaniu zdjęć do dezinformacji przedstawiających rzekome ataki artyleryjskie czy ruchy wojsk. Mistrzostwa Świata, na YouTube „Próbowaliśmy walczyć z tego typu treściami, kierując te filmy do dostawców platform, na których są publikowane (YouTube, Facebook, Twitter, Instagram itp.), ale okazało się, że być dość nieskuteczny. Na każdy film, który udaje nam się wycofać, każdego dnia pojawia się dziesięć kolejnych” – wyjaśnił Pavel Křižka, dyrektor ds. public relations w Bohemia Interactive, w oświadczeniu wysłanym do ABC. Dyrektor zaznacza jednak, że zdaje sobie sprawę, że jego tytuł jest w stanie odtworzyć konflikty wojenne „w bardzo realistyczny sposób”. I właśnie w tym kierunku, w kierunku idealnej repliki rzeczywistości, w kierunku, do którego branża gier wideo wiosłuje od lat. Biznes, który obraca w Hiszpanii ponad dwa razy więcej pieniędzy niż film i nagrana muzyka razem i gromadzi miliony graczy. „Branża bardzo intensywnie wykorzystuje możliwości graficzne. Wystrzelenie rakiety w dzisiejszej grze wideo może wydawać się całkowicie realne, można nawet sprawić, by wyglądało to tak, jakbyś nagrywał z telefonu komórkowego. Całkowicie trafia w sedno” – wyjaśnił tej gazecie Jon Cortázar, dyrektor wykonawczy hiszpańskiego studia deweloperskiego Relevo. Deweloper zwraca również uwagę, że realizm jest realizowany zwłaszcza w niektórych gatunkach gier wideo: „Ponadto użytkownik jest tym, czego żąda w wielu przypadkach. Na przykład w „FIFA” zawodnik się poci, a jego koszulka pokrywa się błotem. To samo dzieje się z grami samochodowymi, muszą się zepsuć i pobrudzić. W tytułach wojennych, o których nawet nie chcę ci więcej mówić, gracze są tak zwanymi „hardkorowymi graczami” i są jednymi z najbardziej wymagających pod względem jakości grafiki”. Rzeczywiście, przypadek „Arma 3” nie jest anegdotyczny. Zaledwie kilka dni temu Wietnamczycy zostali oszukani przez grupę cyberprzestępców, którzy pokazywali na YouTube mecze popularnego tytułu piłkarskiego „FIFA 23”, udając prawdziwe mecze Mistrzostw Świata w Katarze. Użytkownicy przychodzą na platformę skuszeni możliwością darmowego oglądania meczów; w międzyczasie przestępcy chcieli zarobić na napływie ludzi do witryny należącej do Google. Czasami reżyserzy mieli 40.000 XNUMX ludzi z oczami przyklejonymi do ekranu. W ostatnich latach eksperci ds. cyberbezpieczeństwa wielokrotnie ostrzegali przed niebezpieczeństwami stojącymi za rozwojem sztucznej inteligencji. I to nie tylko w tym, co dotyczy przeróbki obrazu wideo, jak to miało miejsce w przypadku Zełenskiego. Pod koniec 2019 roku grupa cyberprzestępców kosztowała brytyjską firmę 220.000 XNUMX euro. Aby to osiągnąć, zdobył oprogramowanie mające na celu zmianę głosu dyrektora firmy, którego żądał ma podwładnego, który przenosi pieniądze. W 2020 roku klonowanie głosu AI zostało również wykorzystane podczas napadu na bank w Hongkongu za 35 milionów dolarów. Sprawca w tym przypadku udawał klienta podmiotu poprzez rozmowę telefoniczną. „Deepfakes” posunęły się naprzód gigantycznymi krokami. Jeszcze kilka lat temu pozostawiały one wiele do życzenia, ale zostały znacznie udoskonalone i teraz są coraz bardziej realistyczne. Ponadto nie trzeba nic wiedzieć o komputerach, aby je wygenerować, w Internecie jest mnóstwo programów do tego celu” – powiedział tej gazecie David Sancho, szef analizy zagrożeń w firmie Trend Micro zajmującej się cyberbezpieczeństwem. Obraz i tekst z niczego Ekspert mówi, że „AI używa coraz więcej” w rozwoju cyberataków i zauważa, że ​​„przy dzisiejszych algorytmach” praktycznie wszystko jest możliwe: „Jeśli masz wystarczająco dużo dźwięku, głosu i wideo osoby, którą chcesz zrobić „deepfake”, aby uzyskać bardzo, bardzo przekonujące rzeczy. Nawet specjaliści IT mogą wzbudzić w nas wątpliwości”. Przez cały 2022 rok firmy zajmujące się pracą ze sztuczną inteligencją udostępniały ją każdemu, dodatkowo nowe narzędzia zdolne do tworzenia realistycznych treści praktycznie z niczego. „Chociaż na początku systemy te generowały tekst lub obrazy, które nie były wysokiej jakości, zaobserwowaliśmy szybki postęp”, mówi Josep Curto, ekspert w dziedzinie sztucznej inteligencji i profesor informatyki na Otwartym Uniwersytecie Katalonii. Do najpotężniejszych należą DALL-E 2 i ChatGPT, ponownie narzędzia opracowane przez OpenAI. Przede wszystkim użytkownik może tworzyć realistyczne obrazy, po prostu wprowadzając krótki opis efektu, który ma uzyskać. Wystarczy wpisać „Ukraiński protestujący na ulicach Moskwy”, a w ciągu kilku sekund jest w stanie stworzyć kilka różnych obrazów, z których niektóre są całkiem udane. Drugi to konwersacyjna sztuczna inteligencja, szczęśliwy chatbot, który odpowiada użytkownikowi, gdy zada mu pytanie. Jednak w tym przypadku oferowane odpowiedzi mogą być niezwykle ludzkie. Niemal dlatego, że po drugiej stronie nie ma maszyny, a człowiek. Dokładnie latem zeszłego roku inżynier Google został zawieszony przez firmę technologiczną po potwierdzeniu, że sztuczna inteligencja wyszukiwarki, zwana LaMDA, będzie istotą „świadomą” i „wrażliwą”. Przyszedł nawet porównać geniusza z małym dzieckiem. Wszyscy eksperci ds. cyberbezpieczeństwa, z którymi się konsultowano, ostrzegają przed ryzykiem, że tego typu rozwiązania będą nadal popularne i ostatecznie będą wykorzystywane przez złośliwe strony trzecie. Gdziekolwiek masz na myśli generowanie obrazów, wprowadzanie w błąd użytkowników, oprogramowanie do czatowania, czasami moje, istnieje ogromny potencjał w opracowywaniu oszustw e-mailowych i mediów społecznościowych. WIĘCEJ INFORMACJI news Nie Świąteczna loteria 2022: wszystkie sztuczki, których używają, aby cię oszukać wiadomości Nie Czy otrzymałeś wiadomość e-mail z własnego adresu?: nowe oszustwo, którego używają, aby cię okraść «Kampanie utworzone za pomocą chatbotów, które mogą rozmawiać z cel zbierania danych osobowych od użytkowników już istnieje”, mówi José Luis Palletti, inżynier sprzedaży w firmie Watchguard zajmującej się cyberbezpieczeństwem. Sancho ze swojej strony komentuje potencjał konwersacyjnej sztucznej inteligencji w „oszustwach”, tych romantycznych oszustwach mających na celu kradzież pieniędzy od użytkowników, w których przestępcy za pośrednictwem poczty elektronicznej udają kogoś, kto tak naprawdę nie istnieje. nie ma też narzędzi zdolnych do wykrycia oszustwa. Nie ma rady, jak się w to nie wpakować.