Шахрайство та «фейкові новини»: загрози, що стоять за технологіями майбутнього

Сьогодні 16 березня 2022 року. Після кількох тижнів, відколи російські солдати почали бути лише в Україні, видання «Україна 24» окрім соціальних внесків президента Володимира Зеленського показує відео. На вигляд запис не має нічого дивного. Режисер постає перед камерами у військово-судовому одязі, у тому, що був на ньому з початку конфлікту. Його риси властиві йому, голос теж. З цієї причини, коли він стверджує, дивлячись на камеру, що прийняв рішення здатися Росії, не було б нічого дивного, щоб хтось з іншого боку, навіть з недовірою, потрапив у пастку. Що є, і великий. Трюк у цьому випадку називається «deepfake» — технологія, яка дозволяє, завдяки використанню штучного інтелекту (ШІ), змінювати обличчя та звук, досягаючи гіперреалістичних результатів. Можливості, які зведуть безмовні навіть експерти з кібербезпеки. І, крім того, щоб досягти цього, «поганому хлопцю» не обов’язково бути комп’ютерним генієм; Досить завантажити одну з тисяч програм, які зараз є в Інтернеті. Випадок із фальшивим відео Зеленського, продуктом «злому», якого зазнало вищезгадане ЗМІ, є лише одним із багатьох, які за останні місяці показали, як величезний технологічний розвиток робить нас дедалі вразливішими до обману; а не лише звичайним користувачам чи ЗМІ. Також компанії, незалежно від її розміру, і навіть урядам. І якщо є якісь сумніви, то війна в Україні піклується про те, щоб їх остаточно прояснити. З перших глухих кутів українського конфлікту соціальні мережі та навіть ЗМІ ділилися зображеннями, знятими з відеоігор у стилі війни, і видавали їх за справжні. Одним із найпоширеніших є «Arma 3», назва, розроблена незалежним чеським дослідженням Bohemia Interactive. Незважаючи на час, компанії вдалося запобігти використанню зображень для дезінформації про ймовірні артилерійські атаки чи переміщення військ. Чемпіонат світу з футболу на YouTube «Ми намагалися боротися з таким типом контенту, направляючи ці відео постачальникам платформ, на яких вони опубліковані (YouTube, Facebook, Twitter, Instagram тощо), але це виявилося бути досить неефективним. На кожне відео, яке нам вдається відкликати, щодня з’являється ще десять», – пояснив Павел Кржижка, директор зі зв’язків з громадськістю Bohemia Interactive, у заяві, надісланій ABC. Однак виконавчий директор зазначає, що він усвідомлює, що його титул здатний відтворити воєнні конфлікти «дуже реалістично». І саме туди, до ідеальної копії реальності, до якої індустрія відеоігор гребла роками. Бізнес, який переміщує в Іспанії більш ніж удвічі більше грошей, ніж фільми та музичні записи разом, і накопичує мільйони гравців. «Індустрія дуже активно використовує графічні можливості. Запуск ракети у відеогрі сьогодні може здаватися цілком реальним, навіть можна зробити так, ніби ви записуєте з мобільного. Це абсолютно точно», — пояснив газеті Джон Кортасар, виконавчий директор іспанської студії розробки Relevo. Розробник також зазначає, що реалізм переслідується особливо в певних жанрах у відеогрі: «Користувач, крім того, є тим, чого вони вимагають у багатьох випадках. Наприклад, у «FIFA» гравець потіє, а його футболка покривається брудом. Те ж саме відбувається і з машинними іграми, вони повинні ламатися і бруднитися. У військових іграх, я навіть не хочу вам більше розповідати, гравці є так званими «хардкорними геймерами», і вони, як правило, є одними з найвибагливіших до якості графіки». Дійсно, випадок з «Arma 3» не є анекдотичним. Буквально кілька днів тому в’єтнамці були ошукані групою кіберзлочинців, які показували на YouTube матчі популярної футбольної гри «FIFA 23», видаючи себе за справжні матчі Чемпіонату світу з футболу в Катарі. Користувачі приходять на платформу, спокусившись можливістю дивитися матчі безкоштовно; тим часом злочинці намагалися заробити на напливі людей на сайт, що належить Google. Часом у режисерів було 40.000 XNUMX людей, прикутих до екрану. В останні роки експерти з кібербезпеки неодноразово попереджали про небезпеку, що стоїть за розвитком штучного інтелекту. І не тільки в тому, що стосується зміни відеозображення, як це сталося у випадку з Зеленським. Наприкінці 2019 року група кіберзлочинців обійшлася британській компанії в €220.000 тис. Щоб досягти цього, він отримав програмне забезпечення, призначене для зміни голосу директора компанії, у якого за запитом є підлеглий, який переміщує гроші. У 2020 році клонування голосу штучним інтелектом також було використано під час пограбування банку в Гонконзі на 35 мільйонів доларів. У цьому випадку правопорушник через телефонний дзвінок представився клієнтом організації. «Діпфейки просунулися гігантськими кроками. Кілька років тому вони ще залишали бажати кращого, але вони були значно вдосконалені, і тепер вони все більш і більш реалістичні. Крім того, вам не потрібно нічого знати про обчислення, щоб їх генерувати, в Інтернеті є багато програм для цього», – сказав газеті Девід Санчо, керівник відділу аналізу загроз компанії Trend Micro з кібербезпеки. Зображення та текст із нічого. Експерт каже, що «ШІ використовує все більше і більше» для розробки кібератак, і зазначає, що «з сьогоднішніми алгоритмами» практично все можливо: «Якщо у вас є достатньо аудіо, голосу та відео людини, ви якщо хочете зробити «deepfake», ви отримаєте дуже, дуже переконливі речі. Навіть ІТ-фахівці можуть змусити нас сумніватися». Протягом 2022 року компанії, які займаються роботою зі штучним інтелектом, зробили його доступним для всіх, крім того, нові інструменти, здатні створювати реалістичний контент практично з нічого. «Хоча на початку ці системи створювали текст або зображення невисокої якості, ми спостерігали швидкий прогрес», — говорить Хосеп Курто, експерт зі штучного інтелекту та професор комп’ютерних наук у Відкритому університеті Каталонії. Серед найпотужніших — DALL-E 2 і ChatGPT, знову ж таки інструменти, розроблені OpenAI. Перш за все, користувач може створювати реалістичні зображення, просто ввівши короткий опис результату, який потрібно отримати. Просто введіть «Український протестувальник на вулицях Москви», і за секунди він здатний створити кілька різних образів, деякі з яких досить вдалі. Другий — розмовний ШІ, щасливий чат-бот, який відповідає користувачеві, коли він ставить запитання. Однак у цьому випадку запропоновані відповіді можуть бути надзвичайно людськими. Майже тому, що по той бік не машина, а людина. Точніше, минулого літа інженер Google був відсторонений технологічною компанією після підтвердження того, що штучний інтелект пошукової системи під назвою LaMDA буде «свідомою» та «чутливою» істотою. Він навіть приходив порівнювати генія з маленькою дитиною. Усі експерти з кібербезпеки, з якими проводилися консультації, попереджають про ризик того, що ці типи рішень продовжуватимуть ставати популярними та в кінцевому підсумку використовуватимуться зловмисними третіми сторонами. Де б ви не мали на увазі генерування зображень, дезінформування користувачів, програмне забезпечення для чату, інколи моє, є великий потенціал у розвитку електронної пошти та шахрайства в соціальних мережах. БІЛЬШЕ ІНФОРМАЦІЇ новини Ні Різдвяній лотереї 2022: усі трюки, які вони використовують, щоб обдурити вас новини Ні Ви отримали електронний лист зі своєї власної адреси?: нова афера, яку вони використовують, щоб вас пограбувати «Кампанії, створені за допомогою чат-ботів, здатних спілкуватися з Мета збору особистої інформації від користувачів уже існує», — говорить Хосе Луїс Паллетті, інженер з продажу компанії Watchguard, що займається кібербезпекою. Санчо, зі свого боку, коментує потенціал розмовного штучного інтелекту в «шахрайстві», тих романтичних шахрайствах, спрямованих на крадіжку грошей у користувачів, у яких через електронну пошту злочинці видають себе за когось, кого насправді не існує. І є також немає інструментів, здатних виявити чит. Немає порад, як уникнути цього.