الاحتيالات و "الأخبار الكاذبة": التهديدات الكامنة وراء تكنولوجيا المستقبل

إنه 16 مارس 2022. بعد أسابيع أخرى منذ أن بدأ الجنود الروس في زرع أحذيتهم في أوكرانيا فقط ، يعرض الوسيط "أوكرانيا 24" مقطع فيديو بالإضافة إلى المساهمات الاجتماعية للرئيس فولوديمير زيلينسكي. في المظهر ، لا يحتوي التسجيل على أي شيء غريب. يظهر المخرج أمام الكاميرات بملابس المحكمة العسكرية ، التي كانت معه منذ بداية النزاع. ملامحه خاصة به ، صوته كذلك. لهذا السبب ، عندما يؤكد بالنظر إلى الكاميرا أنه اتخذ قرار الاستسلام لروسيا ، لن يكون غريباً لمن يقف في الجانب الآخر ، حتى لو كان غير مصدق ، أن يقع في الفخ. هذا موجود ، وكبير. الحيلة في هذه الحالة تسمى `` deepfake '' ، وهي تقنية تسمح ، بفضل استخدام الذكاء الاصطناعي (AI) ، بتغيير الوجوه والصوت ، وتحقيق نتائج واقعية للغاية. القدرة على ترك خبراء في الأمن السيبراني بلا كلام. علاوة على ذلك ، لتحقيق ذلك ، لا يحتاج "الشرير" إلى أن يكون عبقريًا في الكمبيوتر ؛ يكفي تنزيل واحد من آلاف البرامج الموجودة حاليًا على الإنترنت. إن قضية الفيديو الكاذب لزيلينسكي ، وهو نتاج "القرصنة" التي عانت منها الوسيلة المذكورة أعلاه ، هي مجرد حالة أخرى من بين حالات عديدة أظهرت ، في الأشهر الأخيرة ، كيف أن التطور التكنولوجي الهائل يجعلنا أكثر عرضة للخداع ؛ وليس فقط للمستخدمين العاديين أو وسائل الإعلام. أيضا للشركة ، بغض النظر عن حجمها ، وحتى للحكومات. وفي حالة وجود أي شك ، فإن الحرب في أوكرانيا تهتم بإزالتها تمامًا. منذ المآزق الأولى للنزاع الأوكراني ، شاركت الشبكات الاجتماعية ، وحتى وسائل الإعلام ، صورًا تم التقاطها من ألعاب الفيديو على غرار الحرب وعرضتها على أنها حقيقية. كان "Arma 3" أحد أكثر العناوين استخدامًا ، وهو عنوان طورته الدراسة التشيكية المستقلة Bohemia Interactive. على الرغم من مرور الوقت ، تمكنت الشركة من منع استخدام الصور للتضليل الذي يظهر هجمات مدفعية مزعومة أو تحركات القوات. كأس العالم على موقع يوتيوب “لقد حاولنا محاربة هذا النوع من المحتوى من خلال توجيه مقاطع الفيديو هذه إلى مزودي المنصات التي يتم نشرها عليها (YouTube ، Facebook ، Twitter ، Instagram ، إلخ) ، لكنها أثبتت ذلك. تكون غير فعالة على الإطلاق. وأوضح بافيل كوجيكا ، مدير العلاقات العامة في Bohemia Interactive ، في بيان أرسل إلى ABC ، ​​أنه مقابل كل مقطع فيديو نتمكن من التراجع عنه ، تظهر عشرة أخرى كل يوم. ومع ذلك ، يشير المسؤول التنفيذي إلى أنه يدرك أن لقبه قادر على إعادة خلق صراعات الحرب "بطريقة واقعية للغاية". وهو بالضبط نحو هناك ، نحو النسخة المتماثلة المثالية للواقع ، التي كانت صناعة ألعاب الفيديو تتجه نحوها لسنوات. نشاط تجاري ينتقل في إسبانيا بأكثر من ضعف الأموال من الأفلام والموسيقى المسجلة معًا ويجمع ملايين اللاعبين. "الصناعة تستغل القدرة الرسومية كثيرًا. يمكن أن يبدو إطلاق صاروخ في لعبة فيديو اليوم حقيقيًا تمامًا ، بل من الممكن جعله يبدو كما لو كنت تسجل من هاتف محمول. وأوضح جون كورتازار ، المدير التنفيذي لاستوديو التطوير الأسباني ريليفو ، لهذه الصحيفة. يشير المطور أيضًا إلى أن الواقعية يتم اتباعها خاصة في أنواع معينة داخل لعبة الفيديو: "المستخدم ، بالإضافة إلى ذلك ، هو ما يطلبونه في كثير من الحالات. على سبيل المثال ، في "FIFA" يتعرق اللاعب ويغطي الوحل قميصه. يحدث نفس الشيء مع ألعاب السيارات ، يجب أن تتكسر وتتسخ. في العناوين الحربية التي لا أريد حتى أن أخبرك بها بعد الآن ، يُطلق على اللاعبين اسم "اللاعبين المتشددين" وهم يميلون إلى أن يكونوا من أكثر اللاعبين تطلبًا بجودة الرسوم ". في الواقع ، حالة "Arma 3" ليست قصصية. قبل أيام قليلة ، تعرض الفيتناميون للاحتيال من قبل مجموعة من مجرمي الإنترنت ، الذين عرضوا مباريات تحمل لقب كرة القدم الشهير "فيفا 23" على موقع يوتيوب ، متنكرين أنها مباريات كأس العالم الحقيقية في قطر. يأتي المستخدمون إلى المنصة مثيرين لإمكانية مشاهدة المباريات مجانًا ؛ في غضون ذلك ، كان المجرمون يتطلعون إلى جني الأموال من تدفق الأشخاص على الموقع المملوك لشركة Google. في بعض الأحيان كان لدى المخرجين 40.000 شخص عيونهم ملتصقة على الشاشة. في السنوات الأخيرة ، حذر خبراء الأمن السيبراني في مناسبات عديدة من المخاطر الكامنة وراء تطوير الذكاء الاصطناعي. وليس فقط فيما يشير إلى تغيير صورة الفيديو كما حدث في قضية زيلينسكي. في نهاية عام 2019 ، كلفت مجموعة من مجرمي الإنترنت شركة بريطانية 220.000 ألف يورو. ولتحقيق ذلك ، حصل على برنامج يهدف إلى تغيير صوت مدير الشركة ، الذي لديه مرؤوس يقوم بتحويل الأموال إليه. في عام 2020 ، تم استخدام استنساخ الصوت بالذكاء الاصطناعي أيضًا في عملية سطو على بنك في هونج كونج بقيمة 35 مليون دولار. الجاني ، في هذه الحالة ، يتظاهر بأنه عميل للكيان من خلال مكالمة هاتفية. "التزييف العميق" تقدم بخطوات عملاقة. قبل بضع سنوات ما زالوا يتركون شيئًا مطلوبًا ، لكن تم تحسينه بشكل كبير وأصبحوا الآن أكثر واقعية. بالإضافة إلى ذلك ، لا تحتاج إلى معرفة أي شيء عن الحوسبة لإنشائها ، فهناك الكثير من البرامج على الإنترنت للقيام بذلك ، كما قال ديفيد سانشو ، رئيس تحليل التهديدات في شركة تريند مايكرو للأمن السيبراني ، لهذه الصحيفة. صورة ونص من لا شيء يقول الخبير أن "الذكاء الاصطناعي يستخدم المزيد والمزيد" في تطوير الهجمات الإلكترونية ، ويلاحظ أنه "باستخدام خوارزميات اليوم" كل شيء ممكن عمليًا: "إذا كان لديك ما يكفي من الصوت والصوت والفيديو للشخص تريد أن تفعل "التزييف العميق" ، تحصل على أشياء مقنعة للغاية. حتى محترفي تكنولوجيا المعلومات يمكن أن يجعلونا نشك ". طوال عام 2022 ، قامت الشركات المكرسة للعمل بالذكاء الاصطناعي بإتاحته لأي شخص ، بالإضافة إلى أدوات جديدة قادرة على إنشاء محتوى واقعي ، عمليًا ، من لا شيء. يقول جوزيب كورتو ، خبير في الذكاء الاصطناعي وأستاذ علوم الكمبيوتر في جامعة كاتالونيا المفتوحة: "على الرغم من أن هذه الأنظمة في البداية أنتجت نصًا أو صورًا لم تكن ذات جودة عالية ، فقد لاحظنا تقدمًا سريعًا". من بين أقوى الأدوات DALL-E 2 و ChatGPT ، وهي أيضًا أدوات طورتها شركة OpenAI. بادئ ذي بدء ، يمكن للمستخدم إنشاء صور واقعية ببساطة عن طريق إدخال وصف موجز للنتيجة المراد الحصول عليها. ما عليك سوى كتابة "محتج أوكراني في شوارع موسكو" ، وفي غضون ثوانٍ سيكون قادرًا على إنشاء عدة صور مختلفة ، بعضها ناجح تمامًا. والثاني هو الذكاء الاصطناعي للمحادثة ، وهو روبوت محادثة محظوظ يستجيب للمستخدم عندما يطرح سؤالاً. ومع ذلك ، في هذه الحالة ، يمكن أن تكون الإجابات المقدمة إنسانية بشكل هائل. تقريبًا لأنه لا توجد آلة على الجانب الآخر ، بل شخص. على وجه التحديد ، في الصيف الماضي ، تم إيقاف مهندس Google من قبل شركة التكنولوجيا بعد التأكد من أن الذكاء الاصطناعي لمحرك البحث ، المسمى LaMDA ، سيكون كائنًا "واعًا" و "حساسًا". حتى أنه جاء ليقارن العبقري بطفل صغير. يحذر جميع خبراء الأمن السيبراني الذين تمت استشارتهم من خطر استمرار انتشار هذه الأنواع من الحلول وينتهي بها الأمر إلى استغلالها من قبل أطراف ثالثة ضارة. أينما كنت تشير إلى إنشاء الصور ، لتضليل المستخدمين ، وبرامج الدردشة ، وأنا في بعض الأحيان ، هناك إمكانات كبيرة في تطوير عمليات الاحتيال عبر البريد الإلكتروني ووسائل التواصل الاجتماعي. المزيد من المعلومات الأخبار No Christmas Lottery 2022: جميع الحيل التي يستخدمونها للاحتيال على الأخبار لا هل تلقيت بريدًا إلكترونيًا من عنوانك؟ الغرض من جمع المعلومات الشخصية من المستخدمين موجود بالفعل "، كما يقول خوسيه لويس باليتي ، مهندس مبيعات لشركة الأمن السيبراني Watchguard. يعلق سانشو ، من جانبه ، على إمكانات الذكاء الاصطناعي للمحادثة في "الحيل" ، تلك الحيل الرومانسية التي تهدف إلى سرقة الأموال من المستخدمين والتي من خلال البريد الإلكتروني ، يتظاهر المجرمون على أنهم شخص غير موجود حقًا. لا توجد أدوات قادرة على اكتشاف الغش أيضًا. لا نصيحة لتجنب الوقوع فيه.