घोटाला र 'नक्कली समाचार': भविष्यको प्रविधि पछाडि खतराहरू

यो मार्च 16, 2022 हो। रुसी सैनिकहरूले युक्रेनमा मात्र जुत्ता रोप्न थालेको थप हप्ता पछि, माध्यम 'युक्रेन 24' ले राष्ट्रपति भोलोदिमिर जेलेन्स्कीको सामाजिक योगदानको अतिरिक्त भिडियो देखाउँदछ। उपस्थितिमा, रेकर्डिङमा केहि अनौठो छैन। निर्देशक कोर्ट-मार्शल कपडामा क्यामेराको अगाडि देखा पर्दछ, जुन द्वन्द्वको सुरुदेखि नै उहाँसँग छ। उहाँका विशेषताहरू आफ्नै छन्, उहाँको स्वर पनि छ। यस कारणले गर्दा, जब उसले क्यामेरामा हेर्दै पुष्टि गर्दछ कि उसले रसियामा आत्मसमर्पण गर्ने निर्णय गरेको छ, यो अर्को पक्षमा जो कोही पनि अविश्वासमा पनि जालमा पर्नु अनौठो हुनेछैन। त्यो त्यहाँ छ, र ठूलो। यस मामलामा चाललाई 'डीपफेक' भनिन्छ, एउटा प्रविधि जसले कृत्रिम बुद्धिमत्ता (एआई) को प्रयोगले अनुहार र अडियो परिवर्तन गर्न, हाइपर-रियालिस्टिक परिणामहरू प्राप्त गर्न अनुमति दिन्छ। नि:शब्द छोड्ने क्षमताहरू, साइबरसुरक्षा विशेषज्ञहरू पनि। र, यसबाहेक, यो हासिल गर्न, 'खराब मान्छे' कम्प्युटर प्रतिभा हुनु आवश्यक छैन; हाल इन्टरनेटमा रहेका हजारौं सफ्टवेयरमध्ये एउटा डाउनलोड गर्न पर्याप्त छ। माथि उल्लेखित माध्यमले भोगेको 'ह्याकिंग' को उपज, जेलेन्स्कीको झूटो भिडियोको मामला, हालका महिनाहरूमा, कसरी प्रचुर प्राविधिक विकासले हामीलाई धोकाको चपेटामा परेको छ भनेर देखाएको धेरै मध्ये एउटा मात्र हो। र साधारण प्रयोगकर्ता वा मिडियालाई मात्र होइन। कम्पनीलाई पनि, यसको आकारको पर्वाह नगरी, र सरकारहरूलाई पनि। र यदि त्यहाँ कुनै शंका छ भने, युक्रेनको युद्धले यसलाई पूर्ण रूपमा सफा गर्ने हेरचाह गरिरहेको छ। युक्रेनी द्वन्द्वको पहिलो गतिरोधदेखि, सामाजिक सञ्जाल र मिडियाले पनि युद्ध-शैली भिडियो गेमहरूबाट खिचिएका तस्बिरहरू साझा गरेका छन् र तिनीहरूलाई वास्तविक रूपमा पारित गरेका छन्। सबैभन्दा व्यापक रूपमा प्रयोग हुने मध्ये एक 'Arma 3' हो, एक स्वतन्त्र चेक अध्ययन बोहेमिया अन्तरक्रियात्मक द्वारा विकसित शीर्षक। समय बित्दा पनि, कम्पनीले कथित तोपखाना आक्रमण वा सेनाको आन्दोलन देखाउने गलत जानकारी दिन छविहरू प्रयोग गर्नबाट रोक्न व्यवस्थित गरेको छ। विश्व कप, युट्युबमा “हामीले यी भिडियोहरू प्रकाशित हुने प्लेटफर्महरू (यूट्यूब, फेसबुक, ट्विटर, इन्स्टाग्राम, आदि) का प्रदायकहरूलाई औंल्याएर यस प्रकारको सामग्रीको बिरूद्ध लड्ने प्रयास गरेका छौं, तर यसले प्रमाणित गरेको छ। एकदम प्रभावहीन हुन। हामीले फिर्ता लिने प्रबन्ध गर्ने प्रत्येक भिडियोको लागि, हरेक दिन दस थप देखा पर्दछन्, "बोहेमिया इन्टरएक्टिभका जनसम्पर्क निर्देशक पावेल क्रिजाकाले एबीसीलाई पठाएको विज्ञप्तिमा बताए। कार्यकारीले औंल्याए, तथापि, उसलाई थाहा छ कि उनको शीर्षक युद्ध द्वन्द्वहरू पुन: सिर्जना गर्न सक्षम छ "एक धेरै यथार्थवादी तरिकामा।" र यो ठ्याक्कै त्यहाँ तिर छ, वास्तविकताको सही प्रतिकृति तिर, जस तिर भिडियो गेम उद्योग वर्षौंदेखि रोइरहेछ। एउटा व्यवसाय जसले स्पेनमा चलचित्र र संगीत रेकर्ड गरेको भन्दा दोब्बर पैसा बढाउँछ र लाखौं खेलाडीहरू जम्मा गर्दछ। “उद्योगले ग्राफिक क्षमताको धेरै शोषण गरिरहेको छ। भिडियो गेममा मिसाइल प्रक्षेपण, आज, पूर्ण रूपमा वास्तविक लाग्न सक्छ, यसलाई मोबाइलबाट रेकर्ड गरिरहनुभएको जस्तो बनाउन पनि सम्भव छ। यसले पूर्ण रूपमा निशानलाई हिट गर्दछ, "स्पेनिश विकास स्टुडियो रेलेभोका कार्यकारी निर्देशक जोन कोर्टजारले यस अखबारलाई बताए। विकासकर्ताले यो पनि औंल्याए कि यथार्थवाद विशेष गरी भिडियो गेम भित्रका केही विधाहरूमा पछ्याइएको छ: "प्रयोगकर्ता, यसको अतिरिक्त, धेरै अवस्थामा उनीहरूले माग गर्छन्। उदाहरणका लागि, 'FIFA' मा खेलाडीले पसिना बगाउँछ र उसको शर्ट माटोले छोपिन्छ। कार खेलहरूमा पनि त्यस्तै हुन्छ, तिनीहरू तोड्न र फोहोर हुनुपर्दछ। लडाकु शीर्षकहरूमा म तपाईंलाई अब भन्न पनि चाहन्न, खेलाडीहरू तथाकथित 'हार्डकोर गेमरहरू' हुन् र तिनीहरू ग्राफिक गुणस्तरको साथमा सबैभन्दा बढी माग गर्नेहरू मध्ये एक हुन्छन्। वास्तवमा, 'अर्मा 3' को मामला उपन्यास होइन। केही दिन अघि मात्रै, भियतनामीहरूलाई साइबर अपराधीहरूको समूहले ठगी गरेको थियो, जसले युट्युबमा लोकप्रिय फुटबल शीर्षक 'FIFA 23' का खेलहरू कतारमा भएको वास्तविक विश्वकप खेलको रूपमा देखाए। प्रयोगकर्ताहरू नि: शुल्क खेलहरू हेर्ने सम्भावनाबाट प्रलोभनमा प्लेटफर्ममा आउँछन्; यस बीचमा, अपराधीहरूले गुगलको स्वामित्वमा रहेको साइटमा मानिसहरूको आगमनबाट पैसा कमाउन खोजिरहेका थिए। कहिलेकाहीँ निर्देशकहरूले 40.000 मानिसहरूको आँखा स्क्रिनमा टाँसिएको थियो। हालका वर्षहरूमा, साइबरसुरक्षा विशेषज्ञहरूले धेरै अवसरहरूमा कृत्रिम बुद्धिमत्ताको विकासको पछाडि खतराहरूको बारेमा चेतावनी दिएका छन्। र न केवल भिडियो छविको परिवर्तनलाई बुझाउँछ, जस्तै Zelenski को मामला मा भयो। 2019 को अन्त्यमा, साइबर अपराधीहरूको समूहले बेलायती कम्पनीलाई 220.000 यूरो खर्च गर्यो। यो प्राप्त गर्न, उनले कम्पनीको निर्देशकको आवाज परिवर्तन गर्ने उद्देश्यले सफ्टवेयर प्राप्त गरे, जसलाई अनुरोध गरिएको एक अधीनस्थ छ जसले पैसा सार्छ। 2020 मा, AI भ्वाइस क्लोनिंग हङकङ बैंक को $ 35 मिलियन डकैती मा पनि प्रयोग भएको थियो। अपराधी, यस अवस्थामा, टेलिफोन कल मार्फत संस्थाको ग्राहकको रूपमा प्रस्तुत गरियो। "'डिपफेक्स' विशाल पाइलाहरूका साथ अगाडि बढेका छन्। केही वर्ष पहिले तिनीहरूले अझै पनि वांछित हुन केहि छोडे, तर तिनीहरू धेरै सुधारिएका छन् र अब तिनीहरू अधिक र अधिक यथार्थवादी छन्। थप रूपमा, तपाईंले तिनीहरूलाई उत्पन्न गर्न कम्प्युटिङको बारेमा केहि पनि जान्न आवश्यक छैन, त्यहाँ इन्टरनेटमा धेरै कार्यक्रमहरू छन्, "साइबर सुरक्षा कम्पनी ट्रेन्ड माइक्रोका खतरा विश्लेषण प्रमुख डेभिड सान्चोले यस अखबारलाई भने। कुनै पनि कुराबाट छवि र पाठ विज्ञ भन्छन् कि साइबर आक्रमणको विकासमा "एआईले धेरै भन्दा धेरै प्रयोग गरिरहेको छ" र नोट गर्दछ कि "आजको एल्गोरिदमको साथ" व्यावहारिक रूपमा केहि पनि सम्भव छ: "यदि तपाईंसँग पर्याप्त अडियो, आवाज र व्यक्तिको भिडियो छ भने। 'डीपफेक' गर्न चाहनुहुन्छ, तपाईंले धेरै, धेरै विश्वस्त चीजहरू पाउनुहुन्छ। आईटी पेशेवरहरूले पनि हामीलाई शंका गर्न सक्छन्। ” २०२२ मा, आर्टिफिसियल इन्टेलिजेन्ससँग काम गर्न समर्पित कम्पनीहरूले यसलाई कसैको लागि उपलब्ध गराएको छ, साथै, व्यावहारिक रूपमा, कुनै पनि कुराबाट यथार्थपरक सामग्री सिर्जना गर्न सक्षम नयाँ उपकरणहरू। "यद्यपि सुरुमा यी प्रणालीहरूले पाठ वा छविहरू उत्पन्न गर्थे जुन उच्च गुणस्तरको थिएन, हामीले द्रुत प्रगति देखेका छौं," एआईका विशेषज्ञ र क्याटालोनियाको ओपन युनिभर्सिटीका कम्प्युटर विज्ञानका प्राध्यापक जोसेप कर्टो भन्छन्। सबैभन्दा शक्तिशाली मध्ये DALL-E 2 र ChatGPT, फेरि OpenAI द्वारा विकसित उपकरणहरू छन्। सबै भन्दा पहिले, प्रयोगकर्ताले प्राप्त गर्न नतिजाको छोटो विवरण प्रविष्ट गरेर मात्र यथार्थवादी छविहरू सिर्जना गर्न सक्छ। केवल 'मस्कोको सडकमा युक्रेनी विरोधकर्ता' टाइप गर्नुहोस्, र सेकेन्डमा यो धेरै फरक छविहरू सिर्जना गर्न सक्षम छ, केहि एकदम सफल। दोस्रो कुराकानीात्मक एआई हो, एक भाग्यशाली च्याटबोट जसले प्रयोगकर्तालाई प्रश्न सोध्दा जवाफ दिन्छ। यद्यपि, यस अवस्थामा प्रस्तावित जवाफहरू धेरै मानव हुन सक्छन्। लगभग किनभने अर्को तर्फ मेसिन होइन, तर एक व्यक्ति हो। ठ्याक्कै, गत गर्मीमा, एक Google इन्जिनियरलाई टेक्नोलोजी कम्पनीले LaMDA भनिने खोज इन्जिनको कृत्रिम बुद्धिमत्ता "सचेतन" र "संवेदनशील" हुने कुरा पुष्टि गरेपछि निलम्बन गरेको थियो। उनी प्रतिभाशालीलाई सानो बच्चासँग तुलना गर्न पनि आए। सबै साइबर सुरक्षा विशेषज्ञहरूले परामर्श दिएका छन् कि यी प्रकारका समाधानहरू लोकप्रिय हुन जारी छन् र खराब तेस्रो पक्षहरूद्वारा शोषण भइरहेको छ। जहाँ तपाइँ छवि उत्पादनको सन्दर्भमा हुनुहुन्छ, प्रयोगकर्ताहरूलाई गलत जानकारी दिन, च्याट सफ्टवेयर, कहिलेकाहीँ मेरो, त्यहाँ इमेल र सामाजिक मिडिया घोटालाहरू विकास गर्ने ठूलो सम्भावना छ। थप जानकारी समाचार कुनै क्रिसमस लटरी 2022: तपाइँलाई घोटाला गर्न उनीहरूले प्रयोग गर्ने सबै चालहरू समाचार होइन के तपाइँ तपाइँको आफ्नै ठेगानाबाट इमेल प्राप्त गर्नुभएको छ?: तपाइँलाई लुट्नको लागि उनीहरूले प्रयोग गर्ने नयाँ घोटाला «अभियानहरू च्याटबटहरू प्रयोग गरेर सिर्जना गरिएका छन् जुन कुराकानी गर्न सक्षम छन्। प्रयोगकर्ताहरूबाट व्यक्तिगत जानकारी सङ्कलन गर्ने उद्देश्य पहिले नै अवस्थित छ, "साइबर सुरक्षा कम्पनी वाचगार्डका बिक्री इन्जिनियर जोसे लुइस प्यालेट्टी भन्छन्। सान्चो, आफ्नो पक्षको लागि, 'घोटाला' मा कुराकानीत्मक कृत्रिम बुद्धिमत्ताको सम्भावनाको बारेमा टिप्पणी गर्दछ, ती रोमान्टिक घोटालाहरू प्रयोगकर्ताहरूबाट पैसा चोर्ने उद्देश्यले, जसमा, इमेल मार्फत, अपराधीहरूले त्यस्तो व्यक्तिको रूपमा प्रस्तुत गर्छन् जो वास्तवमै अस्तित्वमा छैनन्। र त्यहाँ छन्। ठगी पत्ता लगाउन सक्षम कुनै उपकरणहरू। यसमा पर्नबाट जोगिन कुनै सल्लाह छैन।