மோசடிகள் மற்றும் 'போலி செய்திகள்': எதிர்கால தொழில்நுட்பத்தின் பின்னால் உள்ள அச்சுறுத்தல்கள்

இது மார்ச் 16, 2022 ஆகும். ரஷ்ய வீரர்கள் உக்ரைனில் மட்டுமே தங்கள் காலணிகளை நடத் தொடங்கியதிலிருந்து இன்னும் சில வாரங்களுக்குப் பிறகு, 'உக்ரைன் 24' ஊடகம், ஜனாதிபதி வோலோடிமிர் ஜெலென்ஸ்கியின் சமூகப் பங்களிப்புகளுடன் கூடுதலாக ஒரு வீடியோவைக் காட்டுகிறது. தோற்றத்தில், பதிவில் விசித்திரமான எதுவும் இல்லை. மோதலின் தொடக்கத்திலிருந்து அவருடன் இருந்த கோர்ட்-மார்ஷியல் உடையில் இயக்குனர் கேமராக்கள் முன் தோன்றுகிறார். அவருடைய அம்சங்கள் அவருடையது, அவருடைய குரலும் கூட. இதனாலேயே தான் ரஷ்யாவிடம் சரணடையும் முடிவை எடுத்திருப்பதாக கேமராவைப் பார்த்து உறுதிப்படுத்தும் போது, ​​மறுபுறம் இருப்பவர், அவநம்பிக்கையில் கூட, வலையில் விழுவது விசித்திரமாக இருக்காது. உள்ளது என்று, மற்றும் பெரிய. இந்த வழக்கில் உள்ள தந்திரம் 'டீப்ஃபேக்' என்று அழைக்கப்படுகிறது, இது செயற்கை நுண்ணறிவு (AI) பயன்பாட்டிற்கு நன்றி, முகங்கள் மற்றும் ஆடியோவை மாற்றுவதற்கு, மிகை-யதார்த்தமான முடிவுகளை அடைய அனுமதிக்கிறது. சைபர் செக்யூரிட்டி நிபுணர்களைக் கூட பேசாமல் விட்டுவிடும் திறன். மேலும், இதை அடைய, 'கெட்டவன்' கணினி மேதையாக இருக்க வேண்டிய அவசியமில்லை; தற்போது இணையத்தில் உள்ள ஆயிரக்கணக்கான மென்பொருட்களில் ஒன்றை பதிவிறக்கம் செய்தால் போதும். மேற்கூறிய ஊடகத்தால் பாதிக்கப்பட்ட 'ஹேக்கிங்கின்' தயாரிப்பான ஜெலென்ஸ்கியின் தவறான வீடியோ வழக்கு, சமீப மாதங்களில், மகத்தான தொழில்நுட்ப வளர்ச்சி நம்மை எப்படி ஏமாற்றுதலுக்கு ஆளாக்குகிறது என்பதைக் காட்டியுள்ளது. சாதாரண பயனர்கள் அல்லது ஊடகங்களுக்கு மட்டும் அல்ல. நிறுவனத்திற்கும், அதன் அளவைப் பொருட்படுத்தாமல், அரசாங்கங்களுக்கும் கூட. ஏதேனும் சந்தேகம் இருந்தால், உக்ரைனில் உள்ள போர் அதை முழுவதுமாக அகற்றுவதை கவனித்து வருகிறது. உக்ரேனிய மோதலின் முதல் முட்டுக்கட்டைகளுக்குப் பிறகு, சமூக வலைப்பின்னல்கள் மற்றும் ஊடகங்கள் கூட, போர் பாணி வீடியோ கேம்களில் இருந்து கைப்பற்றப்பட்ட படங்களைப் பகிர்ந்தன, மேலும் அவற்றை உண்மையானவையாக அனுப்பியுள்ளன. மிகவும் பரவலாகப் பயன்படுத்தப்படும் ஒன்று 'Arma 3', இது ஒரு சுயாதீன செக் ஆய்வு போஹேமியா இன்டராக்டிவ் உருவாக்கிய தலைப்பு. காலப்போக்கில், நிறுவனம் பீரங்கித் தாக்குதல்கள் அல்லது துருப்புக்களின் நகர்வுகளைக் காட்டும் தவறான தகவல்களுக்குப் படங்களைப் பயன்படுத்துவதைத் தடுக்க முடிந்தது. உலகக் கோப்பை, YouTube இல் “இந்த வீடியோக்களை வெளியிடும் தளங்களின் (யூடியூப், ஃபேஸ்புக், ட்விட்டர், இன்ஸ்டாகிராம் போன்றவை) வழங்குநர்களிடம் சுட்டிக்காட்டி, இந்த வகையான உள்ளடக்கத்திற்கு எதிராகப் போராட முயற்சித்தோம், ஆனால் அது நிரூபிக்கப்பட்டுள்ளது. மிகவும் பயனற்றதாக இருக்கும். நாங்கள் திரும்பப்பெறும் ஒவ்வொரு வீடியோவிற்கும், ஒவ்வொரு நாளும் இன்னும் பத்து தோன்றும்" என்று ABC க்கு அனுப்பிய அறிக்கையில் Bohemia Interactive இன் மக்கள் தொடர்பு இயக்குனர் Pavel Křižka விளக்கினார். எவ்வாறாயினும், அவரது தலைப்பு போர் மோதல்களை "மிகவும் யதார்த்தமான முறையில்" மீண்டும் உருவாக்கும் திறன் கொண்டது என்பதை அவர் அறிந்திருப்பதாக நிர்வாகி சுட்டிக்காட்டுகிறார். அது துல்லியமாக அங்கு நோக்கி, யதார்த்தத்தின் சரியான பிரதியை நோக்கி, வீடியோ கேம் தொழில் பல ஆண்டுகளாக படகோட்டி வருகிறது. ஸ்பெயினில் திரைப்படம் மற்றும் இசையைப் பதிவுசெய்து மில்லியன் கணக்கான வீரர்களைக் குவிக்கும் பணத்தை விட இரண்டு மடங்கு அதிகமாக நகரும் வணிகம். "தொழில்துறை கிராஃபிக் திறனை அதிகம் பயன்படுத்துகிறது. வீடியோ கேமில் ஏவுகணை ஏவுவது, இன்று, முற்றிலும் உண்மையானதாகத் தோன்றலாம், நீங்கள் மொபைலில் இருந்து பதிவு செய்வது போல் காட்டுவதும் சாத்தியமாகும். இது முற்றிலுமாக இலக்கை எட்டுகிறது, ”என்று ஸ்பானிஷ் டெவலப்மென்ட் ஸ்டுடியோ ரெலிவோவின் நிர்வாக இயக்குனர் ஜான் கோர்டாசர் இந்த செய்தித்தாளுக்கு விளக்கினார். வீடியோ கேமில் குறிப்பாக சில வகைகளில் யதார்த்தவாதம் பின்பற்றப்படுகிறது என்பதையும் டெவலப்பர் சுட்டிக்காட்டுகிறார்: “பயனர், கூடுதலாக, பல சந்தர்ப்பங்களில் அவர்கள் கோருவது இதுதான். உதாரணமாக, 'ஃபிஃபா'வில் விளையாடுபவர் வியர்த்து, அவரது சட்டை சேற்றில் படுகிறது. கார் விளையாட்டுகளிலும் இதேதான் நடக்கும், அவர்கள் உடைந்து அழுக்காக வேண்டும். போர்க்குணமிக்க தலைப்புகளில் நான் உங்களுக்கு இனி சொல்ல விரும்பவில்லை, வீரர்கள் 'ஹார்ட்கோர் கேமர்கள்' என்று அழைக்கப்படுபவர்கள் மற்றும் அவர்கள் கிராஃபிக் தரத்துடன் மிகவும் தேவைப்படும் ஒருவராக இருப்பார்கள். உண்மையில், 'Arma 3' வழக்கு நிகழ்வு அல்ல. சில நாட்களுக்கு முன்பு, வியட்நாமியர்கள் சைபர் கிரைமினல்கள் குழுவால் ஏமாற்றப்பட்டனர், அவர்கள் பிரபலமான கால்பந்து தலைப்பு 'ஃபிஃபா 23' போட்டிகளை யூடியூப்பில் காட்டி, கத்தாரில் உண்மையான உலகக் கோப்பை போட்டிகளாக காட்டினர். போட்டிகளை இலவசமாகப் பார்க்கும் வாய்ப்பால் பயனர்கள் தளத்திற்கு வருகிறார்கள்; இதற்கிடையில், குற்றவாளிகள் கூகுளுக்கு சொந்தமான தளத்தில் மக்கள் வருகையால் பணம் சம்பாதிக்க முயன்றனர். சில சமயங்களில் இயக்குனர்கள் 40.000 பேரை திரையில் கண்களை ஒட்ட வைத்தனர். சமீபத்திய ஆண்டுகளில், செயற்கை நுண்ணறிவின் வளர்ச்சிக்குப் பின்னால் உள்ள ஆபத்துகள் குறித்து சைபர் பாதுகாப்பு வல்லுநர்கள் பல சந்தர்ப்பங்களில் எச்சரித்துள்ளனர். மற்றும் வீடியோ படத்தின் மாற்றத்தை குறிப்பிடுவது மட்டும் அல்ல, ஜெலென்ஸ்கியின் விஷயத்தில் நடந்தது. 2019 ஆம் ஆண்டின் இறுதியில், சைபர் கிரைமினல்கள் குழுவிற்கு ஒரு பிரிட்டிஷ் நிறுவனத்திற்கு €220.000 செலவாகும். இதை அடைய, அவர் நிறுவனத்தின் இயக்குனரின் குரலை மாற்றும் நோக்கத்துடன் மென்பொருளைப் பெற்றார், அவர் கோரப்பட்டவர் பணத்தை நகர்த்தும் துணை அதிகாரியைக் கொண்டுள்ளார். 2020 ஆம் ஆண்டில், ஹாங்காங் வங்கியின் $35 மில்லியன் கொள்ளையிலும் AI குரல் குளோனிங் பயன்படுத்தப்பட்டது. குற்றவாளி, இந்த வழக்கில், ஒரு தொலைபேசி அழைப்பு மூலம் நிறுவனத்தின் வாடிக்கையாளராக காட்டிக்கொண்டார். "டீப்ஃபேக்குகள்' மாபெரும் படிகளுடன் முன்னேறியுள்ளன. சில ஆண்டுகளுக்கு முன்பு அவர்கள் இன்னும் விரும்பத்தக்க ஒன்றை விட்டுவிட்டார்கள், ஆனால் அவை பெரிதும் மேம்படுத்தப்பட்டுள்ளன, இப்போது அவை மேலும் மேலும் யதார்த்தமானவை. கூடுதலாக, அவற்றை உருவாக்க கணினியைப் பற்றி நீங்கள் எதுவும் தெரிந்து கொள்ள வேண்டியதில்லை, அதைச் செய்ய இணையத்தில் ஏராளமான திட்டங்கள் உள்ளன, ”என்று சைபர் செக்யூரிட்டி நிறுவனமான ட்ரெண்ட் மைக்ரோவின் அச்சுறுத்தல் பகுப்பாய்வுத் தலைவர் டேவிட் சாஞ்சோ இந்த செய்தித்தாளிடம் கூறினார். படமும் உரையும் ஒன்றுமில்லாமல் சைபர் தாக்குதல்களின் வளர்ச்சியில் "AI அதிகமாகப் பயன்படுத்துகிறது" என்று நிபுணர் கூறுகிறார், மேலும் "இன்றைய வழிமுறைகள் மூலம்" நடைமுறையில் எதுவும் சாத்தியம் என்று குறிப்பிடுகிறார்: "உங்களிடம் போதுமான ஆடியோ, குரல் மற்றும் வீடியோ இருந்தால், நீங்கள் 'டீப்ஃபேக்' செய்ய விரும்பினால், நீங்கள் மிகவும் உறுதியான விஷயங்களைப் பெறுவீர்கள். தகவல் தொழில்நுட்ப வல்லுநர்கள் கூட எங்களுக்கு சந்தேகத்தை ஏற்படுத்தலாம். 2022 முழுவதும், செயற்கை நுண்ணறிவுடன் பணிபுரிய அர்ப்பணிக்கப்பட்ட நிறுவனங்கள் அதை யாருக்கும் கிடைக்கச் செய்துள்ளன, கூடுதலாக, நடைமுறையில் ஒன்றுமில்லாமல் யதார்த்தமான உள்ளடக்கத்தை உருவாக்கும் திறன் கொண்ட புதிய கருவிகள். "ஆரம்பத்தில் இந்த அமைப்புகள் உயர் தரம் இல்லாத உரை அல்லது படங்களை உருவாக்கினாலும், விரைவான முன்னேற்றத்தை நாங்கள் கவனித்தோம்," என்கிறார் AI இன் நிபுணரும், கட்டலோனியாவின் திறந்த பல்கலைக்கழகத்தின் கணினி அறிவியல் பேராசிரியருமான ஜோசப் கர்டோ. DALL-E 2 மற்றும் ChatGPT ஆகியவை மிகவும் சக்திவாய்ந்தவை ஆகும், மீண்டும் OpenAI ஆல் உருவாக்கப்பட்ட கருவிகள். முதலாவதாக, பெறப்பட வேண்டிய முடிவின் சுருக்கமான விளக்கத்தை உள்ளிடுவதன் மூலம் பயனர் யதார்த்தமான படங்களை உருவாக்க முடியும். 'மாஸ்கோவின் தெருக்களில் உக்ரேனிய எதிர்ப்பாளர்' என்று தட்டச்சு செய்யவும், சில நொடிகளில் அது பல்வேறு படங்களை உருவாக்கும் திறன் கொண்டது, சில மிகவும் வெற்றிகரமானவை. இரண்டாவது உரையாடல் AI ஆகும், இது ஒரு அதிர்ஷ்ட சாட்பாட் ஆகும், இது பயனர் கேள்வி கேட்கும் போது அவர்களுக்கு பதிலளிக்கும். இருப்பினும், இந்த விஷயத்தில் வழங்கப்படும் பதில்கள் மிகப்பெரிய மனிதனாக இருக்கலாம். மறுபுறம் ஒரு இயந்திரம் இல்லை, ஆனால் ஒரு நபர் இருப்பதால். துல்லியமாக, கடந்த கோடையில், லாஎம்டிஏ எனப்படும் தேடுபொறியின் செயற்கை நுண்ணறிவு "உணர்வு" மற்றும் "உணர்திறன்" கொண்டதாக இருக்கும் என்பதை உறுதிப்படுத்திய பின்னர், தொழில்நுட்ப நிறுவனத்தால் கூகிள் பொறியாளர் இடைநீக்கம் செய்யப்பட்டார். அவர் மேதையை ஒரு சிறு குழந்தையுடன் ஒப்பிட வந்தார். இந்த வகையான தீர்வுகள் தொடர்ந்து பிரபலமடைந்து, தீங்கிழைக்கும் மூன்றாம் தரப்பினரால் சுரண்டப்படும் அபாயம் குறித்து ஆலோசனை செய்யப்பட்ட அனைத்து இணைய பாதுகாப்பு நிபுணர்களும் எச்சரிக்கின்றனர். பயனர்களுக்கு தவறான தகவல், அரட்டை மென்பொருள், என்னுடையது போன்ற படங்களை உருவாக்குவதை நீங்கள் எங்கு குறிப்பிடுகிறீர்களோ, அங்கெல்லாம் மின்னஞ்சல் மற்றும் சமூக ஊடக மோசடிகளை வளர்ப்பதில் பெரும் சாத்தியம் உள்ளது. கூடுதல் தகவல் செய்திகள் இல்லை கிறிஸ்துமஸ் லாட்டரி 2022: உங்களை ஏமாற்றுவதற்கு அவர்கள் பயன்படுத்தும் அனைத்து தந்திரங்களும் இல்லை உங்கள் சொந்த முகவரியில் இருந்து மின்னஞ்சலைப் பெற்றுள்ளீர்களா? பயனர்களிடமிருந்து தனிப்பட்ட தகவல்களைச் சேகரிக்கும் நோக்கம் ஏற்கனவே உள்ளது,” என்கிறார் சைபர் செக்யூரிட்டி நிறுவனமான வாட்ச்கார்டின் விற்பனைப் பொறியாளர் ஜோஸ் லூயிஸ் பல்லேட்டி. சான்சோ, தனது பங்கிற்கு, உரையாடல் செயற்கை நுண்ணறிவு 'மோசடிகள்', பயனர்களிடமிருந்து பணத்தை திருடுவதை நோக்கமாகக் கொண்ட அந்த காதல் மோசடிகளில், மின்னஞ்சல் மூலம், குற்றவாளிகள் உண்மையில் இல்லாத ஒருவராக காட்டிக்கொள்கிறார். மோசடி செய்பவரைக் கண்டறியும் திறன் கொண்ட கருவிகள் எதுவும் இல்லை. அதில் விழுவதைத் தவிர்க்க எந்த ஆலோசனையும் இல்லை.