સ્કેમ્સ અને 'ફેક ન્યૂઝ': ભવિષ્યની ટેક્નોલોજી પાછળના જોખમો

તે 16 માર્ચ, 2022 છે. રશિયન સૈનિકોએ ફક્ત યુક્રેનમાં જ તેમના બૂટ રોપવાનું શરૂ કર્યું ત્યારથી વધુ અઠવાડિયા પછી, માધ્યમ 'યુક્રેન 24' રાષ્ટ્રપતિ વોલોદિમીર ઝેલેન્સકીના સામાજિક યોગદાન ઉપરાંત એક વિડિઓ બતાવે છે. દેખાવમાં, રેકોર્ડિંગમાં કંઈપણ વિચિત્ર નથી. દિગ્દર્શક કોર્ટ-માર્શલ કપડામાં કેમેરાની સામે દેખાય છે, જે સંઘર્ષની શરૂઆતથી તેની સાથે છે. તેના લક્ષણો તેના પોતાના છે, તેનો અવાજ પણ છે. આ કારણોસર, જ્યારે તે કેમેરા તરફ જોઈને ખાતરી આપે છે કે તેણે રશિયાને શરણાગતિ આપવાનો નિર્ણય લીધો છે, ત્યારે તે અજુગતું નથી કે જે બીજી બાજુ છે, અવિશ્વાસમાં પણ, જાળમાં ફસાઈ જશે. કે ત્યાં છે, અને મોટા. આ કિસ્સામાં યુક્તિને 'ડીપફેક' કહેવામાં આવે છે, એક એવી ટેક્નોલોજી જે આર્ટિફિશિયલ ઈન્ટેલિજન્સ (AI)ના ઉપયોગને કારણે ચહેરા અને ઑડિયોમાં ફેરફાર કરીને અતિ-વાસ્તવિક પરિણામો પ્રાપ્ત કરવાની મંજૂરી આપે છે. અવાચક છોડી દેવાની ક્ષમતાઓ, સાયબર સુરક્ષા નિષ્ણાતો પણ. અને, વધુમાં, આ હાંસલ કરવા માટે, 'ખરાબ વ્યક્તિ'ને કમ્પ્યુટર પ્રતિભાશાળી બનવાની જરૂર નથી; અત્યારે ઈન્ટરનેટ પરના હજારો સોફ્ટવેરમાંથી એક ડાઉનલોડ કરવા માટે તે પૂરતું છે. ઝેલેન્સ્કીના ખોટા વિડિયોનો કિસ્સો, ઉપરોક્ત માધ્યમ દ્વારા ભોગવવામાં આવેલા 'હેકિંગ'નું ઉત્પાદન છે, જે તાજેતરના મહિનાઓમાં દર્શાવેલ છે કે કેવી રીતે પ્રચંડ તકનીકી વિકાસ આપણને છેતરપિંડી માટે વધુને વધુ સંવેદનશીલ બનાવે છે તેમાંથી માત્ર એક વધુ છે; અને માત્ર સામાન્ય વપરાશકર્તાઓ અથવા મીડિયા માટે જ નહીં. કંપનીને પણ, તેના કદને ધ્યાનમાં લીધા વિના, અને સરકારોને પણ. અને જો કોઈ શંકા હોય તો, યુક્રેનમાં યુદ્ધ તેને સંપૂર્ણપણે સાફ કરવાની કાળજી લઈ રહ્યું છે. યુક્રેનિયન સંઘર્ષના પ્રથમ અવરોધોથી, સોશિયલ નેટવર્ક્સ અને મીડિયાએ પણ, યુદ્ધ-શૈલીની વિડિઓ ગેમ્સમાંથી કેપ્ચર કરેલી છબીઓ શેર કરી છે અને તેને વાસ્તવિક તરીકે પસાર કરી છે. સૌથી વધુ ઉપયોગમાં લેવાતા પૈકીનું એક 'આર્મા 3' છે, જે સ્વતંત્ર ચેક અભ્યાસ બોહેમિયા ઇન્ટરેક્ટિવ દ્વારા વિકસાવવામાં આવ્યું છે. સમય પસાર થવા છતાં, કંપનીએ કથિત આર્ટિલરી હુમલા અથવા સૈન્યની હિલચાલ દર્શાવતી ખોટી માહિતી આપવા માટે છબીઓનો ઉપયોગ અટકાવવામાં વ્યવસ્થાપિત કરી છે. વર્લ્ડ કપ, યુટ્યુબ પર “અમે આ વિડીયોને જે પ્લેટફોર્મ પર પ્રકાશિત કરવામાં આવે છે તેના પ્રદાતાઓને નિર્દેશ કરીને આ પ્રકારની સામગ્રી સામે લડવાનો પ્રયાસ કર્યો છે (યુટ્યુબ, ફેસબુક, ટ્વિટર, ઇન્સ્ટાગ્રામ, વગેરે), પરંતુ તે સાબિત થયું છે. તદ્દન બિનઅસરકારક બનો. અમે જે વિડિયો પાછી ખેંચી લેવાનું મેનેજ કરીએ છીએ તેના માટે, દરરોજ દસ વધુ દેખાય છે," બોહેમિયા ઇન્ટરેક્ટિવના પબ્લિક રિલેશનના ડિરેક્ટર પાવેલ ક્રિઝાકાએ એબીસીને મોકલેલા નિવેદનમાં સમજાવ્યું. એક્ઝિક્યુટિવ નિર્દેશ કરે છે, જો કે, તે જાણતો હતો કે તેનું શીર્ષક "ખૂબ જ વાસ્તવિક રીતે" યુદ્ધ સંઘર્ષોને ફરીથી બનાવવામાં સક્ષમ છે. અને તે ચોક્કસપણે ત્યાં તરફ છે, વાસ્તવિકતાની સંપૂર્ણ પ્રતિકૃતિ તરફ, જેના તરફ વિડિયો ગેમ ઉદ્યોગ વર્ષોથી દોડી રહ્યો છે. એક એવો વ્યવસાય કે જે સ્પેનમાં ફિલ્મ અને રેકોર્ડ કરેલા સંગીત કરતાં બમણા પૈસાથી વધુ આગળ વધે છે અને લાખો ખેલાડીઓ એકઠા કરે છે. “ઉદ્યોગ ગ્રાફિક ક્ષમતાનો ઘણો ઉપયોગ કરી રહ્યો છે. વિડિયો ગેમમાં મિસાઈલ લોન્ચ, આજે, સંપૂર્ણપણે વાસ્તવિક લાગે છે, તમે મોબાઇલથી રેકોર્ડ કરી રહ્યાં છો તેવો દેખાવ કરવો પણ શક્ય છે. તે સંપૂર્ણ રીતે નિશાનને હિટ કરે છે,” સ્પેનિશ ડેવલપમેન્ટ સ્ટુડિયો રેલેવોના એક્ઝિક્યુટિવ ડિરેક્ટર જોન કોર્ટાઝારે આ અખબારને સમજાવ્યું. વિકાસકર્તા એ પણ નિર્દેશ કરે છે કે વાસ્તવવાદને ખાસ કરીને વિડિયો ગેમની અમુક શૈલીઓમાં અનુસરવામાં આવે છે: “વપરાશકર્તા, વધુમાં, તેઓ ઘણા કિસ્સાઓમાં તે માંગે છે. ઉદાહરણ તરીકે, 'FIFA'માં ખેલાડીને પરસેવો થાય છે અને તેનો શર્ટ કાદવમાં ઢંકાઈ જાય છે. આ જ વસ્તુ કાર રમતો સાથે થાય છે, તેઓ તોડી અને ગંદા વિચાર છે. લડાયક શીર્ષકોમાં હું તમને હવે કહેવા પણ માંગતો નથી, ખેલાડીઓ કહેવાતા 'હાર્ડકોર ગેમર્સ' છે અને તેઓ ગ્રાફિક ગુણવત્તા સાથે સૌથી વધુ માંગ ધરાવતા હોય છે”. ખરેખર, 'અરમા 3'નો કિસ્સો અસાધારણ નથી. થોડા દિવસો પહેલા, સાયબર અપરાધીઓના એક જૂથ દ્વારા વિયેતનામીસ સાથે છેતરપિંડી કરવામાં આવી હતી, જેમણે યુટ્યુબ પર લોકપ્રિય સોકર ટાઇટલ 'FIFA 23' ની મેચો બતાવી હતી, જે કતારમાં વિશ્વ કપની વાસ્તવિક મેચો છે. વપરાશકર્તાઓ મફતમાં મેચ જોવાની શક્યતાથી લલચાઈને પ્લેટફોર્મ પર આવે છે; તે દરમિયાન, ગુનેગારો Google ની માલિકીની સાઇટ પર લોકોના ધસારોમાંથી પૈસા કમાવવાનું વિચારી રહ્યા હતા. અમુક સમયે દિગ્દર્શકો પાસે 40.000 લોકોની આંખો સ્ક્રીન પર ચોંટેલી હતી. તાજેતરના વર્ષોમાં, સાયબર સુરક્ષા નિષ્ણાતોએ અસંખ્ય પ્રસંગોએ કૃત્રિમ બુદ્ધિના વિકાસ પાછળના જોખમો વિશે ચેતવણી આપી છે. અને માત્ર વિડિયો ઇમેજના ફેરફારનો ઉલ્લેખ કરે છે તે જ નહીં, જેમ કે ઝેલેન્સકીના કિસ્સામાં બન્યું હતું. 2019 ના અંતમાં, સાયબર અપરાધીઓના જૂથની કિંમત બ્રિટિશ કંપનીને €220.000 હતી. આ હાંસલ કરવા માટે, તેણે કંપનીના ડિરેક્ટરના અવાજને બદલવાના હેતુથી સૉફ્ટવેર મેળવ્યું, જેની વિનંતી કરાયેલ વ્યક્તિ પાસે પૈસાની હેરફેર કરનાર ગૌણ છે. 2020 માં, હોંગકોંગની બેંકની $35 મિલિયનની લૂંટમાં પણ AI વૉઇસ ક્લોનિંગનો ઉપયોગ કરવામાં આવ્યો હતો. ગુનેગાર, આ કિસ્સામાં, ટેલિફોન કૉલ દ્વારા એન્ટિટીના ક્લાયન્ટ તરીકે ઊભો થયો. "'ડીપફેક્સ' વિશાળ પગલાઓ સાથે આગળ વધ્યા છે. થોડા વર્ષો પહેલા તેઓ હજુ પણ ઇચ્છિત કરવા માટે કંઈક છોડી ગયા હતા, પરંતુ તેઓ મોટા પ્રમાણમાં સુધારેલ છે અને હવે તેઓ વધુ અને વધુ વાસ્તવિક છે. વધુમાં, તમારે તેમને જનરેટ કરવા માટે કમ્પ્યુટિંગ વિશે કંઈપણ જાણવાની જરૂર નથી, તે કરવા માટે ઇન્ટરનેટ પર પુષ્કળ પ્રોગ્રામ્સ છે," સાયબર સિક્યુરિટી કંપની ટ્રેન્ડ માઇક્રોના ધમકી વિશ્લેષણના વડા ડેવિડ સાંચોએ આ અખબારને જણાવ્યું હતું. કંઈપણમાંથી છબી અને ટેક્સ્ટ નિષ્ણાત કહે છે કે "AI વધુને વધુ ઉપયોગ કરી રહ્યું છે" સાયબર હુમલાઓના વિકાસમાં, અને નોંધે છે કે "આજના અલ્ગોરિધમ્સ સાથે" વ્યવહારીક રીતે કંઈપણ શક્ય છે: "જો તમારી પાસે વ્યક્તિનો પૂરતો ઑડિયો, વૉઇસ અને વિડિયો હોય તો તમે તમે 'ડીપફેક' કરવા માંગો છો, તો તમને ખૂબ જ વિશ્વાસપાત્ર વસ્તુઓ મળે છે. આઇટી પ્રોફેશનલ્સ પણ અમને શંકા કરી શકે છે.” સમગ્ર 2022 દરમિયાન, આર્ટિફિશિયલ ઇન્ટેલિજન્સ સાથે કામ કરવા માટે સમર્પિત કંપનીઓએ તેને કોઈપણ માટે ઉપલબ્ધ કરાવ્યું છે, વધુમાં, વાસ્તવિક સામગ્રી બનાવવા માટે સક્ષમ નવા સાધનો, વ્યવહારિક રીતે, કંઈપણથી. "જોકે શરૂઆતમાં આ સિસ્ટમોએ ટેક્સ્ટ અથવા છબીઓ જનરેટ કરી હતી જે ઉચ્ચ ગુણવત્તાની ન હતી, અમે ઝડપી પ્રગતિનું અવલોકન કર્યું છે," જોસેપ કર્ટો, એઆઈના નિષ્ણાત અને કેટાલોનિયાની ઓપન યુનિવર્સિટીમાં કમ્પ્યુટર સાયન્સના પ્રોફેસર કહે છે. સૌથી શક્તિશાળીમાં DALL-E 2 અને ChatGPT, ફરીથી OpenAI દ્વારા વિકસિત ટૂલ્સ છે. સૌ પ્રથમ, વપરાશકર્તા પ્રાપ્ત કરવાના પરિણામનું ટૂંકું વર્ણન દાખલ કરીને વાસ્તવિક છબીઓ બનાવી શકે છે. ફક્ત 'મોસ્કોની શેરીઓમાં યુક્રેનિયન વિરોધકર્તા' ટાઈપ કરો, અને સેકંડમાં તે ઘણી જુદી જુદી છબીઓ બનાવવામાં સક્ષમ છે, કેટલીક તદ્દન સફળ. બીજું વાતચીતાત્મક AI છે, એક નસીબદાર ચેટબોટ જે વપરાશકર્તાને પ્રશ્ન પૂછે ત્યારે જવાબ આપે છે. જો કે, આ કિસ્સામાં ઓફર કરેલા જવાબો જબરદસ્ત માનવીય હોઈ શકે છે. લગભગ કારણ કે બીજી બાજુ મશીન નથી, પરંતુ એક વ્યક્તિ છે. ચોક્કસ રીતે, ગયા ઉનાળામાં એક Google એન્જિનિયરને ટેક્નોલોજી કંપની દ્વારા સસ્પેન્ડ કરવામાં આવ્યો હતો કે સર્ચ એન્જિનનું કૃત્રિમ બુદ્ધિ, LaMDA નામનું, "સભાન" અને "સંવેદનશીલ" અસ્તિત્વ હશે. તે એક નાના બાળક સાથે પ્રતિભાની તુલના કરવા પણ આવ્યો હતો. તમામ સાયબર સિક્યુરિટી નિષ્ણાતોની સલાહ લીધેલા જોખમની ચેતવણી આપે છે કે આ પ્રકારના ઉકેલો લોકપ્રિય થતા રહે છે અને દૂષિત તૃતીય પક્ષો દ્વારા તેનું શોષણ થાય છે. જ્યાં પણ તમે ઇમેજ જનરેશનનો ઉલ્લેખ કરી રહ્યાં હોવ, વપરાશકર્તાઓને ખોટી માહિતી આપવા માટે, ચેટ સોફ્ટવેર, ક્યારેક મારું, ત્યાં ઈમેલ અને સોશિયલ મીડિયા સ્કેમ્સ વિકસાવવાની મોટી સંભાવના છે. વધુ માહિતી સમાચાર ના ક્રિસમસ લોટરી 2022: તમને કૌભાંડ કરવા માટે તેઓ જે યુક્તિઓનો ઉપયોગ કરી રહ્યાં છે તે તમામ યુક્તિઓ નથી શું તમને તમારા પોતાના સરનામાં પરથી કોઈ ઈમેલ મળ્યો છે?: તેઓ તમને લૂંટવા માટે જે નવા કૌભાંડનો ઉપયોગ કરે છે તે «ચેટબોટ્સનો ઉપયોગ કરીને બનાવવામાં આવેલી ઝુંબેશો જે વાતચીત કરવા સક્ષમ છે વપરાશકર્તાઓ પાસેથી વ્યક્તિગત માહિતી એકત્રિત કરવાનો હેતુ પહેલેથી જ અસ્તિત્વમાં છે,” જોસ લુઈસ પેલેટી કહે છે, સાયબર સુરક્ષા કંપની વોચગાર્ડના સેલ્સ એન્જિનિયર. સાંચો, તેના ભાગ માટે, વાતચીતની કૃત્રિમ બુદ્ધિમત્તાની 'કૌભાંડીઓ'માં રહેલી સંભવિતતા પર ટિપ્પણી કરે છે, તે રોમેન્ટિક કૌભાંડો જેનો હેતુ વપરાશકર્તાઓ પાસેથી નાણાંની ચોરી કરવાનો છે જેમાં, ઈમેલ દ્વારા, ગુનેગારો એવા વ્યક્તિ તરીકે ઉભો કરે છે જે ખરેખર અસ્તિત્વમાં નથી. અને ત્યાં છે. છેતરપિંડી શોધવા માટે સક્ષમ કોઈ સાધનો. તેમાં પડવાનું ટાળવાની કોઈ સલાહ નથી.