घरफिचर्ससारांशडीपफेक टेक्नॉलॉजी अशी ही बनवाबनवी

डीपफेक टेक्नॉलॉजी अशी ही बनवाबनवी

Subscribe

‘डीपफेक टेक्नॉलॉजी’ने ऑडिओ, व्हिडीओ आणि फोटो फॉरमॅटमध्ये होणारी बनवेगिरी आणि आर्थिक गुन्हे ही मोठी समस्या बनली आहे. विविध देशांतील सरकार आणि फिल्म इंडस्ट्री आता कारवाई करण्याची मागणी करत आहे. अभिनेत्री रश्मिका मंदान्ना हिच्याशी संबंधित असलेल्या डीपफेक व्हिडीओसंदर्भात दिल्ली पोलिसांनी आता एफआयआर नोंदवला असून कार्यवाहीची दिशा ठरवली जात आहे.

-प्रा. किरणकुमार जोहरे

२०१७ मध्ये बराक ओबामा हे डोनाल्ड ट्रम्प यांना शिवीगाळ करीत असलेला राजकीय बनावट व्हिडीओ, २०१८ साली आर्थिक फायद्यासाठी अभिनेत्री स्कारलेट जोहानसन हिचा क्रिप्टोकरन्सी घोटाळ्याबाबतचा फेक व्हिडीओ प्रसारित झाला होता. आता २०२३ मध्ये अमेरिकन झारा पटेल आणि दक्षिण भारतातील अभिनेत्री रश्मिका मंदान्ना यांचा ‘डीपफेक टेक्नॉलॉजी’ वापरत ‘मॅनिपुलेटेड व्हिडीओ’ व्हायरल झाला आणि भारतात अचानक या बनावट सामुग्री बनविणार्‍या आधुनिक तंत्रज्ञानाबद्दल खरीखुरी उत्सुकता निर्माण झाली. सत्य शोधण्याच्या नव्या कसोट्या आणि साधने निर्माण करण्याची गरजदेखील निर्माण झाली. आपला अंतहीन प्रवास कोणत्या दिशेने आणि कसा सुरू आहे याबाबत असंख्य प्रश्नांच्या लाटा आणि येणार्‍या त्सुनामीची झलक दिसत आहे.

- Advertisement -

कुटुंब व्यवस्था, सामाजिक सुव्यवस्था तसेच राष्ट्रीय व जागतिक सुरक्षिततेसाठी ‘डीपफेक टेक्नॉलॉजी’कडे गांभीर्याने लक्ष देणे आवश्यक व अपरिहार्य बनले आहे. मनोरंजनाची क्षमता असली तरी राजकारण, पोर्नोग्राफी, राजकीय नेते व अभिनेते यांचे खोटे व्हिडीओ बनवत अपप्रचार तसेच सामाजिक वाद निर्माण करण्यासाठी चुकीच्या माहितीचा प्रचार- प्रसार होत आहे. भीती, गैरसमज आणि अविश्वासाची चक्रीवादळे निर्माण करीत देशांतर्गत यादवी किंवा दोन समाजांत किंवा धर्मांमध्ये तेढ तसेच दोन देशांत युद्ध आणि विध्वंस करण्याची अचाट क्षमता ‘डीपफेक टेक्नॉलॉजी’मध्ये आहे. परिणामी गुन्हेगारी आणि इतर विविध क्षेत्रांत ‘डीपफेक टेक्नॉलॉजी’चा गैरवापर होण्याची गंभीर शक्यता व चिंता निर्माण झाली आहे.

‘डीपफेक टेक्नॉलॉजी’चा गैरवापर व हल्ले उघड करीत परतवून लावण्यासाठी येत्या काळात ‘टेक्नॉलॉजी वॉरियर्स’ची लोकल टू ग्लोबल फौज सर्वच राजकीय पक्षांना आणि व्यावसायिक सुरक्षिततेसाठीदेखील आवश्यक असणार आहे हे या क्षेत्रात करियर करणार्‍यांनी लक्षात घेतले पाहिजे. सायबर गुन्हेगारी रोखण्यासाठी स्थानिक आणि जागतिक पातळीवरील मर्यादित व तुटपुंजे मनुष्यबळ आहे. तसेच एडव्हान्स इलेक्ट्रॉनिक्स टेक्नॉलॉजीबरोबर अपडेट होण्यासाठी सायबर पोलीस तसेच प्रशिक्षित टेक्नॉलॉजी वॉरियर्स यांच्याबाबत राजकीय अनास्था दिसून येते. यामुळे ‘डीपफेक टेक्नॉलॉजी’ ही राष्ट्रीय संरक्षणासाठी अत्यंत धोकादायक आहे. असे असले तरी विधायक कार्य, मनोरंजन, जाहिरात, रंजक व प्रभावी पद्धतीने शिक्षण व प्रशिक्षण यासाठी ‘डीपफेक टेक्नॉलॉजी’चा वापर हा खोटेपणातील खर्‍याखुर्‍या संधी असे म्हणता येईल.

- Advertisement -

अपवाद वगळता न्यायक्षेत्रातील काही अपप्रवृत्ती या नैतिकता हरवत खोटेपणा करण्यासाठी वापरू लागल्या आहेत, तर दुसर्‍या बाजूला न्यायदान निरपेक्ष होण्यासाठी चीनसारखी राष्ट्र आर्टिफिशियल इंटेलिजन्सचा (एआय) वापर करीत आहे. न्यायक्षेत्रातील सर्व वकील बेरोजगार होतील या भीतीने एआयला विरोध होत आहे. अशा वेळी न्याय आणि अन्याय यांच्यातील सीमारेषा धुसर नव्हे तर नष्ट करण्याची क्षमता ‘डीपफेक टेक्नॉलॉजी’ अनेक प्रश्नांसह व आव्हाने आणि संधींसह घेऊन आले आहे.

‘डीपफेक टेक्नॉलॉजी’ म्हणजे काय?
‘डीपफेक टेक्नॉलॉजी’मध्ये वास्तववादी दिसणारे बनावट व्हिडीओ किंवा ऑडिओ रेकॉर्डिंग तयार केले जातात. यासाठी आर्टिफिशियल इंटेलिजन्स (एआय) म्हणजे कृत्रिम बुद्धिमत्ता वापरली जाते. याशिवाय इमेज प्रोसेसिंग, मशीन लर्निंग (एमएल), न्यूरल नेटवर्क्स आदी एडव्हान्सड इलेक्ट्रॉनिक्स टेक्नॉलॉजीजचा एकत्रित वापर हा मूळ चित्रे, व्हिडीओ, ऑडिओ यांच्यात फेरफार करण्यासाठी किंवा बनावट सामुग्री निर्माण करण्यासाठी केला जातो. थोडक्यात आर्टिफिशियल इंटेलिजन्स आधारित टूल्सद्वारे व्हिडीओ आणि ऑडिओ पूर्णपणे इतके बदलले जाते की ऐकणार्‍या व पाहणार्‍याला ते कळणारही नाही आणि ते तो खरे मानेल. याला ‘डीपफेक तंत्रज्ञान’ म्हणतात.

‘डीपफेक’ आले कोठून?
‘डीपफेक टेक्नॉलॉजी’ची उत्पत्ती डिप लर्निंग आणि न्यूरल नेटवर्कमधील प्रगतीतून झाली आहे. डीपफेक हा शब्द डीप लर्निंग आणि फेक म्हणजे बनावट या शब्दांच्या एकत्रिकरणातून बनला. तंत्रज्ञान विकासाच्या शोधगंगेतील कृत्रिम बुद्धिमत्तेतून जन्मलेले हे एक अपत्य होय.

२०१७ साली रेडीट वापरकर्त्यांनी ‘डीपफेक टेक्नॉलॉजी’चा वापर करीत सेलिब्रिटी व्यक्तींचे फेस-स्वॅपिंग व्हिडीओ म्हणजे चेहरे व आवाज बदललेले, मात्र वास्तववादी अर्थात खरेखुरे वाटणारे व्हिडीओ शेअर करणे सुरू केले आणि ‘डीपफेक टेक्नॉलॉजी’कडे लोकांचे लक्ष वेधले गेले. ‘डीपफेक टेक्नॉलॉजी’ ही अत्यंत विवादास्पद वापर असणारी टेक्नॉलॉजी आहे असे रान पेटण्याआधीच कोविड कालखंड किंवा पर्व सुरू झाले आणि आता कोविडनंतर पुन्हा जगाचे लक्ष ‘डीपफेक टेक्नॉलॉजी’कडे वेधले गेले आहे.

२०१०च्या दशकाच्या सुरुवातीच्या काळात न्यूरल नेटवर्क्सवर मोठ्या प्रमाणात रिसर्च सुरू होते. विशेषत: मेंदूतील संदेशवहनाप्रमाणे काम करणारे कॉन्व्होल्युशनल न्यूरल नेटवर्क्स आणि रिकरंट न्यूरल नेटवर्क्समध्ये प्रगती झाली. यामुळे इमेज प्रोसेसिंग आणि किचकट बदल ओळखणे तसेच दुरूस्त करणे या कार्यांसाठी पायाभरणी झाली.

‘डीपफेक’ कसे काम करते?
‘डीपफेक तंत्रज्ञान’ व्हिडीओ किंवा प्रतिमा हाताळण्यासाठी तसेच त्यात आवश्यक बदल घडविण्यासाठी एडव्हान्सड कॉम्प्युटर अल्गोरिदम वापरते. अत्यंत खात्रीशीर तरीही पूर्णपणे बनावट अशी आभासी सामुग्री यातून तयार होते. ‘डीपफेक टेक्नॉलॉजी’साठी भरपूर नव्हे तर प्रचंड डेटा इनपूट म्हणून दिला जातो. डीप लर्निंग टेक्निकसह कॉम्प्युटर डेटा प्रोसेसिंग करण्यासाठी वेगवान हार्डवेअर वापरले जाते. एखाद्याच्या चेहर्‍याच्या हजारो चित्रांचे विश्लेषण केले जाते आणि त्यानंतर त्या चेहर्‍याची वैशिष्ठ्ये जाणून घेतल्यावर ती नंतर नवीन व्हिडीओमध्ये दुसर्‍या कोणाच्या तरी चेहर्‍यावर संगणकीय पद्धतीने चिटकवली जातात.

‘डीपफेक टेक्नॉलॉजी’चे फायदे-तोटे
‘डीपफेक टेक्नॉलॉजी’चे तोटे आणि मर्यादांमध्ये नैतिक चिंता, चुकीची माहिती पसरविण्यासाठी या तंत्रज्ञानाचा गैरवापर आणि त्याचे विविध क्षेत्रांतील दूरगामी विपरीत परिणाम, डीपफेक व्हिडीओ आणि ऑडिओ शोधण्यात अधिकाधिक वाढत जाणारी आव्हाने आणि गोपनीयतेवर आक्रमणाचा धोका समाविष्ट होतो. कुटुंब व्यवस्था, सामाजिक कायदा व व्यवस्थापन, राष्ट्रीय आणि जागतिक सुरक्षिततेसाठी ‘डीपफेक टेक्नॉलॉजी’चा धोका निर्माण होत आहे. ‘डीपफेक टेक्नॉलॉजी’च्या फायद्यांमध्ये मनोरंजन, गेमिंग व फिल्म इंडस्ट्रीत व्हिज्युअल इफेक्ट्स तसेच वास्तववादी सिम्युलेशनमधील नावीन्यपूर्ण अ‍ॅप्लिकेशन्स या गोष्टींचा समावेश होतो.

-(लेखक विज्ञान व तंत्रज्ञानाचे अभ्यासक आहेत)

- Advertisment -
- Advertisment -
- Advertisment -