डिपफेक (Deepfake) भनेको “डीप लर्निङ” र “फेक” शब्दको संयोजनबाट बनेको शब्द हो, जसले कृत्रिम बुद्धिमत्ता (Artificial Intelligence – AI) र मेशिन लर्निङ (Machine Learning) को सहायताले फोटो, भिडियो, वा अडियो सामग्रीलाई यथार्थजस्तो देखिने गरी परिवर्तन गर्ने प्रविधिलाई जनाउँछ। यसले प्रायः डीप न्यूरल नेटवर्क र जेनेरेटिभ एड्भर्सेरियल नेटवर्क (GANs) को सहायताले कार्य गर्दछ। डिपफेकको प्रयोगले मानिसहरूको पहिचानलाई नक्कली सामग्रीमा स्थानान्तरण गरेर अन्य व्यक्तिको अनुहार वा आवाजलाई वास्तविक झैं देखाउन सक्छ।
डिपफेक (Deepfake) प्रविधिको इतिहास कृत्रिम बुद्धिमत्ता (AI) र मेशिन लर्निङ (Machine Learning) को विकाससँग गहिरो रूपमा जडित छ। यद्यपि डिपफेक शब्द २०१७ मा मात्र प्रचलित भयो, यसको आधारभूत प्रविधिहरू दशकौं अघिदेखि क्रमिक रूपमा विकसित हुँदै आएका छन्।
आरम्भ: (कम्प्युटर भिजनदेखि GAN सम्मको यात्रा)
डिपफेक प्रविधिको जग १९८० को दशकमा कम्प्युटर भिजन र न्यूरल नेटवर्कको अवधारणाबाट सुरु भयो। डिजिटल तस्बिर प्रशोधन र मेशिन लर्निङका प्राथमिक प्रयोगहरूले यस प्रविधिको आधारशिला तयार गर्यो। यसले डिजिटल युगमा कृत्रिम बुद्धिमत्ताको सम्भावनालाई उजागर गर्दै नयाँ अध्याय थप्यो।
१९८० को दशकमा कम्प्युटर भिजन (Computer Vision) क्षेत्रले तस्बिरहरूलाई डिजिटल रूपमा विश्लेषण गर्ने प्रयास सुरु गर्यो। कम्प्युटरहरूले छविहरूको आकार, रंग, र बनावट जस्ता विशेषताहरू छुट्याउन थाले। यद्यपि, त्यो समयका प्राविधिक सीमाहरूका कारण यो क्षेत्र धेरै सीमित थियो।
१९९० को दशकमा न्यूरल नेटवर्क (Neural Networks) को अवधारणाले प्रविधिको नयाँ सम्भावनालाई उजागर गर्यो। न्यूरल नेटवर्कले डेटा प्रशोधन गर्न मानव मस्तिष्कजस्तै संरचना अनुकरण गर्ने प्रयास गर्यो। यसले ठूलो मात्रामा गणना गर्न सक्ने क्षमता प्रदान गर्यो। तर, कम्प्युटर हार्डवेयरको अभाव र पर्याप्त डेटाको कमीले यो अवधारणा धेरै अगाडि बढ्न सकेन।
तर, २०१४ मा इयान गुडफेलो र उनको टोलीले “जेनेरेटिभ एड्भर्सेरियल नेटवर्क” (GAN) को अवधारणा प्रस्तुत गरेपछि, नक्कली सामग्री सिर्जना गर्ने सम्भावना झन् सशक्त भयो। GAN ले दुईवटा न्यूरल नेटवर्क (जनरेटर – नक्कली डेटा सिर्जना गर्ने मोडेल र डिस्क्रिमिनेटर – नक्कली र वास्तविक डेटा छुट्याउने मोडेल) बीचको प्रतिस्पर्धा प्रयोग गरी यथार्थजस्तै सामग्री निर्माण गर्ने क्षमता दियो।
GAN को प्रभावकारिता २०१० पछि बढ्दै गयो। कम्प्युटिङ हार्डवेयरमा भएको प्रगतिले (GPU, TPU, र क्लाउड कम्प्युटिङ) न्यूरल नेटवर्कहरूको प्रशिक्षण र प्रयोगलाई सहज बनायो। यसले डिपफेक प्रविधिको विकास र लोकप्रियतालाई तीव्र गतिको साथ अघि बढायो।
GAN को विकासले कम्प्युटर भिजन र कृत्रिम बुद्धिमत्ताको क्षेत्रमा नयाँ सम्भावनाहरू ल्यायो। यो प्रविधिले केवल डिपफेकको मात्र होइन, नयाँ औषधि अणुहरूको डिजाईन, चलचित्रका विशेष प्रभावहरू, र भाषा तथा आवाजका अत्याधुनिक मोडेलहरूको आधारसमेत बन्यो।
डिपफेक शब्दको जन्म
डिपफेक (Deepfake) शब्द आज प्रविधि, मिडिया, र सामाजिक जीवनको अभिन्न हिस्सा बनेको छ। तर, यसको उदय र प्रचलनको कथा २०१७ को सुरुआतमा इन्टरनेटको चर्चित मञ्च Reddit बाट सुरु भएको थियो।
२०१७ मा Reddit मा “deepfakes” नामक प्रयोगकर्ताले GAN (Generative Adversarial Network) को प्रयोग गरेर सेलिब्रिटीहरूसँग जोडिएका नक्कली अश्लील भिडियोहरू सिर्जना गरे। यी सामग्रीहरूले मानिसहरूलाई यथार्थजस्तो देखिने नक्कली दृश्य र श्रव्य सामग्री बनाउन प्रविधिको क्षमता देखाए। प्रयोगकर्ताले “Deep Learning” र “Fake” शब्दको संयोजन गर्दै यस प्रविधिलाई “Deepfake” नाम दिएका थिए।
डिपफेकको सुरुआतमा यो मुख्यतः मनोरञ्जन र विवादास्पद सामग्री बनाउन प्रयोग गरियो। विशेष गरी, सेलिब्रिटीहरूसँग जोडिएका अश्लील भिडियोहरू उत्पादन गरेर अनलाइन मञ्चमा सार्वजनिक गर्ने कार्य व्यापक बन्यो। यसले प्रविधिको शक्ति मात्र होइन, यसको दुरुपयोगको सम्भावना पनि उजागर गर्यो।
डिपफेक सामग्री केही समयमै इन्टरनेटभरि भाइरल भयो। सेलिब्रिटीहरूका नक्कली भिडियोहरूमात्र होइन, राजनीतिक नेताहरूका भाषण र अभिव्यक्तिलाई हेरफेर गरेर नक्कली समाचार (Fake News) बनाउन पनि यो प्रविधिको प्रयोग हुन थाल्यो।
यसले अन्तर्राष्ट्रिय मिडियाको ध्यान खिच्यो। डिपफेक प्रविधि एकैचोटि प्रविधिको चमत्कार र समाजका लागि खतरा दुबैका रूपमा चर्चित भयो।
डिपफेकको विस्तार र चिन्ता
डिपफेक प्रविधि २०१८ देखि तीव्र रूपमा विकसित भयो। जनसाधारणले प्रयोग गर्न सक्ने डिपफेक उपकरणहरूसजिलै उपलब्ध भए।
यसको प्रयोगले मनोरञ्जन उद्योगमा नयाँ सम्भावना खोल्यो। चलचित्रहरूमा पुराना कलाकारहरूलाई पुनः जिवन्तजस्तो देखाउने प्रयास र विशेष प्रभावहरूको लागि यसको प्रयोग गरियो।
मोबाइल प्रविधिको सुलभता र शक्तिशाली प्रोसेसरहरूले डिपफेक निर्माणलाई सामान्य बनाएको छ। पहिले जहाँ उच्च-शक्ति कम्प्युटरहरू आवश्यक हुन्थे, अहिले स्मार्टफोनका एप्लिकेसनहरूले नै यो काम गर्न सक्ने अवस्था आएको छ।
उपकरणहरू र एप्लिकेसनहरूको विकासले डिपफेकलाई केवल प्राविधिक विशेषज्ञहरूकै दायराभन्दा बाहिर निकालेर हरेक व्यक्तिको पहुँचमा पुर्याएको छ। तर, यसले प्रविधिको दुरुपयोगको जोखिमलाई पनि झन् व्यापक बनाएको छ। सजिलै उपलब्ध भएका यस्ता उपकरणले एकातिर मनोरञ्जन र सिर्जनात्मकतामा योगदान पुर्याउँछ भने अर्कोतिर व्यक्तिगत गोपनीयता र सामाजिक स्थिरतामा चुनौती उत्पन्न गर्दछ।
डिपफेक (Deepfake) प्रविधि आधुनिक डिजिटल दुनियाँको एक नवीनतम उपलब्धि भए पनि यसको दुरुपयोगले व्यक्तिगत गोपनीयता र सामाजिक स्थिरतामा गम्भीर चुनौती खडा गरेको छ। डिपफेकमार्फत कसैको अनुमति बिना तस्बिर र भिडियोमा अनुहार हेरफेर गरी गलत सन्दर्भमा प्रस्तुत गर्न सकिन्छ। यो प्रविधि विशेष गरी सेलिब्रिटीहरू र सर्वसाधारणको व्यक्तिगत तस्बिरलाई हेरफेर गरेर अश्लील सामग्री सिर्जना गर्न व्यापक रूपमा प्रयोग भएको छ, जसले उनीहरूको गोपनीयता र प्रतिष्ठामा नकारात्मक प्रभाव पारिरहेको छ।
यस प्रविधिको अर्को गम्भीर पक्ष आवाजको नक्कल हो, जसले वित्तीय ठगीदेखि व्यक्तित्व हरणसम्मका घटना सम्भव बनाएको छ। ठगीकर्ताहरूले कुनै व्यक्तिको आवाजलाई हेरफेर गरी बैंकिङ सेवा, कानुनी वार्ता, वा अन्य महत्वपूर्ण संवादमा दुरुपयोग गर्न सक्ने जोखिम बढेको छ। त्यस्तै, अनुमति बिना तस्बिर र भिडियोको प्रयोगले व्यक्तिगत जीवनमाथि गम्भीर असर पार्दै आएको छ, जसले कानुनी र नैतिक प्रश्नहरू खडा गरेको छ।
डिपफेकको दुरुपयोग केवल व्यक्तिगत स्तरमा सीमित छैन। यो प्रविधि समाजको स्थिरतामा समेत गम्भीर खलल पुर्याउन सक्षम छ। राजनीतिज्ञ वा नेताहरूका नक्कली भिडियो र भाषण बनाएर गलत सूचना फैलाउने कामले चुनावी प्रक्रिया र राजनीतिक वातावरणलाई प्रभावित पार्न सक्छ। डिपफेक सामग्रीको व्यापक प्रसारले जनतालाई यथार्थ र नक्कली छुट्याउन कठिन बनाइरहेको छ, जसले समाजमा विश्वासको संकट निम्त्याउँछ।
सामाजिक स्थिरतालाई खल्बल्याउन डिपफेक प्रविधिको प्रयोग धार्मिक, जातीय, र क्षेत्रीय द्वन्द्वलाई उक्साउन पनि गरिएको छ। यस्ता सामग्रीले हिंसा र द्वन्द्व उत्पन्न गर्ने सम्भावना बढाउँछ। त्यस्तै, गलत सूचना फैलाउने माध्यमका रूपमा डिपफेकको प्रयोगले समाजमा झूटो प्रचार र भ्रमको वातावरण सिर्जना गर्ने जोखिमलाई झनै गहिरो बनाएको छ।
यस समस्यासँग जुध्न कानुनी, प्राविधिक, र सामाजिक सचेतनाका पहलहरूको आवश्यकता छ। डिपफेक सामग्री चिन्नका लागि प्रविधिगत समाधान, कानुनी संरचना, र जनचेतना अभियानको संयोजन गर्न जरुरी छ। यसका लागि अन्तर्राष्ट्रियस्तरमा सहकार्य गर्दै प्रभावकारी नीति निर्माण गर्नुपर्ने देखिन्छ। डिपफेक प्रविधिको सकारात्मक पक्षलाई सदुपयोग गर्दै नकारात्मक असरलाई न्यून गर्ने दिशामा सामूहिक प्रयास अहिलेको अपरिहार्य आवश्यकता हो।
निष्कर्ष
डिपफेक प्रविधि सम्भावना र जोखिमको मिश्रण हो। सही दिशामा यसको उपयोगले मनोरञ्जन, शिक्षा, र प्रविधिमा क्रान्ति ल्याउन सक्छ। तर, यसलाई जिम्मेवार रूपमा प्रयोग नगर्ने हो भने, यसले समाजमा ठूलो क्षति पुर्याउन सक्छ।
यसको प्रयोगलाई नियन्त्रण र सदुपयोग गर्न सरकार, प्रविधि विशेषज्ञ, र आम नागरिकको सामूहिक प्रयास अपरिहार्य देखिन्छ। यसको नकारात्मक प्रभावलाई न्यून गर्न विश्वव्यापी सहयोग, कडा नीति, र जागरूकता अहिलेको सबैभन्दा ठूलो आवश्यकता हो। यथार्थ र नक्कली छुट्याउन सक्ने प्रविधिको विकास तथा डिपफेक सामग्रीको प्रभाव रोक्न प्रभावकारी कदम उठाउनुपर्छ। यो चुनौतीसँग सामना गर्न सकिए मात्र डिपफेक प्रविधिको फाइदा समाजका सबै क्षेत्रले समान रूपमा लिन सक्नेछन्। – शम्भु पहाडी