इसके लिए एआई का इस्तेमाल, आम कम्प्यूटर्स पर नकली कंटेंट या फोटो बनाना असंभव
डीपफ़ेक कोई नया शब्द नहीं है। पिछले कुछ समय में आए दिन हमने अख़बारों, टीवी न्यूज़ और सोशल मीडिया पर डीपफ़ेक के बारे में बहुत कुछ पढ़ा या देखा है। लोग दफ्तरों में, घरों में या काम की जगह पर इसके बारे में बात कर रहे या चिंता जाहिर कर रहे हैं क्योंकि युवा वर्ग सोशल मीडिया पर सबसे ज़्यादा अपना कंटेंट शेयर करता है।
इनका परिणाम उतना ही विनाशकारी है जितना कि ऑपरेशन के दौरान नस कट जाना। ये व्यक्ति की प्रतिष्ठा को हानि पहुंचा सकते हैं, दर्शकों को धोखा दे सकते हैं, और गोपनीयता का उल्लंघन कर सकते हैं।
डीपफ़ेक तकनीक के शिकार लोगों के मामले लगातार सामने आ रहे हैं। ऐसा सिर्फ मशहूर लोगों के साथ नहीं हो रहा हैं जैसे कि अभिनेत्री रश्मिका मंदाना, काजोल, कटरीना। आम लोग भी शिकंजे में फस रहे बस उनके पास टाइम नहीं कि क़ानूनी पचड़ों में पड़ें।
यही नहीं प्रधानमंत्री नरेंद्र मोदी का गरबा करते हुए दीपफके वीडियो ने ये सोचने पर मजबूर किया कि क्या ये सच है? प्रधानमंत्री मोदी ने लोगों को सतर्क रहने की सलाह दी। उन्होंने मीडिया को जनता को शिक्षित करने की अपील की है। सरकार ने यह अनिवार्य किया है कि सोशल मीडिया प्लेटफॉर्मों को किसी भी रिपोर्ट की गई डीपफ़ेक सामग्री को 36 घंटे के भीतर हटाना होगा, अन्यथा उनपर एक्शन लिया जायेगा।
विदेशी धरती पर भी लोग इसके शिकार हैं। अमेरिका के पूर्व राष्ट्रपति बराक ओबामा से लेकर फे़सबुक के प्रमुख मार्क ज़करबर्ग भी इससे अछूते नहीं रहे हैं। इन सभी लोगों के कई वीडियो नकली हैं।
ये कैसे काम करता है
डीपफे़क दरअसल आर्टिफिशियल इंटेलीजेंस (एआई) की मदद से किसी की भी फे़क (फ़र्जी) इमेज या तस्वीर बनाई जाती है।
फि फोटो,ऑडियो या वीडियो को फ़ेक दिखाने के लिए एआई के डीप लर्निंग का इस्तेमाल किया जाता है। इसलिए इसे डीपफे़क नाम दिया गया है।
वॉयस स्किन या वॉयस क्लोन्स की मदद
ऑडियो या वीडियो में बड़ी हस्तियों की आवाज़ डालने के लिए वॉयस स्किन या वॉयस क्लोन्स की मदद ले जाती है। इस तरह उनकी इमेज को खराब किया जा सकता है। कोई ऐसा मैसेज या संदेश प्रसारित किया जा सकता है जो अफरा-तफरी फैला दे।
2017 में शुरुआत
एम्सटर्डम स्थित साइबर सिक्योरिटी कंपनी डीपट्रेस की जानकारी के मुताबिक़ 2017 के आख़िर में इसकी शुरुआत हुई। उसके बाद से डीपफे़क का तकनीकी स्तर और इसके सामाजिक प्रभाव में तेजी से विकास हुआ।
अश्लील सामग्री का उपयोग महिलाओं की इमेज को नुक्सान पहुँचाने के लिए
उक्त रिपोर्ट 2019 में जारी हुई जिसमें तब तक क़रीब 15000 डीपफे़क सामग्री थी जिसमें से सिर्फ चार फीसदी ऐसी थी जो अश्लील नहीं थी। बाकी सब पोर्न से जोड़ दिया गया था। अश्लील सामग्री का ज़्यादातर उपयोग महिलाओं की इमेज को नुक्सान पहुँचाने के लिए किया गया था।
Deepfake किस प्रकार समाज के लिए खतरनाक हो सकता है?
Deepfake तकनीक का गलत उपयोग व्यक्तिगत और सामाजिक स्तर पर हानि पहुंचा सकता है।
यह व्यक्तियों की छवि को बिगाड़ सकता है।
भ्रामक जानकारी फैला सकता है।
सामाजिक विभाजन और विश्वासघात का कारण बन सकता है।
अश्लील वीडियो बनाकर, ब्लैकमेल करके फिरौती मांग सकते हैं।
इसके अलावा, यह राजनीतिक प्रक्रियाओं में हस्तक्षेप कर सकता है, और भ्रामक या झूठी जानकारी के माध्यम से लोगों को भ्रमित कर सकता है।
बीबीसी की रिपोर्ट के मुताबिक, मुंबई में रहने वाली पुनीत भसीन साइबर लॉ और डेटा प्रोटेक्शन प्राइवेसी की एक्सपर्ट हैं और वे मानती है कि डीपफ़ेक अब समाज में दीमक की तरह से फ़ैल रहा है। वो कहती हैं, महिलाओं के साथ साथ पुरुषों की भी टारगेट किया गया है। ये अलग बात है कि ज़्यादातर मामलों में पुरुष ऐसे फ़र्जी सामग्री को दरकिनार कर देते हैं।
वे कहती हैं, ”पहले भी लोगों की तस्वीरों को मॉर्फ़ किया जाता था लेकिन वो पता चल जाता था लेकिन एआई के जरिए जो डीपफ़ेक किया जा रहा है वो इतना परफेक्ट (सटीक) होता है कि सही या ग़लत में भेद कर पाना मुश्किल होता है। ये किसी के शील का अपमान करने के लिए काफ़ी होता है।”
पुनीत भसीन कहती हैं कि लोग ऐसे वीडियो इसलिए भी बनाते हैं क्योंकि ऐसे वीडियो ज़्यादा लोग देखते हैं और उनके व्यू बढ़ते हैं और इससे उनका फायदा होता है।
ऐसे पहचाने नकली सामग्री
होठों की हिल -जुल पर ध्यान दें। अगर बोल हिल -जुल से मैच नहीं कर रहे तो वीडियो फेक है। इसके इलावा बालों पर और दांतों पर अतिरिक्त ध्यान देकर भी पता लगाने की कोशिश की जा सकती है कि कंटेंट सही है या नहीं। आँखें भी इसी तरह मदद कर सकती हैं। पुतलियां और उनका झपकना नोटिस किया जा सकता है।
साइबर सिक्योरिटी और एआई विशेषज्ञ पवन दुग्गल कहते हैं, ”डीपफे़क- कंप्यूटर, इलेक्ट्रानिक फ़ॉरमेट और एआई का मिश्रण है। इसका ज़्यादातर उपयोग साइबर क्राइम करने वाले कर रहे हैं। इसे बनाने के लिए किसी तरह के प्रशिक्षण की ज़रुरत नहीं होती। इसे मोबाइल फ़ोन के ज़रिए भी बनाया जा सकता है जो एप और टूल के ज़रिए बनाया जा सकते हैं। ”
पवन ने तो यहाँ तक कहा, इसका इस्तेमाल चुनाव में हो सकता है। नेता की या कैंडिडेट की इमेज खराब करके चुनाव परिणाम प्रभावित करवाए जा सकते हैं।
सजा का है प्रावधान
आईटी एक्ट के तहत सजा का प्रावधान है।
पिछले साल इंटरमिडियरी गाइडलाइन्स आई थी जिसमें कहा गया था कि ऐसी सामग्री जिसमें नग्नता, अश्लीलता हो और अगर किसी की मान, प्रतिष्ठा को नुकसान हो रहा हो तो ऐसी सामग्री को लेकर किसी भी प्लेटफॉर्म को शिकायत जाती है तो उन्हें तुरंत हटाने के दिशानिर्देश हैं।
एक्सपर्ट की मानें तो अब कुछ कंपनी कहती हैं कि सामग्री तभी हटेगी जब केस दर्ज होगा। कोर्ट के ऑर्डर की भी मांग करती हैं। उनका कहना है कि ये किसी भी देश के स्थानीय कानून द्वारा नियमित है।
आईटी एक्ट के सेक्शन 79 के एक अपवाद के तहत कंपनियों को संरक्षण मिलता था। अगर किसी प्लेटफॉर्म पर सामग्री किसी तीसरी पार्टी ने अपलोड की है लेकिन प्लेटफॉर्म ने सामग्री को सरकुलेट नहीं किया है तो ऐसे में प्लेटफॉर्म को इम्यूनिटी मिलती थी और माना जाता था कि प्लेटफॉर्म ज़िम्मेदार नहीं है।
भारत के आईटी एक्ट 2000 के सेक्शन 66 ई में डीपफ़ेक से जुड़े आपराधिक मामलों के लिए सजा का प्रावधान है।
इसमें किसी व्यक्ति की तस्वीर को खींचना, प्रकाशित और प्रसारित करना, निजता के उल्लंघन में आता है और अगर कोई ऐसा करता है तो इस एक्ट के तहत तीन साल तक की सजा या दो लाख तक के जुर्माने का प्रावधान है।
वहीं आईटी एक्ट के सेक्शन 66 डी में ये प्रावधान किया गया है कि अगर कोई किसी संचार उपकरण या कंप्यूटर का इस्तेमाल किसी दुर्भावना के इरादे जैसे धोखा देने या किसी का प्रतिरूपण के लिए करता है तो ऐसे में तीन साल तक की सज़ा या एक लाख रुपए जुर्माना हो सकता है।