AI Deepfake से बचो दोस्तो -Ranveer ने दर्शकों को चेतावनी देते हुए एक्स पर लिखा
AI Deepfake : सिंह ने पुलिस में शिकायत दर्ज कराई
मुंबई . (AI Deepfake) रणवीर सिंह ने एक राजनीतिक दल का समर्थन करने वाले एआई-जनरेटेड डीपफेक वीडियो के खिलाफ एफआईआर दर्ज करवाई है। इसमें उन्हें एक पार्टी का समर्थन करते दिखाया गया था ।अभिनेता के प्रवक्ता ने सोमवार को कहा कि एक्टर रणवीर सिंह के Deepfake वीडियो को बढ़ावा देने वाले सोशल मीडिया हैंडल के खिलाफ एफआईआर दर्ज की गई है।
स्टेटिस्टा के अनुसार, 2022 में भारत में 65,000 साइबर अपराध की घटनाएं दर्ज की गईं। साइबर धोखाधड़ी में निर्दोष लोगों से पैसे, कीमती सामान और यहां तक कि उनकी पूरी पहचान के लिए जबरन वसूली करना शामिल है।
पिछले हफ्ते, रणवीर सिंह का एक वीडियो इंटरनेट पर वायरल हुआ था जिसमें अभिनेता को अपनी राजनीतिक राय व्यक्त करते देखा जा सकता था।
मूल क्लिप में, जो कृत्रिम बुद्धिमत्ता (AI) तकनीक का उपयोग करके संपादित किया गया प्रतीत होता है, अभिनेता रणवीर द्वारा दिए गए एक साक्षात्कार का एक अंश था जब वह एक फैशन शो के लिए वाराणसी में थे।
प्रवक्ता के मुताबिक, सिंह ने पुलिस में शिकायत दर्ज कराई है और साइबर क्राइम सेल द्वारा आगे की जांच के लिए एफआईआर दर्ज की गई है।
AI Deepfake
अभिनेता के एक प्रवक्ता ने एक बयान में कहा, “हमने पुलिस शिकायत दर्ज की है और उस हैंडल के खिलाफ एफआईआर दर्ज की गई है जो रणवीर सिंह के एआई-जनरेटेड डीपफेक वीडियो को बढ़ावा दे रहा था।”
वीडियो के वायरल होने के तुरंत बाद, अभिनेता ने एक्स पर दर्शकों को चेतावनी देते हुए लिखा, “डीपफेक से बचो दोस्तो” सिंह से पहले, सुपरस्टार आमिर खान की एक एआई-संपादित क्लिप सोशल मीडिया पर वायरल हो गई थी।
एक अधिकारी ने कहा कि मुंबई पुलिस ने खान के एक डीपफेक वीडियो के संबंध में एक अज्ञात व्यक्ति के खिलाफ प्राथमिकी दर्ज की है, जिसमें वह कथित तौर पर एक राजनीतिक पार्टी का प्रचार करते नजर आ रहे हैं।
AI Deepfake के शिकार
नीचे लिखे एक्टर भी AI Deepfake वीडियो /deepfake photo का शिकार हो चुके हैं।
Taylor Swift. …
Rashmika Mandanna. …
Scarlett Johansson. …
Nora Fatehi. …
Tom Hanks. …
Katrina Kaif. …
Tom Cruise. …
Sachin Tendulkar/Sara Tendulkar आदि ।
AI Deepfake नया शब्द नहीं
AI Deepfake कोई नया शब्द नहीं है। पिछले कुछ समय में आए दिन हमने अख़बारों, टीवी न्यूज़ और सोशल मीडिया पर डीपफ़ेक के बारे में बहुत कुछ पढ़ा या देखा है। लोग दफ्तरों में, घरों में या काम की जगह पर इसके बारे में बात कर रहे या चिंता जाहिर कर रहे हैं क्योंकि युवा वर्ग सोशल मीडिया पर सबसे ज़्यादा अपना कंटेंट शेयर करता है।
इनका परिणाम उतना ही विनाशकारी है जितना कि ऑपरेशन के दौरान नस कट जाना। ये व्यक्ति की प्रतिष्ठा को हानि पहुंचा सकते हैं, दर्शकों को धोखा दे सकते हैं, और गोपनीयता का उल्लंघन कर सकते हैं।
AI Deepfake तकनीक के शिकार लोगों के मामले लगातार सामने आ रहे हैं। ऐसा सिर्फ मशहूर लोगों के साथ नहीं हो रहा हैं जैसे कि अभिनेत्री रश्मिका मंदाना, काजोल, कटरीना। आम लोग भी शिकंजे में फस रहे बस उनके पास टाइम नहीं कि क़ानूनी पचड़ों में पड़ें।
यही नहीं प्रधानमंत्री नरेंद्र मोदी का गरबा करते हुए दीपफके वीडियो ने ये सोचने पर मजबूर किया कि क्या ये सच है? प्रधानमंत्री मोदी ने लोगों को सतर्क रहने की सलाह दी। उन्होंने मीडिया को जनता को शिक्षित करने की अपील की है। सरकार ने यह अनिवार्य किया है कि सोशल मीडिया प्लेटफॉर्मों को किसी भी रिपोर्ट की गई डीपफ़ेक सामग्री को 36 घंटे के भीतर हटाना होगा, अन्यथा उनपर एक्शन लिया जायेगा।
विदेशी धरती पर भी लोग इसके शिकार हैं। अमेरिका के पूर्व राष्ट्रपति बराक ओबामा से लेकर फे़सबुक के प्रमुख मार्क ज़करबर्ग भी इससे अछूते नहीं रहे हैं। इन सभी लोगों के कई वीडियो नकली हैं।
AI Deepfake : कैसे काम करता है
AI Deepfake दरअसल आर्टिफिशियल इंटेलीजेंस (एआई) की मदद से किसी की भी फे़क (फ़र्जी) इमेज या तस्वीर बनाई जाती है।
फि फोटो,ऑडियो या वीडियो को फ़ेक दिखाने के लिए एआई के डीप लर्निंग का इस्तेमाल किया जाता है। इसलिए इसे डीपफे़क नाम दिया गया है।
AI Deepfake वॉयस स्किन या वॉयस क्लोन्स की मदद
ऑडियो या वीडियो में बड़ी हस्तियों की आवाज़ डालने के लिए वॉयस स्किन या वॉयस क्लोन्स की मदद ले जाती है। इस तरह उनकी इमेज को खराब किया जा सकता है। कोई ऐसा मैसेज या संदेश प्रसारित किया जा सकता है जो अफरा-तफरी फैला दे।
AI Deepfake : 2017 में शुरुआत
एम्सटर्डम स्थित साइबर सिक्योरिटी कंपनी डीपट्रेस की जानकारी के मुताबिक़ 2017 के आख़िर में इसकी शुरुआत हुई। उसके बाद से डीपफे़क का तकनीकी स्तर और इसके सामाजिक प्रभाव में तेजी से विकास हुआ।
AI Deepfake अश्लील सामग्री का उपयोग महिलाओं की इमेज को नुक्सान पहुँचाने के लिए
उक्त रिपोर्ट 2019 में जारी हुई जिसमें तब तक क़रीब 15000 डीपफे़क सामग्री थी जिसमें से सिर्फ चार फीसदी ऐसी थी जो अश्लील नहीं थी। बाकी सब पोर्न से जोड़ दिया गया था। अश्लील सामग्री का ज़्यादातर उपयोग महिलाओं की इमेज को नुक्सान पहुँचाने के लिए किया गया था।
AI Deepfake किस प्रकार समाज के लिए खतरनाक हो सकता है?
Deepfake तकनीक का गलत उपयोग व्यक्तिगत और सामाजिक स्तर पर हानि पहुंचा सकता है।
यह व्यक्तियों की छवि को बिगाड़ सकता है।
भ्रामक जानकारी फैला सकता है।
सामाजिक विभाजन और विश्वासघात का कारण बन सकता है।
अश्लील वीडियो बनाकर, ब्लैकमेल करके फिरौती मांग सकते हैं।
इसके अलावा, यह राजनीतिक प्रक्रियाओं में हस्तक्षेप कर सकता है, और भ्रामक या झूठी जानकारी के माध्यम से लोगों को भ्रमित कर सकता है।
AI Deepfake : बीबीसी की रिपोर्ट
बीबीसी की रिपोर्ट के मुताबिक, मुंबई में रहने वाली पुनीत भसीन साइबर लॉ और डेटा प्रोटेक्शन प्राइवेसी की एक्सपर्ट हैं और वे मानती है कि डीपफ़ेक अब समाज में दीमक की तरह से फ़ैल रहा है। वो कहती हैं, महिलाओं के साथ साथ पुरुषों की भी टारगेट किया गया है। ये अलग बात है कि ज़्यादातर मामलों में पुरुष ऐसे फ़र्जी सामग्री को दरकिनार कर देते हैं।
वे कहती हैं, ”पहले भी लोगों की तस्वीरों को मॉर्फ़ किया जाता था लेकिन वो पता चल जाता था लेकिन एआई के जरिए जो डीपफ़ेक किया जा रहा है वो इतना परफेक्ट (सटीक) होता है कि सही या ग़लत में भेद कर पाना मुश्किल होता है। ये किसी के शील का अपमान करने के लिए काफ़ी होता है।”
पुनीत भसीन कहती हैं कि लोग ऐसे वीडियो इसलिए भी बनाते हैं क्योंकि ऐसे वीडियो ज़्यादा लोग देखते हैं और उनके व्यू बढ़ते हैं और इससे उनका फायदा होता है।
AI Deepfake : ऐसे पहचाने नकली सामग्री
होठों की हिल -जुल पर ध्यान दें। अगर बोल हिल -जुल से मैच नहीं कर रहे तो वीडियो फेक है। इसके इलावा बालों पर और दांतों पर अतिरिक्त ध्यान देकर भी पता लगाने की कोशिश की जा सकती है कि कंटेंट सही है या नहीं। आँखें भी इसी तरह मदद कर सकती हैं। पुतलियां और उनका झपकना नोटिस किया जा सकता है।
साइबर सिक्योरिटी और एआई विशेषज्ञ पवन दुग्गल कहते हैं, ”डीपफे़क- कंप्यूटर, इलेक्ट्रानिक फ़ॉरमेट और एआई का मिश्रण है। इसका ज़्यादातर उपयोग साइबर क्राइम करने वाले कर रहे हैं। इसे बनाने के लिए किसी तरह के प्रशिक्षण की ज़रुरत नहीं होती। इसे मोबाइल फ़ोन के ज़रिए भी बनाया जा सकता है जो एप और टूल के ज़रिए बनाया जा सकते हैं। ”
पवन ने तो यहाँ तक कहा, इसका इस्तेमाल चुनाव में हो सकता है। नेता की या कैंडिडेट की इमेज खराब करके चुनाव परिणाम प्रभावित करवाए जा सकते हैं।
AI Deepfake: आईटी एक्ट के तहत सजा का है प्रावधान
पिछले साल इंटरमिडियरी गाइडलाइन्स आई थी जिसमें कहा गया था कि ऐसी सामग्री जिसमें नग्नता, अश्लीलता हो और अगर किसी की मान, प्रतिष्ठा को नुकसान हो रहा हो तो ऐसी सामग्री को लेकर किसी भी प्लेटफॉर्म को शिकायत जाती है तो उन्हें तुरंत हटाने के दिशानिर्देश हैं।
एक्सपर्ट की मानें तो अब कुछ कंपनी कहती हैं कि सामग्री तभी हटेगी जब केस दर्ज होगा। कोर्ट के ऑर्डर की भी मांग करती हैं। उनका कहना है कि ये किसी भी देश के स्थानीय कानून द्वारा नियमित है।
आईटी एक्ट के सेक्शन 79 के एक अपवाद के तहत कंपनियों को संरक्षण मिलता था। अगर किसी प्लेटफॉर्म पर सामग्री किसी तीसरी पार्टी ने अपलोड की है लेकिन प्लेटफॉर्म ने सामग्री को सरकुलेट नहीं किया है तो ऐसे में प्लेटफॉर्म को इम्यूनिटी मिलती थी और माना जाता था कि प्लेटफॉर्म ज़िम्मेदार नहीं है।
भारत के आईटी एक्ट 2000 के सेक्शन 66 ई में डीपफ़ेक से जुड़े आपराधिक मामलों के लिए सजा का प्रावधान है।
इसमें किसी व्यक्ति की तस्वीर को खींचना, प्रकाशित और प्रसारित करना, निजता के उल्लंघन में आता है और अगर कोई ऐसा करता है तो इस एक्ट के तहत तीन साल तक की सजा या दो लाख तक के जुर्माने का प्रावधान है।
वहीं आईटी एक्ट के सेक्शन 66 डी में ये प्रावधान किया गया है कि अगर कोई किसी संचार उपकरण या कंप्यूटर का इस्तेमाल किसी दुर्भावना के इरादे जैसे धोखा देने या किसी का प्रतिरूपण के लिए करता है तो ऐसे में तीन साल तक की सज़ा या एक लाख रुपए जुर्माना हो सकता है।
अब विस्तार से जान लेते हैं उन कानून के बारे में जो आपके लिए मददगार हो सकते हैं।
- गोपनीयता कानून (Privacy Laws)
सूचना प्रौद्योगिकी अधिनियम, 2000 और इसके नियम किसी व्यक्ति की गोपनीयता के लिए कुछ सुरक्षा प्रदान करते हैं, जिसमें डेटा गोपनीयता का अधिकार भी शामिल है। यदि कोई डीपफेक वीडियो किसी व्यक्ति की सहमति के बिना उसकी समानता का उपयोग करके उसकी गोपनीयता का उल्लंघन करता है, तो पीड़ित संभावित रूप से इस कानून के तहत शिकायत दर्ज कर सकता है।
सूचना प्रौद्योगिकी मध्यस्थ नियमों के तहत भी, नियम 3(1)(बी)(vii) कहता है कि सोशल मीडिया मध्यस्थों को नियमों और विनियमों, गोपनीयता नीति या यूजर एग्रीमेंट को सुनिश्चित करने और सहित उचित कानूनी प्रक्रिया का पालन करना होगा। उसे उपयोगकर्ताओं को किसी भी ऐसे कंटेंट को होस्ट न करने के लिए सूचित करना होगा, जो किसी अन्य व्यक्ति का प्रतिरूपण करता है। इस प्रावधान के तहत, यह जिम्मेदारी सोशल मीडिया प्लेटफार्मों पर है, जो आईटी नियमों के तहत मध्यस्थों की तरह कार्य करते हैं ताकि यह सुनिश्चित किया जा सके कि किसी व्यक्ति की गोपनीयता सुरक्षित है।
इसके अतिरिक्त, नियम 3(2)(बी) में कहा गया है कि एक मध्यस्थ, ऐसी किसी भी सामग्री के संबंध में शिकायत प्राप्त होने के 24 घंटे के भीतर, जो इलेक्ट्रॉनिक में प्रतिरूपण की प्रकृति में आती है। किसी व्यक्ति की कृत्रिम रूप से रूपांतरित छवियों सहित फॉर्म, ऐसी सामग्री को हटाने या उस तक पहुंच को अक्षम करने के लिए सभी उपाय करेगा।
- मानहानि (Defamation)
भारतीय दंड संहिता (IPC) की धारा 499 और 500 में मानहानि के प्रावधान शामिल हैं। यदि गलत जानकारी फैलाकर किसी व्यक्ति की प्रतिष्ठा को नुकसान पहुंचाने के इरादे से कोई डीपफेक वीडियो बनाया गया है, तो प्रभावित व्यक्ति निर्माता के खिलाफ मानहानि का मुकदमा दायर कर सकता है।
हालांकि, जब डीपफेक वीडियो की बात आती है, जो हेरफेर किए गए या मनगढ़ंत वीडियो होते हैं जो अक्सर यथार्थवादी दिखाई देते हैं, तो मानहानि का कानून भी अद्वितीय चुनौतियां और विचार प्रस्तुत करता है।
डीपफेक वीडियो के संदर्भ में मानहानि का मामला बनाने के लिए आम तौर पर इन बातों को साबित करने की ज़रूरत होती है-
- Falsity: वीडियो में गलत जानकारी हो या विषय को गलत तरीके से चित्रित किया गया हो।
- Publication: वीडियो किसी तीसरे पक्ष को दिखाया गया हो या किसी तरह से सार्वजनिक किया गया हो।
- Harm: झूठे वीडियो के परिणामस्वरूप सब्जेक्ट को और उनकी प्रतिष्ठा को नुकसान उठाना पड़ा हो।
- Fault: कुछ मामलों में, वादी को यह साबित करने की आवश्यकता हो सकती है कि वीडियो के निर्माता ने लापरवाही से या वास्तविक दुर्भावना से काम किया है।
- साइबर अपराध (Cybercrime)
सूचना प्रौद्योगिकी अधिनियम, 2000 और इसके संबद्ध नियमों में अनधिकृत पहुंच, डेटा चोरी और साइबरबुलिंग सहित साइबर अपराधों की एक विस्तृत श्रृंखला शामिल है। ऐसे मामलों में जहां हैकिंग या डेटा चोरी जैसे अवैध तरीकों से डीपफेक वीडियो तैयार किए जाते हैं, पीड़ितों को इस कानून के तहत सहारा मिलता है। वे शिकायत दर्ज कर सकते हैं, क्योंकि इन कार्यों में अक्सर कंप्यूटर संसाधनों तक अनधिकृत पहुंच शामिल होती है और संवेदनशील व्यक्तिगत डेटा सुरक्षा का उल्लंघन हो सकता है। - कॉपीराइट उल्लंघन (Copyright Infringement)
जब किसी डीपफेक वीडियो में निर्माता की सहमति के बिना कॉपीराइट सामग्री शामिल होती है, तो कॉपीराइट अधिनियम, 1957 लागू होता है। कॉपीराइट धारकों के पास ऐसे उल्लंघनों के खिलाफ कार्रवाई करने का कानूनी अधिकार है. यह कानून मूल कार्य की सुरक्षा करता है और डीपफेक सामग्री में इसके अनधिकृत उपयोग पर रोक लगाता है। कॉपीराइट उल्लंघन कानून कॉपीराइट मालिकों को उनकी रचनात्मक संपत्तियों की सुरक्षा के लिए एक मजबूत ढांचा प्रदान करते हैं, यह सुनिश्चित करते हैं कि उनके बौद्धिक संपदा अधिकारों का सम्मान किया जाता है, और डीपफेक वीडियो के क्षेत्र में उनके काम के अनधिकृत और गैरकानूनी उपयोग को रोकने के लिए कानूनी कार्रवाई की जाती है। - भूल जाने का अधिकार (Right to be Forgotten)
हालांकि भारत में “भूल जाने का अधिकार” के नाम से कोई विशिष्ट कानून नहीं है, लेकिन व्यक्ति इंटरनेट से डीपफेक वीडियो सहित अपनी व्यक्तिगत जानकारी को हटाने का अनुरोध करने के लिए अदालतों से संपर्क कर सकते हैं. अदालतें गोपनीयता और डेटा सुरक्षा सिद्धांतों के आधार पर ऐसे अनुरोधों पर विचार कर सकती हैं। - उपभोक्ता संरक्षण कानून (Consumer Protection Laws)
यदि डीपफेक वीडियो का निर्माण या वितरण उपभोक्ताओं को नुकसान पहुंचाने वाले धोखाधड़ी वाले उद्देश्यों के लिए किया जाता है, तो प्रभावित व्यक्ति उपभोक्ता संरक्षण कानूनों, जैसे उपभोक्ता संरक्षण अधिनियम, 2019 के तहत राहत मांग सकते हैं. इस कानून का उद्देश्य उपभोक्ताओं के अधिकारों और हितों की रक्षा करना है और हो सकता है, इसका इस्तेमाल धोखाधड़ी या गलत बयानी के मामलों में किया जाता है।
https://telescopetimes.com/category/art-and-cinema-news/
https://www.independent.co.uk/asia/india/ranveer-singh-aamir-khan-viral-video-deepfake-b2532986.html