By using this site, you agree to the Privacy Policy and Terms of Use.
Accept
Telescope TimesTelescope TimesTelescope Times
Notification Show More
Font ResizerAa
  • Home
  • Recent Post
  • My Punjab
  • National
  • International
  • Cover Story
  • Health & Education
  • Web Stories
  • Art/Cinema & More
    • Science & Tech
    • Food & Travel
    • Fashion & Style
    • Sports & Stars
  • E-Paper Telescope Times
Reading: AI Deepfake के खिलाफ Ranveer ने केस दर्ज कराया, Party का समर्थन करते दिखाया था, 100 से ज्यादा पीड़ित
Share
Font ResizerAa
Telescope TimesTelescope Times
Search
  • Home
  • Recent Post
  • My Punjab
  • National
  • International
  • Cover Story
  • Health & Education
  • Web Stories
  • Art/Cinema & More
    • Science & Tech
    • Food & Travel
    • Fashion & Style
    • Sports & Stars
  • E-Paper Telescope Times
Have an existing account? Sign In
Follow US
Telescope Times > Blog > Crime & Law > AI Deepfake के खिलाफ Ranveer ने केस दर्ज कराया, Party का समर्थन करते दिखाया था, 100 से ज्यादा पीड़ित
DEEPFAKE VIDEO OF RANVEER SINGH
Crime & Law

AI Deepfake के खिलाफ Ranveer ने केस दर्ज कराया, Party का समर्थन करते दिखाया था, 100 से ज्यादा पीड़ित

The Telescope Times
Last updated: April 23, 2024 2:59 pm
The Telescope Times Published April 22, 2024
Share
SHARE

AI Deepfake से बचो दोस्तो -Ranveer ने दर्शकों को चेतावनी देते हुए एक्स पर लिखा

AI Deepfake : सिंह ने पुलिस में शिकायत दर्ज कराई

मुंबई . (AI Deepfake) रणवीर सिंह ने एक राजनीतिक दल का समर्थन करने वाले एआई-जनरेटेड डीपफेक वीडियो के खिलाफ एफआईआर दर्ज करवाई है। इसमें उन्हें एक पार्टी का समर्थन करते दिखाया गया था ।अभिनेता के प्रवक्ता ने सोमवार को कहा कि एक्टर रणवीर सिंह के Deepfake वीडियो को बढ़ावा देने वाले सोशल मीडिया हैंडल के खिलाफ एफआईआर दर्ज की गई है।

Contents
AI Deepfake से बचो दोस्तो -Ranveer ने दर्शकों को चेतावनी देते हुए एक्स पर लिखाAI Deepfake : सिंह ने पुलिस में शिकायत दर्ज कराईAI Deepfake के शिकारAI Deepfake नया शब्द नहींAI Deepfake : कैसे काम करता हैAI Deepfake : बीबीसी की रिपोर्टAI Deepfake : ऐसे पहचाने नकली सामग्रीAI Deepfake: आईटी एक्ट के तहत सजा का है प्रावधानTable of Contents

स्टेटिस्टा के अनुसार, 2022 में भारत में 65,000 साइबर अपराध की घटनाएं दर्ज की गईं। साइबर धोखाधड़ी में निर्दोष लोगों से पैसे, कीमती सामान और यहां तक ​​​​कि उनकी पूरी पहचान के लिए जबरन वसूली करना शामिल है।

पिछले हफ्ते, रणवीर सिंह का एक वीडियो इंटरनेट पर वायरल हुआ था जिसमें अभिनेता को अपनी राजनीतिक राय व्यक्त करते देखा जा सकता था।

मूल क्लिप में, जो कृत्रिम बुद्धिमत्ता (AI) तकनीक का उपयोग करके संपादित किया गया प्रतीत होता है, अभिनेता रणवीर द्वारा दिए गए एक साक्षात्कार का एक अंश था जब वह एक फैशन शो के लिए वाराणसी में थे।

प्रवक्ता के मुताबिक, सिंह ने पुलिस में शिकायत दर्ज कराई है और साइबर क्राइम सेल द्वारा आगे की जांच के लिए एफआईआर दर्ज की गई है।

AI Deepfake

अभिनेता के एक प्रवक्ता ने एक बयान में कहा, “हमने पुलिस शिकायत दर्ज की है और उस हैंडल के खिलाफ एफआईआर दर्ज की गई है जो रणवीर सिंह के एआई-जनरेटेड डीपफेक वीडियो को बढ़ावा दे रहा था।”

वीडियो के वायरल होने के तुरंत बाद, अभिनेता ने एक्स पर दर्शकों को चेतावनी देते हुए लिखा, “डीपफेक से बचो दोस्तो” सिंह से पहले, सुपरस्टार आमिर खान की एक एआई-संपादित क्लिप सोशल मीडिया पर वायरल हो गई थी।

एक अधिकारी ने कहा कि मुंबई पुलिस ने खान के एक डीपफेक वीडियो के संबंध में एक अज्ञात व्यक्ति के खिलाफ प्राथमिकी दर्ज की है, जिसमें वह कथित तौर पर एक राजनीतिक पार्टी का प्रचार करते नजर आ रहे हैं।

AI Deepfake के शिकार

नीचे लिखे एक्टर भी AI Deepfake वीडियो /deepfake photo का शिकार हो चुके हैं।
Taylor Swift. …
Rashmika Mandanna. …
Scarlett Johansson. …
Nora Fatehi. …
Tom Hanks. …
Katrina Kaif. …
Tom Cruise. …
Sachin Tendulkar/Sara Tendulkar आदि
।

AI Deepfake नया शब्द नहीं

AI Deepfake कोई नया शब्द नहीं है। पिछले कुछ समय में आए दिन हमने अख़बारों, टीवी न्यूज़ और सोशल मीडिया पर डीपफ़ेक के बारे में बहुत कुछ पढ़ा या देखा है। लोग दफ्तरों में, घरों में या काम की जगह पर इसके बारे में बात कर रहे या चिंता जाहिर कर रहे हैं क्योंकि युवा वर्ग सोशल मीडिया पर सबसे ज़्यादा अपना कंटेंट शेयर करता है।

इनका परिणाम उतना ही विनाशकारी है जितना कि ऑपरेशन के दौरान नस कट जाना। ये व्यक्ति की प्रतिष्ठा को हानि पहुंचा सकते हैं, दर्शकों को धोखा दे सकते हैं, और गोपनीयता का उल्लंघन कर सकते हैं।

AI Deepfake तकनीक के शिकार लोगों के मामले लगातार सामने आ रहे हैं। ऐसा सिर्फ मशहूर लोगों के साथ नहीं हो रहा हैं जैसे कि अभिनेत्री रश्मिका मंदाना, काजोल, कटरीना। आम लोग भी शिकंजे में फस रहे बस उनके पास टाइम नहीं कि क़ानूनी पचड़ों में पड़ें।

यही नहीं प्रधानमंत्री नरेंद्र मोदी का गरबा करते हुए दीपफके वीडियो ने ये सोचने पर मजबूर किया कि क्या ये सच है? प्रधानमंत्री मोदी ने लोगों को सतर्क रहने की सलाह दी। उन्होंने मीडिया को जनता को शिक्षित करने की अपील की है। सरकार ने यह अनिवार्य किया है कि सोशल मीडिया प्लेटफॉर्मों को किसी भी रिपोर्ट की गई डीपफ़ेक सामग्री को 36 घंटे के भीतर हटाना होगा, अन्यथा उनपर एक्शन लिया जायेगा।

विदेशी धरती पर भी लोग इसके शिकार हैं। अमेरिका के पूर्व राष्ट्रपति बराक ओबामा से लेकर फे़सबुक के प्रमुख मार्क ज़करबर्ग भी इससे अछूते नहीं रहे हैं। इन सभी लोगों के कई वीडियो नकली हैं।

AI DeepFake

AI Deepfake : कैसे काम करता है

AI Deepfake दरअसल आर्टिफिशियल इंटेलीजेंस (एआई) की मदद से किसी की भी फे़क (फ़र्जी) इमेज या तस्वीर बनाई जाती है।
फि फोटो,ऑडियो या वीडियो को फ़ेक दिखाने के लिए एआई के डीप लर्निंग का इस्तेमाल किया जाता है। इसलिए इसे डीपफे़क नाम दिया गया है।

AI Deepfake वॉयस स्किन या वॉयस क्लोन्स की मदद

ऑडियो या वीडियो में बड़ी हस्तियों की आवाज़ डालने के लिए वॉयस स्किन या वॉयस क्लोन्स की मदद ले जाती है। इस तरह उनकी इमेज को खराब किया जा सकता है। कोई ऐसा मैसेज या संदेश प्रसारित किया जा सकता है जो अफरा-तफरी फैला दे।

AI Deepfake : 2017 में शुरुआत

एम्सटर्डम स्थित साइबर सिक्योरिटी कंपनी डीपट्रेस की जानकारी के मुताबिक़ 2017 के आख़िर में इसकी शुरुआत हुई। उसके बाद से डीपफे़क का तकनीकी स्तर और इसके सामाजिक प्रभाव में तेजी से विकास हुआ।

AI Deepfake अश्लील सामग्री का उपयोग महिलाओं की इमेज को नुक्सान पहुँचाने के लिए

उक्त रिपोर्ट 2019 में जारी हुई जिसमें तब तक क़रीब 15000 डीपफे़क सामग्री थी जिसमें से सिर्फ चार फीसदी ऐसी थी जो अश्लील नहीं थी। बाकी सब पोर्न से जोड़ दिया गया था। अश्लील सामग्री का ज़्यादातर उपयोग महिलाओं की इमेज को नुक्सान पहुँचाने के लिए किया गया था।

AI Deepfake किस प्रकार समाज के लिए खतरनाक हो सकता है?

Deepfake तकनीक का गलत उपयोग व्यक्तिगत और सामाजिक स्तर पर हानि पहुंचा सकता है।
यह व्यक्तियों की छवि को बिगाड़ सकता है।
भ्रामक जानकारी फैला सकता है।
सामाजिक विभाजन और विश्वासघात का कारण बन सकता है।
अश्लील वीडियो बनाकर, ब्लैकमेल करके फिरौती मांग सकते हैं।
इसके अलावा, यह राजनीतिक प्रक्रियाओं में हस्तक्षेप कर सकता है, और भ्रामक या झूठी जानकारी के माध्यम से लोगों को भ्रमित कर सकता है।

AI Deepfake : बीबीसी की रिपोर्ट

बीबीसी की रिपोर्ट के मुताबिक, मुंबई में रहने वाली पुनीत भसीन साइबर लॉ और डेटा प्रोटेक्शन प्राइवेसी की एक्सपर्ट हैं और वे मानती है कि डीपफ़ेक अब समाज में दीमक की तरह से फ़ैल रहा है। वो कहती हैं, महिलाओं के साथ साथ पुरुषों की भी टारगेट किया गया है। ये अलग बात है कि ज़्यादातर मामलों में पुरुष ऐसे फ़र्जी सामग्री को दरकिनार कर देते हैं।

वे कहती हैं, ”पहले भी लोगों की तस्वीरों को मॉर्फ़ किया जाता था लेकिन वो पता चल जाता था लेकिन एआई के जरिए जो डीपफ़ेक किया जा रहा है वो इतना परफेक्ट (सटीक) होता है कि सही या ग़लत में भेद कर पाना मुश्किल होता है। ये किसी के शील का अपमान करने के लिए काफ़ी होता है।”

पुनीत भसीन कहती हैं कि लोग ऐसे वीडियो इसलिए भी बनाते हैं क्योंकि ऐसे वीडियो ज़्यादा लोग देखते हैं और उनके व्यू बढ़ते हैं और इससे उनका फायदा होता है।

AI Deepfake : ऐसे पहचाने नकली सामग्री

होठों की हिल -जुल पर ध्यान दें। अगर बोल हिल -जुल से मैच नहीं कर रहे तो वीडियो फेक है। इसके इलावा बालों पर और दांतों पर अतिरिक्त ध्यान देकर भी पता लगाने की कोशिश की जा सकती है कि कंटेंट सही है या नहीं। आँखें भी इसी तरह मदद कर सकती हैं। पुतलियां और उनका झपकना नोटिस किया जा सकता है।

साइबर सिक्योरिटी और एआई विशेषज्ञ पवन दुग्गल कहते हैं, ”डीपफे़क- कंप्यूटर, इलेक्ट्रानिक फ़ॉरमेट और एआई का मिश्रण है। इसका ज़्यादातर उपयोग साइबर क्राइम करने वाले कर रहे हैं। इसे बनाने के लिए किसी तरह के प्रशिक्षण की ज़रुरत नहीं होती। इसे मोबाइल फ़ोन के ज़रिए भी बनाया जा सकता है जो एप और टूल के ज़रिए बनाया जा सकते हैं। ”

पवन ने तो यहाँ तक कहा, इसका इस्तेमाल चुनाव में हो सकता है। नेता की या कैंडिडेट की इमेज खराब करके चुनाव परिणाम प्रभावित करवाए जा सकते हैं।

AI Deepfake: आईटी एक्ट के तहत सजा का है प्रावधान

पिछले साल इंटरमिडियरी गाइडलाइन्स आई थी जिसमें कहा गया था कि ऐसी सामग्री जिसमें नग्नता, अश्लीलता हो और अगर किसी की मान, प्रतिष्ठा को नुकसान हो रहा हो तो ऐसी सामग्री को लेकर किसी भी प्लेटफॉर्म को शिकायत जाती है तो उन्हें तुरंत हटाने के दिशानिर्देश हैं।

एक्सपर्ट की मानें तो अब कुछ कंपनी कहती हैं कि सामग्री तभी हटेगी जब केस दर्ज होगा। कोर्ट के ऑर्डर की भी मांग करती हैं। उनका कहना है कि ये किसी भी देश के स्थानीय कानून द्वारा नियमित है।

आईटी एक्ट के सेक्शन 79 के एक अपवाद के तहत कंपनियों को संरक्षण मिलता था। अगर किसी प्लेटफॉर्म पर सामग्री किसी तीसरी पार्टी ने अपलोड की है लेकिन प्लेटफॉर्म ने सामग्री को सरकुलेट नहीं किया है तो ऐसे में प्लेटफॉर्म को इम्यूनिटी मिलती थी और माना जाता था कि प्लेटफॉर्म ज़िम्मेदार नहीं है।

भारत के आईटी एक्ट 2000 के सेक्शन 66 ई में डीपफ़ेक से जुड़े आपराधिक मामलों के लिए सजा का प्रावधान है।

इसमें किसी व्यक्ति की तस्वीर को खींचना, प्रकाशित और प्रसारित करना, निजता के उल्लंघन में आता है और अगर कोई ऐसा करता है तो इस एक्ट के तहत तीन साल तक की सजा या दो लाख तक के जुर्माने का प्रावधान है।

वहीं आईटी एक्ट के सेक्शन 66 डी में ये प्रावधान किया गया है कि अगर कोई किसी संचार उपकरण या कंप्यूटर का इस्तेमाल किसी दुर्भावना के इरादे जैसे धोखा देने या किसी का प्रतिरूपण के लिए करता है तो ऐसे में तीन साल तक की सज़ा या एक लाख रुपए जुर्माना हो सकता है।

अब विस्तार से जान लेते हैं उन कानून के बारे में जो आपके लिए मददगार हो सकते हैं।

  1. गोपनीयता कानून (Privacy Laws)
    सूचना प्रौद्योगिकी अधिनियम, 2000 और इसके नियम किसी व्यक्ति की गोपनीयता के लिए कुछ सुरक्षा प्रदान करते हैं, जिसमें डेटा गोपनीयता का अधिकार भी शामिल है। यदि कोई डीपफेक वीडियो किसी व्यक्ति की सहमति के बिना उसकी समानता का उपयोग करके उसकी गोपनीयता का उल्लंघन करता है, तो पीड़ित संभावित रूप से इस कानून के तहत शिकायत दर्ज कर सकता है।

सूचना प्रौद्योगिकी मध्यस्थ नियमों के तहत भी, नियम 3(1)(बी)(vii) कहता है कि सोशल मीडिया मध्यस्थों को नियमों और विनियमों, गोपनीयता नीति या यूजर एग्रीमेंट को सुनिश्चित करने और सहित उचित कानूनी प्रक्रिया का पालन करना होगा। उसे उपयोगकर्ताओं को किसी भी ऐसे कंटेंट को होस्ट न करने के लिए सूचित करना होगा, जो किसी अन्य व्यक्ति का प्रतिरूपण करता है। इस प्रावधान के तहत, यह जिम्मेदारी सोशल मीडिया प्लेटफार्मों पर है, जो आईटी नियमों के तहत मध्यस्थों की तरह कार्य करते हैं ताकि यह सुनिश्चित किया जा सके कि किसी व्यक्ति की गोपनीयता सुरक्षित है।

इसके अतिरिक्त, नियम 3(2)(बी) में कहा गया है कि एक मध्यस्थ, ऐसी किसी भी सामग्री के संबंध में शिकायत प्राप्त होने के 24 घंटे के भीतर, जो इलेक्ट्रॉनिक में प्रतिरूपण की प्रकृति में आती है। किसी व्यक्ति की कृत्रिम रूप से रूपांतरित छवियों सहित फॉर्म, ऐसी सामग्री को हटाने या उस तक पहुंच को अक्षम करने के लिए सभी उपाय करेगा।

  1. मानहानि (Defamation)
    भारतीय दंड संहिता (IPC) की धारा 499 और 500 में मानहानि के प्रावधान शामिल हैं। यदि गलत जानकारी फैलाकर किसी व्यक्ति की प्रतिष्ठा को नुकसान पहुंचाने के इरादे से कोई डीपफेक वीडियो बनाया गया है, तो प्रभावित व्यक्ति निर्माता के खिलाफ मानहानि का मुकदमा दायर कर सकता है।

हालांकि, जब डीपफेक वीडियो की बात आती है, जो हेरफेर किए गए या मनगढ़ंत वीडियो होते हैं जो अक्सर यथार्थवादी दिखाई देते हैं, तो मानहानि का कानून भी अद्वितीय चुनौतियां और विचार प्रस्तुत करता है।

डीपफेक वीडियो के संदर्भ में मानहानि का मामला बनाने के लिए आम तौर पर इन बातों को साबित करने की ज़रूरत होती है-

  1. Falsity: वीडियो में गलत जानकारी हो या विषय को गलत तरीके से चित्रित किया गया हो।
  2. Publication: वीडियो किसी तीसरे पक्ष को दिखाया गया हो या किसी तरह से सार्वजनिक किया गया हो।
  3. Harm: झूठे वीडियो के परिणामस्वरूप सब्जेक्ट को और उनकी प्रतिष्ठा को नुकसान उठाना पड़ा हो।
  4. Fault: कुछ मामलों में, वादी को यह साबित करने की आवश्यकता हो सकती है कि वीडियो के निर्माता ने लापरवाही से या वास्तविक दुर्भावना से काम किया है।
  5. साइबर अपराध (Cybercrime)
    सूचना प्रौद्योगिकी अधिनियम, 2000 और इसके संबद्ध नियमों में अनधिकृत पहुंच, डेटा चोरी और साइबरबुलिंग सहित साइबर अपराधों की एक विस्तृत श्रृंखला शामिल है। ऐसे मामलों में जहां हैकिंग या डेटा चोरी जैसे अवैध तरीकों से डीपफेक वीडियो तैयार किए जाते हैं, पीड़ितों को इस कानून के तहत सहारा मिलता है। वे शिकायत दर्ज कर सकते हैं, क्योंकि इन कार्यों में अक्सर कंप्यूटर संसाधनों तक अनधिकृत पहुंच शामिल होती है और संवेदनशील व्यक्तिगत डेटा सुरक्षा का उल्लंघन हो सकता है।
  6. कॉपीराइट उल्लंघन (Copyright Infringement)
    जब किसी डीपफेक वीडियो में निर्माता की सहमति के बिना कॉपीराइट सामग्री शामिल होती है, तो कॉपीराइट अधिनियम, 1957 लागू होता है। कॉपीराइट धारकों के पास ऐसे उल्लंघनों के खिलाफ कार्रवाई करने का कानूनी अधिकार है. यह कानून मूल कार्य की सुरक्षा करता है और डीपफेक सामग्री में इसके अनधिकृत उपयोग पर रोक लगाता है। कॉपीराइट उल्लंघन कानून कॉपीराइट मालिकों को उनकी रचनात्मक संपत्तियों की सुरक्षा के लिए एक मजबूत ढांचा प्रदान करते हैं, यह सुनिश्चित करते हैं कि उनके बौद्धिक संपदा अधिकारों का सम्मान किया जाता है, और डीपफेक वीडियो के क्षेत्र में उनके काम के अनधिकृत और गैरकानूनी उपयोग को रोकने के लिए कानूनी कार्रवाई की जाती है।
  7. भूल जाने का अधिकार (Right to be Forgotten)
    हालांकि भारत में “भूल जाने का अधिकार” के नाम से कोई विशिष्ट कानून नहीं है, लेकिन व्यक्ति इंटरनेट से डीपफेक वीडियो सहित अपनी व्यक्तिगत जानकारी को हटाने का अनुरोध करने के लिए अदालतों से संपर्क कर सकते हैं. अदालतें गोपनीयता और डेटा सुरक्षा सिद्धांतों के आधार पर ऐसे अनुरोधों पर विचार कर सकती हैं।
  8. उपभोक्ता संरक्षण कानून (Consumer Protection Laws)
    यदि डीपफेक वीडियो का निर्माण या वितरण उपभोक्ताओं को नुकसान पहुंचाने वाले धोखाधड़ी वाले उद्देश्यों के लिए किया जाता है, तो प्रभावित व्यक्ति उपभोक्ता संरक्षण कानूनों, जैसे उपभोक्ता संरक्षण अधिनियम, 2019 के तहत राहत मांग सकते हैं. इस कानून का उद्देश्य उपभोक्ताओं के अधिकारों और हितों की रक्षा करना है और हो सकता है, इसका इस्तेमाल धोखाधड़ी या गलत बयानी के मामलों में किया जाता है।

https://telescopetimes.com/category/art-and-cinema-news/

https://www.independent.co.uk/asia/india/ranveer-singh-aamir-khan-viral-video-deepfake-b2532986.html

Table of Contents

  • AI Deepfake से बचो दोस्तो -Ranveer ने दर्शकों को चेतावनी देते हुए एक्स पर लिखा
  • AI Deepfake : सिंह ने पुलिस में शिकायत दर्ज कराई
  • AI Deepfake के शिकार
  • AI Deepfake नया शब्द नहीं
  • AI Deepfake : कैसे काम करता है
  • AI Deepfake : बीबीसी की रिपोर्ट
  • AI Deepfake : ऐसे पहचाने नकली सामग्री
  • AI Deepfake: आईटी एक्ट के तहत सजा का है प्रावधान

You Might Also Like

Patna HC आर्केस्ट्रा समूहों के नियमन व निगरानी पर 02 हफ्ते में जवाब दे सरकार

‘Amul Girl’ से रहें सावधान, कहीं आप तो नहीं इसके अगले शिकार

FASTag की एक मई से कोई ज़रूरत नहीं

Ballia News : प्रेमी ने नंबर ब्‍लॉक किया, युवती ने यूट्यूब देखकर लगा ली फांसी!

FAKE HIGH COMMISSIONER ARRESTED, डिप्लोमैट कार नंबर, ओमान का झंडा लगा रखा था, कभी था VC

TAGGED:DEEPFAKE VIDEOFIRRANVEER SINGH
Share This Article
Facebook Twitter Email Print
Leave a comment

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

Follow US

Find US on Social Medias
FacebookLike
TwitterFollow
InstagramFollow
YoutubeSubscribe
newsletter featurednewsletter featured

Weekly Newsletter

Subscribe to our newsletter to get our newest articles instantly!

Popular News
Taylor Swift's boyfriend Travis Kelce danced on Punjabi dance songs
International

टेलर स्विफ्ट के बॉयफ्रेंड ट्रैविस केल्स ने पंजाबी गानों पे किया डांस – वीडियो देखें

The Telescope Times The Telescope Times March 1, 2024
Calcutta High Court : बंगाल में 2010 के बाद जारी सभी OBC सर्टिफिकेट रद्द
Tantric Rituals : लाश का सिर काटने के आरोप में 02 गिरफ्तार
टीवी शो सीआईडी में ‘फ्रेड्रिक्स’ का रोल निभाने वाले दिनेश फडणीस की मौत
नोबेल शांति पुरस्कार विजेता किसिंजर का 100 वर्ष की आयु में निधन, 1971 के युद्ध में दिया था पाकिस्तान का साथ
- Advertisement -
Ad imageAd image
Global Coronavirus Cases

INDIA

Confirmed

45M

Death

533.3k

More Information:Covid-19 Statistics

About US

The Telescope is an INDEPENDENT MEDIA platform to generate awareness among the masses regarding society, socio-eco, and politico.

Subscribe US

Subscribe to our newsletter to get our newest articles instantly!

© 2023 Telescopetimes. All Rights Reserved.
  • About
  • Contact Us
  • Privacy Policy
  • Terms of Use
Join Us!

Subscribe to our newsletter and never miss our latest news, podcasts etc..

Zero spam, Unsubscribe at any time.
Welcome Back!

Sign in to your account

Lost your password?