⚠️ AI का खतरनाक चेहरा: डीपफेक का शिकार बने 12 लाख बच्चे


⚠️ AI का खतरनाक चेहरा: डीपफेक का शिकार बने 12 लाख बच्चे

यूनिसेफ–इंटरपोल की रिपोर्ट ने बढ़ाई चिंता, लड़कियां सबसे ज्यादा प्रभावित

नई दिल्ली।
आर्टिफिशियल इंटेलिजेंस (AI) जहां दुनिया को नई तकनीकी ऊंचाइयों पर ले जा रहा है, वहीं इसका खतरनाक और अमानवीय दुरुपयोग भी तेजी से बढ़ रहा है।
यूनिसेफ और इंटरपोल की एक नई रिपोर्ट ने खुलासा किया है कि बीते एक साल में दुनियाभर में करीब 12 लाख बच्चे डीपफेक का शिकार बने

😔 रिपोर्ट के अनुसार, मासूम बच्चों की तस्वीरों को
👉 AI की मदद से
👉 अश्लील और आपत्तिजनक रूप में बदला गया।


🌍 11 देशों में किया गया अध्ययन

यूनिसेफ ने यह अध्ययन
📆 2023 के अंत से 2025 की शुरुआत तक
🌎 11 देशों में किया।

इसमें शामिल क्षेत्र—

  • एशिया
  • अफ्रीका
  • लैटिन अमेरिका
  • यूरोप

📌 अध्ययन में
👉 12 से 17 वर्ष आयु के
👉 50,000 से अधिक बच्चे और उनके माता-पिता शामिल थे।

⚠️ कई देशों में पाया गया कि
👉 हर 25 में से एक बच्चा डीपफेक का शिकार हुआ।


🤖 क्या है डीपफेक?

डीपफेक AI तकनीक का ऐसा उपयोग है, जिसमें—

WhatsApp Channel Join Now
WhatsApp Group Join Now
Telegram Channel Join Now

🧠 किसी व्यक्ति के

  • चेहरे के हावभाव
  • आवाज
  • शारीरिक भाषा
  • बोलने के तरीके

को कॉपी करके
👉 नकली वीडियो, फोटो या ऑडियो तैयार किया जाता है।

❗ इतना खतरनाक कि
👉 असली और नकली में फर्क करना बेहद मुश्किल हो जाता है।


👧 लड़कियां ज्यादा प्रभावित

रिपोर्ट के आंकड़े बेहद चिंताजनक हैं—

🔹 90% से अधिक मामले
👉 उन देशों में सामने आए
👉 जहां AI को लेकर सख्त कानून नहीं हैं

🔹 इंटरनेट पर मौजूद
👉 50% से अधिक सामग्री
👉 ऐसी है, जिसमें असली-नकली की पहचान मुश्किल है

📊 पीड़ितों का विभाजन—

  • 64% लड़कियां 👉 नूडिफिकेशन की शिकार
  • 36% लड़के 👉 आर्थिक सेक्सटॉर्शन के शिकार

🔍 डीपफेक के 3 खतरनाक तरीके

1️⃣ फेस स्वैपिंग

➡️ किसी और के शरीर पर किसी बच्चे का चेहरा लगा देना

2️⃣ नूडिफिकेशन

➡️ फोटो से कपड़े हटाकर
➡️ AI से अश्लील तस्वीर बनाना

3️⃣ वॉइस क्लोनिंग

➡️ बच्चे या परिजन की आवाज की नकल
➡️ फर्जी कॉल या ऑडियो संदेश भेजना


⚖️ किन देशों में सख्त कानून?

🇮🇳 भारत

📜 POCSO एक्ट के तहत—

  • बाल यौन शोषण सामग्री देखना या रखना अपराध
  • डीपफेक कंटेंट 24 घंटे में हटाना अनिवार्य

🇺🇸 अमेरिका

📜 DEFEND Act और TAKE IT DOWN Act

  • AI-जनरेटेड बाल शोषण सामग्री को अवैध घोषित

🇬🇧 ब्रिटेन

📜 Online Safety Act

  • डीपफेक अश्लील सामग्री बनाना और साझा करना अपराध

🧑‍🏫 अभिभावकों और शिक्षकों के लिए चेतावनी

🚨 यह खतरा केवल तकनीकी नहीं, मानसिक और सामाजिक भी है।

जरूरी है कि—

  • बच्चों को डिजिटल जागरूकता सिखाई जाए
  • उनकी ऑनलाइन गतिविधियों पर नजर रखी जाए
  • किसी भी संदिग्ध फोटो/वीडियो पर
    👉 तुरंत शिकायत की जाए

✍️ सरकारी कलम की राय

AI का विकास
👉 मानवता के लिए वरदान होना चाहिए,
👉 बच्चों के लिए अभिशाप नहीं।

🛑 डीपफेक जैसे अपराध
केवल तकनीकी समस्या नहीं,
👉 मानव अधिकार और बाल सुरक्षा का गंभीर मुद्दा हैं।

सरकारी कलम मांग करता है—

  • भारत समेत सभी देशों में
    👉 AI पर सख्त कानून
    👉 तेज कार्रवाई
    👉 और बच्चों की डिजिटल सुरक्षा को
    राष्ट्रीय प्राथमिकता बनाया जाए।

📌 बच्चों, शिक्षा, तकनीक और समाज से जुड़ी हर अहम खबर के लिए पढ़ते रहें —
👉 www.sarkarikalam.com

✍️ सरकारी कलम | बच्चों की सुरक्षा के पक्ष में 🛡️📚

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top