Site icon 24 News Update

वित्त मंत्रालय में बैन हुए सभी एआई टूल्स, सुरक्षा व गोपनीयता को खतरा

Advertisements

24 न्यूज अपडेट, नई दिल्ली। वित्त मंत्रालय ने अपने कर्मचारियों के लिए एक महत्वपूर्ण निर्णय लिया है, जिसमें चैटजीपीटी और डीपसीक जैसे एआई टूल्स के उपयोग पर रोक लगा दी गई है। मंत्रालय ने यह कदम गोपनीय जानकारी की सुरक्षा को ध्यान में रखते हुए उठाया है, क्योंकि इन एआई टूल्स का इस्तेमाल करने से संवेदनशील डेटा लीक होने का खतरा हो सकता है। यह आदेश मंत्रालय के सभी विभागों पर लागू होगा, और इसके तहत कर्मचारियों को मंत्रालय द्वारा प्रदान किए गए कंप्यूटर, लैपटॉप और टैबलेट जैसे ऑफिस डिवाइस में इन टूल्स का इस्तेमाल करने की अनुमति नहीं होगी।
29 जनवरी को जारी किए गए आदेश के अनुसार, इस निर्णय का उद्देश्य मंत्रालय के अंदर काम कर रहे कर्मचारियों की गोपनीयता और डेटा सुरक्षा सुनिश्चित करना है। यह आदेश खासतौर पर ऐसे समय पर आया है जब ओपनएआई के ब्म्व् सैम ऑल्टमैन भारत दौरे पर हैं और उन्होंने कई सरकारी अधिकारियों से मुलाकात की थी। चैटजीपीटी को ओपनएआई ने ही विकसित किया है और इसे हाल ही में कई देशों में गोपनीयता के मुद्दों को लेकर प्रतिबंधित किया गया है, जैसे ऑस्ट्रेलिया और इटली ने भी इसी तरह के कदम उठाए हैं।
इस कदम का उद्देश्य मंत्रालय के संवेदनशील दस्तावेजों और सूचनाओं को साइबर सुरक्षा खतरों से बचाना है, क्योंकि एआई टूल्स का उपयोग कभी-कभी जानकारी लीक करने का कारण बन सकता है।
सरकारी तंत्र में AI टूल्स के उपयोग से कई संभावित खतरे उत्पन्न हो सकते हैं। जबकि AI टूल्स कार्य दक्षता बढ़ाने और निर्णय लेने की प्रक्रिया को तेज करने में मददगार हैं, उनके अंधाधुंध उपयोग से गोपनीयता और सुरक्षा संबंधी गंभीर चिंताएं भी पैदा होती हैं। यहाँ उन प्रमुख खतरों पर विस्तृत विवरण दिया गया है:

  1. गोपनीय सूचनाओं का लीक होना:
    सरकारी विभाग संवेदनशील और गोपनीय सूचनाओं के संरक्षक होते हैं। चैटजीपीटी जैसे एआई टूल्स का उपयोग करने पर यह खतरा रहता है कि संवेदनशील डेटा बाहरी सर्वरों पर संग्रहीत हो सकता है या अनजाने में सार्वजनिक डोमेन में लीक हो जाए।
  2. साइबर सुरक्षा जोखिम:
    AI टूल्स को संचालित करने के लिए इंटरनेट कनेक्टिविटी की आवश्यकता होती है, जिससे साइबर हमलों और डेटा चोरी का जोखिम बढ़ता है। साइबर अपराधी सरकारी जानकारी को निशाना बना सकते हैं।
  3. गलत सूचना और पूर्वाग्रह:
    AI टूल्स को उनके प्रशिक्षण डेटा पर आधारित निर्णय लेने के लिए डिज़ाइन किया जाता है। यदि प्रशिक्षण डेटा पक्षपाती या त्रुटिपूर्ण है, तो यह गलत निर्णय और नीतिगत दिशानिर्देश प्रदान कर सकता है।
  4. राष्ट्रीय सुरक्षा के लिए खतरा:
    कुछ विदेशी AI टूल्स का संचालन उन देशों की कंपनियों द्वारा किया जाता है जो भारतीय राष्ट्रीय सुरक्षा के लिए खतरा हो सकते हैं। संवेदनशील डेटा का इन कंपनियों के पास जाना राष्ट्रीय सुरक्षा को खतरे में डाल सकता है।
  5. डेटा निजता कानूनों का उल्लंघन:
    सरकारी तंत्र में AI टूल्स का उपयोग डेटा सुरक्षा और निजता कानूनों का उल्लंघन कर सकता है। इससे सरकारी संस्थानों की प्रतिष्ठा और वैधानिक जिम्मेदारी पर असर पड़ सकता है।
  6. कर्मचारियों की भूमिका और निर्णय लेने की स्वायत्तता पर असर:
    AI के अत्यधिक उपयोग से सरकारी कर्मचारियों की निर्णय लेने की क्षमता कमजोर हो सकती है, जिससे संस्थान की स्वायत्तता प्रभावित हो सकती है।
  7. मानव त्रुटि और एआई निर्भरता:
    कभी-कभी कर्मचारी AI टूल्स पर पूरी तरह निर्भर हो सकते हैं, जिससे मानवीय विवेक के बिना गलत नीतिगत निर्णय लिए जा सकते हैं।
  8. नैतिकता और पारदर्शिता:
    AI टूल्स के निर्णय लेने की प्रक्रिया पारदर्शी नहीं होती। यह नैतिकता के सवाल उठाता है कि क्या महत्वपूर्ण सरकारी निर्णयों को एक ऐसे टूल के माध्यम से संचालित किया जाना चाहिए जिसका कामकाज हमेशा स्पष्ट नहीं होता।
Exit mobile version