डेमोक्रेट पर हाउस ओवरसाइट कमेटी ने बुधवार सुबह दो दर्जन अनुरोधों को निकाल दिया और संघीय एजेंसी नेताओं को सरकार के कर्मचारियों के कार्यबल में चल रहे कटौती के बीच संघीय एजेंसियों में एआई सॉफ्टवेयर स्थापित करने की योजना के बारे में जानकारी के लिए दबाव डाला।
पूछताछ का बैराज वायर्ड द्वारा हाल की रिपोर्टिंग का पालन करता है और वाशिंगटन पोस्ट एलोन मस्क के तथाकथित सरकारी दक्षता विभाग (DOGE) द्वारा विभिन्न प्रकार के मालिकाना AI उपकरणों के साथ कार्यों को स्वचालित करने और संवेदनशील डेटा तक पहुंचने के प्रयासों के बारे में।
“अमेरिकी लोग संघीय सरकार को अपने स्वास्थ्य, वित्त, और अन्य जीवनी संबंधी जानकारी से संबंधित संवेदनशील व्यक्तिगत जानकारी के साथ इस आधार पर सौंपते हैं कि इस जानकारी का खुलासा नहीं किया जाएगा या उनकी सहमति के बिना अनुचित तरीके से उपयोग नहीं किया जाएगा,” अनुरोधों ने पढ़ा, “एक अप्रभावित और अस्वीकार्य तृतीय-पक्ष एआई सॉफ्टवेयर के उपयोग के माध्यम से शामिल है।”
पहले वायर्ड द्वारा प्राप्त अनुरोध, वर्जीनिया के एक डेमोक्रेटिक कांग्रेसी गेराल्ड कोनोली द्वारा हस्ताक्षरित हैं।
अनुरोधों का केंद्रीय उद्देश्य एजेंसियों को यह प्रदर्शित करने में दबाना है कि एआई का कोई भी संभावित उपयोग कानूनी है और अमेरिकियों के निजी डेटा को सुरक्षित रखने के लिए कदम उठाए जा रहे हैं। डेमोक्रेट्स यह भी जानना चाहते हैं कि क्या एआई का कोई भी उपयोग आर्थिक रूप से मस्क को लाभान्वित करेगा, जिन्होंने XAI की स्थापना की और जिनकी परेशान इलेक्ट्रिक कार कंपनी, टेस्ला, रोबोटिक्स और एआई की ओर पिवट करने के लिए काम कर रही है। डेमोक्रेट आगे चिंतित हैं, कोनोली कहते हैं, कि मस्क व्यक्तिगत संवर्धन के लिए संवेदनशील सरकारी डेटा तक अपनी पहुंच का उपयोग कर सकता है, डेटा को अपने स्वयं के मालिकाना एआई मॉडल को “सुपरचार्ज” करने के लिए, जिसे ग्रोक के रूप में जाना जाता है।
अनुरोधों में, कॉनॉली ने नोट किया कि संघीय एजेंसियां ”एआई सॉफ्टवेयर के अपने उपयोग में कई वैधानिक आवश्यकताओं से बंधी हैं,” मुख्य रूप से संघीय जोखिम और प्राधिकरण प्रबंधन कार्यक्रम की ओर इशारा करते हुए, जो क्लाउड सेवाओं के लिए सरकार के दृष्टिकोण को मानकीकृत करने और एआई-आधारित उपकरणों को सुरक्षा जोखिमों के लिए ठीक से मूल्यांकन करने के लिए काम करती है। वह एडवांसिंग अमेरिकन एआई एक्ट की ओर भी इशारा करता है, जो आवश्यक है संघीय एजेंसियां ”एजेंसी के कृत्रिम बुद्धिमत्ता उपयोग के मामलों की एक सूची तैयार करने और बनाए रखने के लिए,” साथ ही साथ “जनता के लिए एजेंसी आविष्कार करें।”
पिछले हफ्ते वायर्ड द्वारा प्राप्त दस्तावेजों से पता चलता है कि डोगे ऑपरेटिव्स ने लगभग 1,500 संघीय श्रमिकों के लिए GSAI नामक एक मालिकाना चैटबॉट को तैनात किया है। जीएसए संघीय सरकारी संपत्तियों की देखरेख करता है और कई एजेंसियों को सूचना प्रौद्योगिकी सेवाओं की आपूर्ति करता है।
वायर्ड संवाददाताओं द्वारा प्राप्त एक ज्ञापन से पता चलता है कि कर्मचारियों को सॉफ्टवेयर को किसी भी नियंत्रित अवर्गीकृत जानकारी को खिलाने के खिलाफ चेतावनी दी गई है। वायर्ड द्वारा देखे गए दस्तावेजों के अनुसार, ट्रेजरी एंड हेल्थ एंड ह्यूमन सर्विसेज के विभागों सहित अन्य एजेंसियों ने एक चैटबॉट का उपयोग करने पर विचार किया है, हालांकि जरूरी नहीं कि जीएसएआई।
वायर्ड ने यह भी बताया है कि यूनाइटेड स्टेट्स आर्मी वर्तमान में विविधता, इक्विटी, समावेशन और एक्सेसिबिलिटी के किसी भी संदर्भ के लिए अपने रिकॉर्ड सिस्टम को स्कैन करने के लिए सॉफ्टवेयर डब किए गए Camogpt का उपयोग कर रहा है। सेना के एक प्रवक्ता ने उपकरण के अस्तित्व की पुष्टि की, लेकिन सेना के उपयोग की योजना कैसे बनाई गई, इस बारे में अधिक जानकारी प्रदान करने से इनकार कर दिया।
अनुरोधों में, कोनोली लिखती है कि शिक्षा विभाग के पास संघीय छात्र सहायता कार्यक्रमों से जुड़े 43 मिलियन से अधिक लोगों के बारे में व्यक्तिगत रूप से पहचान योग्य जानकारी है। “अपारदर्शी और उन्मत्त गति के कारण जिस पर डोगे का संचालन होता है,” वह लिखते हैं, “मैं गहराई से चिंतित हूं कि छात्रों, माता -पिता, माता -पिता, जीवनसाथी, परिवार के सदस्यों ‘और अन्य सभी उधारकर्ताओं की संवेदनशील जानकारी को डोगी टीम के गुप्त सदस्यों द्वारा अस्पष्ट प्रयोजनों के लिए और बिना किसी सुरक्षा के, अस्वाभाविक उपयोग को रोकने के लिए संभाला जा रहा है।” वाशिंगटन पोस्ट पहले रिपोर्ट किया गया था उस डोगे ने अपने खर्च का विश्लेषण करने के लिए शिक्षा विभाग में रिकॉर्ड सिस्टम से खींचे गए संवेदनशील संघीय डेटा को खिलाना शुरू कर दिया था।
शिक्षा सचिव लिंडा मैकमोहन ने मंगलवार को कहा कि वह विभाग में एक हजार से अधिक श्रमिकों को आग लगाने की योजना के साथ आगे बढ़ रही थी, सैकड़ों अन्य लोग जिसने पिछले महीने डोगे “बायआउट्स” को स्वीकार किया था। शिक्षा विभाग ने अपने कार्यबल का लगभग आधा हिस्सा खो दिया है – पहला कदम, मैकमोहन कहते हैंपूरी तरह से एजेंसी को समाप्त करने में।
कोनोली ने लिखा है, “संवेदनशील डेटा का मूल्यांकन करने के लिए एआई का उपयोग अनुचित प्रकटीकरण से परे गंभीर खतरों से भरा हुआ है,” चेतावनी देते हुए, चेतावनी देते हुए कि “उपयोग किए गए इनपुट और विश्लेषण के लिए चुने गए मापदंडों को त्रुटिपूर्ण किया जा सकता है, एआई सॉफ्टवेयर के डिजाइन के माध्यम से त्रुटियों को पेश किया जा सकता है, और कर्मचारी अन्य चिंताओं के बीच एआई सिफारिशों को गलत समझ सकते हैं।”
वह कहते हैं: “एआई के उपयोग के पीछे स्पष्ट उद्देश्य के बिना, डेटा की उचित हैंडलिंग सुनिश्चित करने के लिए रेलिंग, और पर्याप्त ओवरसाइट और पारदर्शिता, एआई का आवेदन खतरनाक है और संभावित रूप से संघीय कानून का उल्लंघन करता है।”
Leave a Reply