क्यों अमेरिकी रक्षा विभाग के निशाने पर आ गई Anthropic
AI कंपनी एंथ्रोपिक ने स्वायत्त हथियारों और निगरानी में तकनीक देने से इनकार किया, जिससे अमेरिकी रक्षा विभाग से बड़ा विवाद

वाईबीएन डेस्क, नई दिल्ली।
आर्टिफिशल इंटेलिजेंस (AI) की दुनिया में पिछले कुछ वर्षों में कई बड़ी कंपनियां तेजी से उभरी हैं, लेकिन उनमें से एक कंपनी Anthropic लंबे समय तक अपेक्षाकृत शांत और कम चर्चा में रहने वाली कंपनी मानी जाती थी। लगभग 350 अरब डॉलर के मूल्यांकन वाली यह कंपनी तकनीकी दुनिया में प्रभावशाली जरूर थी, लेकिन आम जनता के बीच उतनी चर्चित नहीं थी जितनी OpenAI या ईलॉन मस्क की xAI।
हालांकि हाल के हफ्तों में स्थिति अचानक बदल गई। Anthropic और अमेरिकी रक्षा विभाग (Pentagon) के बीच एक बड़ा विवाद सामने आया है। कंपनी ने अपनी AI प्रणाली Claude को घरेलू निगरानी (mass surveillance) और ऐसे स्वायत्त हथियारों में इस्तेमाल करने की अनुमति देने से इनकार कर दिया, जो बिना मानवीय हस्तक्षेप के लोगों को मार सकते हैं।
इस फैसले ने तकनीकी उद्योग और अमेरिकी सरकार के बीच एक बड़े टकराव को जन्म दिया है। यह विवाद न केवल AI के सैन्य उपयोग को लेकर चल रही बहस को तेज कर रहा है, बल्कि यह भी दिखाता है कि आने वाले समय में युद्ध और तकनीक का रिश्ता कितना जटिल हो सकता है।
Anthropic क्या है और क्यों चर्चा में है
Anthropic एक अमेरिकी कृत्रिम बुद्धिमत्ता कंपनी है, जिसकी स्थापना 2021 में हुई थी। इसका प्रमुख उत्पाद Claude नाम का AI चैटबॉट है, जिसे ChatGPT का प्रमुख प्रतिस्पर्धी माना जाता है।
इस कंपनी की स्थापना OpenAI के पूर्व शोधकर्ता डारियो अमोडेई और उनकी बहन डेनिएला अमोडेई ने की थी। दोनों पहले OpenAI में काम करते थे, लेकिन AI के विकास और सुरक्षा से जुड़ी चिंताओं के कारण उन्होंने अलग होकर Anthropic की शुरुआत की।
कंपनी की शुरुआत एक खास उद्देश्य के साथ हुई थी—ऐसी AI तकनीक बनाना जो सुरक्षित हो और मानवता के लिए जोखिम पैदा न करे। Anthropic ने अपने AI मॉडल के लिए एक तरह का “संविधान” तैयार किया, जिसमें कई नैतिक सिद्धांत शामिल हैं।
Pentagon के साथ कैसे हुआ विवाद
अमेरिकी रक्षा विभाग लंबे समय से AI तकनीक का इस्तेमाल अपने सैन्य अभियानों में करना चाहता है। इसके लिए उसने कई तकनीकी कंपनियों के साथ समझौते किए हैं।
Anthropic ने भी पहले कुछ सैन्य परियोजनाओं में हिस्सा लिया था। कंपनी ने 2024 में डेटा एनालिटिक्स कंपनी Palantir के साथ साझेदारी की, जिससे उसका AI सिस्टम Claude सैन्य विश्लेषण और खुफिया कार्यों में इस्तेमाल किया जा सके।
इसके बाद 2025 में अमेरिकी रक्षा विभाग ने कई AI कंपनियों के साथ लगभग 200 मिलियन डॉलर का समझौता किया। इसका उद्देश्य सैन्य अभियानों में AI टूल्स का इस्तेमाल बढ़ाना था।
लेकिन हाल के महीनों में Pentagon ने Anthropic से मांग की कि वह अपने AI मॉडल पर लगी कुछ सुरक्षा सीमाओं को ढीला करे ताकि इसे व्यापक सैन्य उपयोग में लाया जा सके।
यहीं से विवाद शुरू हुआ। Anthropic ने ऐसी तकनीकों के लिए सहमति देने से इनकार कर दिया जिनमें AI को बिना मानवीय नियंत्रण के हमला करने की क्षमता दी जा सकती थी।
अमेरिकी सरकार की कड़ी प्रतिक्रिया
Anthropic के इनकार के बाद अमेरिकी रक्षा विभाग ने कंपनी पर कड़ा रुख अपनाया।
अमेरिकी रक्षा मंत्री पीट हेगसेथ ने कंपनी पर “अहंकार” और “देश के साथ विश्वासघात” जैसे आरोप लगाए। उन्होंने यह भी कहा कि जो कंपनियां अमेरिकी सरकार के साथ काम करती हैं, उन्हें Anthropic के साथ अपने व्यावसायिक संबंध खत्म करने चाहिए।
कुछ दिनों बाद रक्षा विभाग ने Anthropic को “सप्लाई चेन जोखिम” घोषित कर दिया। यह पहली बार था जब किसी अमेरिकी तकनीकी कंपनी को इस तरह की श्रेणी में रखा गया।
अगर यह निर्णय पूरी तरह लागू होता है तो इससे कंपनी के वित्तीय और कारोबारी भविष्य पर गंभीर असर पड़ सकता है।
इस विवाद ने एक बड़े सवाल को फिर से सामने ला दिया है—क्या AI को युद्ध में स्वायत्त हथियार के रूप में इस्तेमाल किया जाना चाहिए?
आज कई देशों की सेनाएं AI का इस्तेमाल निगरानी, डेटा विश्लेषण और लक्ष्य पहचान के लिए कर रही हैं।
रिपोर्टों के अनुसार अमेरिकी सेना ईरान से जुड़े सैन्य अभियानों में भी AI सिस्टम का इस्तेमाल कर रही है। कुछ मामलों में AI आधारित विश्लेषण से यह तय किया जाता है कि किन ठिकानों पर हमला किया जाए।
हालांकि अंतिम निर्णय अक्सर इंसानों के हाथ में होता है, लेकिन विशेषज्ञों को डर है कि भविष्य में AI को पूरी तरह स्वायत्त हथियारों में बदल दिया जा सकता है।
Anthropic की सुरक्षा पहले नीति
Anthropic खुद को AI सुरक्षा और शोध कंपनी के रूप में प्रस्तुत करती है। कंपनी के संस्थापक डारियो अमोडेई लंबे समय से AI के संभावित खतरों को लेकर चेतावनी देते रहे हैं। उन्होंने कई बार AI की तुलना परमाणु हथियारों के विकास से की है।
उनका मानना है कि अगर AI को बिना नियंत्रण के विकसित किया गया तो यह मानवता के लिए गंभीर खतरा बन सकता है। 2024 में उन्होंने एक लेख में भविष्य की कल्पना की थी जिसमें AI कैंसर जैसी बीमारियों को खत्म कर सकता है और वैश्विक असमानता को कम कर सकता है। हालांकि उन्होंने यह भी स्वीकार किया कि AI जरूरी नहीं कि लोकतंत्र या शांति को मजबूत करे।
Anthropic का मामला तकनीकी कंपनियों के सामने मौजूद एक बड़ी दुविधा को भी उजागर करता है। कई तकनीकें ऐसी होती हैं जिन्हें “डुअल-यूज टेक्नोलॉजी” कहा जाता है। इसका मतलब है कि एक ही तकनीक का उपयोग नागरिक और सैन्य दोनों उद्देश्यों के लिए किया जा सकता है। उदाहरण के तौर पर, एक AI मॉडल जो तस्वीर में पक्षी पहचान सकता है, वही तकनीक युद्ध के दौरान लोगों या वाहनों की पहचान के लिए भी इस्तेमाल हो सकती है। इस कारण कंपनियों के लिए यह तय करना मुश्किल हो जाता है कि उनकी तकनीक का इस्तेमाल किस हद तक स्वीकार्य है।
इस विवाद में राजनीति का भी बड़ा असर दिखाई दे रहा है। Anthropic के कुछ अधिकारियों के अमेरिकी राजनीति से जुड़े संबंध हैं और कंपनी के संस्थापक डारियो अमोडेई ने सार्वजनिक रूप से डोनाल्ड ट्रंप की आलोचना की है।
दूसरी ओर, ट्रंप प्रशासन तकनीकी कंपनियों पर अधिक नियंत्रण और सैन्य सहयोग की मांग करता रहा है। इसी वजह से यह विवाद केवल तकनीकी या नैतिक मुद्दा नहीं रह गया है बल्कि राजनीतिक संघर्ष का रूप भी ले चुका है।
आगे क्या हो सकता है
Anthropic ने रक्षा विभाग के फैसले को अदालत में चुनौती देने की बात कही है। साथ ही रिपोर्टों के अनुसार कंपनी और Pentagon के बीच बातचीत फिर से शुरू हो सकती है ताकि किसी समझौते का रास्ता निकाला जा सके।
हालांकि यह विवाद एक बड़े सवाल को खुला छोड़ देता है—AI जैसी शक्तिशाली तकनीक का अंतिम नियंत्रण किसके हाथ में होना चाहिए: सरकारों के या तकनीकी कंपनियों के? इसका जवाब आने वाले वर्षों में वैश्विक राजनीति और युद्ध की दिशा तय कर सकता है।


