Top
Begin typing your search above and press return to search.

क्यों अमेरिकी रक्षा विभाग के निशाने पर आ गई Anthropic

AI कंपनी एंथ्रोपिक ने स्वायत्त हथियारों और निगरानी में तकनीक देने से इनकार किया, जिससे अमेरिकी रक्षा विभाग से बड़ा विवाद

Mishra
क्यों अमेरिकी रक्षा विभाग के निशाने पर आ गई Anthropic
X

वाईबीएन डेस्क, नई दिल्ली।

आर्टिफिशल इंटेलिजेंस (AI) की दुनिया में पिछले कुछ वर्षों में कई बड़ी कंपनियां तेजी से उभरी हैं, लेकिन उनमें से एक कंपनी Anthropic लंबे समय तक अपेक्षाकृत शांत और कम चर्चा में रहने वाली कंपनी मानी जाती थी। लगभग 350 अरब डॉलर के मूल्यांकन वाली यह कंपनी तकनीकी दुनिया में प्रभावशाली जरूर थी, लेकिन आम जनता के बीच उतनी चर्चित नहीं थी जितनी OpenAI या ईलॉन मस्क की xAI।

हालांकि हाल के हफ्तों में स्थिति अचानक बदल गई। Anthropic और अमेरिकी रक्षा विभाग (Pentagon) के बीच एक बड़ा विवाद सामने आया है। कंपनी ने अपनी AI प्रणाली Claude को घरेलू निगरानी (mass surveillance) और ऐसे स्वायत्त हथियारों में इस्तेमाल करने की अनुमति देने से इनकार कर दिया, जो बिना मानवीय हस्तक्षेप के लोगों को मार सकते हैं।

इस फैसले ने तकनीकी उद्योग और अमेरिकी सरकार के बीच एक बड़े टकराव को जन्म दिया है। यह विवाद न केवल AI के सैन्य उपयोग को लेकर चल रही बहस को तेज कर रहा है, बल्कि यह भी दिखाता है कि आने वाले समय में युद्ध और तकनीक का रिश्ता कितना जटिल हो सकता है।

Anthropic क्या है और क्यों चर्चा में है

Anthropic एक अमेरिकी कृत्रिम बुद्धिमत्ता कंपनी है, जिसकी स्थापना 2021 में हुई थी। इसका प्रमुख उत्पाद Claude नाम का AI चैटबॉट है, जिसे ChatGPT का प्रमुख प्रतिस्पर्धी माना जाता है।


इस कंपनी की स्थापना OpenAI के पूर्व शोधकर्ता डारियो अमोडेई और उनकी बहन डेनिएला अमोडेई ने की थी। दोनों पहले OpenAI में काम करते थे, लेकिन AI के विकास और सुरक्षा से जुड़ी चिंताओं के कारण उन्होंने अलग होकर Anthropic की शुरुआत की।

कंपनी की शुरुआत एक खास उद्देश्य के साथ हुई थी—ऐसी AI तकनीक बनाना जो सुरक्षित हो और मानवता के लिए जोखिम पैदा न करे। Anthropic ने अपने AI मॉडल के लिए एक तरह का “संविधान” तैयार किया, जिसमें कई नैतिक सिद्धांत शामिल हैं।

Pentagon के साथ कैसे हुआ विवाद

अमेरिकी रक्षा विभाग लंबे समय से AI तकनीक का इस्तेमाल अपने सैन्य अभियानों में करना चाहता है। इसके लिए उसने कई तकनीकी कंपनियों के साथ समझौते किए हैं।

Anthropic ने भी पहले कुछ सैन्य परियोजनाओं में हिस्सा लिया था। कंपनी ने 2024 में डेटा एनालिटिक्स कंपनी Palantir के साथ साझेदारी की, जिससे उसका AI सिस्टम Claude सैन्य विश्लेषण और खुफिया कार्यों में इस्तेमाल किया जा सके।

इसके बाद 2025 में अमेरिकी रक्षा विभाग ने कई AI कंपनियों के साथ लगभग 200 मिलियन डॉलर का समझौता किया। इसका उद्देश्य सैन्य अभियानों में AI टूल्स का इस्तेमाल बढ़ाना था।


लेकिन हाल के महीनों में Pentagon ने Anthropic से मांग की कि वह अपने AI मॉडल पर लगी कुछ सुरक्षा सीमाओं को ढीला करे ताकि इसे व्यापक सैन्य उपयोग में लाया जा सके।

यहीं से विवाद शुरू हुआ। Anthropic ने ऐसी तकनीकों के लिए सहमति देने से इनकार कर दिया जिनमें AI को बिना मानवीय नियंत्रण के हमला करने की क्षमता दी जा सकती थी।

अमेरिकी सरकार की कड़ी प्रतिक्रिया

Anthropic के इनकार के बाद अमेरिकी रक्षा विभाग ने कंपनी पर कड़ा रुख अपनाया।

अमेरिकी रक्षा मंत्री पीट हेगसेथ ने कंपनी पर “अहंकार” और “देश के साथ विश्वासघात” जैसे आरोप लगाए। उन्होंने यह भी कहा कि जो कंपनियां अमेरिकी सरकार के साथ काम करती हैं, उन्हें Anthropic के साथ अपने व्यावसायिक संबंध खत्म करने चाहिए।

कुछ दिनों बाद रक्षा विभाग ने Anthropic को “सप्लाई चेन जोखिम” घोषित कर दिया। यह पहली बार था जब किसी अमेरिकी तकनीकी कंपनी को इस तरह की श्रेणी में रखा गया।

अगर यह निर्णय पूरी तरह लागू होता है तो इससे कंपनी के वित्तीय और कारोबारी भविष्य पर गंभीर असर पड़ सकता है।


इस विवाद ने एक बड़े सवाल को फिर से सामने ला दिया है—क्या AI को युद्ध में स्वायत्त हथियार के रूप में इस्तेमाल किया जाना चाहिए?

आज कई देशों की सेनाएं AI का इस्तेमाल निगरानी, डेटा विश्लेषण और लक्ष्य पहचान के लिए कर रही हैं।

रिपोर्टों के अनुसार अमेरिकी सेना ईरान से जुड़े सैन्य अभियानों में भी AI सिस्टम का इस्तेमाल कर रही है। कुछ मामलों में AI आधारित विश्लेषण से यह तय किया जाता है कि किन ठिकानों पर हमला किया जाए।

हालांकि अंतिम निर्णय अक्सर इंसानों के हाथ में होता है, लेकिन विशेषज्ञों को डर है कि भविष्य में AI को पूरी तरह स्वायत्त हथियारों में बदल दिया जा सकता है।

Anthropic की सुरक्षा पहले नीति

Anthropic खुद को AI सुरक्षा और शोध कंपनी के रूप में प्रस्तुत करती है। कंपनी के संस्थापक डारियो अमोडेई लंबे समय से AI के संभावित खतरों को लेकर चेतावनी देते रहे हैं। उन्होंने कई बार AI की तुलना परमाणु हथियारों के विकास से की है।

उनका मानना है कि अगर AI को बिना नियंत्रण के विकसित किया गया तो यह मानवता के लिए गंभीर खतरा बन सकता है। 2024 में उन्होंने एक लेख में भविष्य की कल्पना की थी जिसमें AI कैंसर जैसी बीमारियों को खत्म कर सकता है और वैश्विक असमानता को कम कर सकता है। हालांकि उन्होंने यह भी स्वीकार किया कि AI जरूरी नहीं कि लोकतंत्र या शांति को मजबूत करे।

Anthropic का मामला तकनीकी कंपनियों के सामने मौजूद एक बड़ी दुविधा को भी उजागर करता है। कई तकनीकें ऐसी होती हैं जिन्हें “डुअल-यूज टेक्नोलॉजी” कहा जाता है। इसका मतलब है कि एक ही तकनीक का उपयोग नागरिक और सैन्य दोनों उद्देश्यों के लिए किया जा सकता है। उदाहरण के तौर पर, एक AI मॉडल जो तस्वीर में पक्षी पहचान सकता है, वही तकनीक युद्ध के दौरान लोगों या वाहनों की पहचान के लिए भी इस्तेमाल हो सकती है। इस कारण कंपनियों के लिए यह तय करना मुश्किल हो जाता है कि उनकी तकनीक का इस्तेमाल किस हद तक स्वीकार्य है।

इस विवाद में राजनीति का भी बड़ा असर दिखाई दे रहा है। Anthropic के कुछ अधिकारियों के अमेरिकी राजनीति से जुड़े संबंध हैं और कंपनी के संस्थापक डारियो अमोडेई ने सार्वजनिक रूप से डोनाल्ड ट्रंप की आलोचना की है।

दूसरी ओर, ट्रंप प्रशासन तकनीकी कंपनियों पर अधिक नियंत्रण और सैन्य सहयोग की मांग करता रहा है। इसी वजह से यह विवाद केवल तकनीकी या नैतिक मुद्दा नहीं रह गया है बल्कि राजनीतिक संघर्ष का रूप भी ले चुका है।

आगे क्या हो सकता है

Anthropic ने रक्षा विभाग के फैसले को अदालत में चुनौती देने की बात कही है। साथ ही रिपोर्टों के अनुसार कंपनी और Pentagon के बीच बातचीत फिर से शुरू हो सकती है ताकि किसी समझौते का रास्ता निकाला जा सके।

हालांकि यह विवाद एक बड़े सवाल को खुला छोड़ देता है—AI जैसी शक्तिशाली तकनीक का अंतिम नियंत्रण किसके हाथ में होना चाहिए: सरकारों के या तकनीकी कंपनियों के? इसका जवाब आने वाले वर्षों में वैश्विक राजनीति और युद्ध की दिशा तय कर सकता है।


Related Stories
Next Story
All Rights Reserved. Copyright @2019
Powered By Hocalwire