مصنوعی ذہانت کمپنی انتھروپک نے کہا ہے کہ وہ امریکی محکمہ دفاع کی اس درخواست پر عمل نہیں کرے گی جس میں اس کے AI نظاموں کی حفاظتی پابندیاں نرم کرنے کا کہا گیا تھا، اور اس نے بڑے پیمانے پر نگرانی اور خودکار ہتھیاروں کے خدشات کا حوالہ دیا۔
جمعرات کو ایک بیان میں، سی ای او ڈاریو اموڈی نے کہا کہ کمپنی اپنے AI ماڈل کلاؤڈ کو "بڑے پیمانے پر مقامی نگرانی" یا "مکمل طور پر خودکار ہتھیاروں" کے لیے استعمال کرنے کی اجازت دینے کی مخالفت کرتی ہے۔
انہوں نے کہا کہ جدید AI نظام ایسے ہتھیار انسانی نگرانی کے بغیر چلانے کے لیے اتنے قابلِ اعتماد نہیں ہیں اور ان کے لیے ایسی حفاظتی تدابیر درکار ہیں جو "آج موجود نہیں"۔
انہوں نے یہ بھی کہا کہ AI قومی سلامتی کی معاونت کر سکتا ہے، مگر خبردار کیا کہ بڑے پیمانے پر AI پر مبنی نگرانی شہری آزادیوں کے لیے خطرہ بن سکتی ہے۔
انتھروپک اور پینٹاگون کئی ہفتوں سے مذاکرات کر رہے ہیں۔
ٹرمپ انتظامیہ نے دفاعی پیداواری ایکٹ کے تحت عمل کرنے کی دھمکی دی ہے، جو حکومت کو کمپنیوں کو قومی دفاعی ضروریات کو ترجیح دینے پر مجبور کرنے کی اجازت دیتا ہے، اور اس نے انتھروپک کو "سپلائی چین رسک" قرار دینے پر غور کیا ہے۔ ایسی درجہ بندی محکمہ دفاع کے ٹھیکیداروں کو اس کا سافٹ ویئر استعمال کرنے سے روک دے گی۔
Axios نے رپورٹ کیا کہ پینٹاگون نے اس درجہ بندی کی طرف قدم اٹھانے شروع کر دیے ہیں اور بوئنگ اور لاک ہیڈ مارٹن سے پوچھا ہے کہ وہ کلاؤڈ پر اپنے انحصار کی تفصیل بتائیں۔
پینٹاگون کے ترجمان شان پارنل نے انکار کیا ہے کہ محکمہ غیر قانونی نگرانی یا انسانی مداخلت کے بغیر مکمل خودکار ہتھیاروں کے لیے AI استعمال کرنے کا ارادہ رکھتا ہے۔
انہوں نے ایکس پر ایک پوسٹ میں، کہا کہ پینٹاگون انتھروپک کے ماڈل کو "تمام قانونی مقاصد" کے لیے استعمال کرنا چاہتا ہے اور وہ کسی نجی کمپنی کو آپریشنل فیصلےکرنے کی اجازت نہیں دے گا۔








