به گفته وزیر دفاع ایالات متحده پیت هگسث که یک پست طولانی منتشر کرد، اکنون Anthropic توسط وزارت جنگ به عنوان یک ریسک زنجیره تأمین برای امنیت ملی برچسب گذاری شده استبه گفته وزیر دفاع ایالات متحده پیت هگسث که یک پست طولانی منتشر کرد، اکنون Anthropic توسط وزارت جنگ به عنوان یک ریسک زنجیره تأمین برای امنیت ملی برچسب گذاری شده است

رئیس پنتاگون ایالات متحده دستور تعیین تلافی‌جویانه Anthropic را صادر و ممنوعیت را تشریح می‌کند

2026/02/28 13:20
مدت مطالعه: 5 دقیقه

بر اساس گفته وزیر دفاع ایالات متحده، پیت هگسث، که بیانیه‌ای طولانی در X علیه این شرکت AI منتشر کرد، Anthropic اکنون توسط وزارت جنگ به عنوان یک ریسک زنجیره تامین برای امنیت ملی برچسب گذاری شده است.

پیت گفت که وزارتخانه او به طور دائم با Anthropic قطع رابطه می‌کند و از تقاضای عمومی رئیس‌جمهور دونالد ترامپ پیروی می‌کند که همه آژانس‌های دولت فدرال "فوراً" از استفاده از فناوری Anthropic دست بردارند.

همانطور که Cryptopolitan قبلاً گزارش داده بود، Anthropic دو محدودیت در نحوه استفاده از AI خود می‌خواست و گفت که نه سلاح‌های کاملاً خودمختار و نه نظارت انبوه داخلی بر آمریکایی‌ها.

رئیس پنتاگون ایالات متحده دستور تعیین تلافی‌جویانه Anthropic را صادر کرده و ممنوعیت را اعلام می‌کند

پیت در پست X خود نوشت که وزارت جنگ به سادگی باید "دسترسی کامل و نامحدود" به مدل‌های Anthropic برای "هر هدف قانونی" داشته باشد.

او همچنین به داریو آمودی، مدیرعامل Anthropic حمله کرد و گفت که این شرکت از زبان "نوع‌دوستی مؤثر" استفاده کرد در حالی که سعی داشت دست ارتش را مجبور کند.

پیت سپس گفت که "هدف واقعی" شرکت "تصرف قدرت وتو بر تصمیمات عملیاتی ارتش ایالات متحده" بود.

رئیس دفاعی ایالات متحده سپس نوشت که Anthropic "اساساً با اصول آمریکایی ناسازگار است" و گفت که رابطه آن با نیروهای مسلح ایالات متحده و دولت فدرال "به طور دائم تغییر کرده است."

پیت نوشت که:-

پیت همچنین یک دوره انتقالی اضافه کرد و گفت که Anthropic "برای مدتی نه بیش از شش ماه" به ارائه خدمات به وزارت جنگ ادامه خواهد داد تا پنتاگون بتواند به چیز دیگری تغییر کند. او با این جمله پایان داد: "این تصمیم نهایی است."

مهلت پس از قرارداد 200 میلیون دلاری سپری می‌شود

Anthropic در ماه ژوئیه قراردادی 200 میلیون دلاری با پنتاگون امضا کرده بود. پس از آن قرارداد، Anthropic تضمین‌های کتبی می‌خواست که مدل‌های آن در سلاح‌های کاملاً خودمختار یا نظارت انبوه داخلی بر آمریکایی‌ها استفاده نشوند.

یادداشت‌ها می‌گویند که پنتاگون "به شدت در برابر" آن درخواست مقاومت کرد. سپس پنتاگون مهلتی تعیین کرد: ساعت 17:01 به وقت شرقی جمعه. تقاضا این بود که Anthropic موافقت کند که ارتش ایالات متحده می‌تواند از فناوری برای "همه اهداف قانونی" استفاده کند. بدیهی است که آن مهلت بدون توافق سپری شد.

شبکه پیمانکاران پنتاگون شامل هر نوع شرکتی است، از جمله هر فروشنده سیستم عامل، هر سازنده سخت‌افزار، هر فراابری و هر تامین‌کننده در زنجیره.

اقدامات دولت ترامپ یک قدرت‌طلبی پیچیده بر ناتوانی آن در ارتکاب جنایات جنگی و تعقیب شهروندان خود است.

Anthropic به پنتاگون پاسخ می‌دهد، به 10 USC 3252 استناد می‌کند و از دادگاه صحبت می‌کند

Anthropic با بیانیه خود پاسخ داد. شرکت گفت که ارتباط مستقیمی از وزارت جنگ یا کاخ سفید در مورد وضعیت مذاکرات دریافت نکرده است. شرکت گفت: "ما با حسن نیت تلاش کردیم تا به توافق برسیم" و گفت که از استفاده‌های قانونی برای امنیت ملی حمایت می‌کند.

در مورد خود برچسب، Anthropic این تعیین را "بی‌سابقه" نامید و گفت که معمولاً برای دشمنان ایالات متحده محفوظ است و هرگز به طور عمومی برای یک شرکت آمریکایی اعمال نشده است. شرکت گفت: "ما از این تحولات عمیقاً ناراحت هستیم."

Anthropic همچنین به کار گذشته خود با ارتش اشاره کرد. شرکت گفت که اولین شرکت AI پیشرو بود که مدل‌ها را در شبکه‌های طبقه‌بندی شده دولت ایالات متحده مستقر کرد، که از ژوئن 2024 از جنگجویان آمریکایی حمایت کرده است و قصد دارد به این کار ادامه دهد.

شرکت سپس گفت که این تعیین "از نظر قانونی ناسالم" خواهد بود و "سابقه خطرناکی" برای هر شرکت آمریکایی که با دولت مذاکره می‌کند، ایجاد خواهد کرد. شرکت گفت:

Anthropic سپس گفت که پیت به طور ضمنی اشاره کرد که این برچسب هرکسی را که با ارتش تجارت می‌کند از انجام تجارت با Anthropic باز می‌دارد و گفت که پیت "اختیار قانونی" برای پشتیبانی از آن را ندارد.

شرکت به 10 USC 3252 استناد کرد و گفت که یک تعیین ریسک زنجیره تامین فقط می‌تواند به استفاده از Claude به عنوان بخشی از قراردادهای وزارت جنگ گسترش یابد، اما نمی‌تواند نحوه استفاده پیمانکاران از Claude برای مشتریان دیگر را کنترل کند.

شرکت قول داده است که مشتریان انفرادی و مشتریان قرارداد تجاری تحت تأثیر قرار نمی‌گیرند، از جمله دسترسی به Claude از طریق API، claude.ai و سایر محصولات. شرکت گفت که پیمانکاران وزارت جنگ فقط در کار قرارداد وزارت جنگ محدود خواهند شد، اگر این تعیین به طور رسمی پذیرفته شود، و استفاده برای هر هدف دیگری تحت تأثیر قرار نخواهد گرفت.

در همین حال، شرکت‌های بزرگ فناوری Nvidia، Amazon و Google احتمالاً مجبور خواهند شد از Anthropic سرمایه‌گذاری خود را خارج کنند اگر پیت به خواسته خود برسد، که همچنین توصیه سرمایه‌گذاری در AI آمریکایی به هر سرمایه‌گذاری یا راه‌اندازی یک شرکت AI در ایالات متحده را تقریباً غیرممکن می‌کند. این اساساً یک بازی برد-برد نیست.

به یک جامعه معاملاتی کریپتو ممتاز به مدت 30 روز رایگان بپیوندید - معمولاً 100 دلار در ماه.

فرصت‌ های بازار
لوگو Comedian
Comedian قیمت لحظه ای(BAN)
$0.11043
$0.11043$0.11043
-1.98%
USD
نمودار قیمت لحظه ای Comedian (BAN)
سلب مسئولیت: مطالب بازنشرشده در این وب‌ سایت از منابع عمومی گردآوری شده‌ اند و صرفاً به‌ منظور اطلاع‌ رسانی ارائه می‌ شوند. این مطالب لزوماً بازتاب‌ دهنده دیدگاه‌ ها یا مواضع MEXC نیستند. کلیه حقوق مادی و معنوی آثار متعلق به نویسندگان اصلی است. در صورت مشاهده هرگونه محتوای ناقض حقوق اشخاص ثالث، لطفاً از طریق آدرس ایمیل crypto.news@mexc.com با ما تماس بگیرید تا مورد بررسی و حذف قرار گیرد.MEXC هیچ‌ گونه تضمینی نسبت به دقت، جامعیت یا به‌ روزبودن اطلاعات ارائه‌ شده ندارد و مسئولیتی در قبال هرگونه اقدام یا تصمیم‌ گیری مبتنی بر این اطلاعات نمی‌ پذیرد. همچنین، محتوای منتشرشده نباید به‌عنوان توصیه مالی، حقوقی یا حرفه‌ ای تلقی شود و به منزله پیشنهاد یا تأیید رسمی از سوی MEXC نیست.