این مقاله بررسی می‌کند که چگونه محافظت‌های هوش مصنوعی انسان‌شناختی با تقاضاهای پنتاگون، محدودیت‌های خودمختاری و پیامدهای نظارتی هوش مصنوعی دفاعی در تضاد است.این مقاله بررسی می‌کند که چگونه محافظت‌های هوش مصنوعی انسان‌شناختی با تقاضاهای پنتاگون، محدودیت‌های خودمختاری و پیامدهای نظارتی هوش مصنوعی دفاعی در تضاد است.

رویارویی پنتاگون محافظت‌های هوش مصنوعی Anthropic و قرارداد دفاعی 200 میلیون دلاری را در معرض خطر قرار می‌دهد

2026/02/27 20:13
مدت مطالعه: 7 دقیقه
برای ارائه بازخورد یا طرح هرگونه نگرانی درباره این محتوا، لطفاً با ما از طریق crypto.news@mexc.com تماس بگیرید.
anthropic ai

تنش فزاینده بین یک آزمایشگاه پیشرو هوش مصنوعی و سازمان دفاعی ایالات متحده به یک درگیری پرخطر بر سر anthropic ai و استفاده در میدان نبرد تبدیل شده است.

Anthropic در برابر فشار پنتاگون ایستادگی می‌کند

Anthropic درخواست‌های وزارت دفاع ایالات متحده برای حذف محدودیت‌های کلیدی ایمنی هوش مصنوعی از سیستم‌های خود را رد کرده است، حتی اگر قرارداد 200 میلیون دلاری آن اکنون در معرض خطر باشد. این شرکت به وضوح اعلام کرده است که در اختلاف خود با وزارت دفاع درباره نحوه استقرار مدل‌های پیشرفته خود در شبکه‌های نظامی عقب‌نشینی نخواهد کرد.

رقبای این استارتاپ، OpenAI، Google و xAI، جوایز مشابه وزارت دفاع تا 200 میلیون دلار را در سال 2023 دریافت کردند. با این حال، آن شرکت‌ها موافقت کردند که پنتاگون از سیستم‌های آن‌ها برای تمام ماموریت‌های قانونی در محیط‌های طبقه‌بندی نشده نظامی استفاده کند و انعطاف عملیاتی گسترده‌تری به دولت بدهد.

در مقابل، Anthropic قرارداد 200 میلیون دلاری خود را با وزارت دفاع در ماه ژوئیه امضا کرد و اولین آزمایشگاه هوش مصنوعی شد که مدل‌های خود را مستقیماً در گردش کار ماموریت‌ها در شبکه‌های طبقه‌بندی شده جاسازی کرد. علاوه بر این، ابزارهای آن در عملیات دفاعی حساس ادغام شد و شرکت را در مرکز توسعه هوش مصنوعی امنیت ملی ایالات متحده قرار داد.

مذاکرات با مقامات پنتاگون طی هفته‌های اخیر به طور فزاینده‌ای تنش‌آمیز شده است. فردی آشنا به مذاکرات گفت که اصطکاک "چندین ماه پیش" برمی‌گردد، خیلی قبل از اینکه علنی شود Claude در یک عملیات ایالات متحده مرتبط با توقیف رئیس‌جمهور ونزوئلا، نیکولاس مادورو، استفاده شده است.

اختلاف بر سر نظارت و سلاح‌های خودمختار

در هسته این درگیری این موضوع است که مقامات نظامی تا چه حد می‌توانند مدل‌های هوش مصنوعی قدرتمند را به سمت نظارت و خودمختاری سوق دهند. Anthropic به دنبال تضمین‌های لازم‌الاجرا است که فناوری آن برای سلاح‌های کاملاً خودمختار یا نظارت انبوه داخلی بر آمریکایی‌ها استفاده نخواهد شد، در حالی که وزارت دفاع می‌خواهد از چنین محدودیت‌هایی اجتناب کند.

با این حال، این یک اختلاف تجاری محدود نیست، بلکه یک اختلاف حفاظت‌های هوش مصنوعی برجسته با پیامدهای مستقیم برای اتوماسیون میدان نبرد آینده است. پنتاگون بر حداکثر آزادی قانونی پافشاری می‌کند، در حالی که Anthropic استدلال می‌کند سیستم‌های فعلی هنوز نمی‌توانند با تصمیمات مرگ و زندگی در مقیاس بزرگ مورد اعتماد قرار گیرند.

مدیرعامل، داریو آمودی، در یک بیانیه تفصیلی هشدار داد که در "مجموعه محدودی از موارد" هوش مصنوعی می‌تواند "ارزش‌های دموکراتیک را تضعیف کند، نه دفاع کند." او تأکید کرد که برخی کاربردها "به سادگی خارج از مرزهای آنچه فناوری امروزی می‌تواند به طور ایمن و قابل اعتماد انجام دهد" هستند و خطرات سوء استفاده را در طول عملیات نظامی پیچیده برجسته کرد.

آمودی با توسعه نگرانی‌های نظارتی استدلال کرد که سیستم‌های قدرتمند اکنون امکان "جمع‌آوری این داده‌های پراکنده و به طور جداگانه بی‌ضرر به یک تصویر جامع از زندگی هر فردی، به طور خودکار و در مقیاس انبوه" را فراهم می‌کنند. علاوه بر این، او هشدار داد که چنین قابلیتی، اگر به سمت داخل هدایت شود، می‌تواند به طور بنیادی رابطه بین شهروندان و دولت را تغییر دهد.

آمودی تکرار کرد که Anthropic از استفاده از هوش مصنوعی برای جمع‌آوری اطلاعات خارجی قانونی حمایت می‌کند. با این حال، او اضافه کرد که "استفاده از این سیستم‌ها برای نظارت انبوه داخلی با ارزش‌های دموکراتیک ناسازگار است" و یک خط اخلاقی سخت بین اطلاعات خارج از کشور و نظارت داخلی بر اشخاص ایالات متحده ترسیم کرد.

تهدیدها، ضرب‌الاجل‌ها و فشار قانونی

کشمکش قدرت در طول جلسه روز سه‌شنبه در پنتاگون بین آمودی و وزیر دفاع پیت هگست تشدید شد. هگست تهدید کرده است که Anthropic را به عنوان "ریسک زنجیره تأمین" برچسب‌گذاری کند یا قانون تولید دفاعی را برای اجبار به تبعیت فراخوانی کند. در شب چهارشنبه، وزارت دفاع آنچه را که "آخرین و نهایی پیشنهاد" خود نامید، ارائه داد و به شرکت زمان تا ساعت 17:01 به وقت شرقی روز جمعه برای پاسخ داد.

یک سخنگوی Anthropic دریافت متن قرارداد تجدیدنظر شده در روز چهارشنبه را تأیید کرد، اما گفت که این "عملاً هیچ پیشرفتی" نشان نمی‌دهد. به گفته او، عبارات جدید که به عنوان یک مصالحه ارائه شده بود، با عبارات قانونی همراه بود که عملاً اجازه می‌داد حفاظت‌های حیاتی "به دلخواه نادیده گرفته شوند" و حفاظت‌های بیان‌شده را تضعیف کند.

آمودی در پاسخ به فشار فزاینده گفت: "وزارت جنگ اعلام کرده است که فقط با شرکت‌های هوش مصنوعی قرارداد خواهد بست که به 'هر استفاده قانونی' تن دهند و حفاظت‌ها را در موارد ذکر شده در بالا حذف کنند." او اضافه کرد که مقامات تهدید کرده‌اند که Anthropic را از سیستم‌های خود قطع کنند و شرکت را به عنوان "ریسک زنجیره تأمین" تعیین کنند اگر امتناع کند؛ با این وجود، او اصرار داشت، "ما نمی‌توانیم با وجدان خوب به درخواست آن‌ها تن دهیم."

برای پنتاگون، موضوع به طور متفاوتی چارچوب‌بندی شده است. سخنگوی ارشد شان پارنل روز پنجشنبه گفت که وزارت دفاع "هیچ علاقه‌ای" به استفاده از سیستم‌های Anthropic برای سلاح‌های کاملاً خودمختار یا انجام نظارت انبوه بر آمریکایی‌ها ندارد و اشاره کرد که چنین اقداماتی غیرقانونی خواهند بود. در عوض، او اصرار داشت که وزارتخانه صرفاً می‌خواهد شرکت اجازه دهد فناوری خود را برای "تمام اهداف قانونی" استفاده کند و آن را به عنوان یک "درخواست ساده و عقل‌سلیم" توصیف کرد.

حملات شخصی و حمایت عمومی

این اختلاف همچنین در سطوح ارشد شخصی شده است. در شب پنجشنبه، معاون وزیر دفاع ایالات متحده امیل مایکل در X به آمودی حمله کرد و ادعا کرد که این مدیر اجرایی "چیزی بیش از تلاش برای کنترل شخصی ارتش ایالات متحده نمی‌خواهد." مایکل فراتر رفت و نوشت: "شرمنده است که داریو آمودی یک دروغگو است و یک کمپلکس خدایی دارد."

با این حال، Anthropic حمایت قابل توجهی از بخش‌هایی از بخش فناوری به دست آورده است. در یک نامه سرگشاده، بیش از 200 کارمند از Google و OpenAI علناً از موضع شرکت حمایت کردند. علاوه بر این، یک مقام سابق وزارت دفاع به بی‌بی‌سی گفت که توجیه هگست برای استفاده از برچسب "ریسک زنجیره تأمین" "بسیار ضعیف" به نظر می‌رسد و سؤالاتی را درباره استحکام پرونده پنتاگون ایجاد می‌کند.

این رویارویی همچنین به یک سنگ محک در بحث گسترده‌تر بر سر سیاست اخلاق هوش مصنوعی نظامی تبدیل شده است. محققان هوش مصنوعی و مدافعان آزادی‌های مدنی از نزدیک نظاره‌گر هستند و این پرونده را به عنوان یک آزمون اولیه از اینکه آژانس‌های دفاعی تا چه حد می‌توانند آزمایشگاه‌های خصوصی را تحت فشار قرار دهند تا محدودیت‌های داخلی سیستم‌های پیشرفته را کاهش دهند، می‌بینند.

خطرات استراتژیک برای هوش مصنوعی دفاعی ایالات متحده

علی‌رغم تشدید لفاظی‌ها، آمودی تأکید کرده است که او "عمیقاً به اهمیت وجودی استفاده از هوش مصنوعی برای دفاع از ایالات متحده" اعتقاد دارد. او این موضوع را به عنوان یک استقرار مسئولانه چارچوب‌بندی کرد، نه مخالفت با دفاع ملی، و استدلال کرد که اعتبار بلندمدت قابلیت‌های هوش مصنوعی ایالات متحده به حفظ هنجارهای دموکراتیک بستگی دارد.

یک نماینده از Anthropic گفت که سازمان "آماده ادامه مذاکرات و متعهد به تداوم عملیاتی برای وزارتخانه و جنگجویان آمریکا" باقی می‌ماند. با این حال، با نزدیک شدن ضرب‌الاجل پنتاگون و تهدیدهای تعیین زنجیره تأمین که هنوز روی میز است، هر دو طرف با فشار برای حل و فصل بن‌بست بدون خارج کردن نوآوری حیاتی از مسیر مواجه هستند.

در نهایت، درگیری Anthropic و پنتاگون بر سر حفاظت‌ها، نظارت و خودمختاری به یک پرونده اولیه تعیین‌کننده در حکمرانی هوش مصنوعی نظامی تبدیل شده است. نتیجه آن احتمالاً نحوه قرارداد، محدودیت و استقرار مدل‌های هوش مصنوعی anthropic و سیستم‌های رقیب در عملیات دفاعی ایالات متحده را شکل خواهد داد.

فرصت‌ های بازار
لوگو Clash
Clash قیمت لحظه ای(CLASH)
$0.031195
$0.031195$0.031195
-0.80%
USD
نمودار قیمت لحظه ای Clash (CLASH)
سلب مسئولیت: مطالب بازنشرشده در این وب‌ سایت از منابع عمومی گردآوری شده‌ اند و صرفاً به‌ منظور اطلاع‌ رسانی ارائه می‌ شوند. این مطالب لزوماً بازتاب‌ دهنده دیدگاه‌ ها یا مواضع MEXC نیستند. کلیه حقوق مادی و معنوی آثار متعلق به نویسندگان اصلی است. در صورت مشاهده هرگونه محتوای ناقض حقوق اشخاص ثالث، لطفاً از طریق آدرس ایمیل crypto.news@mexc.com با ما تماس بگیرید تا مورد بررسی و حذف قرار گیرد.MEXC هیچ‌ گونه تضمینی نسبت به دقت، جامعیت یا به‌ روزبودن اطلاعات ارائه‌ شده ندارد و مسئولیتی در قبال هرگونه اقدام یا تصمیم‌ گیری مبتنی بر این اطلاعات نمی‌ پذیرد. همچنین، محتوای منتشرشده نباید به‌عنوان توصیه مالی، حقوقی یا حرفه‌ ای تلقی شود و به منزله پیشنهاد یا تأیید رسمی از سوی MEXC نیست.

محتوای پیشنهادی

یک نهنگ 2.18 میلیون USDC به Hyperliquid واریز کرد و یک پوزیشن شورت 10 برابری روی ETH باز کرد.

یک نهنگ 2.18 میلیون USDC به Hyperliquid واریز کرد و یک پوزیشن شورت 10 برابری روی ETH باز کرد.

PANews در تاریخ 1404/01/16 گزارش داد که، بر اساس نظارت Onchain Lens، نهنگی به نام "0x218A" مبلغ 2.18 میلیون USDC را به Hyperliquid واریز کرد تا یک موقعیت با اهرم 10 برابری باز کند
اشتراک
PANews2026/03/07 09:38
در میانه‌ی رویارویی با Anthropic، ایالات متحده در حال تدوین دستورالعمل‌های جدید سختگیرانه برای هوش مصنوعی غیرنظامی است.

در میانه‌ی رویارویی با Anthropic، ایالات متحده در حال تدوین دستورالعمل‌های جدید سختگیرانه برای هوش مصنوعی غیرنظامی است.

PANews در تاریخ ۱۴۰۴/۰۱/۱۶ گزارش داد که، طبق گزارش فایننشال تایمز، دولت ترامپ، در میانه رویارویی خود با Anthropic، قوانین سختگیرانه‌ای برای غیرنظامیان تدوین کرده است
اشتراک
PANews2026/03/07 09:07
'خدا به ما کمک کند': منتقدان از گزارش مبنی بر بررسی خصوصی ترامپ درباره اعزام نیروهای زمینی به ایران مبهوت شدند

'خدا به ما کمک کند': منتقدان از گزارش مبنی بر بررسی خصوصی ترامپ درباره اعزام نیروهای زمینی به ایران مبهوت شدند

منتقدان پس از گزارشی مبنی بر اینکه رئیس‌جمهور دونالد ترامپ به‌صورت خصوصی علاقه به اعزام نیروهای زمینی ایالات متحده به ایران نشان داده است، به‌سرعت در فضای آنلاین هشدار دادند. طبق
اشتراک
Rawstory2026/03/07 09:14