تنش فزاینده بین یک آزمایشگاه پیشرو هوش مصنوعی و سازمان دفاعی ایالات متحده به یک درگیری پرخطر بر سر anthropic ai و استفاده در میدان نبرد تبدیل شده است.
Anthropic درخواستهای وزارت دفاع ایالات متحده برای حذف محدودیتهای کلیدی ایمنی هوش مصنوعی از سیستمهای خود را رد کرده است، حتی اگر قرارداد 200 میلیون دلاری آن اکنون در معرض خطر باشد. این شرکت به وضوح اعلام کرده است که در اختلاف خود با وزارت دفاع درباره نحوه استقرار مدلهای پیشرفته خود در شبکههای نظامی عقبنشینی نخواهد کرد.
رقبای این استارتاپ، OpenAI، Google و xAI، جوایز مشابه وزارت دفاع تا 200 میلیون دلار را در سال 2023 دریافت کردند. با این حال، آن شرکتها موافقت کردند که پنتاگون از سیستمهای آنها برای تمام ماموریتهای قانونی در محیطهای طبقهبندی نشده نظامی استفاده کند و انعطاف عملیاتی گستردهتری به دولت بدهد.
در مقابل، Anthropic قرارداد 200 میلیون دلاری خود را با وزارت دفاع در ماه ژوئیه امضا کرد و اولین آزمایشگاه هوش مصنوعی شد که مدلهای خود را مستقیماً در گردش کار ماموریتها در شبکههای طبقهبندی شده جاسازی کرد. علاوه بر این، ابزارهای آن در عملیات دفاعی حساس ادغام شد و شرکت را در مرکز توسعه هوش مصنوعی امنیت ملی ایالات متحده قرار داد.
مذاکرات با مقامات پنتاگون طی هفتههای اخیر به طور فزایندهای تنشآمیز شده است. فردی آشنا به مذاکرات گفت که اصطکاک "چندین ماه پیش" برمیگردد، خیلی قبل از اینکه علنی شود Claude در یک عملیات ایالات متحده مرتبط با توقیف رئیسجمهور ونزوئلا، نیکولاس مادورو، استفاده شده است.
در هسته این درگیری این موضوع است که مقامات نظامی تا چه حد میتوانند مدلهای هوش مصنوعی قدرتمند را به سمت نظارت و خودمختاری سوق دهند. Anthropic به دنبال تضمینهای لازمالاجرا است که فناوری آن برای سلاحهای کاملاً خودمختار یا نظارت انبوه داخلی بر آمریکاییها استفاده نخواهد شد، در حالی که وزارت دفاع میخواهد از چنین محدودیتهایی اجتناب کند.
با این حال، این یک اختلاف تجاری محدود نیست، بلکه یک اختلاف حفاظتهای هوش مصنوعی برجسته با پیامدهای مستقیم برای اتوماسیون میدان نبرد آینده است. پنتاگون بر حداکثر آزادی قانونی پافشاری میکند، در حالی که Anthropic استدلال میکند سیستمهای فعلی هنوز نمیتوانند با تصمیمات مرگ و زندگی در مقیاس بزرگ مورد اعتماد قرار گیرند.
مدیرعامل، داریو آمودی، در یک بیانیه تفصیلی هشدار داد که در "مجموعه محدودی از موارد" هوش مصنوعی میتواند "ارزشهای دموکراتیک را تضعیف کند، نه دفاع کند." او تأکید کرد که برخی کاربردها "به سادگی خارج از مرزهای آنچه فناوری امروزی میتواند به طور ایمن و قابل اعتماد انجام دهد" هستند و خطرات سوء استفاده را در طول عملیات نظامی پیچیده برجسته کرد.
آمودی با توسعه نگرانیهای نظارتی استدلال کرد که سیستمهای قدرتمند اکنون امکان "جمعآوری این دادههای پراکنده و به طور جداگانه بیضرر به یک تصویر جامع از زندگی هر فردی، به طور خودکار و در مقیاس انبوه" را فراهم میکنند. علاوه بر این، او هشدار داد که چنین قابلیتی، اگر به سمت داخل هدایت شود، میتواند به طور بنیادی رابطه بین شهروندان و دولت را تغییر دهد.
آمودی تکرار کرد که Anthropic از استفاده از هوش مصنوعی برای جمعآوری اطلاعات خارجی قانونی حمایت میکند. با این حال، او اضافه کرد که "استفاده از این سیستمها برای نظارت انبوه داخلی با ارزشهای دموکراتیک ناسازگار است" و یک خط اخلاقی سخت بین اطلاعات خارج از کشور و نظارت داخلی بر اشخاص ایالات متحده ترسیم کرد.
کشمکش قدرت در طول جلسه روز سهشنبه در پنتاگون بین آمودی و وزیر دفاع پیت هگست تشدید شد. هگست تهدید کرده است که Anthropic را به عنوان "ریسک زنجیره تأمین" برچسبگذاری کند یا قانون تولید دفاعی را برای اجبار به تبعیت فراخوانی کند. در شب چهارشنبه، وزارت دفاع آنچه را که "آخرین و نهایی پیشنهاد" خود نامید، ارائه داد و به شرکت زمان تا ساعت 17:01 به وقت شرقی روز جمعه برای پاسخ داد.
یک سخنگوی Anthropic دریافت متن قرارداد تجدیدنظر شده در روز چهارشنبه را تأیید کرد، اما گفت که این "عملاً هیچ پیشرفتی" نشان نمیدهد. به گفته او، عبارات جدید که به عنوان یک مصالحه ارائه شده بود، با عبارات قانونی همراه بود که عملاً اجازه میداد حفاظتهای حیاتی "به دلخواه نادیده گرفته شوند" و حفاظتهای بیانشده را تضعیف کند.
آمودی در پاسخ به فشار فزاینده گفت: "وزارت جنگ اعلام کرده است که فقط با شرکتهای هوش مصنوعی قرارداد خواهد بست که به 'هر استفاده قانونی' تن دهند و حفاظتها را در موارد ذکر شده در بالا حذف کنند." او اضافه کرد که مقامات تهدید کردهاند که Anthropic را از سیستمهای خود قطع کنند و شرکت را به عنوان "ریسک زنجیره تأمین" تعیین کنند اگر امتناع کند؛ با این وجود، او اصرار داشت، "ما نمیتوانیم با وجدان خوب به درخواست آنها تن دهیم."
برای پنتاگون، موضوع به طور متفاوتی چارچوببندی شده است. سخنگوی ارشد شان پارنل روز پنجشنبه گفت که وزارت دفاع "هیچ علاقهای" به استفاده از سیستمهای Anthropic برای سلاحهای کاملاً خودمختار یا انجام نظارت انبوه بر آمریکاییها ندارد و اشاره کرد که چنین اقداماتی غیرقانونی خواهند بود. در عوض، او اصرار داشت که وزارتخانه صرفاً میخواهد شرکت اجازه دهد فناوری خود را برای "تمام اهداف قانونی" استفاده کند و آن را به عنوان یک "درخواست ساده و عقلسلیم" توصیف کرد.
این اختلاف همچنین در سطوح ارشد شخصی شده است. در شب پنجشنبه، معاون وزیر دفاع ایالات متحده امیل مایکل در X به آمودی حمله کرد و ادعا کرد که این مدیر اجرایی "چیزی بیش از تلاش برای کنترل شخصی ارتش ایالات متحده نمیخواهد." مایکل فراتر رفت و نوشت: "شرمنده است که داریو آمودی یک دروغگو است و یک کمپلکس خدایی دارد."
با این حال، Anthropic حمایت قابل توجهی از بخشهایی از بخش فناوری به دست آورده است. در یک نامه سرگشاده، بیش از 200 کارمند از Google و OpenAI علناً از موضع شرکت حمایت کردند. علاوه بر این، یک مقام سابق وزارت دفاع به بیبیسی گفت که توجیه هگست برای استفاده از برچسب "ریسک زنجیره تأمین" "بسیار ضعیف" به نظر میرسد و سؤالاتی را درباره استحکام پرونده پنتاگون ایجاد میکند.
این رویارویی همچنین به یک سنگ محک در بحث گستردهتر بر سر سیاست اخلاق هوش مصنوعی نظامی تبدیل شده است. محققان هوش مصنوعی و مدافعان آزادیهای مدنی از نزدیک نظارهگر هستند و این پرونده را به عنوان یک آزمون اولیه از اینکه آژانسهای دفاعی تا چه حد میتوانند آزمایشگاههای خصوصی را تحت فشار قرار دهند تا محدودیتهای داخلی سیستمهای پیشرفته را کاهش دهند، میبینند.
علیرغم تشدید لفاظیها، آمودی تأکید کرده است که او "عمیقاً به اهمیت وجودی استفاده از هوش مصنوعی برای دفاع از ایالات متحده" اعتقاد دارد. او این موضوع را به عنوان یک استقرار مسئولانه چارچوببندی کرد، نه مخالفت با دفاع ملی، و استدلال کرد که اعتبار بلندمدت قابلیتهای هوش مصنوعی ایالات متحده به حفظ هنجارهای دموکراتیک بستگی دارد.
یک نماینده از Anthropic گفت که سازمان "آماده ادامه مذاکرات و متعهد به تداوم عملیاتی برای وزارتخانه و جنگجویان آمریکا" باقی میماند. با این حال، با نزدیک شدن ضربالاجل پنتاگون و تهدیدهای تعیین زنجیره تأمین که هنوز روی میز است، هر دو طرف با فشار برای حل و فصل بنبست بدون خارج کردن نوآوری حیاتی از مسیر مواجه هستند.
در نهایت، درگیری Anthropic و پنتاگون بر سر حفاظتها، نظارت و خودمختاری به یک پرونده اولیه تعیینکننده در حکمرانی هوش مصنوعی نظامی تبدیل شده است. نتیجه آن احتمالاً نحوه قرارداد، محدودیت و استقرار مدلهای هوش مصنوعی anthropic و سیستمهای رقیب در عملیات دفاعی ایالات متحده را شکل خواهد داد.


