Bài viết AI đã chọn vũ khí hạt nhân trong 95% các trò chơi chiến tranh. Lầu Năm Góc vẫn muốn triển khai nó. xuất hiện trên BitcoinEthereumNews.com. Anthropic có hợp đồng trị giá 200 triệu USD với Lầu Năm GócBài viết AI đã chọn vũ khí hạt nhân trong 95% các trò chơi chiến tranh. Lầu Năm Góc vẫn muốn triển khai nó. xuất hiện trên BitcoinEthereumNews.com. Anthropic có hợp đồng trị giá 200 triệu USD với Lầu Năm Góc

AI đã chọn vũ khí hạt nhân trong 95% trò chơi chiến tranh. Lầu Năm Góc vẫn muốn triển khai nó.

2026/03/05 05:26
Đọc trong 18 phút
Đối với phản hồi hoặc thắc mắc liên quan đến nội dung này, vui lòng liên hệ với chúng tôi qua crypto.news@mexc.com

Anthropic có hợp đồng 200 triệu USD với Lầu Năm Góc, quyền truy cập mạng mật và sự tin tưởng tuyệt đối của quân đội Mỹ.

Rồi họ đặt ra một câu hỏi.

Vào tháng 11 năm 2024, Anthropic trở thành công ty AI tiên phong đầu tiên triển khai bên trong mạng mật của Lầu Năm Góc. Quan hệ đối tác được xây dựng cùng Palantir. Đến tháng 7 năm 2025, hợp đồng đã tăng lên 200 triệu USD — nhiều hơn những gì hầu hết các startup quốc phòng thấy trong một thập kỷ.

Claude, mô hình AI của Anthropic, có mặt ở khắp nơi. Phân tích tình báo. Hoạt động mạng. Lập kế hoạch tác chiến. Mô hình hóa và mô phỏng. Bộ Chiến tranh gọi nó là "nhiệm vụ quan trọng".

Rồi đến tháng 1 năm 2026.

Claude được sử dụng trong một chiến dịch quân sự mật ở Venezuela — việc bắt giữ Nicolás Maduro.

Anthropic hỏi đối tác Palantir của họ một câu hỏi đơn giản: chính xác thì công nghệ của chúng tôi được sử dụng như thế nào?

Ở hầu hết các ngành, điều đó được gọi là thẩm định. Lầu Năm Góc gọi đó là sự bất tuân.

Công ty đặt câu hỏi "AI của chúng tôi đang được sử dụng như thế nào?" sắp bị dán nhãn là mối đe dọa đối với an ninh quốc gia.

Bảy Ngày Thay Đổi Mọi Thứ

Đây là dòng thời gian. Nó diễn ra nhanh. Đó là trọng tâm.

24 tháng 2: Pete Hegseth, Bộ trưởng Chiến tranh, triệu tập Dario Amodei — CEO của Anthropic — đến Lầu Năm Góc. Yêu cầu rất thẳng thắn: loại bỏ mọi biện pháp bảo vệ khỏi Claude. Giám sát trong nước hàng loạt. Vũ khí hoàn toàn tự động. Tất cả.

Thời hạn: 27 tháng 2, 5:01 PM ET.

26 tháng 2: Amodei công bố câu trả lời của mình. Nó dài hai chữ cái.

Không.

Tuyên bố công khai của ông đưa ra hai ranh giới đỏ mà ông sẽ không vượt qua:

  • Không giám sát trong nước hàng loạt. AI tập hợp dữ liệu vị trí, lịch sử duyệt web và hồ sơ tài chính của bạn thành một hồ sơ — tự động, ở quy mô lớn. Quan điểm của Amodei: luật hiện hành cho phép chính phủ mua dữ liệu này mà không cần lệnh. AI làm cho việc vũ khí hóa nó trở nên khả thi. "Luật pháp vẫn chưa theo kịp khả năng phát triển nhanh chóng của AI."
  • Không có vũ khí hoàn toàn tự động. Dịch: không loại bỏ con người khỏi quyết định giết ai đó. Không phải vì vũ khí tự động sẽ không bao giờ khả thi — mà vì AI ngày nay chưa đủ đáng tin cậy. "Các hệ thống AI tiên tiến đơn giản là chưa đủ đáng tin cậy để vận hành vũ khí hoàn toàn tự động."

Ông đề nghị làm việc trực tiếp với Lầu Năm Góc về R&D để cải thiện độ tin cậy. Lầu Năm Góc từ chối đề nghị.

26 tháng 2 (cùng ngày): Emil Michael, thứ trưởng, gọi Amodei là "kẻ nói dối với tâm lý Chúa trời." Công khai. Trên mạng xã hội. Giọng điệu đã được thiết lập.

27 tháng 2, 5:01 PM: Thời hạn trôi qua. Tổng thống Trump ra lệnh cho tất cả các cơ quan liên bang ngừng sử dụng Anthropic. Hegseth chỉ định Anthropic là "Rủi ro Chuỗi Cung ứng" theo Đạo luật An ninh Chuỗi Cung ứng Thu mua Liên bang năm 2018.

Chỉ định đó trước đây được dành riêng cho Huawei và Kaspersky — các công ty nước ngoài có quan hệ được ghi nhận với các chính phủ thù địch.

Nó chưa bao giờ được áp dụng cho một công ty Mỹ. Cho đến bây giờ.

27 tháng 2, vài giờ sau: OpenAI ký thỏa thuận triển khai mật với cùng Lầu Năm Góc.

Sam Altman tweet vào lúc 8:56 PM:

https://x.com/sama/status/2027578652477821175?s=20

OpenAI sau đó tuyên bố thỏa thuận của mình có "nhiều biện pháp bảo vệ hơn bất kỳ thỏa thuận nào trước đây cho triển khai AI mật, bao gồm cả của Anthropic."

Đây là vấn đề. Anthropic bị đưa vào danh sách đen các biện pháp bảo vệ của nó. Bây giờ các biện pháp bảo vệ là điểm bán hàng.

Cuối tuần: Phản ứng dữ dội ngay lập tức.

  • Gỡ cài đặt ChatGPT tăng vọt 295% trong một ngày, theo Sensor Tower. Tỷ lệ hàng ngày bình thường trong 30 ngày trước? 9%.
  • Claude đạt #1 trên App Store của Apple tại bảy quốc gia: Mỹ, Bỉ, Canada, Đức, Luxembourg, Na Uy và Thụy Sĩ. Lượt tải xuống tăng 37% vào thứ Sáu, sau đó 51% vào thứ Bảy. Lần đầu tiên ứng dụng đạt vị trí đầu bảng.
  • Hơn 300 nhân viên Google và 60 nhân viên OpenAI ký một lá thư ngỏ ủng hộ Anthropic.
  • #QuitGPT trở thành xu hướng trên mạng xã hội. Diễn viên Mark Ruffalo và giáo sư NYU Scott Galloway khuếch đại phong trào.

Người dùng... không hài lòng.

2 tháng 3: Altman đăng lại. Lần này, một bản ghi nhớ nội bộ dài được chia sẻ công khai trên X:

https://x.com/sama/status/2028640354912923739?s=20

Các sửa đổi bổ sung ba điều:

  • Lệnh cấm rõ ràng về giám sát trong nước đối với người Mỹ
  • Yêu cầu NSA cần sửa đổi hợp đồng riêng để truy cập hệ thống
  • Hạn chế sử dụng dữ liệu cá nhân được mua thương mại — vị trí địa lý, lịch sử duyệt web, hồ sơ tài chính

Điều cuối cùng đáng chú ý. Nó được thêm vào thứ Hai. Điều đó có nghĩa là thỏa thuận thứ Sáu không cấm nó.

3 tháng 3: Hai điều xảy ra cùng ngày.

Thứ nhất: Tại Hội nghị thượng đỉnh American Dynamism a16z, CEO Palantir Alex Karp cảnh báo rằng các công ty AI từ chối hợp tác với quân đội sẽ đối mặt với quốc hữu hóa. Ông sử dụng một lời lẽ xúc phạm trên sân khấu. Đoạn clip nhận được 11 triệu lượt xem.

Palmer Luckey, người sáng lập công ty công nghệ quốc phòng Anduril, nói với cùng khán giả rằng "các điều khoản có vẻ vô hại như 'chính phủ không thể sử dụng công nghệ của bạn để nhắm vào dân thường' thực sự là các mỏ đạo đức."

Phó Tổng thống JD Vance đã phát biểu chính trước đó trong ngày. Lập trường của chính quyền rất rõ ràng.

Thứ hai: CNBC báo cáo rằng trong một cuộc họp toàn bộ với nhân viên, Altman nói với nhân viên OpenAI rằng công ty "không được chọn cách quân đội sử dụng công nghệ của mình."

Người dùng X đã thêm Ghi chú Cộng đồng vào bài đăng trước đó của Altman:

Cùng ngày. Bài đăng công khai: chúng tôi có biện pháp bảo vệ và nguyên tắc. Cuộc họp nội bộ: chúng tôi không được chọn.

Trong khi đó, CBS News báo cáo rằng Claude vẫn được triển khai trong các hoạt động quân sự tích cực — bao gồm chống Iran — bất chấp chỉ định rủi ro chuỗi cung ứng. Việc đưa vào danh sách đen rõ ràng không hiệu quả. Công nghệ được nhúng quá sâu trong các hệ thống mật để loại bỏ.

Vấn đề 95%

Trong mô phỏng trò chơi chiến tranh, các mô hình AI chọn phóng vũ khí hạt nhân chiến thuật 95% thời gian.

Hãy để điều đó ngấm một giây.

GPT-5.2, Claude Sonnet 4 và Gemini 3 Flash đã được đưa qua các mô phỏng xung đột quân sự. Chúng sử dụng vũ khí hạt nhân chiến thuật trong 95% kịch bản. Ít nhất một mô hình đã phóng vũ khí hạt nhân trong 20 trên 21 trò chơi.

Đó là công nghệ mà Lầu Năm Góc muốn triển khai tự động.

Các chế độ thất bại được ghi nhận và nhất quán:

  • Thiên kiến leo thang. Các mô hình không chỉ thất bại ngẫu nhiên. Chúng thất bại theo một hướng cụ thể — hướng tới leo thang. Nghiên cứu của Viện Brookings phát hiện rằng các lỗi quân sự AI là có hệ thống, không ngẫu nhiên. Mô hình luôn giống nhau: nhiều lực lượng hơn, nhanh hơn.
  • Ảo giác. LLM tạo ra thông tin sai với độ tin cậy cao. Trong một thử nghiệm liên quan đến các cuộc tấn công Iran, một AI đã đưa tình báo bịa đặt vào chuỗi quyết định. Dưới áp lực thời gian, các nhà điều hành con người không thể phân biệt nó với thực tế.
  • Lỗ hổng đối nghịch. Các hệ thống này có thể bị thao túng với các đầu vào được chế tạo cẩn thận để vượt qua các hạn chế của chúng. Kẻ tấn công không cần phải là bên ngoài. Lỗ hổng nằm trong chính mô hình.

Đây không phải là các trường hợp cạnh. Đây là những gì công nghệ làm ngày nay.

Nghĩ về nó theo cách này. Chúng ta đã thấy điều gì xảy ra khi các hệ thống tự động đơn giản thất bại trong các môi trường quân sự.

Hệ thống tên lửa Patriot năm 2003 đã giết chết các binh sĩ đồng minh. Nó xác định sai một máy bay Anh thân thiện là một tên lửa địch. Hệ thống dựa trên quy tắc, với các tham số được xác định. Nó vẫn sai.

Tàu USS Vincennes năm 1988 đã bắn hạ Chuyến bay 655 của Iran Air — một máy bay chở khách thương mại. 290 dân thường thiệt mạng. Hệ thống chiến đấu Aegis của tàu đã xác định sai máy bay dựa trên dữ liệu radar. Thủy thủ đoàn có vài giây để quyết định. Họ tin tưởng hệ thống.

Đó là các hệ thống dựa trên quy tắc với các tham số rõ ràng. LLM phức tạp hơn nhiều bậc độ lớn. Mờ đục hơn. Ít dự đoán được hơn.

Và chúng đang được yêu cầu đưa ra các quyết định lớn hơn.

Vấn đề giám sát. Một khi AI được triển khai bên trong các mạng mật, trách nhiệm giải trình bên ngoài trở thành cái mà các chuyên gia gọi là "gần như không thể." Các hạn chế bị xói mòn dưới áp lực hoạt động. Các kỹ sư triển khai thực địa mà OpenAI hứa có thể quan sát một số tương tác, chắc chắn. Nhưng các hoạt động mật hạn chế luồng thông tin theo thiết kế.

Bằng tiếng Anh: cùng những bức tường giữ bí mật bên trong cũng giữ giám sát bên ngoài.

Lầu Năm Góc có một điểm. Nó заслуживает một phiên điều trần công bằng.

Vũ khí tự động một phần — như các máy bay không người lái được sử dụng ở Ukraine — cứu sống. Chúng cho phép các lực lượng nhỏ hơn phòng thủ chống lại các lực lượng lớn hơn. Trung Quốc và Nga không chờ đợi độ tin cậy hoàn hảo trước khi triển khai các hệ thống của riêng họ.

Từ chối sử dụng AI trong quốc phòng tạo ra khoảng trống khả năng. Các đối thủ sẽ khai thác nó.

Dario Amodei thừa nhận điều này một cách trực tiếp:

Phản đối của ông không phải là đích đến. Đó là dòng thời gian.

Ông đề nghị hợp tác về R&D cần thiết để đạt được điều đó. Lầu Năm Góc nói không.

Có một khoảng cách giữa "AI có thể tóm tắt báo cáo tình báo" — nơi nó thực sự xuất sắc — và "AI có thể quyết định ai sống và ai chết." Các hợp đồng không lấp đầy khoảng cách đó. Các sửa đổi không lấp đầy nó. Kỹ thuật thì có.

Và kỹ thuật chưa hoàn thành.

Cách Bạn Đưa Một Công Ty Mỹ Vào Danh Sách Đen

Rủi ro chuỗi cung ứng. Nghe có vẻ quan liêu. Nó thực sự là một công tắc giết.

Theo Đạo luật An ninh Chuỗi Cung ứng Thu mua Liên bang năm 2018 — FASCSA — một chỉ định "rủi ro chuỗi cung ứng" có nghĩa là không nhà thầu chính phủ nào có thể kinh doanh với bạn. Không chỉ Lầu Năm Góc. Bất kỳ ai muốn một hợp đồng liên bang. Bất kỳ nhà cung cấp, nhà thầu phụ hoặc đối tác nào trong hệ sinh thái chính phủ.

Bằng tiếng Anh: bạn trở thành phóng xạ đối với toàn bộ chuỗi cung ứng liên bang.

Luật được xây dựng cho các mối đe dọa nước ngoài. Cơ sở hạ tầng 5G của Huawei. Phần mềm diệt virus của Kaspersky. Các công ty có quan hệ được ghi nhận với các chính phủ thù địch.

Mọi công ty trong danh sách trước Anthropic đều có một điểm chung: họ đến từ các quốc gia được coi là đối thủ của Hoa Kỳ.

Anthropic có trụ sở tại San Francisco.

Lầu Năm Góc cũng đe dọa Đạo luật Sản xuất Quốc phòng — một luật thời Chiến tranh Lạnh được thiết kế để trưng dụng các nhà máy cho sản xuất thời chiến. Nhà máy thép. Nhà máy đạn dược. Cơ sở hạ tầng vật chất của chiến tranh.

Lầu Năm Góc đe dọa sử dụng nó để buộc một công ty phần mềm loại bỏ các tính năng an toàn khỏi một chatbot AI.

Các chuyên gia pháp lý gọi ứng dụng là "đáng ngờ." Luật được xây dựng cho sản xuất vật chất, không phải hạn chế phần mềm. Sử dụng nó để buộc một công ty làm cho AI của mình kém an toàn hơn sẽ là, ít nhất, một lý thuyết pháp lý mới lạ.

Amodei xác định vấn đề logic trong tuyên bố của mình:

Bạn không thể gọi một công nghệ là mối đe dọa đối với chuỗi cung ứng viện dẫn các quyền lực khẩn cấp để thu giữ nó vì bạn không thể hoạt động mà không có nó. Chọn một.

Kết quả thực tế đáng nói. CBS News báo cáo Claude vẫn được sử dụng quân sự tích cực. Bất chấp danh sách đen. Chỉ định là trừng phạt, không thực tế — công nghệ được nhúng quá sâu để tháo ra.

Điều đó đặt ra một câu hỏi mà dường như không ai ở Washington muốn trả lời: nếu Lầu Năm Góc không thể thực thi lệnh loại bỏ công nghệ mà nó đã chính thức đưa vào danh sách đen, chính xác thì nó sẽ thực thi các biện pháp bảo vệ sử dụng như thế nào?

Lập trường của Lầu Năm Góc rất đơn giản. Các công ty tư nhân không đặt chính sách quân sự. Các công ty AI là nhà cung cấp. Quân đội quyết định cách sử dụng các công cụ của mình.

Từ góc nhìn này, Anthropic là một nhà cung cấp từ chối giao những gì được đặt hàng. Khách hàng tìm một nhà cung cấp khác.

Cách trình bày đó nhất quán nội bộ. Đó cũng là cách trình bày bạn sẽ sử dụng cho đồ dùng văn phòng. Không phải cho công nghệ đã chọn leo thang hạt nhân trong 95% mô phỏng.

Các Biện Pháp Bảo Vệ Có Thực Không?

Vào thứ Sáu, thỏa thuận của OpenAI có các biện pháp bảo vệ. Đến thứ Hai, nó cần thêm các biện pháp bảo vệ.

Điều đó cho bạn biết điều gì đó về các biện pháp bảo vệ thứ Sáu.

Ngôn ngữ mà Altman đồng ý trong sửa đổi thứ Hai xứng đáng được đọc kỹ:

Từ làm công việc nặng: cố ý.

Điều gì xảy ra khi một AI xử lý một bộ dữ liệu tình cờ bao gồm người Mỹ? Điều gì nếu giám sát là sản phẩm phụ của một hoạt động tình báo rộng hơn, không phải mục tiêu đã nêu? Ai xác định ý định bên trong một mạng mật nơi các cơ chế giám sát, theo thiết kế, bị hạn chế?

Điều khoản dữ liệu mua thương mại thậm chí còn tiết lộ nhiều hơn. Sửa đổi thứ Hai cấm rõ ràng sử dụng dữ liệu cá nhân đã mua — theo dõi vị trí, lịch sử duyệt web, hồ sơ tài chính — để giám sát người Mỹ.

Điều khoản đó được thêm vào thứ Hai. Thỏa thuận thứ Sáu không bao gồm nó.

Trong cả một cuối tuần, thỏa thuận của OpenAI với Lầu Năm Góc về mặt kỹ thuật cho phép giám sát hàng loạt thông qua dữ liệu được mua thương mại về công dân Mỹ.

Altman thừa nhận điều đó:

Việc tách biệt NSA cũng đáng xem xét. Các cơ quan tình báo như NSA không thể sử dụng hệ thống của OpenAI mà không có "sửa đổi tiếp theo" đối với hợp đồng. Nghe có vẻ như một lệnh cấm. Nó thực sự là một quy trình. Cơ chế cấp quyền truy cập được xây dựng vào cấu trúc hợp đồng.

Đó không phải là một bức tường. Đó là một cánh cửa với một chìa khóa khác.

Vấn đề sâu hơn là mâu thuẫn toàn bộ. Cùng ngày Altman đăng về nguyên tắc và biện pháp bảo vệ trên X, ông nói với nhân viên nội bộ rằng OpenAI "không được chọn cách quân đội sử dụng công nghệ của mình."

Nếu công ty xây dựng AI không được chọn cách sử dụng nó, các biện pháp bảo vệ là một thông cáo báo chí. Không phải một chính sách.

Trong môi trường mật, giám sát AI về cơ bản khác với giám sát một dịch vụ đám mây. Bộ máy an ninh bảo vệ bí mật quân sự cũng chặn giám sát độc lập về hành vi AI.

Các kỹ sư triển khai thực địa có thể xem một số tương tác. Nhưng "một số tương tác" và "mọi tương tác mà hợp đồng bao gồm" là những điều rất khác nhau.

Điều Gì Tiếp Theo

Thị trường đã lên tiếng. Hợp tác nhận được hợp đồng. Kháng cự bị đưa vào danh sách đen.

Công chúng cũng đã lên tiếng. Họ đang gỡ cài đặt.

Cấu trúc khuyến khích rất rõ ràng. OpenAI hợp tác và giành được thỏa thuận. Anthropic kháng cự và bị chỉ định là rủi ro chuỗi cung ứng — cùng nhãn mà chính phủ sử dụng cho các công ty liên kết với các đối thủ nước ngoài.

Tại hội nghị thượng đỉnh a16z, Karp dự đoán mọi công ty AI sẽ làm việc với quân đội trong vòng ba năm. Dựa trên các khuyến khích, đó không phải là một dự đoán. Đó là một mô tả.

Nhưng các con số phản ứng dữ dội kể một câu chuyện khác.

Sự gia tăng gỡ cài đặt 295%. Claude ở #1 tại bảy quốc gia. Hơn 500 nhân viên công nghệ phá vỡ hàng ngũ với người sử dụng lao động của họ. Le Monde viết xã luận từ Paris về sự can thiệp quá mức của chính phủ. Các cuộc thăm dò cho thấy 84% công dân Anh lo lắng về quan hệ đối tác AI chính phủ-doanh nghiệp.

Các kỹ sư xây dựng các hệ thống này và những người sử dụng chúng thấy điều gì đó mà Lầu Năm Góc rõ ràng không thấy: hỗ trợ quốc phòng và triển khai công nghệ không đáng tin cậy cho giết chóc tự động không phải là cùng một điều.

Không có sửa đổi hợp đồng nào lấp đầy khoảng cách này. Không có biện pháp bảo vệ nào lấp đầy nó. Không có kỹ sư triển khai thực địa nào lấp đầy nó.

Các mô hình AI đã chọn leo thang hạt nhân trong 95% mô phỏng trò chơi chiến tranh. Công ty nói "công nghệ chưa sẵn sàng" đã bị đưa vào danh sách đen. Công ty nói "có" đã thừa nhận trong vòng 72 giờ rằng nó đã lỏng lẻo. Công nghệ vẫn được triển khai trong các hoạt động tích cực bất kể công ty nào muốn gì.

Amodei đề nghị làm R&D để làm cho vũ khí AI tự động an toàn và đáng tin cậy. Ông đề nghị hợp tác với Lầu Năm Góc để đạt được điều đó. Đề nghị bị từ chối.

Anthropic có hợp đồng 200 triệu USD và sự tin tưởng của Lầu Năm Góc. Rồi họ hỏi công nghệ của họ đang được sử dụng như thế nào.

Câu trả lời là một thời hạn, một danh sách đen và một nhãn trước đây dành riêng cho các đối thủ của Mỹ.

Các mô phỏng tiếp tục chạy. Trong 95% trong số chúng, ai đó nhấn nút.

Tiết lộ: Bài viết này được chỉnh sửa bởi Diego Almada Lopez. Để biết thêm thông tin về cách chúng tôi tạo và xem xét nội dung, hãy xem Chính sách Biên tập của chúng tôi.

Nguồn: https://cryptobriefing.com/ai-chose-nukes-in-95-of-war-games-the-pentagon-wants-to-deploy-it-anyway/

Cơ hội thị trường
Logo MASS
Giá MASS(MASS)
$0.0006635
$0.0006635$0.0006635
-0.77%
USD
Biểu đồ giá MASS (MASS) theo thời gian thực
Tuyên bố miễn trừ trách nhiệm: Các bài viết được đăng lại trên trang này được lấy từ các nền tảng công khai và chỉ nhằm mục đích tham khảo. Các bài viết này không nhất thiết phản ánh quan điểm của MEXC. Mọi quyền sở hữu thuộc về tác giả gốc. Nếu bạn cho rằng bất kỳ nội dung nào vi phạm quyền của bên thứ ba, vui lòng liên hệ crypto.news@mexc.com để được gỡ bỏ. MEXC không đảm bảo về tính chính xác, đầy đủ hoặc kịp thời của các nội dung và không chịu trách nhiệm cho các hành động được thực hiện dựa trên thông tin cung cấp. Nội dung này không cấu thành lời khuyên tài chính, pháp lý hoặc chuyên môn khác, và cũng không được xem là khuyến nghị hoặc xác nhận từ MEXC.