Căng thẳng gia tăng giữa một phòng thí nghiệm trí tuệ nhân tạo hàng đầu và cơ quan quốc phòng Hoa Kỳ đã leo thang thành cuộc đụng độ gay gắt về anthropic ai và việc sử dụng trên chiến trường.
Anthropic đã từ chối yêu cầu của Bộ Quốc phòng Hoa Kỳ về việc gỡ bỏ các giới hạn an toàn AI chính khỏi hệ thống của mình, mặc dù hợp đồng trị giá 200 triệu đô la của công ty hiện đang bị đe dọa. Công ty đã nói rõ rằng họ sẽ không lùi bước trong tranh chấp với DoD về cách các mô hình nâng cao của mình có thể được triển khai trên các mạng quân sự.
Các đối thủ cạnh tranh của startup này là OpenAI, Google và xAI đã đảm bảo các giải thưởng DoD tương tự lên tới 200 triệu đô la vào năm 2023. Tuy nhiên, các công ty đó đã đồng ý để Lầu Năm Góc sử dụng hệ thống của họ cho tất cả các nhiệm vụ hợp pháp bên trong môi trường không phân loại của quân đội, mang lại cho chính phủ sự linh hoạt hoạt động rộng hơn.
Ngược lại, Anthropic đã ký thỏa thuận 200 triệu đô la của riêng mình với DoD vào tháng Bảy và trở thành phòng thí nghiệm AI đầu tiên tích hợp các mô hình của mình trực tiếp vào quy trình nhiệm vụ trên các mạng mật. Hơn nữa, các công cụ của công ty đã được tích hợp vào các hoạt động quốc phòng nhạy cảm, đặt công ty vào trung tâm của việc xây dựng AI an ninh quốc gia Hoa Kỳ.
Các cuộc đàm phán với các quan chức Lầu Năm Góc đã trở nên căng thẳng ngày càng tăng trong những tuần gần đây. Một người quen thuộc với các cuộc đàm phán cho biết sự ma sát "quay trở lại vài tháng," rất lâu trước khi công khai rằng Claude đã được sử dụng trong một hoạt động của Hoa Kỳ liên quan đến việc bắt giữ Tổng thống Venezuela Nicolás Maduro.
Cốt lõi của cuộc đụng độ là các cơ quan quân sự có thể đẩy các mô hình AI mạnh mẽ đến đâu theo hướng giám sát và tự động hóa. Anthropic đang tìm kiếm sự đảm bảo ràng buộc rằng công nghệ của mình sẽ không được sử dụng cho vũ khí tự động hoàn toàn hoặc để giám sát hàng loạt người Mỹ trong nước, trong khi DoD muốn tránh những giới hạn như vậy.
Điều đó nói rằng, đây không phải là một bất đồng thương mại hẹp mà là một tranh chấp về biện pháp bảo vệ AI cấp cao với những tác động trực tiếp đối với việc tự động hóa chiến trường trong tương lai. Lầu Năm Góc nhấn mạnh vào quyền tự do pháp lý tối đa, trong khi Anthropic lập luận rằng các hệ thống hiện tại chưa thể được tin cậy với các quyết định sống chết trên quy mô lớn.
Trong một tuyên bố chi tiết, CEO Dario Amodei cảnh báo rằng trong một "nhóm trường hợp hẹp" trí tuệ nhân tạo có thể "làm suy yếu, thay vì bảo vệ, các giá trị dân chủ." Ông nhấn mạnh rằng một số ứng dụng "đơn giản là nằm ngoài phạm vi những gì công nghệ ngày nay có thể làm một cách an toàn và đáng tin cậy," nêu bật những rủi ro của việc sử dụng sai trong các hoạt động quân sự phức tạp.
Mở rộng về mối lo ngại giám sát, Amodei lập luận rằng các hệ thống mạnh mẽ hiện nay giúp có thể "tập hợp dữ liệu rải rác, vô hại riêng lẻ này thành một bức tranh toàn diện về cuộc sống của bất kỳ người nào, tự động và ở quy mô lớn." Hơn nữa, ông cảnh báo rằng khả năng như vậy, nếu hướng vào trong, có thể định hình lại cơ bản mối quan hệ giữa công dân và nhà nước.
Amodei nhắc lại rằng Anthropic ủng hộ việc sử dụng AI để thu thập thông tin tình báo nước ngoài hợp pháp. Tuy nhiên, ông nói thêm rằng "việc sử dụng các hệ thống này để giám sát hàng loạt trong nước không tương thích với các giá trị dân chủ," vạch ra một ranh giới đạo đức cứng rắn giữa tình báo nước ngoài và giám sát nội bộ đối với người Mỹ.
Cuộc đấu tranh quyền lực đã tăng cường trong cuộc họp vào thứ Ba tại Lầu Năm Góc giữa Amodei và Bộ trưởng Quốc phòng Pete Hegseth. Hegseth đã đe dọa gắn nhãn Anthropic là "rủi ro chuỗi cung ứng" hoặc viện dẫn Đạo luật Sản xuất Quốc phòng để buộc tuân thủ. Vào đêm thứ Tư, DoD đã đưa ra những gì họ gọi là "đề nghị cuối cùng và dứt khoát," cho công ty cho đến 17:01 giờ ET vào thứ Sáu để trả lời.
Một phát ngôn viên của Anthropic thừa nhận đã nhận được ngôn ngữ hợp đồng sửa đổi vào thứ Tư nhưng cho biết nó đại diện cho "hầu như không có tiến triển." Theo cô, cách diễn đạt mới được đóng khung như một thỏa hiệp đã được kết hợp với cách diễn đạt pháp lý mà sẽ cho phép các biện pháp bảo vệ quan trọng "bị bỏ qua theo ý muốn," làm suy yếu các biện pháp bảo vệ đã nêu.
Đề cập đến áp lực gia tăng, Amodei nói: "Bộ Chiến tranh đã tuyên bố họ sẽ chỉ ký hợp đồng với các công ty AI chấp nhận 'bất kỳ việc sử dụng hợp pháp nào' và loại bỏ các biện pháp bảo vệ trong các trường hợp được đề cập ở trên." Ông nói thêm rằng các quan chức đã đe dọa cắt Anthropic khỏi hệ thống của họ và chỉ định công ty là "rủi ro chuỗi cung ứng" nếu từ chối; tuy nhiên, ông nhấn mạnh, "chúng tôi không thể vì lương tâm tốt mà chấp nhận yêu cầu của họ."
Đối với Lầu Năm Góc, vấn đề được đóng khung khác đi. Phát ngôn viên chính Sean Parnell nói vào thứ Năm rằng DoD "không có quan tâm" trong việc sử dụng hệ thống của Anthropic cho vũ khí tự động hoàn toàn hoặc để thực hiện giám sát hàng loạt người Mỹ, lưu ý rằng những thực hành như vậy sẽ là bất hợp pháp. Thay vào đó, ông duy trì rằng bộ đơn giản muốn công ty cho phép sử dụng công nghệ của mình cho "tất cả các mục đích hợp pháp," mô tả đó là một "yêu cầu đơn giản, hợp lý."
Tranh chấp cũng đã trở nên cá nhân ở cấp cao. Vào đêm thứ Năm, thứ trưởng quốc phòng Hoa Kỳ Emil Michael đã tấn công Amodei trên X, cho rằng giám đốc điều hành "không muốn gì hơn là cố gắng kiểm soát cá nhân Quân đội Hoa Kỳ." Michael đi xa hơn, viết, "Thật đáng tiếc khi Dario Amodei là một kẻ nói dối và có phức cảm Chúa tể."
Tuy nhiên, Anthropic đã nhận được sự ủng hộ đáng kể từ các bộ phận của ngành công nghệ. Trong một bức thư ngỏ, hơn 200 nhân viên từ Google và OpenAI đã công khai ủng hộ vị trí của công ty. Hơn nữa, một cựu quan chức DoD nói với BBC rằng lý do của Hegseth để sử dụng nhãn "rủi ro chuỗi cung ứng" xuất hiện "cực kỳ mỏng manh," đặt câu hỏi về sự vững chắc của trường hợp của Lầu Năm Góc.
Cuộc đối đầu cũng đã trở thành một điểm chạm trong cuộc tranh luận rộng hơn về chính sách đạo đức AI quân sự. Các nhà nghiên cứu AI và những người ủng hộ tự do dân sự đang theo dõi chặt chẽ, xem trường hợp này như một thử nghiệm ban đầu về việc các cơ quan quốc phòng có thể đẩy các phòng thí nghiệm tư nhân đến đâu để nới lỏng các hạn chế được tích hợp sẵn trên các hệ thống nâng cao.
Bất chấp lời lẽ leo thang, Amodei đã nhấn mạnh rằng ông "sâu sắc về tầm quan trọng hiện hữu của việc sử dụng AI để bảo vệ Hoa Kỳ." Ông đóng khung vấn đề như một trong những triển khai có trách nhiệm, không phải là phản đối quốc phòng, lập luận rằng uy tín lâu dài của các khả năng AI của Hoa Kỳ phụ thuộc vào việc duy trì các chuẩn mực dân chủ.
Một đại diện của Anthropic cho biết tổ chức vẫn "sẵn sàng tiếp tục đàm phán và cam kết về tính liên tục hoạt động cho Bộ và những chiến binh của Mỹ." Tuy nhiên, với đồng hồ trên thời hạn của Lầu Năm Góc đang tích tắc và các mối đe dọa về việc chỉ định chuỗi cung ứng vẫn còn trên bàn, cả hai bên đều phải đối mặt với áp lực để giải quyết bế tắc mà không làm trật bánh đổi mới quan trọng.
Cuối cùng, cuộc đụng độ Anthropic–Lầu Năm Góc về các biện pháp bảo vệ, giám sát và tự chủ đã trở thành một trường hợp đầu tiên xác định trong quản trị AI quân sự. Kết quả của nó có thể sẽ định hình cách các mô hình anthropic ai trong tương lai và các hệ thống đối thủ được ký hợp đồng, hạn chế và triển khai trên các hoạt động quốc phòng của Hoa Kỳ.


