Tóm tắt
- Một thẩm phán liên bang đã ngăn chặn Lầu Năm Góc gắn mác Anthropic là rủi ro chuỗi cung ứng, nhận định rằng hành động này có khả năng vi phạm quyền Tu chính án thứ nhất và quyền được xét xử công bằng của công ty.
- Tranh chấp bắt nguồn từ hợp đồng AI trị giá 200 triệu đô la của Bộ Quốc phòng đã đổ vỡ sau khi Anthropic từ chối cho phép sử dụng mô hình của mình cho giám sát hàng loạt hoặc chiến tranh tự động sát thương.
- Phán quyết tạm thời khôi phục vị thế của Anthropic với các nhà thầu liên bang và có thể định hình cách các công ty AI thiết lập giới hạn sử dụng trong các thỏa thuận với chính phủ.
Một thẩm phán liên bang đã ngăn chặn Lầu Năm Góc gắn mác Anthropic là rủi ro chuỗi cung ứng, phán quyết vào thứ Năm rằng chiến dịch của chính phủ chống lại công ty AI này đã vi phạm quyền Tu chính án thứ nhất và quyền được xét xử công bằng.
Thẩm phán Quận Hoa Kỳ Rita Lin đã ban hành một lệnh cấm sơ bộ từ Quận Bắc California hai ngày sau khi nghe tranh luận bằng lời nói từ cả hai bên, trong một vụ án mà các nhà quan sát cho rằng là không thể tránh khỏi do chính giấy tờ của chính phủ.
"Không có gì trong luật điều chỉnh ủng hộ quan niệm kiểu Orwell rằng một công ty Mỹ có thể bị gắn mác là đối thủ tiềm ẩn và kẻ phá hoại của Hoa Kỳ vì bày tỏ sự không đồng tình với chính phủ," Thẩm phán Lin viết.
Hồ sơ nội bộ đã gây ra hậu quả nghiêm trọng cho vụ kiện của chính phủ, theo Andrew Rossow, luật sư về công vụ và CEO của AR Media Consulting, người đã nói với Decrypt rằng việc chỉ định này "được kích hoạt bởi hành vi báo chí, không phải phân tích an ninh."
"Chính phủ về cơ bản đã viết ra động cơ của chính mình, và đó là trả thù," Rossow nói.
Tranh chấp tập trung vào hợp đồng hai năm trị giá 200 triệu đô la được trao cho Anthropic vào tháng 7 năm 2025 bởi Văn phòng Trưởng ban Kỹ thuật số và Trí tuệ nhân tạo của Bộ Chiến tranh.
Đàm phán triển khai Claude lên nền tảng GenAI.Mil của bộ đã đổ vỡ sau khi hai bên không thể đạt được thỏa thuận về các hạn chế sử dụng.
Anthropic nhấn mạnh hai điều kiện: Claude không được sử dụng để giám sát hàng loạt người Mỹ hoặc sử dụng sát thương trong chiến tranh tự động, với lập luận rằng mô hình chưa an toàn cho cả hai mục đích.
Tại cuộc họp ngày 24 tháng 2, Bộ trưởng Chiến tranh Pete Hegseth đã nói với các đại diện của Anthropic rằng nếu công ty không bỏ các hạn chế trước ngày 27 tháng 2, bộ sẽ ngay lập tức chỉ định nó là rủi ro chuỗi cung ứng.
Anthropic từ chối tuân thủ.
Cùng ngày đó, Tổng thống Trump đã đăng một chỉ thị trên Truth Social ra lệnh cho mọi cơ quan liên bang "ngay lập tức ngừng" sử dụng công nghệ của công ty, gọi Anthropic là "công ty tả khuynh cực đoan, giác ngộ."
Hơn một giờ sau, Hegseth mô tả lập trường của Anthropic là "một bài học về kiêu ngạo và phản bội," ra lệnh rằng không nhà thầu nào kinh doanh với quân đội được phép tiến hành hoạt động thương mại với công ty. Chỉ định chuỗi cung ứng chính thức theo sau bởi một thư vào ngày 3 tháng 3.
Anthropic đã kiện chính phủ vào ngày 9 tháng 3, cáo buộc vi phạm Tu chính án thứ nhất, quyền được xét xử công bằng và Đạo luật Thủ tục Hành chính.
"Trừng phạt Anthropic vì đưa sự giám sát công chúng vào vị trí ký kết hợp đồng của chính phủ là hành vi trả đũa kinh điển vi phạm Tu chính án thứ nhất bất hợp pháp," Thẩm phán Lin viết trong lệnh thứ Năm.
Lệnh này, được hoãn trong bảy ngày, ngăn chặn cả ba hành động của chính phủ, yêu cầu báo cáo tuân thủ trước ngày 6 tháng 4 và khôi phục hiện trạng trước các sự kiện ngày 27 tháng 2.
Vũ khí hóa pháp luật
Việc chỉ định là "rủi ro chuỗi cung ứng" trong lịch sử được dành riêng cho các cơ quan tình báo nước ngoài, khủng bố và các tác nhân thù địch khác.
Nó chưa bao giờ được áp dụng cho một công ty trong nước trước Anthropic. Các nhà thầu quốc phòng bắt đầu đánh giá và trong nhiều trường hợp chấm dứt sự phụ thuộc của họ vào Anthropic trong những tuần sau đó, lệnh của Thẩm phán Lin lưu ý.
Và tư thế của chính phủ có thể có những hậu quả không lường trước được, các chuyên gia lập luận.
Thật vậy, phán quyết thứ Năm có thể thúc đẩy các công ty AI "chính thức hóa các rào cản đạo đức khi làm việc với chính phủ," Pichapen Prateepavanich, chiến lược gia chính sách và người sáng lập công ty cơ sở hạ tầng Gather Beyond, nói với Decrypt.
Ở một mức độ nào đó, phán quyết cũng cho thấy rằng các công ty "có thể thiết lập giới hạn sử dụng rõ ràng mà không tự động kích hoạt hành động quy định trừng phạt," cô nói.
Nhưng điều này "không loại bỏ căng thẳng," cô nói thêm. Những gì phán quyết giới hạn là "khả năng leo thang bất đồng đó thành việc loại trừ rộng hơn hoặc gắn mác trông có vẻ trả đũa."
Tuy nhiên, việc áp dụng thẩm quyền theo luật định hiện tại để chỉ định một công ty là rủi ro chuỗi cung ứng "vì nó từ chối loại bỏ các rào cản an toàn" không phải là mở rộng của đạo luật rủi ro chuỗi cung ứng, Rossow giải thích. Thay vào đó, nó hoạt động như một "vũ khí hóa" của pháp luật.
"Đây là một phần của mô hình hành vi đang diễn ra của Nhà Trắng bất cứ khi nào họ bị thách thức, dẫn đến các mối đe dọa mất cân xứng, bị cảm xúc chi phối và thiên vị cũng như tống tiền của chính phủ," ông nói thêm.
Nếu "lý thuyết" của chính phủ được chấp nhận, nó sẽ tạo ra một tiền lệ "nguy hiểm" trong đó các công ty AI có thể bị đưa vào danh sách đen vì các chính sách an toàn mà chính phủ không thích, "trước khi bất kỳ tác hại nào xảy ra," không có quy trình thích hợp, dưới danh nghĩa an ninh quốc gia, Rossow nói.
Bản tin Daily Debrief
Bắt đầu mỗi ngày với các tin tức hàng đầu ngay bây giờ, cộng với các tính năng gốc, podcast, video và hơn thế nữa.
Nguồn: https://decrypt.co/362548/judge-blocks-pentagon-anthropic-national-security-threat



