Pentagon chính thức định nghĩa Anthropic là ‘rủi ro chuỗi cung ứng’

Chính quyền của Trump đang thực hiện theo lời đe dọa của mình về việc chỉ định công ty trí tuệ nhân tạo Anthropic là một rủi ro chuỗi cung ứng trong một động thái chưa từng có tiền lệ có thể buộc các nhà thầu chính phủ khác phải ngừng sử dụng chatbot AI Claude.

Bộ Quốc phòng cho biết trong một tuyên bố vào thứ Năm rằng họ đã “chính thức thông báo cho lãnh đạo Anthropic rằng công ty và các sản phẩm của họ bị coi là rủi ro chuỗi cung ứng, có hiệu lực ngay lập tức.”

Quyết định này dường như đã chấm dứt cơ hội đàm phán thêm với Anthropic, gần một tuần sau khi Tổng thống Donald Trump và Bộ trưởng Quốc phòng Pete Hegseth cáo buộc công ty gây nguy hiểm cho an ninh quốc gia.

Trump và Hegseth đã công bố một loạt các hình phạt đe dọa vào thứ Sáu tuần trước, vào đêm trước chiến tranh Iran, sau khi CEO của Anthropic, Dario Amodei, từ chối rút lui vì lo ngại các sản phẩm của công ty có thể được sử dụng để giám sát quy mô lớn người Mỹ hoặc vũ khí tự động.

Amodei cho biết trong một tuyên bố vào thứ Năm rằng “chúng tôi không tin rằng hành động này hợp pháp, và chúng tôi không còn lựa chọn nào khác ngoài việc thách thức nó tại tòa án.”

Bộ Quốc phòng cho biết, “đây đã xoay quanh một nguyên tắc cơ bản: quân đội có thể sử dụng công nghệ cho tất cả các mục đích hợp pháp. Quân đội sẽ không cho phép nhà cung cấp can thiệp vào chuỗi chỉ huy bằng cách hạn chế việc sử dụng hợp pháp một khả năng quan trọng và đặt các chiến binh của chúng ta vào rủi ro.”

Amodei phản bác rằng các ngoại lệ hẹp mà Anthropic tìm cách giới hạn giám sát và vũ khí tự động “liên quan đến các lĩnh vực sử dụng cấp cao, chứ không phải quyết định vận hành.”

Ông nói rằng đã có “các cuộc trò chuyện mang tính xây dựng” với Bộ Quốc phòng trong những ngày gần đây về việc liệu họ có thể tiếp tục sử dụng Claude hoặc thiết lập một “chuyển tiếp suôn sẻ” nếu không đạt được thỏa thuận. Trump đã giao cho quân đội sáu tháng để loại bỏ Claude, vốn đã được tích hợp rộng rãi trong các nền tảng quân sự và an ninh quốc gia. Amodei cho biết việc đảm bảo các chiến binh không bị “thiệt thòi các công cụ quan trọng trong giữa các hoạt động chiến đấu lớn” là ưu tiên hàng đầu.

Một số nhà thầu quân sự đã bắt đầu cắt đứt quan hệ với Anthropic, một ngôi sao đang lên trong ngành công nghệ bán Claude cho nhiều doanh nghiệp và cơ quan chính phủ. Lockheed Martin cho biết sẽ “theo hướng chỉ đạo của Tổng thống và Bộ Chiến tranh” và tìm kiếm các nhà cung cấp mô hình ngôn ngữ lớn khác.

“Chúng tôi dự kiến sẽ ảnh hưởng tối thiểu vì Lockheed Martin không phụ thuộc vào bất kỳ nhà cung cấp LLM nào cho bất kỳ phần công việc nào của chúng tôi,” công ty cho biết.

Chưa rõ Bộ Quốc phòng sẽ diễn giải phạm vi của việc chỉ định rủi ro như thế nào. Amodei nói rằng một thông báo mà Anthropic nhận được từ Bộ Quốc phòng vào thứ Tư cho thấy nó chỉ áp dụng cho việc Claude được khách hàng sử dụng như một “phần trực tiếp của” hợp đồng quân sự của họ.

Microsoft cho biết các luật sư của họ đã nghiên cứu quy định và công ty “có thể tiếp tục làm việc với Anthropic về các dự án không liên quan đến quốc phòng.”

Bộ Quốc phòng bị chỉ trích về quyết định của mình

Quyết định của Bộ Quốc phòng áp dụng quy tắc nhằm đối phó với các mối đe dọa chuỗi cung ứng do các đối thủ nước ngoài gây ra đã gặp phải nhiều chỉ trích rộng rãi. Các mã liên bang đã định nghĩa rủi ro chuỗi cung ứng là “rủi ro mà một đối thủ có thể phá hoại, cố ý giới thiệu chức năng không mong muốn hoặc phá hoại hệ thống nhằm gây gián đoạn, làm giảm hiệu quả hoặc do thám.”

Thượng nghị sĩ Kirsten Gillibrand, một đảng viên Đảng Dân chủ New York và thành viên Ủy ban Quân vụ Thượng viện cùng Ủy ban Tình báo Thượng viện, gọi đó là “một sự lạm dụng nguy hiểm của một công cụ nhằm giải quyết công nghệ do đối phương kiểm soát.”

“Hành động liều lĩnh này thiển cận, tự hủy hoại chính mình và là món quà cho các đối thủ của chúng ta,” bà nói trong một tuyên bố bằng văn bản vào thứ Năm.

Neil Chilson, cựu Giám đốc công nghệ của Ủy ban Thương mại Liên bang (FTC) theo Đảng Cộng hòa, hiện đang dẫn đầu chính sách AI tại Viện Abundance, cho biết quyết định này trông giống như “sự quá đà lớn sẽ gây tổn hại cả ngành AI của Mỹ lẫn khả năng của quân đội trong việc tiếp cận công nghệ tốt nhất cho chiến binh Mỹ.”

Trong ngày, một nhóm cựu quan chức quốc phòng và an ninh quốc gia đã gửi thư tới các nhà lập pháp Mỹ bày tỏ “mối quan ngại nghiêm trọng” về việc chỉ định này.

“Việc sử dụng quyền hạn này chống lại một công ty Mỹ trong nước là một sự lệch lạc sâu sắc khỏi mục đích ban đầu và đặt ra một tiền lệ nguy hiểm,” theo thư của các cựu quan chức và chuyên gia chính sách, bao gồm cựu giám đốc CIA Michael Hayden và các lãnh đạo Không quân, Quân đội, Hải quân đã nghỉ hưu.

Họ còn nói rằng việc chỉ định như vậy nhằm “bảo vệ Hoa Kỳ khỏi sự xâm nhập của các đối thủ nước ngoài — từ các công ty trung thành với Bắc Kinh hoặc Moscow, chứ không phải từ các nhà sáng tạo Mỹ hoạt động minh bạch theo pháp luật. Áp dụng công cụ này để trừng phạt một công ty Mỹ vì từ chối loại bỏ các biện pháp bảo vệ chống giám sát quy mô lớn trong nước và vũ khí tự động hoàn toàn là một lỗi phân loại với hậu quả vượt xa cuộc tranh chấp này.”

Anthropic chứng kiến sự gia tăng lượt tải xuống của người tiêu dùng

Trong khi mất các đối tác lớn với các nhà thầu quốc phòng, Anthropic đã chứng kiến sự gia tăng đột biến trong lượt tải xuống của người tiêu dùng trong tuần qua do mọi người ủng hộ quan điểm đạo đức của công ty. Hơn một triệu người đã đăng ký sử dụng Claude mỗi ngày trong tuần này, công ty cho biết, nâng nó vượt qua ChatGPT của OpenAI và Gemini của Google trở thành ứng dụng AI hàng đầu tại hơn 20 quốc gia trong cửa hàng ứng dụng của Apple.

Cuộc tranh chấp với Bộ Quốc phòng cũng đã làm sâu sắc thêm mối thù địch giữa Anthropic và OpenAI bắt đầu từ khi các cựu lãnh đạo của OpenAI, bao gồm cả Amodei, thành lập Anthropic vào năm 2021.

Chỉ vài giờ sau khi Bộ Quốc phòng trừng phạt Anthropic vào thứ Sáu tuần trước, OpenAI đã công bố một thỏa thuận nhằm thay thế hiệu quả Anthropic bằng ChatGPT trong các môi trường quân sự phân loại.

OpenAI cho biết họ đã tìm kiếm các biện pháp bảo vệ tương tự chống lại giám sát trong nước và vũ khí tự động hoàn toàn, nhưng sau đó phải sửa đổi các thỏa thuận của mình, khiến CEO Sam Altman phải nói rằng ông lẽ ra không nên vội vàng ký một thỏa thuận “trông có vẻ cơ hội và cẩu thả.”

Amodei cũng bày tỏ sự hối tiếc về phần của mình trong “ngày khó khăn của công ty,” nói vào thứ Năm rằng ông muốn “trực tiếp xin lỗi” về một ghi chú nội bộ gửi tới nhân viên Anthropic, chỉ trích hành vi của OpenAI và gợi ý rằng Anthropic bị trừng phạt vì không đưa ra “lời khen ngợi như chế độ độc tài” dành cho Trump.

**Tham gia cùng chúng tôi tại Hội nghị Đổi mới Nơi làm việc Fortune **19–20 tháng 5, 2026, tại Atlanta. Thời đại mới của đổi mới nơi làm việc đã đến — và sách lược cũ đang được viết lại. Trong sự kiện độc quyền, năng lượng cao này, các nhà lãnh đạo sáng tạo nhất thế giới sẽ tụ họp để khám phá cách AI, nhân loại và chiến lược hội tụ để định hình lại, một lần nữa, tương lai của công việc. Đăng ký ngay.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
0/400
Không có bình luận
  • Ghim