Bộ trưởng Quốc phòng Mỹ Pete Hegseth vừa đặt ra hạn chót là ngày 27-2 để Công ty Anthropic cho phép quân đội sử dụng công nghệ trí tuệ nhân tạo (AI) của họ cho mục đích quân sự mà không bị hạn chế. Nếu không đáp ứng, công ty có trụ sở ở TP San Francisco (Mỹ) này sẽ có nguy cơ bị mất hợp đồng với chính phủ.
Theo AP, tối hậu thư trên được đưa ra tại cuộc gặp giữa ông Hegseth và Giám đốc điều hành (CEO) Dario Amodei của Anthropic hôm 24-2. Tại cuộc gặp này, ông Amodei không nhượng bộ ở hai điểm mà ông đã xác lập là “lằn ranh đỏ” của Anthropic: không tham gia vào việc dùng AI để tự động chọn và tấn công mục tiêu quân sự; không hỗ trợ theo dõi, giám sát công dân Mỹ. Trong khi đó, Bộ Quốc phòng Mỹ không đồng tình với những giới hạn đạo đức mà Anthropic đặt ra vì các chiến dịch quân sự cần những công cụ không bị cài sẵn các hạn chế. Một quan chức quốc phòng lập luận Lầu Năm Góc chỉ ban hành các mệnh lệnh hợp pháp, và nhấn mạnh rằng nếu sử dụng công cụ của Anthropic thì việc bảo đảm tuân thủ pháp luật sẽ là trách nhiệm của quân đội.
Trước thềm cuộc gặp trên, ông Amodei cũng nhiều lần bày tỏ quan ngại về vấn đề đạo đức liên quan việc chính phủ sử dụng AI mà không có sự giám sát, như mối đe dọa từ máy bay không người lái (UAV) vũ trang tự động hoàn toàn hoặc việc sử dụng AI phục vụ mục đích giám sát hàng loạt. Bất chấp những lo ngại này, Mỹ vẫn đang đẩy mạnh xu hướng ứng dụng AI trong quân sự. Mùa hè năm ngoái, Lầu Năm Góc thông báo trao các hợp đồng quốc phòng cho 4 công ty AI là Anthropic, Google, OpenAI, xAI với mỗi hợp đồng có giá trị lên đến 200 triệu USD.

Binh sĩ Mỹ vận hành máy bay không người lái góc nhìn thứ nhất trong cuộc diễn tập tại một căn cứ ở bang Hawaii hồi cuối tháng 1-2026. Ảnh: BỘ QUỐC PHÒNG MỸ
Đòi hỏi mới của Bộ Quốc phòng Mỹ đối với Anthropic đã làm nóng lại cuộc tranh luận về ứng dụng AI trong quân sự, vai trò của AI trong an ninh quốc gia, cũng như cách công nghệ này có thể được sử dụng trong các tình huống quan trọng liên quan việc sử dụng vũ lực gây chết người, xử lý thông tin nhạy cảm hoặc hoạt động giám sát của chính phủ. Một số công ty như Microsoft và Anthropic đã tìm cách đặt ra giới hạn đối với việc sử dụng các sản phẩm AI của mình. Tuy nhiên, cũng có những doanh nghiệp chọn hướng đi ngược lại. Ông Alex Karp, Giám đốc điều hành Công ty phần mềm Palantir Technologies (Mỹ), khẳng định ông không có bất kỳ băn khoăn hoặc lo ngại nào về việc phần mềm của công ty được sử dụng thế nào trong lĩnh vực quốc phòng.
Một số chuyên gia nhận định việc Lầu Năm Góc đẩy nhanh triển khai AI cho thấy Quốc hội cần tăng cường giám sát hoặc ban hành quy định chặt chẽ hơn đối với công nghệ này. “Luật pháp đang không theo kịp tốc độ phát triển nhanh của công nghệ. Nhưng điều đó không có nghĩa là Bộ Quốc phòng muốn làm gì cũng được” – ông Amos Toh, cố vấn cấp cao tại Trung tâm Brennan thuộc ĐH New York (Mỹ), nhận định với AP.
Những yêu cầu gây tranh cãi
Công ty trí tuệ nhân tạo xAI của tỉ phú Elon Musk vừa ký thỏa thuận cho phép mô hình Grok của hãng được sử dụng trong các hệ thống quân sự mật của Mỹ. Trang Axios đầu tuần này dẫn lời một quan chức quốc phòng Mỹ cho biết thông tin trên. Theo thỏa thuận, Grok sẽ được tích hợp vào các hệ thống phục vụ một số hoạt động phân tích tình báo nhạy cảm nhất, phát triển vũ khí và tác chiến trên chiến trường của quân đội Mỹ.
Cho đến nay, mô hình Claude của Công ty Anthropic là hệ thống trí tuệ nhân tạo (AI) duy nhất được phép hoạt động trong các môi trường mật này. Tuy nhiên, Anthropic đã từ chối yêu cầu của Lầu Năm Góc về việc cho phép Claude được sử dụng cho “mọi mục đích hợp pháp”. Công ty này đặc biệt phản đối việc dùng mô hình này để giám sát diện rộng người dân Mỹ và phát triển vũ khí hoàn toàn tự động. Ngược lại, xAI đã chấp nhận tiêu chuẩn “mọi mục đích hợp pháp” mà Bộ Quốc phòng Mỹ đề xuất. Hiện vẫn chưa rõ Grok có thể thay thế hoàn toàn Claude trong các hệ thống mật hay không và nếu có thì tiến trình chuyển đổi này sẽ mất bao lâu.
Claude đã được tích hợp vào một số hoạt động quốc phòng thông qua các quan hệ đối tác, trong đó có sự hợp tác với Công ty Palantir Technologies (Mỹ). Các quan chức quốc phòng thừa nhận rằng việc thay thế Claude trong các hệ thống mật sẽ phức tạp về mặt kỹ thuật. Grok, cùng với Gemini của Google và ChatGPT của OpenAI, hiện đã được sử dụng trong các hệ thống không thuộc diện mật của quân đội. Google và OpenAI cũng đang thảo luận với Lầu Năm Góc về khả năng mở rộng các mô hình của mình sang môi trường mật.
Hoàng Phương
Nguồn: https://nld.com.vn/tranh-luan-ve-ung-dung-ai-trong-quan-su-196260225202514983.htm

