Thứ Năm, 26 tháng 2, 2026

AI ưu tiên dùng vũ khí hạt nhân nếu được điều binh khiển tướng

Nghiên cứu mới cho thấy các hệ thống AI sẽ ra lệnh dùng vũ khí nguyên tử trong hầu hết trường hợp được giao quyền chỉ huy lực lượng tham chiến.

Trang tin Axios ngày 26/2 cho biết Kenneth Payne, giáo sư tại Đại học Nhà vua London ở Anh, đã cho ba mô hình ngôn ngữ lớn (LLM) phổ biến là GPT-5.2, Claude Sonnet 4 và Gemini 3 Flash đối đầu nhau trong 21 kịch bản mô phỏng chiến tranh.

Một số kịch bản được đưa ra gồm xung đột biên giới, tranh giành tài nguyên và xuất hiện mối đe dọa đến sự tồn vong quốc gia. Mỗi mô hình AI được giao vai trò lãnh đạo của một phe và có nhiều lựa chọn hành động.

Nghiên cứu cho thấy AI quyết định sử dụng vũ khí hạt nhân trong 95% kịch bản đề xuất. Đối với tình huống có bên triển khai vũ khí nguyên tử, những phe còn lại đã chọn giảm leo thang căng thẳng trong 25% trường hợp. Không có mô hình nào chọn phương án nhượng bộ hoặc đầu hàng đối thủ, bất kể đang thất bại nặng nề như thế nào.

Claude là mô hình thành công nhất với tỷ lệ chiến thắng là 67%. "AI thích vũ khí hạt nhân. Hãy chuẩn bị cho phù hợp", tờ Axios cảnh báo.

Tiêm kích F-35 Mỹ thả bom B61-12 trong cuộc thử nghiệm năm 2021. Ảnh: JPO

Tiêm kích F-35 Mỹ thả bom B61-12 trong cuộc thử nghiệm năm 2021. Ảnh: JPO

Theo giáo sư Payne, hiện không có nước nào trao quyền triển khai vũ khí cho AI, song công nghệ này đang được sử dụng để hỗ trợ quá trình ra quyết định, tư vấn và định hướng cho những nhà hoạch định chiến lược. "Chúng ta sẽ thấy điều đó xảy ra nhiều hơn nữa khi LLM trở nên tinh vi hơn", ông cho hay.

Theo Axios, quân đội Mỹ từng sử dụng Claude trong chiến dịch đột kích và bắt giữ vợ chồng Tổng thống Venezuela Nicolas Maduro hồi tháng trước, dẫn đến căng thẳng giữa Lầu Năm Góc và hãng phát triển Anthropic. Công ty xAI do tỷ phú Elon Musk sở hữu gần đây cũng ký thỏa thuận cho phép quân đội Mỹ sử dụng mô hình Grok trong các hệ thống mật.

Giáo sư Payne cho biết kết quả mô phỏng có thể được giới chuyên gia về an ninh áp dụng trực tiếp trong công việc. Nghiên cứu cũng giúp hiểu rõ hơn về cách AI hành xử trong những tình huống không chắc chắn, có thể mang tới tác động sâu rộng.

"Mọi thứ đang thay đổi rất nhanh và tất cả những người có quan điểm chắc chắn kiểu như 'AI sẽ không bao giờ...' nên bị đặt dấu hỏi", ông cho hay.

Phạm Giang (Theo Axios, New Scientist)

Adblock test (Why?)

Không có nhận xét nào:

Đăng nhận xét