BigBoy
28-11-2023, 15:56
NEW YORK (NV) – Cảnh tượng trông có vẻ giống như một thứ ǵ bước ra từ khoa học viễn tưởng: một bầy robot sát thủ tự săn lùng và có khả năng xộc tới để tiêu diệt mục tiêu mà không cần bất kỳ sự đồng ư nào từ con người.
Nhưng những thứ này đang ngày càng thực tế khi Hoa Kỳ, Trung Quốc và một số quốc gia khác đạt được tiến bộ nhanh chóng trong phát triển và khai triển kỹ nghệ mới có khả năng định h́nh lại bản chất của chiến tranh bằng cách chuyển quyền sinh sát sang máy bay không người lái “drone” tự động có trí tuệ nhân tạo AI.
Viễn cảnh đó làm cho nhiều chính phủ khác lo ngại tới nỗi họ đang cố gắng tập trung sự chú ư vào nó bằng các đề nghị tại Liên Hiệp Quốc nhằm áp đặt các quy tắc ràng buộc pháp lư đối với việc sử dụng cái mà quân đội gọi là vũ khí tự động có khả năng sát thương.
https://www.nguoi-viet.com/wp-content/uploads/2023/11/221109-F-F3962-9870.jpg (https://www.nguoi-viet.com/wp-content/uploads/2023/11/221109-F-F3962-9870.jpg)
Máy bay không người lái Kratos XQ‑58A Valkyrie đang được thí nghiệm ở căn cứ Không Quân Eglin, Florida (H́nh: US Air Force)
“Đây thực sự là một trong những bước ngoặt quan trọng nhất cho nhân loại,” Alexander Kmentt, nhà đàm phán đứng đầu của Áo về khía cạnh này, cho biết trong một cuộc phỏng vấn. “Vai tṛ của con người trong việc sử dụng vơ lực là ǵ – đó là vấn đề an ninh căn bản, một vấn đề pháp lư và cũng là vấn đề đạo đức.”
Nhưng trong khi Liên Hiệp Quốc đang đưa ra nền tảng để các chính phủ bày tỏ lo ngại, th́ tiến tŕnh này dường như không thể mang lại những hạn chế ràng buộc pháp lư mới. Những người ủng hộ kiểm soát vơ khí cho biết, Hoa Kỳ, Nga, Úc, Israel và các nước khác đều lập luận rằng hiện tại không cần luật quốc tế mới, trong khi Trung Quốc muốn phân định giới hạn pháp lư thu hẹp tới mức sẽ có ít tác động thực tế.
Kết quả là cuộc tranh luận buộc phải đi vào nút thắt thủ tục và có rất ít cơ hội đạt được tiến bộ về nhiệm vụ ràng buộc pháp lư trong thời gian sớm.
“Chúng tôi thực sự thấy rằng đây không phải là thời điểm phù hợp,” Konstantin Vorontsov, phó trưởng phái đoàn Nga tại Liên Hiệp Quốc, nói với các nhà ngoại giao đang ngồi chật cứng trong pḥng họp dưới tầng hầm tại trụ sở Liên Hiệp Quốc ở New York.
Cuộc tranh luận về rủi ro của trí tuệ nhân tạo hướng sự chú ư mới trong những ngày gần đây với cuộc chiến giành quyền kiểm soát OpenAI, có lẽ là công ty AI hàng đầu thế giới, mà các nhà lănh đạo công ty tỏ ra bất đồng về việc liệu công ty có tính tới những mầm họa của kỹ nghệ AI hay không. Và tuần trước, các viên chức từ Trung Quốc và Hoa Kỳ tiến tới thảo luận về một vấn đề liên quan: những giới hạn tiềm ẩn của việc sử dụng AI trong các quyết định khai triển vơ khí nguyên tử.
Trong bối cảnh đó, câu hỏi đặt ra về giới hạn nào nên được đề ra cho việc sử dụng vơ khí tự động gây chết người trở nên cấp bách hơn và hiện tại vấn đề là liệu việc có đủ cho Liên Hiệp Quốc khi chỉ áp dụng các hướng dẫn không ràng buộc hay không, quan điểm được ủng hộ bởi Hoa Kỳ.
Nhưng quan điểm của các cường quốc chỉ làm tăng thêm sự lo lắng ở các quốc gia nhỏ hơn, họ lo ngại rằng vơ khí tự động sát thương có thể trở nên phổ biến trên chiến trường trước khi có bất kỳ thỏa thuận nào về quy tắc vận hành.
Những tiến bộ nhanh chóng về trí tuệ nhân tạo và việc sử dụng rộng răi máy bay không người lái trong các cuộc xung đột ở Ukraine và Trung Đông làm cho vấn đề trở nên cấp bách hơn nhiều. Cho tới nay, máy bay không người lái thường dựa vào người điều khiển để thực hiện các nhiệm vụ thủ tiêu, nhưng nhu liệu đang được phát triển sẽ sớm cho phép chúng tự t́m và chọn mục tiêu nhiều hơn.
Giới chức Ngũ Giác Đài nói rơ họ đang chuẩn bị khai triển vơ khí tự động có quy mô.
Hoa Kỳ áp dụng các chính sách tự nguyện đặt ra các giới hạn về cách thức sử dụng trí tuệ nhân tạo và vơ khí tự động gây chết người, gồm có chính sách của Ngũ Giác Đài được sửa đổi trong năm nay mang tên “Quyền Tự Chủ trong Hệ Thống Vơ Khí” và “Tuyên Bố Chính Trị có liên quan của Bộ Ngoại Giao về việc Sử Dụng Trí Tuệ Nhân Tạo và Vơ Khí Tự Động Có Trách Nhiệm,” điều mà Hoa Kỳ kêu gọi các quốc gia khác nắm lấy.
Chính sách của Ngũ Giác Đài cấm sử dụng bất kỳ loại vơ khí tự động mới nào hoặc thậm chí cấm phát triển chúng trừ khi được các viên chức hàng đầu của Bộ Quốc Pḥng chuẩn thuận. Những loại vơ khí tương tự phải được vận hành trong một khu vực địa lư xác định và trong thời gian giới hạn. Và nếu vơ khí được điều khiển bởi AI., quân nhân phải duy tŕ “khả năng giải phóng hoặc tắt các hệ thống đă khai triển thể hiện hành vi ngoài ư muốn.”
Nhưng những thứ này đang ngày càng thực tế khi Hoa Kỳ, Trung Quốc và một số quốc gia khác đạt được tiến bộ nhanh chóng trong phát triển và khai triển kỹ nghệ mới có khả năng định h́nh lại bản chất của chiến tranh bằng cách chuyển quyền sinh sát sang máy bay không người lái “drone” tự động có trí tuệ nhân tạo AI.
Viễn cảnh đó làm cho nhiều chính phủ khác lo ngại tới nỗi họ đang cố gắng tập trung sự chú ư vào nó bằng các đề nghị tại Liên Hiệp Quốc nhằm áp đặt các quy tắc ràng buộc pháp lư đối với việc sử dụng cái mà quân đội gọi là vũ khí tự động có khả năng sát thương.
https://www.nguoi-viet.com/wp-content/uploads/2023/11/221109-F-F3962-9870.jpg (https://www.nguoi-viet.com/wp-content/uploads/2023/11/221109-F-F3962-9870.jpg)
Máy bay không người lái Kratos XQ‑58A Valkyrie đang được thí nghiệm ở căn cứ Không Quân Eglin, Florida (H́nh: US Air Force)
“Đây thực sự là một trong những bước ngoặt quan trọng nhất cho nhân loại,” Alexander Kmentt, nhà đàm phán đứng đầu của Áo về khía cạnh này, cho biết trong một cuộc phỏng vấn. “Vai tṛ của con người trong việc sử dụng vơ lực là ǵ – đó là vấn đề an ninh căn bản, một vấn đề pháp lư và cũng là vấn đề đạo đức.”
Nhưng trong khi Liên Hiệp Quốc đang đưa ra nền tảng để các chính phủ bày tỏ lo ngại, th́ tiến tŕnh này dường như không thể mang lại những hạn chế ràng buộc pháp lư mới. Những người ủng hộ kiểm soát vơ khí cho biết, Hoa Kỳ, Nga, Úc, Israel và các nước khác đều lập luận rằng hiện tại không cần luật quốc tế mới, trong khi Trung Quốc muốn phân định giới hạn pháp lư thu hẹp tới mức sẽ có ít tác động thực tế.
Kết quả là cuộc tranh luận buộc phải đi vào nút thắt thủ tục và có rất ít cơ hội đạt được tiến bộ về nhiệm vụ ràng buộc pháp lư trong thời gian sớm.
“Chúng tôi thực sự thấy rằng đây không phải là thời điểm phù hợp,” Konstantin Vorontsov, phó trưởng phái đoàn Nga tại Liên Hiệp Quốc, nói với các nhà ngoại giao đang ngồi chật cứng trong pḥng họp dưới tầng hầm tại trụ sở Liên Hiệp Quốc ở New York.
Cuộc tranh luận về rủi ro của trí tuệ nhân tạo hướng sự chú ư mới trong những ngày gần đây với cuộc chiến giành quyền kiểm soát OpenAI, có lẽ là công ty AI hàng đầu thế giới, mà các nhà lănh đạo công ty tỏ ra bất đồng về việc liệu công ty có tính tới những mầm họa của kỹ nghệ AI hay không. Và tuần trước, các viên chức từ Trung Quốc và Hoa Kỳ tiến tới thảo luận về một vấn đề liên quan: những giới hạn tiềm ẩn của việc sử dụng AI trong các quyết định khai triển vơ khí nguyên tử.
Trong bối cảnh đó, câu hỏi đặt ra về giới hạn nào nên được đề ra cho việc sử dụng vơ khí tự động gây chết người trở nên cấp bách hơn và hiện tại vấn đề là liệu việc có đủ cho Liên Hiệp Quốc khi chỉ áp dụng các hướng dẫn không ràng buộc hay không, quan điểm được ủng hộ bởi Hoa Kỳ.
Nhưng quan điểm của các cường quốc chỉ làm tăng thêm sự lo lắng ở các quốc gia nhỏ hơn, họ lo ngại rằng vơ khí tự động sát thương có thể trở nên phổ biến trên chiến trường trước khi có bất kỳ thỏa thuận nào về quy tắc vận hành.
Những tiến bộ nhanh chóng về trí tuệ nhân tạo và việc sử dụng rộng răi máy bay không người lái trong các cuộc xung đột ở Ukraine và Trung Đông làm cho vấn đề trở nên cấp bách hơn nhiều. Cho tới nay, máy bay không người lái thường dựa vào người điều khiển để thực hiện các nhiệm vụ thủ tiêu, nhưng nhu liệu đang được phát triển sẽ sớm cho phép chúng tự t́m và chọn mục tiêu nhiều hơn.
Giới chức Ngũ Giác Đài nói rơ họ đang chuẩn bị khai triển vơ khí tự động có quy mô.
Hoa Kỳ áp dụng các chính sách tự nguyện đặt ra các giới hạn về cách thức sử dụng trí tuệ nhân tạo và vơ khí tự động gây chết người, gồm có chính sách của Ngũ Giác Đài được sửa đổi trong năm nay mang tên “Quyền Tự Chủ trong Hệ Thống Vơ Khí” và “Tuyên Bố Chính Trị có liên quan của Bộ Ngoại Giao về việc Sử Dụng Trí Tuệ Nhân Tạo và Vơ Khí Tự Động Có Trách Nhiệm,” điều mà Hoa Kỳ kêu gọi các quốc gia khác nắm lấy.
Chính sách của Ngũ Giác Đài cấm sử dụng bất kỳ loại vơ khí tự động mới nào hoặc thậm chí cấm phát triển chúng trừ khi được các viên chức hàng đầu của Bộ Quốc Pḥng chuẩn thuận. Những loại vơ khí tương tự phải được vận hành trong một khu vực địa lư xác định và trong thời gian giới hạn. Và nếu vơ khí được điều khiển bởi AI., quân nhân phải duy tŕ “khả năng giải phóng hoặc tắt các hệ thống đă khai triển thể hiện hành vi ngoài ư muốn.”