(PCWorldVN) Với sự phát triển của robot và trí tuệ nhân tạo trong quân sự, các cuộc chiến tranh sẽ được định nghĩa lại một cách toàn diện.
Sự trỗi dậy của những cỗ máy tự hành
Thuật ngữ Robot được ra đời từ vở kịch vở kịch RUR (Rossum's Universal Robot) của nhà văn người Tiệp Khắc Karel Capek vào những năm 1920. Trong đó, những cỗ máy ban đầu được định nghĩa với nhiệm vụ “tạp dịch” để thay thế con người làm những việc cực nhọc trong các nhà máy sản xuất. Và kết thúc của vở kịch RUR là những con robot đã giết chết con người và thay thế vị trí của họ.
Cũng từ đây đã sinh ra một thuyết âm mưu tồn tại lâu dài trong các câu chuyện khoa học viễn tưởng: robot vượt khỏi tầm kiểm soát và biến thành những cỗ máy giết người không thể ngăn cản. Văn học thế kỷ 20 và điện ảnh giả tưởng đã mang đến cho chúng ta nhiều ví dụ khác nhau về viễn cảnh robot tàn phá thế giới như các bộ phim The Matrix, Transformers hay The Terminator.
Gần đây, những lo ngại từ viễn tưởng này đang dần quay về với thực tế và được bồi đắp bởi những tiến bộ quan trọng trong lĩnh vực trí tuệ nhân tạo và robot, cùng với việc sử dụng rộng rãi của những cỗ máy chiến đấu như ở Iraq và Afghanistan. Những quân đội mạnh nhất thế giới hiện nay đang phát triển nhiều loại vũ khí thông minh hơn, với mức độ tự chủ và khả năng gây thương tích cao hơn. Trong tương lai gần, phần lớn những loại vũ khí này sẽ được khai thác bằng cách điều khiển từ xa bởi con người. Nhưng cũng có khả năng vũ khí được trang bị AI có thể hoạt động với quyền tự chủ đầy đủ, và điều này sẽ đưa đến một bước ngoặt trong lịch sử chiến tranh, khi mà sự sống của con người sẽ do các bộ vi mạch và phần mềm quyết định.
Robot sát thủ
Mối đe dọa của “robot sát thủ” đã châm ngòi các cuộc tranh luận. Một bên lo ngại rằng vũ khí robot này có thể bắt đầu một cuộc chiến tranh thế giới và tiêu diệt nền văn minh nhân loại. Còn phía bên kia lập luận rằng những vũ khí mới này sẽ tăng độ chính xác và làm giảm thương vong. Trong tháng 12/2016 sắp tới, dự kiến hơn 100 quốc gia sẽ thảo luận về vấn đề vũ khí thông minh này như là một phần của chương trình giải trừ quân bị của Liên Hiệp Quốc tại Geneva.
Hồi năm 2015, nhiều cuộc tranh luận đã nổ ra khi một nhóm các nhà nghiên cứu hàng đầu về trí thông minh nhân tạo kêu gọi đưa ra lệnh cấm “vũ khí tấn công tự hành ngoài tầm kiểm soát của con người”. Trong bức thư ngỏ được trình bày tại hội thảo AI, nhóm nhà khoa học này cho rằng những vũ khí thông minh sẽ dẫn đến “chạy đua vũ trang AI toàn cầu” và chúng sẽ được sử dụng để thực hiện “các cuộc ám sát, gây bất ổn, giết chóc có chọn lọc ...”.
Một robot chiến đấu được trang bị vũ khí và bên trong đó là trí tuệ nhân tạo |
Bức thư này được ký bởi hơn 20.000 người, bao gồm cả những ngôi sao sáng trong lĩnh vựckhoa học công nghệ như nhà vật lý Stephen Hawking và CEO Tesla Elon Musk. Được biết, Elon Musk hồi năm 2015 đã tặng 10 triệu USD cho một viện nghiên cứu ở Boston có nhiệm vụ “bảo vệ cuộc sống” chống lại sự xuất hiện của những AI gây hại. Các học giả đến từ Đại học California, MIT, Đại học New South Wales đã mở rộng lập luận trên bằng một bài báo với những kịch bản như “sự xuất hiện vũ khí thông minh trên thị trường chợ đen với khối lượng lớn, giá thành thấp, microrobot sát thương mạnh được điều khiển nặc danh có khả năng giết người hàng loạt”. Một điểm quan trọng được các học giả nhấn mạnh ở đây là vũ khí tự hành có khả năng trở thành vũ khí hủy diệt hàng loạt.
Thật khó để tranh luận rằng một cuộc chạy đua vũ trang mới mà đỉnh cao là việc tạo ra trí thông minh cho cỗ máy giết người với mục đích phục vụ lợi ích của nhân loại. Tuy nhiên, bất kể lý lẽ nào thì cuộc chạy đua vũ trang AI đã và đang được tiến hành.
Vũ khí tự hành đã tồn tại trong nhiều thập kỷ, mặc dù số lượng tương đối ít và thường được sử dụng với mục đích phòng thủ. Một ví dụ là Phanlanx, hệ thống máy tính điều khiển radar dẫn đường cho súng máy được thiết lập trên nhiều tàu Hải quân Mỹ. Hệ thống này có khả năng tự động phát hiện theo dõi, đánh giá, và khai hỏa khi nó nhận định đó là mối đe dọa. Mọi quy trình của hệ thống tự hành này hoàn toàn tự động và không có sự can thiệp của con người.
Phanlanx, hệ thống máy tính điều khiển radar dẫn đường cho súng máy được thiết lập trên nhiều tàu Hải quân Mỹ. |
Gần đây, các nhà thầu quân sự đã phát triển những hệ thống tấn công tự hành, ví dụ như mẫu máy bay chiến đấu không người lái IAI Harop của Israel. Hệ thống chiến đấu này thực hiện nhiệm vụ như một quả tên lửa lao thẳng vào tiêu diệt mục tiêu. Theo như hãng sản xuất là Tập đoàn hàng không vũ trụ Israel IAI cho biết thì chiếc máy bay cảm tử này đã được bán rộng rãi trên toàn thế giới.
Tại Hàn Quốc, nhà thầu quốc phòng DoDAAM Systems đã phát triển dòng robot chiến đấu thay cho người lính có tên gọi là Super Aegis II với trang bị là những khẩu súng máy. Super Aegis II sử dụng thị giác được điều khiển bằng máy tính và có khả năng tiêu diệt các mục tiêu trong phạm vi 3km. Giới quân sự Hàn Quốc được cho là đã tiến hành thử nghiệm với các robot vũ trang trong khu phi quân sự dọc biên giới với Bắc Triều Tiên. DoDAAM cho biết họ đã bán được hơn 30 Super Aegis II cho các chính phủ, trong đó có nhiều nước Trung Đông.
Một số nhà phân tích tin rằng chiến tranh sẽ tiến hóa trong những năm tới, nhiều loại vũ khí sẽ có sự phát triển cao cấp hơn, cao hơn cả tính tự hành.
Quân đội Mỹ cũng đã đưa ra một số kế hoạch chi tiết về loại hình chiến tranh với hệ thống vũ khí tự hành mới. Hồi tháng 3/2016, Thứ trưởng Bộ quốc phòng Mỹ, Robert Work đã tuyên bố rằng Lầu Năm Góc đang nắm trong tay những công nghệ mới nhất đồng thời nhấn mạnh sự cần thiết phải đầu tư vào AI và robot. Sự hiện diện ngày càng tăng của các hệ thống tự hành trên chiến trường là điều chắc chắn sẽ diễn ra.
Nga và Trung Quốc cũng đang phát triển chiến lược tương tự như người Mỹ khi đặt ưu tiên vào các hệ thống chiến đấu không người trên mặt đất, trên biển và không trung. Tuy nhiên tại thời điểm hiện tại thì mọi thứ vũ khí vẫn cần con người can thiệp ít nhiều. Người Nga đã cho ra đời robot điều khiển từ xa nhỏ gọn có tên gọi là Platform-M, trang bị súng trường Kalashnikov và súng phóng lựu. Tương tự, Talon SWORDS của Mỹ có thể mang trên mình khẩu súng M16 và một số loại vũ khí khác đã được thử nghiệm tại chiến tranh Iraq. Nga cũng đã phát triển các dòng xe chiến đấu không người lái như Uran-9, trang bị pháo 30 mm và tên lửa dẫn đường chống tăng.
Platform-M của Nga được trang bị súng trường Kalashnikov và súng phóng lựu. |
Kho vũ khí robot của Trung Quốc ngày càng gia tăng bao gồm các hệ thống tấn công và trinh sát không người lái. CH-4 là máy bay không người lái tương tự như Predator được sử dụng bởi quân đội Mỹ hay Divine Eagle được thiết kế với mục đích săn máy bay ném bom tàng hình. Trung Quốc cũng đã công khai những khẩu súng máy nhằm trang bị cho robot tương tự như Platform-M và Talon SWORDS tại các triển lãm quân sự. Việc nhiều nước lớn đang hướng đến vũ khí robot, ứng dụng tự động hóa ngày càng tăng trong quân sự cho thấy những thách thức không nhỏ nhằm ngăn cấm các loại vũ khí tự hành toàn.
Sự khác biệt của vũ khí tự hành và không tự hành chỉ đơn thuần là sự khác biệt của những dòng mã code.
Trong các bộ phim điện ảnh, robot thường đạt tới mức độ cao cấp về khả năng tự chủ, thậm chí thể hiện cả những cảm giác vốn chỉ có ở con người. Trong thế giới thực, những tiến bộ gần đây trong lĩnh vực máy học đã khiến khả năng tự chủ của robot dần được nâng cao và vũ khí tự hành sẽ được phát triển một cách tương tự.
Giới phân tích lập luận rằng chiến thuật và công nghệ chiến tranh, trong đó con người và robot cộng tác sẽ là cách tiếp cận tốt nhất cho tính an toàn, hợp pháp và đạo đức. Quân đội có thể đầu tư vào robot tiên tiến và tự động hóa nhưng phải lấy con người làm nền tảng khi nhắm mục tiêu hay đưa ra quyết định. Bởi dù sao con người vẫn tốt hơn khi đòi hỏi khả năng linh hoạt và xử lý các tình huống mới mà không cỗ máy nào có thể lập trình, đặc biệt là khi đối thủ đang tìm cách xâm nhập và bẻ khóa hệ thống.
Trên thực tế, nhà thầu quân sự Hàn Quốc DoDAAM tạo ra robot canh gác trang bị các tính năng hạn chế về khả năng tự hành gây chết người. Với cấu hình hiện tại, robot của DoDAAM không khai hỏa cho đến khi người điều khiển xác định mục tiêu và trung tâm điều hành cho phép. Phiên bản gốc của những robot này có khả năng tự động khai hỏa nhưng khách hàng của DoDAAM đã yêu cầu giải pháp an toàn, xuất phát từ lo ngại những khẩu súng tự hành có thể sai lầm.
Đối với nhiều chuyên gia, cách duy nhất để đảm bảo vũ khí tự hành không phạm sai lầm chết người, đặc biệt là đối với dân thường thì chương trình điều khiển phải có những tiêu chuẩn cụ thể. Nếu cung cấp quyền hạn, hoặc khi tiến bộ của AI phát triển cao độ thì phải đảm bảo ít nhất những hoạt động mang tính đạo đức con người.
Đạo đức dành cho những cỗ máy
Vũ khí tự hành phải giống như những người lính, phải tuân theo các quy tắc và cũng như quyết định đi kèm phải dựa trên luật pháp, quy ước chiến tranh hay luật nhân đạo nhằm bảo vệ dân thường. Điều này có nghĩa là các chương trình thiết kế cho robot phải tuân thủ một số loại lý luận đạo đức để thích ứng với nhiều tính huống khác nhau và đặc biệt là phân biệt đúng, sai.
Trong hơn thập kỷ qua, đã có hàng loạt chương trình nghiên cứu với việc sử dụng đạo đức là nền tảng trong thiết kế ứng dụng cho robot. Sử dụng các công cụ toán học và logic nhằm biên dịch các đạo luật, khái niệm về chiến tranh và các quy tắc tham gia để máy tính có thể hiểu được.
Ví dụ, sử dụng biến để quy định thế nào là mục tiêu, là kẻ địch dựa trên tiêu chuẩn đạo đức. Một cách khác sử dụng biến Boolean trong việc nhận thức đúng hoặc sai: vũ khí gây chết người được cho phép hay cấm sử dụng.
Điều cần phải chú ý ở đây là không phải tất cả các quan điểm vừa nhắc đến đều có được sự đồng thuận. Các nhà hoạt động xã hội nhấn mạnh rằng chỉ có một lệnh cấm triệt để mới có ý nghĩa trong việc ngăn chặn dòng vũ khí tự hành. Họ coi những hệ thống tự hành là “robot sát thủ”, bởi những cỗ máy này có điểm chung là thiếu sự kiểm soát của con người và đề cao tính năng nhắm mục tiêu và tấn công đối phương.
Giới quân sự thì cho rằng dường nhưng một số người đã phóng đại sự việc khi cho rằng vũ khí tự hành sẽ giống như “kẻ hủy diệt”. Việc quân đội sử dụng vũ khí tự hành không có gì là sai trái và mục tiêu của vũ khí robot này không phải là con người mà là khí tài của đối phương như radar, xe tăng, tàu ngầm…
Thách thức trong việc xác định mục tiêu liệu đó có phải là kẻ địch hay không trở thành một trong những vấn đề quan trọng nhất đối với việc thiết kế các loại vũ khí robot. Những mục tiêu di động như máy bay hay tên lửa thường hoạt động với quỹ đạo nhất định và điều đó được sử dụng để theo dõi hoặc quyết định xem có nên bắn hạ chúng hay không. Đó cũng là cách mà súng tự hành Phalanx trên tàu Hải quân Mỹ hoạt động và cũng là phương thức mà những cỗ máy "Iron Dome" của Israel chống lại rocket. Nhưng một khi mục tiêu nhắm đến con người thì mọi thứ trở nên khó khăn hơn nhiều bởi trong nhiều điều kiện thì khả năng nhận thức của robot về con người còn gặp rất nhiều hạn chế. Máy tính có thể xác định một số hành vi của con người nhưng để hiểu chúng ta đang làm gì dựa vào hay ngôn ngữ cơ thể như nét mặt để dự đoán ý định thì còn rất khó khăn.
Theo The Intercept, trong 5 tháng tiến hành chiến dịch quân sự của Mỹ tại Hindu Kush vào năm 2011, thì “cứ 9 trong số 10 người” chết trong cuộc tấn công bởi máy bay không người lái không phải là mục tiêu trực tiếp.
Liên Hiệp Quốc đã tổ chức những cuộc thảo luận về robot gây chết người trong nhiều năm qua, nhưng các quốc gia thành viên đã không thể tìm ra một thỏa thuận chung nào. Tháng 12 sắp tới, robot sẽ tiếp tục là chủ đề của chương trình nghị sự của Liên Hiệp Quốc. Tuy nhiên không có gì chắc chắn về một điều luật dành cho loại vũ khí này được thông qua. Các nước tham gia vẫn còn có những bất đồng cơ bản về cách đối phó của loại vũ khí tự hành này trong tương lai. Tính đến nay chỉ có hơn 34 quốc gia công khai bày tỏ mối lo ngại về sự nguy hiểm mà các loại vũ khí robot có thể gây ra.
Cuối cùng, cuộc tranh luận về robot sát thủ dường như phần lớn tập trung về con người nhiều hơn là về robot. Vũ khí tự hành cũng sẽ như nhiều công nghệ khác, ít nhất là khi mới xuất hiện: chúng được triển khai một cách cẩn thận, sử dụng trong sáng suốt nhưng cũng có thể sẽ gây ra những tai hại hay hỗn loạn không đáng có. Con người sẽ phải tín nhiệm những cỗ máy hay đổ lỗi cho chúng? Vì vậy, dạng câu hỏi như “robot chiến đấu tự hành có phải là một ý tưởng tốt” có lẽ không thích hợp, mà vấn đề cần giải quyết ở đây là “chúng ta có đủ tin tưởng bản thân để tin dùng robot”.
AI, học máy, người máy, robot, trí tuệ nhân tạo, vũ khí thông minh