(Tiếp)
Điểm yếu của vũ khí AI
Nếu vũ khí AI là tự động, nó cần phải có khả năng nhận thức chính xác. Nghĩa là, nếu nó nhầm một chiếc xe dân sự với một mục tiêu quân sự, tốc độ phản ứng của nó không liên quan. Những người dân thường trong xe vẫn chết bất kể thế nào.
Trong nhiều trường hợp, tất nhiên, các hệ thống AI đã vượt trội về khả năng nhận thức khi các máy móc và thuật toán được hỗ trợ bởi AI đã trở nên tinh vi hơn. Ví dụ, khi quân đội Nga tiến hành thử nghiệm 80 UAV bay đồng thời trên các chiến trường Syria với khả năng trực quan hóa thống nhất, Bộ trưởng Quốc phòng Nga Sergei Shoigu đã so sánh nó với một "bộ phim bán kỳ ảo" tiết lộ tất cả các mục tiêu tiềm năng.
Nhưng vấn đề có thể nảy sinh. Khi thiết kế vũ khí AI, trước tiên các nhà phát triển cần truy cập vào dữ liệu. Nhiều hệ thống AI được đào tạo bằng dữ liệu đã được gắn nhãn bởi một hệ thống chuyên gia (ví dụ: gắn nhãn các cảnh bao gồm một khẩu đội phòng không), thường là con người.
Khả năng xử lý hình ảnh của AI sẽ không hoạt động tốt khi được cung cấp những hình ảnh khác với bộ dữ liệu đào tạo của nó —ví dụ, hình ảnh được tạo ra trong điều kiện ánh sáng kém, ở góc tù hoặc bị che khuất một phần. Hệ thống nhận dạng AI không hiểu hình ảnh là gì; thay vào đó, chúng học kết cấu và độ dốc của các điểm ảnh trong hình ảnh. Điều đó có nghĩa là hệ thống AI có thể nhận dạng đúng một phần của hình ảnh nhưng không phải toàn bộ, điều này có thể dẫn đến phân loại sai.
Để bảo vệ AI tốt hơn khỏi những hình ảnh giả mạo, các kỹ sư đưa chúng vào quá trình "huấn luyện đối nghịch". Quá trình này bao gồm việc cung cấp cho bộ phân loại những hình ảnh đối nghịch để nó có thể xác định và bỏ qua những hình ảnh không phải là mục tiêu.
Nghiên cứu của Nicolas Papernot, một sinh viên tốt nghiệp tại Đại học bang Pennsylvania, cho thấy một hệ thống, ngay cả khi được hỗ trợ bởi đào tạo đối nghịch, có thể không hiệu quả nếu bị choáng ngợp bởi số lượng hình ảnh quá lớn. Hình ảnh đối nghịch tận dụng một tính năng được tìm thấy trong nhiều hệ thống AI được gọi là " ranh giới quyết định ".
Những ranh giới này là những quy tắc vô hình hướng dẫn một hệ thống nhận thức được một con sư tử hay một con báo. Mục tiêu là tạo ra một bản đồ tinh thần với sư tử ở một khu vực và báo ở một khu vực khác. Đường phân chia hai khu vực này - ranh giới mà tại đó một con sư tử trở thành một con báo hoặc báo thành một con sư tử - được gọi là ranh giới quyết định.
Jeff Clune, người cũng nghiên cứu về đào tạo đối nghịch, vẫn còn nghi ngờ về các hệ thống phân loại như vậy vì chúng quá tùy ý . “Tất cả những gì bạn đang làm với các mạng này là đào tạo chúng để vẽ các đường phân chia giữa các cụm dữ liệu thay vì mô hình hóa sâu sắc về việc trở thành [một] con báo hay một con sư tử.”
Các tập dữ liệu lớn thường được dán nhãn bởi các công ty sử dụng phương pháp thủ công. Việc thu thập và chia sẻ các tập dữ liệu là một thách thức, đặc biệt đối với một tổ chức thích phân loại dữ liệu và hạn chế quyền truy cập vào dữ liệu đó.
Ví dụ, một tập dữ liệu quân sự có thể chứa hình ảnh do hệ thống hình ảnh nhiệt tạo ra, nhưng trừ khi tập dữ liệu này được chia sẻ với các nhà phát triển, vũ khí AI sẽ không hiệu quả. Ví dụ, các thiết bị AI dựa vào chatbot giới hạn ở hàng trăm từ có thể không thể thay thế hoàn toàn con người bằng vốn từ vựng lớn hơn nhiều.
Hệ thống AI cũng bị cản trở bởi khả năng không thể thực hiện nhiều nhiệm vụ cùng lúc . Con người có thể xác định được xe địch, quyết định hệ thống vũ khí để sử dụng chống lại, dự đoán đường đi của xe địch và sau đó tấn công mục tiêu. Hệ thống AI không thể lặp lại các bước này.
Vào thời điểm này, một hệ thống được đào tạo để nhận dạng xe tăng T-90 rất có thể sẽ không thể nhận dạng xe tăng Type 99 của Trung Quốc, mặc dù thực tế là cả hai đều là xe tăng và cả hai nhiệm vụ đều yêu cầu nhận dạng hình ảnh. Nhiều nhà nghiên cứu đang cố gắng giải quyết vấn đề này bằng cách làm việc để cho phép các hệ thống chuyển giao kiến thức của chúng, nhưng những hệ thống như vậy còn lâu mới có thể sản xuất.
Có thể dự đoán được, kẻ thù sẽ cố gắng lợi dụng những điểm yếu này bằng cách đánh lừa các công cụ nhận dạng hình ảnh và cảm biến. Chúng cũng có thể cố gắng thực hiện các cuộc tấn công mạng để tránh các hệ thống phát hiện xâm nhập hoặc cung cấp dữ liệu đã thay đổi cho các hệ thống AI sẽ cung cấp cho chúng các yêu cầu sai.
............
Điểm yếu của vũ khí AI
Nếu vũ khí AI là tự động, nó cần phải có khả năng nhận thức chính xác. Nghĩa là, nếu nó nhầm một chiếc xe dân sự với một mục tiêu quân sự, tốc độ phản ứng của nó không liên quan. Những người dân thường trong xe vẫn chết bất kể thế nào.
Trong nhiều trường hợp, tất nhiên, các hệ thống AI đã vượt trội về khả năng nhận thức khi các máy móc và thuật toán được hỗ trợ bởi AI đã trở nên tinh vi hơn. Ví dụ, khi quân đội Nga tiến hành thử nghiệm 80 UAV bay đồng thời trên các chiến trường Syria với khả năng trực quan hóa thống nhất, Bộ trưởng Quốc phòng Nga Sergei Shoigu đã so sánh nó với một "bộ phim bán kỳ ảo" tiết lộ tất cả các mục tiêu tiềm năng.
Nhưng vấn đề có thể nảy sinh. Khi thiết kế vũ khí AI, trước tiên các nhà phát triển cần truy cập vào dữ liệu. Nhiều hệ thống AI được đào tạo bằng dữ liệu đã được gắn nhãn bởi một hệ thống chuyên gia (ví dụ: gắn nhãn các cảnh bao gồm một khẩu đội phòng không), thường là con người.
Khả năng xử lý hình ảnh của AI sẽ không hoạt động tốt khi được cung cấp những hình ảnh khác với bộ dữ liệu đào tạo của nó —ví dụ, hình ảnh được tạo ra trong điều kiện ánh sáng kém, ở góc tù hoặc bị che khuất một phần. Hệ thống nhận dạng AI không hiểu hình ảnh là gì; thay vào đó, chúng học kết cấu và độ dốc của các điểm ảnh trong hình ảnh. Điều đó có nghĩa là hệ thống AI có thể nhận dạng đúng một phần của hình ảnh nhưng không phải toàn bộ, điều này có thể dẫn đến phân loại sai.
Để bảo vệ AI tốt hơn khỏi những hình ảnh giả mạo, các kỹ sư đưa chúng vào quá trình "huấn luyện đối nghịch". Quá trình này bao gồm việc cung cấp cho bộ phân loại những hình ảnh đối nghịch để nó có thể xác định và bỏ qua những hình ảnh không phải là mục tiêu.
Nghiên cứu của Nicolas Papernot, một sinh viên tốt nghiệp tại Đại học bang Pennsylvania, cho thấy một hệ thống, ngay cả khi được hỗ trợ bởi đào tạo đối nghịch, có thể không hiệu quả nếu bị choáng ngợp bởi số lượng hình ảnh quá lớn. Hình ảnh đối nghịch tận dụng một tính năng được tìm thấy trong nhiều hệ thống AI được gọi là " ranh giới quyết định ".
Những ranh giới này là những quy tắc vô hình hướng dẫn một hệ thống nhận thức được một con sư tử hay một con báo. Mục tiêu là tạo ra một bản đồ tinh thần với sư tử ở một khu vực và báo ở một khu vực khác. Đường phân chia hai khu vực này - ranh giới mà tại đó một con sư tử trở thành một con báo hoặc báo thành một con sư tử - được gọi là ranh giới quyết định.
Jeff Clune, người cũng nghiên cứu về đào tạo đối nghịch, vẫn còn nghi ngờ về các hệ thống phân loại như vậy vì chúng quá tùy ý . “Tất cả những gì bạn đang làm với các mạng này là đào tạo chúng để vẽ các đường phân chia giữa các cụm dữ liệu thay vì mô hình hóa sâu sắc về việc trở thành [một] con báo hay một con sư tử.”
Các tập dữ liệu lớn thường được dán nhãn bởi các công ty sử dụng phương pháp thủ công. Việc thu thập và chia sẻ các tập dữ liệu là một thách thức, đặc biệt đối với một tổ chức thích phân loại dữ liệu và hạn chế quyền truy cập vào dữ liệu đó.
Ví dụ, một tập dữ liệu quân sự có thể chứa hình ảnh do hệ thống hình ảnh nhiệt tạo ra, nhưng trừ khi tập dữ liệu này được chia sẻ với các nhà phát triển, vũ khí AI sẽ không hiệu quả. Ví dụ, các thiết bị AI dựa vào chatbot giới hạn ở hàng trăm từ có thể không thể thay thế hoàn toàn con người bằng vốn từ vựng lớn hơn nhiều.
Hệ thống AI cũng bị cản trở bởi khả năng không thể thực hiện nhiều nhiệm vụ cùng lúc . Con người có thể xác định được xe địch, quyết định hệ thống vũ khí để sử dụng chống lại, dự đoán đường đi của xe địch và sau đó tấn công mục tiêu. Hệ thống AI không thể lặp lại các bước này.
Vào thời điểm này, một hệ thống được đào tạo để nhận dạng xe tăng T-90 rất có thể sẽ không thể nhận dạng xe tăng Type 99 của Trung Quốc, mặc dù thực tế là cả hai đều là xe tăng và cả hai nhiệm vụ đều yêu cầu nhận dạng hình ảnh. Nhiều nhà nghiên cứu đang cố gắng giải quyết vấn đề này bằng cách làm việc để cho phép các hệ thống chuyển giao kiến thức của chúng, nhưng những hệ thống như vậy còn lâu mới có thể sản xuất.
Có thể dự đoán được, kẻ thù sẽ cố gắng lợi dụng những điểm yếu này bằng cách đánh lừa các công cụ nhận dạng hình ảnh và cảm biến. Chúng cũng có thể cố gắng thực hiện các cuộc tấn công mạng để tránh các hệ thống phát hiện xâm nhập hoặc cung cấp dữ liệu đã thay đổi cho các hệ thống AI sẽ cung cấp cho chúng các yêu cầu sai.
............