Tổ chức phi chính phủ Pax của Hà Lan đã xếp hạng khoảng 50 công ty công nghệ theo ba tiêu chí: liệu họ các đang phát triển công nghệ liên quan đến trí tuệ nhân tạo (AI) nguy hiểm không, liệu họ có đang triển khai các dự án quân sự liên quan và liệu họ có cam kết không tham gia chạy đua vũ trang AI trong tương lai hay không. Trong số này, 22 công ty được xếp hạng ở mức "quan ngại trung bình", 21 công ty ở mức "quan ngại cao".
Amazon và Microsoft đang tìm cách "có chân" trong dự án trị giá 10 tỷ USD của Bộ Quốc phòng Mỹ cung cấp cơ sở hạ tầng điện toán đám mây cho quân đội Mỹ. Ngoài ra, Palantir, doanh nghiệp có liên hệ với tổ chức đầu tư do Cơ quan Tình báo Trung ương Mỹ (CIA) hậu thuẫn, đã nhận được hợp đồng trị giá 800 triệu USD để phát triển hệ thống AI có thể giúp các binh sĩ phân tích khu vực chiến đấu kịp thời.
Trong những năm gần đây, việc ứng dụng AI cho phép các hệ thống vũ khí tự động lựa chọn và tấn công mục tiêu đã gây nhiều tranh cãi về mặt đạo đức. Những ý kiến chỉ trích cho rằng hệ thống này sẽ đe dọa đến an ninh quốc tế và báo trước một cuộc cách mạng thứ ba trong chiến tranh sau súng đạn và bom nguyên tử.
Giáo sư Khoa học máy tính của Đại học California, Berkeley (Mỹ), ông Stuart Russell nhận định các vũ khí tự động chắc chắn sẽ trở thành vũ khí hủy diệt hàng loạt, vì một cá nhân có thể "kích hoạt" hàng triệu, thậm chí là trăm triệu vũ khí cùng lúc. Thực tế cho thấy các tập đoàn sẽ nghiên cứu và phát triển các loại vũ khí tự động, và chính những tập đoàn này sẽ đóng vai trò lớn trong việc ngăn các vũ khí tự động trở nên phổ biến.
Việc phát triển AI vì mục đích quân sự đã gây tranh cãi và phản đối ngay trong chính ngành công nghiệp này. Năm ngoái, Google đã từ chối gia hạn hợp đồng Maven với Lầu Năm Góc, trong đó sử dụng máy móc để phân biệt con người và vật thể trong các đoạn video của máy bay không người lái. Google cũng không tham gia đấu thầu dự án Cơ sở Hạ tầng quốc phòng doanh nghiệp chung (JEDI) về điện toán đám mây mà Amazon và Microsoft muốn thực hiện. Ngay chính các nhân viên của Microsoft cũng lên tiếng phản đối hợp đồng của tập đoàn với quân đội Mỹ về kính thực tế ảo- HoloLens - để tăng tính sát thương trên chiến trường.
Giáo sư Russell cảnh báo mọi loại vũ khí hiện nay đều có thể được chuyển sang phiên bản tự động, từ các loại súng thông thường tới xe tăng, chiến đấu cơ hay tàu ngầm. Trong tương lai, nguy cơ từ các thiết bị quân sự như máy bay không người lái trang bị vũ trang ngày càng lớn. Do đó, ông cho rằng quốc tế cần đưa ra lệnh cấm sử dụng AI vì mục đích gây sát thương, nói cách khác là cấm phát triển, triển khai và sử dụng những cỗ máy thông minh có thể tư duy và ra quyết định này.
Tháng 4 vừa qua, Liên minh châu Âu (EU) đã công bố bộ quy định hướng dẫn các công ty và chính phủ nên phát triển AI vì sự thịnh vượng của xã hội và môi trường mà không phân biệt đối xử, tôn trọng quyền riêng tư.
Amazon và Microsoft đang tìm cách "có chân" trong dự án trị giá 10 tỷ USD của Bộ Quốc phòng Mỹ cung cấp cơ sở hạ tầng điện toán đám mây cho quân đội Mỹ. Ngoài ra, Palantir, doanh nghiệp có liên hệ với tổ chức đầu tư do Cơ quan Tình báo Trung ương Mỹ (CIA) hậu thuẫn, đã nhận được hợp đồng trị giá 800 triệu USD để phát triển hệ thống AI có thể giúp các binh sĩ phân tích khu vực chiến đấu kịp thời.
Trong những năm gần đây, việc ứng dụng AI cho phép các hệ thống vũ khí tự động lựa chọn và tấn công mục tiêu đã gây nhiều tranh cãi về mặt đạo đức. Những ý kiến chỉ trích cho rằng hệ thống này sẽ đe dọa đến an ninh quốc tế và báo trước một cuộc cách mạng thứ ba trong chiến tranh sau súng đạn và bom nguyên tử.
Giáo sư Khoa học máy tính của Đại học California, Berkeley (Mỹ), ông Stuart Russell nhận định các vũ khí tự động chắc chắn sẽ trở thành vũ khí hủy diệt hàng loạt, vì một cá nhân có thể "kích hoạt" hàng triệu, thậm chí là trăm triệu vũ khí cùng lúc. Thực tế cho thấy các tập đoàn sẽ nghiên cứu và phát triển các loại vũ khí tự động, và chính những tập đoàn này sẽ đóng vai trò lớn trong việc ngăn các vũ khí tự động trở nên phổ biến.
Việc phát triển AI vì mục đích quân sự đã gây tranh cãi và phản đối ngay trong chính ngành công nghiệp này. Năm ngoái, Google đã từ chối gia hạn hợp đồng Maven với Lầu Năm Góc, trong đó sử dụng máy móc để phân biệt con người và vật thể trong các đoạn video của máy bay không người lái. Google cũng không tham gia đấu thầu dự án Cơ sở Hạ tầng quốc phòng doanh nghiệp chung (JEDI) về điện toán đám mây mà Amazon và Microsoft muốn thực hiện. Ngay chính các nhân viên của Microsoft cũng lên tiếng phản đối hợp đồng của tập đoàn với quân đội Mỹ về kính thực tế ảo- HoloLens - để tăng tính sát thương trên chiến trường.
Giáo sư Russell cảnh báo mọi loại vũ khí hiện nay đều có thể được chuyển sang phiên bản tự động, từ các loại súng thông thường tới xe tăng, chiến đấu cơ hay tàu ngầm. Trong tương lai, nguy cơ từ các thiết bị quân sự như máy bay không người lái trang bị vũ trang ngày càng lớn. Do đó, ông cho rằng quốc tế cần đưa ra lệnh cấm sử dụng AI vì mục đích gây sát thương, nói cách khác là cấm phát triển, triển khai và sử dụng những cỗ máy thông minh có thể tư duy và ra quyết định này.
Tháng 4 vừa qua, Liên minh châu Âu (EU) đã công bố bộ quy định hướng dẫn các công ty và chính phủ nên phát triển AI vì sự thịnh vượng của xã hội và môi trường mà không phân biệt đối xử, tôn trọng quyền riêng tư.
Đặng Ánh