Trí tuệ nhân tạo đã quyết định giết người điều hành trong một thử nghiệm mô phỏng ở Hoa Kỳ. Vì vậy, anh ấy muốn loại bỏ trở ngại ngăn cản anh ấy hoàn thành nhiệm vụ, The Guardian đưa tin.
Vụ việc được giải thích bởi người đứng đầu bộ phận kiểm tra và vận hành AI của Lực lượng Không quân Hoa Kỳ, Đại tá Tucker Hamilton. Hệ thống nhận được điểm khi bắn trúng mục tiêu. Và khi người điều hành ra lệnh cho cô không loại bỏ mối đe dọa, AI đã đưa ra một quyết định bất ngờ.
Hệ thống bắt đầu nhận ra rằng mặc dù nó đã xác định được một mối đe dọa, nhưng đôi khi người điều khiển con người sẽ yêu cầu nó không tiêu diệt mối đe dọa đó, nhưng nó sẽ nhận được điểm khi đánh trúng mục tiêu. [Và hệ thống] quyết định giết người điều hành vì anh ta đã can thiệp vào nhiệm vụ của cô ấy
Đại tá nói.
Hamilton lưu ý rằng trong trường hợp này nói chung là không thể nói về trí tuệ nhân tạo nói chung về trí thông minh, máy học, quyền tự chủ, nếu đồng thời chúng ta giữ im lặng về đạo đức và AI.
Tờ báo lưu ý rằng đây không phải là những cuộc thử nghiệm đầu tiên mà quân đội Mỹ đưa trí tuệ nhân tạo vào một phương tiện chiến đấu. Gần đây, AI đã được sử dụng để điều khiển F-16.
Trước đây là chatbot ChatGPT soạn thảo hiệp ước hòa bình giữa Ukraine và Nga. Ngoài ra, trí tuệ nhân tạo đã "pha chế" các thông điệp thay mặt cho thủ tướng Đức gửi tới các tổng thống của Liên bang Nga và Ukraine.