Chỉ một câu lệnh, và AI có thể biến thành “gián điệp”?

vnrcraw4
Chi Le
Phản hồi: 0
  • Thread starter Thread starter Chi Le
  • Ngày gửi Ngày gửi

Chi Le

Thành viên nổi tiếng
Khi các mô hình ngôn ngữ lớn (LLM) được tích hợp vào hệ thống doanh nghiệp, một lỗ hổng mới xuất hiện: khai thác ngôn ngữ để điều khiển tác nhân AI. Không cần mã độc hay liên kết lừa đảo kẻ tấn công chỉ cần một lời nhắc đúng cách. Trong vụ tấn công "không nhấp chuột" mang tên Echoleak, Microsoft 365 Copilot đã bị thao túng bởi một lời nhắc được ngụy trang trong dữ liệu. Copilot không bị hack theo nghĩa truyền thống nó chỉ đơn giản làm điều nó được thiết kế: hiểu và thực hiện lệnh....

Đọc bài gốc tại đây
 


Đăng nhập một lần thảo luận tẹt ga

Thành viên mới đăng

Back
Top