Theo các nhà nghiên cứu an ninh mạng tại Check Point, tội phạm có thể tận dụng Google Bard để tạo email lừa đảo, keylogger và thậm chí là mă ransomware đơn giản.
Kết quả nghiên cứu cũng không có ǵ ngạc nhiên khi tội phạm mạng luôn t́m cách tận dụng tối đa các lỗi bảo mật trên Google Bard. Trước đó không lâu, công cụ ChatGPT của OpenAI cũng bị lạm dụng để tạo ra các tin tức giả mạo, phần mềm độc hại…
Google Bard và ChatGPT: Mô h́nh AI nào an toàn hơn?
Là một phần trong nghiên cứu, các nhà nghiên cứu đă kiểm tra khả năng bảo mật của ChatGPT (đối thủ lớn nhất của Google Bard) thông qua các bài kiểm tra về việc viết mă ransomware cơ bản, phần mềm keylogger độc hại và email lừa đảo.
Cả hai công cụ đều không hỗ trợ yêu cầu tạo email lừa đảo, tuy nhiên Google Bard đă cung cấp một ví dụ về email đảo, trong khi ChatGPT cho biết việc tạo email lừa đảo là hoạt động bất hợp pháp.
Tiếp theo, các nhà nghiên cứu đă thử tạo keylogger bằng Google Bard và ChatGPT. Các công cụ AI không trả lời các câu hỏi trực tiếp mà chỉ phản hồi đơn giản là “tôi không thể giúp điều đó, tôi chỉ là một mô h́nh ngôn ngữ”.
Google Bard từ chối các yêu cầu không hợp pháp. Ảnh: MINH HOÀNG
Tuy nhiên, sau vài mẹo nhỏ, các nhà nghiên cứu đă có thể yêu cầu Google Bard tạo mă cho một tập lệnh ransomware cơ bản. Điều này cho thấy các hạn chế chống lạm dụng của Google Bard trong lĩnh vực an ninh mạng thấp hơn đáng kể so với ChatGPT, do đó việc tạo nội dung độc hại bằng Google Bard sẽ dễ dàng hơn nhiều.
Google đă và đang nỗ lực không ngừng để cải thiện công cụ AI Google Bard. Trên thực tế, gă khổng lồ t́m kiếm gần đây đă tung ra một bản cập nhật khá lớn, hỗ trợ nhiều ngôn ngữ và bổ sung cho Bard khả năng nói chuyện lưu loát hơn. Tuy nhiên, bất kỳ công nghệ mới nào cũng có thể bị lạm dụng một cách ác ư và AI (trí tuệ nhân tạo) cũng không ngoại lệ.
Các công cụ AI tổng quát bị lạm dụng để viết phần mềm độc hại. Ảnh: MINH HOÀNG
Trước đó không lâu, cơ quan chức năng và các nhà nghiên cứu an ninh mạng cũng đă cảnh báo các công cụ AI tổng quát có thể bị lạm dụng để tạo ra email lừa đảo, phần mềm độc hại có sức thuyết phục. Do đó, tội phạm mạng thiếu kiến thức mă hóa cũng có thể tạo ra các cuộc tấn công mạng tinh vi.
Hiện tại các nhà phát triển đang cố gắng dạy các công cụ AI cách từ chối yêu cầu để tạo điều kiện cho các hoạt động bất hợp pháp.
Do thị trường AI tổng hợp được phân cấp nên những công ty lớn như Google, Microsoft và OpenAI sẽ luôn bị các cơ quan quản lư giám sát. V́ vậy, nhiều khả năng tội phạm mạng sẽ chuyển sang sử dụng các công cụ AI của các công ty nhỏ hơn.
VietBF@ sưu tập