Bản ghi Phó tổng thống Mỹ JD Vance nhận xét Musk "đang hóa thân thành lănh đạo vĩ đại của nước Mỹ" cho thấy âm thanh AI ngày càng khó phát hiện.
Cuối tuần trước, một file ghi âm lan truyền trên mạng xă hội, thu hút hàng triệu người dùng quan tâm. Trong đó, Phó tổng thống JD Vance "nói" Elon Musk đang "đóng giả làm một nhà lănh đạo vĩ đại" khiến chính quyền trở nên tồi tệ.

Phó tổng thống Mỹ JD Vance. Ảnh: The White House
Theo ghi nhận của 404Media, riêng trên TikTok, bản ghi được phát trên hai triệu lần với 8.000 b́nh luận nhưng không được dán nhăn AI. Tương tự, trên các nền tảng như YouTube và X, số lượt xem lên đến hàng trăm ngh́n lần.
Cuối ngày 23/3, William Martin, Giám đốc truyền thông của ông Vance, lên tiếng trên mạng xă hội X: "Đoạn ghi âm giả 100%, chắc chắn không phải lời của Phó tổng thống".
Hiện có một số công cụ phát hiện âm thanh tạo từ trí tuệ nhân tạo, nhưng AI cũng ngày một cải tiến, gây khó khăn cho việc nhận dạng. Reality Defender, công ty cung cấp phần mềm phát hiện AI tạo thông tin sai lệch, cũng chỉ đánh giá file âm thanh "có khả năng là giả" thay v́ khẳng định.
"Chúng tôi đă đưa đoạn âm thanh vào nhiều mô h́nh chuyên sâu và kết luận nó có thể là giả", phát ngôn viên Reality Defender cho biết. "Tiếng ồn và tiếng vang được thêm vào một cách tinh vi để che giấu chất lượng âm thanh do deepfake tạo ra, khiến việc phát hiện khó khăn".
TikTok, YouTube và X chưa đưa ra b́nh luận.
Theo 404Media, âm thanh "hoàn toàn đáng tin" v́ giọng nói giống hệt Vance. Tiếng nhiễu rất giống với các cuộc ghi âm bí mật từng xảy ra với các chính trị gia khác trong quá khứ. Tiếng ồn ở nền cũng khiến các máy ḍ deepfake khó nhận ra âm thanh giả.
Việc công cụ chuyên sâu cũng khó xác định tính thật giả của file âm thanh trên khiến giới chuyên gia lo ngại trong bối cảnh deepfake hoành hành. Deepfake là sự kết hợp giữa deep learning (học sâu) và fake (giả), sử dụng AI phân tích cử chỉ, nét mặt, giọng nói của một người, từ đó tái tạo và chỉnh sửa để cho ra đời ảnh, video và âm thanh như thật.
Người dùng phổ thông hiện dễ dàng tiếp cận loại AI này. Chỉ cần một file giọng nói và một đoạn văn bản đầu vào, các công cụ miễn phí trên mạng có thể tạo các bản ghi với nội dung tùy ư. Consumer Reports đă t́m hiểu 6 sản phẩm sao chép giọng nói AI phổ biến và nhận thấy không có biện pháp hiệu quả nào có thể ngăn người dùng sử dụng AI sai mục đích.
Tuần trước, Cơ quan cảnh sát châu Âu Europol cảnh báo AI đang góp phần đẩy nhanh tốc độ phạm tội. "AI có thể tự động hóa hoạt động tội phạm, khiến chúng có khả năng mở rộng hơn và khó bị phát hiện hơn", tổ chức này cho biết.
Evan Dornbush, cựu chuyên gia an ninh mạng của Cơ quan Anh ninh quốc gia Mỹ (NSA), nói với Forbes rằng AI có thể giúp kẻ lừa đảo tạo thông điệp đáng tin cậy và nhanh hơn, đồng thời chi phí cũng rẻ hơn.
Theo ZDnet, người dùng vẫn có thể phát hiện âm thanh deepfake thông qua ngữ điệu. Nếu giọng "đều đều, nói lắp bắp và không tự nhiên", đây có thể là âm thanh AI. Ngoài ra, những tiếng ồn lạ, hoặc "quá trong trẻo như pḥng thu" cũng có thể đặt vào diện nghi vấn. Dù vậy, với sự tiến bộ công nghệ, AI đang dần khắc phục nhược điểm này mỗi ngày.
C̣n Better Business Bureau đưa ra nguyên tắc: "Nếu mọi thứ nghe có vẻ quá ổn để có thể thành sự thật, chúng ta nên nghi ngờ".