"Mẹ, con gặp rắc rối rồi", giọng nói giống hệt của con gái vang lên trong điện thoại khiến Jennifer DeStefano chết lặng vì nghĩ con bị bắt cóc.
Jennifer DeStefano, ở Arizona (Mỹ), nhận được cuộc gọi khi vừa đỗ ôtô trước câu lạc bộ khiêu vũ của con út Aubrey. Số điện thoại lạ nên cô định không nghe máy, nhưng lại sợ rằng biết đâu con gái lớn Brianna, 15 tuổi, gặp sự cố khi tham gia huấn luyện thi đấu trượt tuyết.
Âm thanh đầu tiên DeStefano nghe thấy tiếng khóc và tiếng gọi của một cô gái. "Giọng nói giống hệt của Brie. Đột nhiên tôi nghe thấy một người đàn ông quát 'nằm xuống'. Tôi nghĩ con bé đang được nhân viên y tế sơ tán xuống núi", cô nhớ lại tình huống hồi cuối tháng 1.
Tuy nhiên, giọng đàn ông vang lên: "Nghe đây, tôi đã bắt con gái cô. Tôi sẽ tiêm ma túy vào nó nếu cô gọi cảnh sát hay bất cứ ai, sau đó đưa nó đến Mexico và cô sẽ không bao giờ gặp lại con gái nữa".
Jennifer sững người, sau đó chạy vào nơi tập của Aubrey, run rẩy cầu cứu.
DeStefano là một trong những nạn nhân của cuộc gọi lừa đảo với tiếng nói tổng hợp bằng deepfake để khiến người nghe tin rằng người thân của họ bị bắt cóc và phải nộp tiền chuộc. Trung bình, các gia đình đã mất 11.000 USD cho mỗi cuộc gọi lừa đảo, theo Siobhan Johnson, phát ngôn viên của Cục Điều tra Liên bang Mỹ (FBI). Ủy ban Thương mại Liên bang Mỹ (FTC) thống kê người dân Mỹ đã mất tổng cộng 2,6 tỷ USD vì các cuộc gọi lừa đảo trong năm 2022.
DeStefano chưa từng nghe đến các vụ giả bắt cóc bằng deepfake và cũng không biết kẻ lừa đảo làm cách nào có được âm thanh gốc. Brianna sử dụng mạng xã hội, gồm một tài khoản TikTok riêng tư và tài khoản công khai trên Instagram, nhưng người theo dõi chủ yếu là người thân và bạn bè.
"Rõ ràng là giọng của con bé, cách nói cũng hoàn toàn trùng khớp với tính cách của Brie", cô nói. Cô thuyết phục kẻ lừa đảo giảm tiền chuộc, đồng thời bảo con gái Aubrey gọi điện cho chị hoặc cha vì hai người đang cùng ở khu nghỉ dưỡng trượt tuyết cách đó 200 km.
Sau một lúc thương lượng, kẻ lừa đảo đồng ý hạ mức tiền chuộc xuống 50.000 USD và hướng dẫn cách chuyển tiền. Một phụ nữ thuyết phục DeStefano rằng cô đang bị lừa nhưng không thành công. "Tôi không tin vì âm thanh quá chân thực", DeStefano nhớ lại.
Trong lúc đó, Aubrey đã gọi điện được cho chị. "Con đang ngủ và không biết chuyện gì đang xảy ra. Con ổn cả", Brianna nói với mẹ. DeStefano bật khóc và chửi rủa kẻ lừa đảo, dù người này khẳng định vẫn giữ con gái của cô và tiếp tục đòi tiền.
Lừa đảo qua điện thoại đã xuất hiện từ lâu, nhưng giới chức Mỹ cảnh báo chúng ngày càng phức tạp khi được áp dụng nhiều công nghệ mới, trong đó có AI để giả giọng nói người thân.
"Mối đe dọa này không còn là giả định, những kẻ lừa đảo đang vũ khí hóa AI", Hany Farid, giáo sư ngành khoa học máy tính tại Đại học Berkeley ở California của Mỹ, cho hay. "Bản sao của giọng nói có thể được tạo ra chỉ nhờ file ghi âm vài chục giây".
Phần mềm AI sao chép giọng nói có chi phí chỉ 5 USD mỗi tháng, cho phép ai cũng tiếp cận được. FTC hồi tháng 3 cảnh báo kẻ lừa đảo có thể lấy file ghi âm từ các video đăng trên mạng xã hội của nạn nhân.
Theo FBI, nhiều cuộc gọi xuất phát từ Mexico và nhắm vào khu vực tây nam nước Mỹ, nhưng chưa có thống kê đầy đủ về số người bị ảnh hưởng mỗi năm. Các đặc vụ nói nạn nhân thường không đặt dấu dỏi về tính xác thực của cuộc gọi giữa lúc tình huống căng thẳng như vậy.
"Chúng tôi muốn mọi người chuẩn bị sẵn tinh thần và không hoảng loạn. Đây là loại hình tội phạm rất dễ đối phó nếu biết trước về nó", đặc vụ Johnson nói, thêm rằng deepkake là mối lo ngại lớn nhưng AI không phải vấn đề chính, mà là cách những kẻ tội phạm sử dụng chúng.
|