Steve Harvey nổi tiếng với việc trao tiền cho các thí sinh chương tŕnh “Family Feud” hoặc chia sẻ lời khuyên trên chương tŕnh phát thanh của ḿnh.

Người dẫn chương tŕnh Steve Harvey và nữ diễn viên Scarlett Johansson nằm trong số những người nổi tiếng bị dính deepfake. Ảnh: AFP.
Tuy nhiên, trong những năm gần đây, ông cũng trở thành mục tiêu phổ biến của các meme được tạo ra bởi trí tuệ nhân tạo (AI), nhiều trong số đó mang tính hài hước và dường như vô hại – như việc Harvey được mô tả như một ngôi sao nhạc rock hoặc cảnh ông chạy trốn khỏi quái vật.
Tuy nhiên, những kẻ xấu hơn lại đang sử dụng phiên bản AI của h́nh ảnh, giọng nói và h́nh dáng của Harvey để thực hiện các tṛ lừa đảo.
Vào năm ngoái, Harvey là một trong những người nổi tiếng có giọng nói bị bắt chước bởi AI và được sử dụng để quảng bá một tṛ lừa đảo hứa hẹn cung cấp tiền trợ cấp từ chính phủ cho mọi người. Những nạn nhân của chiêu tṛ này c̣n có ngôi sao ca nhạc Taylor Swift và Joe Rogan.
“Trong mấy tháng qua tôi đă bảo các bạn đi lấy 6.400 USD miễn phí này”, giọng nói giống như của Harvey nói trong một video.
Giờ đây, Harvey lên tiếng ủng hộ việc thông qua các luật và h́nh phạt đối nhằm vào những kẻ đứng sau các tṛ lừa đảo này – cũng như các nền tảng chứa chúng. Và Quốc hội Mỹ dường như đang lắng nghe. Quốc hội đang xem xét một số dự luật nhằm trừng phạt những kẻ ứng dụng AI vào mục đích xấu, bao gồm một phiên bản cập nhật của đạo luật có tên “No Fakes”, yêu cầu các nền tảng và người sáng tạo chịu trách nhiệm về những h́nh ảnh, video và âm thanh do AI tạo ra mà không có sự ủy quyền.
Nhóm thượng nghị sĩ lưỡng đảng đứng sau đạo luật này, bao gồm các đảng viên Dân chủ Chris Coons của Delaware và Amy Klobuchar của Minnesota, cùng các đảng viên Cộng ḥa Marsha Blackburn của Tennessee và Thom Tillis của North Carolina, dự định sẽ tái giới thiệu đạo luật trong vài tuần tới.
Đạo luật này cùng với các dự luật khác nhằm h́nh sự hóa các đoạn video deepfake có nội dung khiêu dâm do AI tạo ra, gọi là đạo luật “Take It Down”, cũng đang được xem xét tại Quốc hội và đă nhận được sự ủng hộ từ Đệ nhất phu nhân Melania Trump.
Vào năm 2025, Harvey cho biết các tṛ lừa đảo sử dụng h́nh ảnh của ông đang ở mức "cao nhất từ trước đến nay".
“Tôi tự hào v́ thương hiệu của ḿnh luôn mang tính xác thực, và mọi người biết điều đó, v́ vậy họ tin tưởng tôi là một người đáng tin cậy và chân thật”, Harvey nói với CNN trong một cuộc phỏng vấn. “Lo ngại của tôi bây giờ là những người bị ảnh hưởng. Tôi không muốn fan hâm mộ của tôi hay những người không phải fan bị tổn thương”.
Các ngôi sao nổi tiếng kêu gọi hành động chống AI deepfake

Ngôi sao ca nhạc Taylor Swift cũng từng là nạn nhân của deepfake. Ảnh: Reuters.
Nhiều nghệ sĩ thu âm, diễn viên và các ngôi sao nổi tiếng khác đă bị cuốn vào các vụ bê bối liên quan tới AI trong 2 năm qua, khi công nghệ này phát triển nhanh chóng. Một phụ nữ ở Pháp đă mất 850.000 USD sau khi kẻ lừa đảo sử dụng h́nh ảnh AI của Brad Pitt để lừa cô nghĩ rằng cô đang giúp đỡ nam tài tử này.
Nữ diễn viên Scarlett Johansson, người đă công khai đối mặt với việc AI bắt chước h́nh ảnh của ḿnh, cũng đă ủng hộ việc thông qua các đạo luật.
“Có một làn sóng khổng lồ về AI đang đến, và một số quốc gia tiến bộ, không bao gồm Mỹ, đă phản ứng với nó một cách có trách nhiệm”, Johansson nói trong một tuyên bố vào tháng 2 sau khi một video AI giả mạo cô phản hồi lại những b́nh luận chống Do Thái của Kanye West lan truyền mạnh mẽ. “Thật đáng sợ khi chính phủ Mỹ lại bị tê liệt trong việc thông qua các đạo luật bảo vệ công dân khỏi những mối nguy hiểm từ AI”.
Harvey cho biết ông cũng ủng hộ các đạo luật này, những đạo luật đă nhận được sự hỗ trợ từ Viện Hàn lâm Thu âm, Hội Diễn viên Màn ảnh, Hiệp hội Phim ảnh, các công ty tài năng lớn và một số tên tuổi lớn ở Hollywood.
Trước khi tái giới thiệu đạo luật “No Fakes”, các thượng nghị sĩ cũng hy vọng sẽ nhận được sự ủng hộ từ các nền tảng trực tuyến, vốn có thể bị phạt nếu đăng tải nội dung AI theo dự luật này. Dự luật hiện tại sẽ phạt các nền tảng 5.000 USD cho mỗi lần vi phạm, có nghĩa là một nội dung sáng tạo bởi AI lan truyền có thể nhanh chóng tạo ra hàng triệu USD tiền phạt.
Tuy nhiên, các nhà phê b́nh của dự luật, bao gồm các tổ chức bảo vệ quyền lợi công cộng lo ngại rằng dự luật hiện tại sẽ tạo ra quá nhiều sự quản lư. Trong một bức thư gửi các thượng nghị sĩ vào năm ngoái, họ cảnh báo rằng dự luật có thể đe dọa quyền tự do ngôn luận theo Tu chính án thứ nhất và tạo điều kiện cho thông tin sai lệch, đồng thời dẫn đến một "cơn lũ" các vụ kiện tụng.
Startup hỗ trợ người nổi tiếng phát hiện deepfake AI
Nhưng khi Quốc hội đang xem xét vấn đề, công nghệ AI tiếp tục phát triển. Các ngôi sao nổi tiếng cho biết họ cảm thấy bị giới hạn trong việc truy vết những kẻ bắt chước sử dụng h́nh ảnh của ḿnh – đặc biệt là các tài khoản ẩn danh trên mạng.
Và đây cũng là thời điểm mà các công ty như Vermillio AI ra đời. Công ty này, đă hợp tác với các đại lư tài năng lớn và các studio phim, sử dụng một nền tảng gọi là TraceID để theo dơi các trường hợp AI của khách hàng và tự động hóa các yêu cầu gỡ bỏ thường rất phức tạp.
“Vào năm 2018, có thể chỉ có khoảng 19.000 sản phẩm deepfake”, Giám đốc điều hành Vermillio, ông Dan Neely, nói trong một cuộc phỏng vấn. “Ngày nay, có khoảng 1 triệu sản phẩm được tạo ra mỗi phút”.
Đối với người nổi tiếng, việc theo dơi deepfake đặc biệt khó khăn v́ chúng có thể lan truyền rất nhanh trên các nền tảng mạng xă hội. “V́ vậy, việc cố gắng t́m ra chúng và gỡ bỏ là khá phức tạp”, ông Neely nói.
Ông Neely đă cho CNN xem tài khoản Vermillio của Harvey, bao gồm các chatbot tạo ra giọng nói AI giống như Harvey và những video giả mạo mà trong đó người dẫn chương tŕnh truyền h́nh này khuyến khích người xem đánh bạc.
Ông Neely cho biết công nghệ của công ty sử dụng một loại “dấu vân tay” để phân biệt nội dung thật và các vật liệu do AI tạo ra. Điều này bao gồm việc ḍ t́m trên web các h́nh ảnh đă bị chỉnh sửa bằng các mô h́nh ngôn ngữ lớn (LLM), là nền tảng của nhiều dịch vụ AI tạo sinh phổ biến.
Các ngôi sao nổi tiếng có thể chi trả cho dịch vụ như Vermillio. Nhưng đối với những người sáng tạo khác, khả năng tiếp cận dịch vụ này lại hạn chế hơn.
VietBF@sưu tập