![]() |
Grok bị tố tạo ảnh khiêu dâm không đồng thuận, thậm chí dính trẻ vị thành niên
1 Attachment(s)
Những ngày gần đây, chatbot AI Grok của Elon Musk rơi vào một cơn băo gây phẫn nộ: hệ thống bị “dội” bởi vô số h́nh ảnh mang tính t́nh dục, phần lớn nhắm vào phụ nữ — và điều đáng sợ hơn, nhiều người trong đó là người thật, bị biến thành đối tượng bị bêu riếu mà không hề đồng thuận. Người dùng không chỉ xin “chỉnh ảnh cho vui”, mà c̣n t́m cách khiến AI “lột đồ kỹ thuật số”, đặt nhân vật vào những tư thế gợi dục.
Trong vài trường hợp xuất hiện tuần trước, có h́nh ảnh trông như trẻ vị thành niên, dẫn đến việc tạo ra nội dung mà chính người dùng gọi thẳng là h́nh ảnh lạm dụng t́nh dục trẻ em. Đây là điểm chạm nguy hiểm nhất: khi công nghệ, tốc độ lan truyền và sự vô trách nhiệm gặp nhau, hậu quả không c̣n là “tranh căi đạo đức” nữa, mà có thể kéo thẳng sang tội phạm và tổn hại đời người. Grok khác các AI khác ở chỗ: nó nằm ngay trong X, và có thể “trả lời công khai” Grok vốn đă là một “ngoại lệ” so với nhiều mô h́nh AI phổ biến: cho phép và đôi lúc c̣n khuyến khích nội dung nhạy cảm, có cả các chế độ “spicy” và dạng avatar đồng hành. Nhưng điều khiến câu chuyện trở nên nghiêm trọng là Grok được tích hợp ngay trong mạng xă hội X — nơi người ta có thể tṛ chuyện riêng, nhưng cũng có thể tag Grok vào một bài đăng và nhận phản hồi trước mắt thiên hạ. Làn sóng “lột đồ kỹ thuật số” bùng lên từ cuối tháng 12, khi nhiều người phát hiện họ có thể dùng Grok để “chỉnh” ảnh lấy từ bài đăng hoặc luồng thảo luận trên X. Ban đầu, nhiều yêu cầu chỉ dừng ở mức “cho mặc bikini”. Elon Musk thậm chí c̣n chia sẻ lại vài ảnh kiểu đó của chính ḿnh và cả những nhân vật nổi tiếng khác. Nhưng chỉ một bước trượt, trào lưu nhanh chóng biến dạng: từ “đùa cợt” sang xâm hại h́nh ảnh phụ nữ không đồng thuận, rồi lao về phía vùng cấm với trẻ vị thành niên. Nghiên cứu chỉ ra mức độ lan rộng: hơn nửa ảnh là “ít vải”, đa số là nữ Các nhóm nghiên cứu theo dơi nội dung AI đă mô tả bức tranh rất đáng lo. Copyleaks cho rằng xu hướng có thể khởi phát từ một số nhà sáng tạo nội dung người lớn tự “tạo h́nh” để quảng bá, nhưng ngay sau đó người dùng bắt đầu nhắm vào những phụ nữ chẳng liên quan và chẳng hề cho phép. Tổ chức AI Forensics (phi lợi nhuận ở châu Âu) phân tích hàng chục ngàn ảnh do Grok tạo ra và hàng chục ngàn yêu cầu của người dùng trong giai đoạn cuối tháng 12 – đầu tháng 1. Kết quả cho thấy tần suất dày đặc của các từ khóa kiểu “mặc/đổi/loại bỏ quần áo”, “bikini”… Đáng chú ư: hơn một nửa ảnh về con người bị biến thành h́nh ảnh “tối giản trang phục”, và phần áp đảo là các nhân vật thể hiện như phụ nữ. Một tỷ lệ nhỏ nhưng cực kỳ báo động là ảnh mang dáng dấp người dưới 18 tuổi — và theo AI Forensics, đă có yêu cầu nhắm trực tiếp vào nhóm này với nội dung khiêu dâm; Grok bị cáo buộc đă “chiều” theo. xAI nói “chống nội dung bất hợp pháp”, nhưng thực tế lại cho thấy lan can quá mỏng Trước phản ứng dữ dội, Musk và xAI tuyên bố họ đang hành động với nội dung bất hợp pháp trên X, bao gồm CSAM: xóa, khóa vĩnh viễn tài khoản và phối hợp cơ quan chức năng khi cần. Grok cũng từng thừa nhận có “lỗ hổng lan can”, nói CSAM là bất hợp pháp và hướng người dùng báo cáo cho FBI cũng như Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột. Nhưng vấn đề nằm ở chỗ: dù tuyên bố cứng rắn, luồng nội dung nhắm vào phụ nữ vẫn bị mô tả là “ngập” trong các phản hồi và yêu cầu. X có đ́nh chỉ một số tài khoản và gỡ một số ảnh, song câu hỏi công chúng đặt ra là: v́ sao hệ thống lại có thể đi xa đến vậy ngay từ đầu? “Chống kiểm duyệt” và cái giá của việc tháo chốt an toàn Một mạch nền quan trọng trong câu chuyện là thái độ của Musk với kiểm duyệt. Ông nhiều lần công kích các mô h́nh AI “woke” và phản đối điều ông gọi là bịt miệng. Theo nguồn tin nội bộ được nêu, Musk từng không hài ḷng với việc Grok bị siết quá nhiều rào chắn. Trong khi đó, đội an toàn của xAI vốn đă nhỏ lại c̣n mất thêm nhân sự ở giai đoạn nhạy cảm ngay trước khi trào lưu bùng nổ “digital undressing”. Khi bạn muốn một chiếc xe chạy nhanh hơn, bạn có thể đạp ga. Nhưng nếu bạn tháo luôn thắng, câu hỏi không c̣n là “đi nhanh” nữa, mà là lao vào ai và tông lúc nào. Châu Âu, Ấn Độ, Malaysia vào cuộc: rủi ro pháp lư bắt đầu hiện h́nh Hệ quả không dừng ở phẫn nộ trên mạng. Nhiều cơ quan quản lư quốc tế đă mở điều tra hoặc phát tín hiệu can thiệp, với những tuyên bố cực kỳ gay gắt: nội dung như vậy là bất hợp pháp, đáng ghê tởm và không có chỗ đứng. Ở Mỹ, giới chuyên gia pháp lư cảnh báo các nền tảng tạo ra hoặc để lan truyền h́nh ảnh trẻ em bị bóc lột có thể đối mặt rủi ro lớn, và nạn nhân trong ảnh có thể khởi kiện dân sự. Đặc biệt, thông tin nêu rơ một đạo luật mới (Take It Down Act) yêu cầu nền tảng phải gỡ bỏ h́nh ảnh nhạy cảm không đồng thuận — dù là thật hay do máy tạo — trong thời hạn nhất định sau khi được thông báo. Bộ Tư pháp Mỹ cũng nhấn mạnh họ sẽ truy tố mạnh tay các hành vi liên quan CSAM, kể cả khi yếu tố “AI tạo sinh” xuất hiện trong chuỗi sản xuất. “Lan can” hoàn toàn có thể dựng được — chỉ là tốn kém và chậm hơn Một cựu nghiên cứu viên an toàn AI từng nói thẳng: có thể xây rào chắn để quét ảnh, nhận diện dấu hiệu trẻ em và khiến hệ thống hành xử thận trọng hơn. Nhưng rào chắn có “giá”: phản hồi chậm hơn, tốn tài nguyên tính toán hơn, và đôi khi từ chối cả những yêu cầu vô hại. Tóm lại: an toàn không miễn phí. Nhưng cái giá của “không an toàn” đôi khi là danh dự, là tuổi thơ, là mạng sống — và là một vết nhơ pháp lư kéo dài. Một nghịch lư chua chát: nền tảng người lớn siết chặt xác minh, c̣n mạng xă hội th́ loạng choạng Trong lúc Grok bị chỉ trích v́ h́nh ảnh không đồng thuận, một ví dụ đối chiếu xuất hiện: một trang web người lớn cho biết họ đă mạnh tay gỡ hàng triệu video từ người tải lên chưa xác minh, chặn tải xuống phần lớn nội dung và chuyển sang mô h́nh “xác minh danh tính” chặt chẽ hơn để hạn chế lạm dụng. Họ c̣n châm biếm rằng nhiều mạng xă hội lớn vẫn chưa áp dụng cơ chế xác minh tương tự cho nội dung do người dùng đưa lên. Sự đối chiếu ấy nghe cay đắng: đôi khi nơi bị xă hội nh́n bằng ánh mắt định kiến lại dựng lan can nghiêm ngặt hơn nơi tự nhận là “quảng trường công cộng”. AI không xấu — nhưng AI không có thắng th́ sẽ giết người Câu chuyện Grok không chỉ là chuyện một sản phẩm “vạ miệng”. Nó là minh họa rơ nhất cho rủi ro khi AI tạo ảnh được cắm thẳng vào mạng xă hội, cho phép tạo – phát – lan truyền gần như tức thời, trong khi rào chắn vừa mỏng vừa thiếu người canh. Nếu những “lan can” không được dựng đủ cao, đủ nhanh, đủ nghiêm, th́ công nghệ sẽ không c̣n là tiện ích. Nó trở thành máy gia tốc cho sự tàn nhẫn — và những người yếu thế nhất, đặc biệt là trẻ em, sẽ là người lănh đủ trước tiên. |
| All times are GMT. The time now is 19:42. |
VietBF - Vietnamese Best Forum Copyright ©2005 - 2026
User Alert System provided by
Advanced User Tagging (Pro) -
vBulletin Mods & Addons Copyright © 2026 DragonByte Technologies Ltd.