Sau lời xin lỗi của CEO Meta trước gia đ́nh có con em bị ảnh hưởng bởi mạng xă hội, chuyên gia nhận định các công ty công nghệ cần phải làm nhiều hơn nữa để bảo vệ trẻ em.
“Tôi xin lỗi v́ những ǵ các bạn đă trải qua. Thật khủng khiếp. Không ai đáng phải trải qua điều mà gia đ́nh bạn đă phải gánh chịu”, CEO Meta Mark Zuckerberg nói trước các phụ huynh tham dự phiên điều trần hôm 31/1.
“Đây là lư do chúng tôi đầu tư rất nhiều và sẽ tiếp tục nỗ lực toàn diện để đảm bảo không ai phải trải qua điều như vậy nữa”, ông nhấn mạnh.
Vừa qua, giám đốc điều hành của loạt mạng xă hội Meta, TikTok, X, Snap và Discord đă làm chứng trước Thượng viện Mỹ về những ǵ các bên đang làm để bảo vệ trẻ em khỏi bị tổn hại trực tuyến.
Trong khi CEO Meta và TikTok tự nguyện tŕnh diện, CEO Evan Spiegel của Snap, Linda Yaccarino của X và Jason Citron của Discor đều bị ủy ban triệu tập, theo CNN.
Thượng nghị sĩ Dick Durbin - Chủ tịch đảng Dân chủ của Ủy ban Tư pháp - lưu ư Citron “chỉ chấp nhận trát đ̣i điều trần của ông sau khi cảnh sát liên bang được cử đến trụ sở của Discord bằng chi phí của người nộp thuế”.
“Bàn tay dính máu"
Tại buổi điều trần, ông Durbin cáo buộc mạng xă hội gây tổn hại cho sức khỏe tâm thần của trẻ em. Ông cho biết chúng không chỉ “góp phần vào cuộc khủng hoảng này mà c̣n phải chịu trách nhiệm về nhiều mối nguy hiểm mà con cái chúng ta phải đối mặt trên mạng”.
Các thượng nghị sĩ cũng bày tỏ lo ngại về việc trẻ em bị bóc lột trên mạng. Chẳng hạn, sau khi giả vờ tạo mối quan hệ lăng mạn, những kẻ tống tiền theo h́nh thức “sextortion” sẽ thuyết phục trẻ em chia sẻ h́nh ảnh nhạy cảm, sau đó đe dọa công khai h́nh ảnh đó nếu họ không cung cấp thêm nội dung nhạy cảm hoặc tiền bạc.
Điều này có thể hủy hoại cuộc sống của nhiều người và khiến họ có nguy cơ bị trầm cảm, tự tử.
“Ông Zuckerberg, ông và các công ty (đang ngồi) trước chúng tôi - tôi biết ông không có ư như vậy - nhưng tay ông dính máu”, Thượng nghị sĩ đảng Cộng ḥa Lindsey Graham nói.
Trước phiên điều trần, các công ty công nghệ đă công bố sáng kiến mới để bảo vệ trẻ em. Instagram và TikTok đang khuyến khích trẻ em nghỉ giải lao hoặc hạn chế thời gian trước màn h́nh, đồng thời thay đổi thuật toán để hiển thị cho trẻ em nội dung ít độc hại hơn.
Meta cho biết họ đang ẩn loại nội dung không phù hợp với trẻ em và đă thay đổi cài đặt quyền riêng tư mặc định của thanh thiếu niên để giúp ngăn người không quen biết nhắn tin.
Snapchat đang cung cấp cho các bậc cha mẹ nhiều lựa chọn giám sát hơn, như thông tin về cài đặt an toàn của con họ.
Ông Chew đă làm chứng rằng trên TikTok, tài khoản dành cho trẻ em dưới 16 tuổi được đặt ở chế độ riêng tư và không được đề xuất cho người chúng không biết.
Trong khi đó, bà Yaccarino cho biết trẻ em 13-17 tuổi không thể nhận tin nhắn từ người mà chúng không chấp nhận trên X. Ông Spiegel lưu ư không có lượt thích hoặc b́nh luận nào được hiển thị công khai trên Snapchat.
Đây đều là những tính năng quan trọng. Nhưng như thế không đủ.
Theo phó giáo sư truyền thông Kara Alaimo tại Đại học Fairleigh Dickinson, các nhà lập pháp và công ty công nghệ cần phải làm nhiều hơn nữa để bảo vệ trẻ em.
Cần nhiều hơn thế
Đạo luật ngăn chặn tài liệu lạm dụng t́nh dục trẻ em (CSAM) năm 2023 có thể khiến các công ty công nghệ phải chịu trách nhiệm dân sự khi lưu trữ tài liệu lạm dụng t́nh dục trẻ em. Đây sẽ là biện pháp thiết yếu để khuyến khích các công ty công nghệ nỗ lực nhiều hơn nhằm bảo vệ trẻ em khỏi nạn tống tiền t́nh dục cùng h́nh thức lạm dụng trực tuyến khác.
Đạo luật SHIELD sẽ h́nh sự hóa việc chia sẻ hoặc đe dọa chia sẻ h́nh ảnh thân mật mà không có sự đồng ư của người trong cuộc. Đây cũng là cách quan trọng để bảo vệ trẻ em và ngay cả người trưởng thành.Các công ty công nghệ cũng c̣n rất nhiều việc phải làm. Theo Phó giáo sư Kara Alaimo, mặc dù các bên tuyên bố rằng họ đang hiển thị bài đăng ít gây hại hơn đối với trẻ em, vẫn chưa rơ họ xác định nội dung này bằng cách nào.
Bà nhận định các công ty nên hợp tác với chuyên gia về sức khỏe vị thành niên để phát triển và chia sẻ tiêu chuẩn về nội dung. Điều này nhằm đảm bảo những bài đăng có thể gây hại không xuất hiện trên ḍng thời gian và nhà sáng tạo nội dung cần tuân thủ chúng.
“Chúng ta không thể tin tưởng vào công cụ trí tuệ nhân tạo để thực hiện việc kiểm tra này”, bà Kara Alaimo nói thêm.
Trong phiên điều trần, CEO Zuckerberg cho biết “99% hoặc hơn” nội dung mà Meta xóa được tự động xác định bằng AI. Tuy nhiên, một tài liệu nội bộ cho thấy hệ thống tự động chỉ loại bỏ ít hơn 1% nội dung vi phạm quy tắc của công ty về bạo lực và kích động.
“Chúng ta cũng cần biết xu hướng nào mà con cái chúng ta đang tiếp xúc trực tuyến. Hiện tại, không có nền tảng nào trong số này cung cấp số liệu chất lượng về những ǵ phổ biến trên nền tảng của họ”, bà Kara Alaimo đánh giá.
Theo bà, các ứng dụng xă hội nên cung cấp công cụ hiển thị xu hướng, cùng phân tích chi tiết đối với nhóm người dùng dưới 18 tuổi để phụ huynh biết nên tṛ chuyện ǵ với con cái ḿnh.
Bà chia sẻ thêm các ứng dụng nên xác định đâu là ảnh đă qua chỉnh sửa để nhắc nhở trẻ em rằng h́nh ảnh chúng thấy về ngoại h́nh người khác có thể không phải thật. Điều này giúp trẻ em có cái nh́n thực tế hơn.
Cuối cùng, các công ty công nghệ nên làm tốt hơn trong việc sử dụng nền tảng của ḿnh để cung cấp cho trẻ em thông tin hữu ích và trao quyền cho chúng - như bài học về cách sử dụng mạng xă hội lành mạnh.
Ví dụ, khi h́nh ảnh deepfake nhạy cảm của ngôi sao nhạc pop Taylor Swift lan truyền trực tuyến, các mạng xă hội nên hiển thị nội dung cho trẻ em về cách nhận biết h́nh ảnh giả mạo và tại sao không bao giờ nên tạo ra chúng.
“Khi h́nh ảnh khỏa thân của một người phụ nữ lan truyền trên mạng, điều đó khiến cô ấy có nguy cơ bị tấn công t́nh dục, thất nghiệp, khó hẹn ḥ, trầm cảm và thậm chí tự tử”, bà nhấn mạnh.
|