Đây là dấu hiệu cho thấy hăng có thể hoăn cập nhật tính năng quét thư viện ảnh của người dùng gây tranh căi.
Apple đă lặng lẽ xóa thông tin liên quan đến kế hoạch quét thư viện ảnh iCloud để t́m nội dung lạm dụng t́nh dục trẻ em bất hợp pháp (CSAM) khỏi mục An toàn trẻ em trên trang web của ḿnh.
Gă khổng lồ xứ Cupertino công bố kế hoạch quét CSAM từ tháng 8 và dự định vận hành chính thức vào cuối năm. Tuy nhiên, sau khi vấp phải chỉ trích từ các chuyên gia, nhóm nhân quyền và thậm chí cả nhân viên nội bộ, Apple đă tạm dừng phát triển tính năng này.Sang đầu tháng 9, công ty tuyên bố “dành thêm thời gian” để thu thập thông tin đầu vào và thực hiện các cải tiến.Hiện vẫn chưa rơ Apple có tiếp tục quét ảnh CSAM trong tương lai hay không. Người phát ngôn của công ty khẳng định với The Verge lịch tŕnh không có ǵ thay đổi so với lần điều chỉnh vào tháng 9.
Kế hoạch loại CSAM khỏi hệ sinh thái Apple
Hôm 5/8, Apple thông báo chuẩn bị triển khai công cụ bảo vệ hệ thống mới, ngăn chặn lạm dụng t́nh dục trẻ em bất hợp pháp. Hăng bắt đầu thử nghiệm quét toàn bộ h́nh ảnh trên iPhone, iPad đă tải lên iCloud để truy t́m vi phạm.
Kế hoạch ban đầu của Apple là sử dụng một hệ thống có tên neuralMatch để t́m những h́nh ảnh nghi ngờ lạm dụng trẻ em, có trong thư viện ảnh người dùng tải lên iCloud. Họ cũng dự định thuê người đánh giá các nội dung đó nhằm phát hiện vi phạm.
Theo Apple, công cụ này có tính riêng tư cao hơn so với hệ thống của Google và Microsoft. Nó chỉ sử dụng phần mềm được cung cấp thông qua bản cập nhật iOS mới. Dữ liệu lưu trữ ngay trên iPhone của người dùng. Apple khẳng định hoàn toàn không có mối liên hệ nào đến máy chủ của hăng.
Về mặt kỹ thuật, hệ thống không quét ảnh của người dùng mà thay vào đó t́m kiếm “dấu vân tay” số, khớp với cơ sở dữ liệu CSAM. Nếu phát hiện tài khoản người dùng có chứa nội dung vi phạm, th́ hệ thống sẽ đánh dấu và báo cho nhân viên giám sát. Người này có thể kiểm tra lại, xác nhận và chuyển cho cơ quan thực thi pháp luật.
Theo đánh giá của The Register, đây là một ư tưởng tốt của Apple. Nhưng sau khi công bố kế hoạch, người dùng tỏ ra không hài ḷng về việc kho ảnh riêng tư của họ bị giám sát.
Hàng loạt ư kiến nghi ngờ, phản đối
Kế hoạch phát hiện CSAM của Apple hứng chịu nhiều chỉ trích từ các nhóm vận động nhân quyền và cộng đồng bảo mật máy tính v́ nó đă sử dụng thiết bị của chính khách hàng để chống lại họ.Vài ngày sau khi Apple công bố kế hoạch đưa tính năng quét ảnh lên iPhone, thư ngỏ với chữ kư của liên minh gần 30 tổ chức, hơn 6.600 cá nhân, trong đó có chuyên gia bảo mật, nhà nghiên cứu về quyền riêng tư và pháp lư bày tỏ lo ngại xung quanh chính sách mới.
Họ cho rằng công cụ kiểm tra có thể xâm hại đến thông tin cá nhân của người dùng trong quá tŕnh quét thiết bị để t́m CSAM. Các bên yêu cầu hăng tạm dừng chính sách mới và phải “tái khẳng định cam kết đối với việc mă hóa đầu cuối và bảo vệ quyền riêng tư của người dùng”.
“Lạm dụng trẻ em là một vấn đề nghiêm trọng và nỗ lực chống lại nó mang mục đích tốt, nhưng công cụ của Apple có khả năng phá hỏng các biện pháp bảo vệ quyền riêng tư cho tất cả người dùng”, bức thư có đoạn viết.
Theo Reuters, trong một kênh nội bộ trên Slack của nhân viên Apple, hơn 800 tin nhắn được gửi để bày tỏ sự lo lắng với tính năng quét nội dung ảnh trên điện thoại và máy tính. Họ cho rằng chính phủ các nước có thể khai thác tính năng này để t́m kiếm những tài liệu khác và đánh cắp thông tin mật của công dân.
Vào tháng 10, 14 chuyên gia mật mă và bảo mật máy tính nổi tiếng nhất thế giới đă nêu ư kiến phản đối việc sử dụng tính năng quét nội dung phía máy khách v́ nó tạo ra rủi ro về bảo mật và quyền riêng tư.
Matthew Green, Phó giáo sư khoa học máy tính tại Viện Bảo mật Thông tin Johns Hopkins, người đă theo sát kế hoạch của Apple, hy vọng công ty sẽ bỏ ư định quét nội dung trên máy khách v́ điều này có khả năng làm phức tạp việc mă hóa đầu cuối trong iCloud.
"Thật đáng kinh ngạc khi chúng ta đến gần một thế giới, nơi cơ quan thực thi pháp luật chạy các thuật toán quét mạnh mẽ trên dữ liệu riêng tư được lưu trữ trong thiết bị cá nhân của bạn", Green nhận xét.
|