Apple phát hành bảng hỏi đáp về CSAM

-

Hồi đầu tuần này Apple công bố tính năng quét hình ảnh trong máy người dùng để chống lại những kẻ phát tán hình ảnh lạm dụng trẻ em, gọi tắt là CSAM (Child Sexual Abuse Material). Nay họ tiếp tục đưa ra bảng Q&A hỏi đáp để giải đáp những thắc mắc mà họ nhận được từ nhiều bên. Đa phần người ta lo ngại về quyền riêng tư cá nhân.

File Q&A dạng PDF dài 6 trang của Apple, bạn có thể tải và xem tại đây.

Apple phát hành bảng hỏi đáp về CSAM

Bạn có thể đọc lại bài về CSAM hôm trước đăng trên ONTOP.vn để hiểu rõ cách thức hoạt động của những tính năng này. Nói một cách ngắn gọn là Apple sẽ dùng AI để phân tích ảnh chứa trong máy người dùng (ở dạng hash, không ai xem được kể cả Apple). Nếu phát hiện có nhiều ảnh vi phạm CSAM được up lên iCloud Photos thì Apple sẽ đích thân kiểm tra những tấm hình đó (ở độ phân giải thấp) để chắc chắn rằng hệ thống báo cáo đúng. Nếu đúng thì Apple mới gửi thông báo đến cơ quan chức năng.

Một lo ngại khác là liệu Apple có hợp tác với các chính phủ để áp dụng cơ chế này lên những nội dung ngoài CSAM hay không. Ví dụ như quét ảnh để tìm hình Tank Man vốn vẫn đang bị kiểm duyệt ở Trung Quốc. Apple cho biết kỹ thuật này chỉ áp dụng cho CSAM và họ sẽ không ‘mở rộng’ cơ sở dữ liệu đó ra thêm các nội dung khác.

Bài liên quan