Apple tạm chưa triển khai hệ thống nhận diện CSAM để hoàn thiện thêm

-

Sau gần 1 tháng đầy sóng gió với vụ CSAM, Apple nay thông báo họ sẽ tạm ngừng việc triển khai chức năng này để có thêm thời gian thu thập ý kiến và cải thiện nó hơn. Lúc đầu Apple tính sẽ phát hành nó cùng với iOS 15 trong năm nay.

Cho bạn nào không biết CSAM là gì thì có thể xem lại series bài nói về #CSAM trên ONTOP.

CSAM là viết tắt của cụm từ ‘Child Sexual Abuse Material’ dùng để chỉ các nội dung (phim, ảnh, tin nhắn…) có liên quan đến việc lạm dụng trẻ em. Ban đầu Apple tính sẽ triển khai hệ thống phát hiện và ngăn chặn CSAM khi chúng được gửi qua tin nhắn iMessage hoặc up lên iCloud Photos, bằng cách dùng Machine Learning tự chạy thuật toán phân tích ảnh trong máy của người dùng. Từ đó giúp ngăn chăn việc lạm dụng trẻ em online.

Tuy nhiên ngay sau thông báo đó Apple vướng phải rất nhiều ý kiến lo ngại, kể cả phản đối, của nhiều bên cho rằng Apple đang xâm phạm quyền riêng tư của người dùng thông qua việc quét hình ảnh trên iCloud. Mặc dù Apple nói họ không quét nhưng vẫn chưa đủ sức thuyết phục.

Bạn có thể đọc thêm bài Thuật toán nhận diện CSAM của Apple bị đánh lừa, nhưng chỉ một phần và bài CSAM: Apple sẽ dùng dữ liệu của nhiều tổ chức bảo vệ trẻ từ nhiều quốc gia để biết rõ hơn về cách thức hoạt động của hệ thống mà Apple đang sử dụng.

Bài liên quan