|
 Thuật ngữ VietnamBiz
Kinh doanh

Apple âm thầm gỡ bỏ tính năng tự động quét album ảnh của người dùng iPhone gây nhiều tranh cãi

14:19 | 29/12/2021
Chia sẻ
Apple không hề đề cập đến tính năng phát hiện CSAM (tài liệu lạm dụng tình dục trẻ em) gây tranh cãi khi phát hành iOS 15.2 và các tính năng khác đầu tuần này.

Apple vừa cập nhật một trang web về các tính năng an toàn cho trẻ em để xóa tất cả các tham chiếu liên quan đến tính năng phát hiện tài liệu lạm dụng tình dục trẻ em (CSAM) gây tranh cãi được công bố lần đầu tiên vào tháng 8. 

Sự thay đổi này dường như đã diễn ra trong khoảng thời gian từ ngày 10 đến ngày 13/12. Tuy nhiên, bất chấp sự thay đổi này, gã khổng lồ trong ngành công nghệ cho biết kế hoạch của họ với CSAM không đổi, theo The Verge.

Hai trong số ba tính năng an toàn, được phát hành vào đầu tuần này cùng với iOS 15.2 vẫn đang hiện diện trên trang, được đánh tiêu đề "Các biện pháp bảo vệ mở rộng cho trẻ em". Tuy nhiên, các tham chiếu về CSAM gây tranh cãi khi bị những người ủng hộ quyền riêng tư phản ứng dữ dội, đã bị xóa.

Apple âm thầm rút kế hoạch liên quan đến trẻ em gây nhiều tranh cãi - Ảnh 1.

Apple hoãn kế hoạch về tính năng phát hiện CSAM. (Ảnh: The Geek).

Người phát ngôn của Apple, Shane Bauer nói rằng quan điểm của công ty không thay đổi kể từ tháng 9, thời điểm Apple lần đầu thông báo họ sẽ trì hoãn việc ra mắt tính năng CSAM. 

"Dựa trên phản hồi từ khách hàng, nhóm vận động, các nhà nghiên cứu và những người khác, chúng tôi đã quyết định dành thêm thời gian trong những tháng tới để thu thập thông tin đầu vào và thực hiện các cải tiến trước khi phát hành các tính năng cực kỳ quan trọng về an toàn cho trẻ em này", theo tuyên bố của Apple trong tháng 9.

Điều quan trọng, tuyên bố của Apple không nói rằng tính năng này đã bị hủy hoàn toàn. Các tài liệu phác thảo cách thức hoạt động của CSAM vẫn tồn tại trên trang web của gã khổng lồ này.

Tính năng CSAM của Apple đã gây tranh cãi ngay từ lần đầu được công bố vì nó liên quan đến việc lấy các hàm băm (hashes) của iCloud Photos và so sánh chúng với cơ sở dữ liệu hàm băm của hình ảnh lạm dụng tình dục trẻ em. 

Apple tuyên bố cách tiếp cận này cho phép họ báo cáo người dùng với chính quyền nếu những người đó bị phát hiện là đang tải lên hình ảnh có liên quan đến việc lạm dụng trẻ em. Ngoài ra, Apple cũng cho biết việc mã hóa dữ liệu người dùng không bị ảnh hưởng và các phân tích được chạy trực tiếp trên thiết bị.

Dù vậy, các nhà phê bình cho rằng hệ thống của Apple có nguy cơ làm suy yếu mã hóa end-to-end của chính công ty. Một số người gọi hệ thống này là "cửa sau", nơi các chính phủ trên thế giới có thể hỗ trợ Apple mở rộng mọi thứ. 

Về phần mình, Apple nói rằng họ sẽ không chấp nhận yêu cầu của bất kỳ chính phủ nào về việc mở rộng quá những gì từng công bố về tính năng CSAM.

Mặc dù tính năng phát hiện CSAM vẫn chưa có ngày ra mắt mới, nhưng Apple đã tiếp tục phát hành hai trong số các tính năng bảo vệ trẻ em khác mà hãng đã công bố vào tháng 8. 

Một được thiết kế để cảnh báo trẻ em khi chúng nhận được hình ảnh khỏa thân trong Messages, cái thứ hai cung cấp thông tin bổ sung khi tìm kiếm các cụm từ liên quan đến bóc lột trẻ em thông qua Siri, Spotlight hoặc Safari Search. Cả hai đều ra mắt với iOS 15.2, được phát hành vào đầu tuần này.

Quốc Anh