2 nhà nghiên cứu làm hệ thống phát hiện ảnh khiêu dâm trẻ em giống Apple, và họ phát hiện lỗ hổng
Duy Luân
2 thángBình luận: 70
2 nhà nghiên cứu làm hệ thống phát hiện ảnh khiêu dâm trẻ em giống Apple, và họ phát hiện lỗ hổng
2 nhà nghiên cứu ở Đại học Princeton nói rằng họ đã làm ra công cụ tương tự như hệ thống quét ảnh khiêu dâm trẻ em (CSAM) mà Apple đang làm, và họ nhận ra một lỗ hổng đó là nó có thể bị lợi dụng để biến thành công cụ giám sát cho các chính phủ.

Jonathan Mayer, trợ lý giáo sư và nhà nghiên cứu Anunay Kulshrestha cho biết: “Chúng tôi có một bài báo được peer-reviewed nói về cách làm ra một hệ thống tương tự Apple - và chúng tôi kết luận rằng công nghệ này rất nguy hiểm”. Hai người họ phát triển một hệ thống dò tìm ảnh CSAM trong một dịch vụ online được mã hóa từ đầu đến cuối. Giống Apple, họ muốn làm sao vẫn phát hiện được ảnh CSAM trong khi cố gắng tôn trọng quyền riêng tư nhất có thể. “Chúng tôi lo lắng rằng các dịch vụ online sẽ ngại dùng mã hóa nếu không có công cụ nào để phòng chống CSAM”.

Hai nhà nghiên cứu đã dành nhiều năm cho ý tưởng của mình, và họ cũng đã tạo ra một nguyên mẫu chạy được. Tuy nhiên, “hệ thống của chúng tôi có thể được chuyển đổi mục đích để giám sát hoặc che giấu nội dung. Thiết kế của hệ thống này không dành riêng cho bất kì loại nội dung nào cả, một dịch vụ có thể đổi cơ sở dữ liệu dùng để đối chiếu sang một thứ khác không phải ảnh khiêu dâm trẻ em, là bạn đã có thể dùng nó để phát hiện các loại ảnh khác rồi”.

Những lo lắng này không chỉ nằm trên giấy, Mayer và Kulshrestha lấy ví dụ của WeChat, app chat này đã được Đại học Toronto phát hiện là sử dụng thuật toán để phát hiện hình ảnh, tài liệu bất đồng chính kiến. “Trung Quốc là thị trường lớn thứ 2 của Apple, với cả trăm triệu thiết bị. Điều gì sẽ ngăn chính phủ Trung Quốc yêu cầu Apple quét các nội dung này?" Mayer và Kulshrestha cũng nói rằng Apple từng nhiều lần làm theo yêu cầu của chính phủ Trung Quốc, ví dụ như lần mà Apple chuyển dữ liệu của người dùng Trung Quốc về lưu ở nội địa nước này.

“Chúng tôi còn phát hiện ra những hạn chế khác. Hệ thống này có thể phát hiện nhầm, và những người dùng độc hại có thể lợi dụng hệ thống để gài bẫy những người vô tội", hai nhà nghiên cứu cho hay.

Apple giải quyết những lo ngại này bằng cách chỉ áp dụng tính năng tìm kiếm ảnh CSAM ở Mỹ trong thời gian đầu ra mắt. Ngoài ra, chỉ khi nào ít nhất 30 tấm ảnh CSAM được upload lên iCloud thì nó mới cảnh báo tới nhân viên của Apple, dựa vào đây họ còn phải review lại thủ công trước khi chuyển thông tin cho các hội bảo vệ quyền trẻ em.

Mayer và Kulshrestha dự định sẽ trình bày hệ thống của họ tại một hội nghị học thuật, tuy nhiên chưa kịp làm thì Apple giới thiệu hệ thống phát hiện của họ 1 tuần trước đó. “Động lực của Apple giống chúng tôi, là để bảo vệ trẻ em. Hệ thống của họ hiệu quả hơn và mạnh mẽ hơn của chúng tôi. Tuy nhiên chúng tôi vẫn chưa thấy Apple trả lời như thế nào về những câu hỏi hoài nghi đang được mọi người đưa lên”.

Xem thêm: Cách hoạt động của hệ thống phát hiện ảnh khiêu dâm trẻ em của Apple

Apple giải thích cách phát hiện ảnh lạm dụng trẻ em trên máy của người dùng | Tinh tế

Apple sẽ bắt đầu quét iPhone để phát hiện những tấm ảnh mang tính chất lạm dụng trẻ em thông qua một bản update của iOS 15, iPadOS 15, watchOS 8, macOS Monterey.
tinhte.vn


Nguồn: Engadget
70 bình luận
Nên vô hiệu hoá tính năng chụp, xem ảnh CP ngay trên điện thoại là xong, trí tuệ nhân tạo AI A ủng đâu hết rồi
jdaiduong
ĐẠI BÀNG
2 tháng
@Hoang_HaoMinh Bọn nó tạo lí do để theo dõi dân đấy, mang trẻ em ra làm lá chắn thôi, cứ làm như bọn lạm dụng trẻ em nó đều chụp, quay lại hết không bằng, mà giờ biết Apple có vụ theo dõi thì bọn nó xoá hết hoặc dùng thiết bị khác.
@Hoang_HaoMinh Dễ thế thì đã ko nên chuyện
@P.W Khó chỗ nào?
Phức tạp ghê, dù gì thì cũng méo thích ai sờ tay vào hàng TB dữ liệu trên icloud của mình và gia đình
Có thằng ăn trộm nào vào nhà rồi mà nói tui chỉ ghé thăm chơi 😆
@Bão Sài Gòn tui ghé thăm và giữ đồ dùm mấy người thôi mà
@Bão Sài Gòn Túi ghé coi nhà ông có gì thôi chứ không lấy đâu. P/s. Cái nào ưng túi mới lấy
Bên ngoài thì bảo mật cho người dùng, bên trong thì cấp hết cho chính phủ
@Carl google nó lục để nó quảng cáo, và nó là dịch vụ free mà thím? còn apple mở miệng nói bảo vệ nhưng sau lưng lại đâm dao mới là ghê. ghét mấy bọn bất lương nói 1 đường mà làm 1 nẻo thím ơi. ghê hơn là bọn apple o chừng cúng data cho bọn cs tq mới ghê.
Carl
CAO CẤP
2 tháng
@ragefighter Free nỗi gì, Google bán cả điện thoại và thu tiền subscription như Apple thôi. Apple chỉ kiểm duyệt nội dung up lên iCloud, còn những thứ khác chứa trong máy sẽ không sao cả. Cái cái chuyện cúng data cho Tàu là thuyết âm mưu của bọn bú fame thôi, như 2 cha nghiên cứu trong bài này.
Lonely08
TÍCH CỰC
2 tháng
@chuate92 Vậy android của họ có phải là của gg không bác?
@Lonely08 Hỏi ngu, android còn của thằng nào nữa à? Google nó cho dùng free, chỉ thu phí trên google mobile services (GMS). Các máy android nội địa Tàu không dùng GMS mà nó có có các dịch vụ thay thế.

Đọc thì đọc cho kỹ "cấm tất cả dịch vụ của google", định bắt bẻ android của google sao không cấm à?? Cái GMS mới là quan trọng, không có nó thì app google vứt hết và google chả được lợi lộc gì.
Một điều khó tránh khỏi
@_vphlinh_ Vậy sao ifan lại luôn tin là bảo vệ quyền riêng tư. Giờ sáng mắt ra chưa
Làm màu, theo dõi là chính
Apple có thể khước từ những yêu cầu từ CP Mỹ, chứ nếu TQ yêu cầu thì khó mà khước từ lắm.
ill-make-you-an-offer-you-cant-refuse.jpg
jdaiduong
ĐẠI BÀNG
2 tháng
@QuanLyNhaNghi Đần vừa vừa thôi, Mỹ nó đang cho các Cty có cung cấp thiết bị theo dõi cho CQ TQ để giám sát người dân ở Tân Cương vào danh sách đen, giờ Apple cũng làm một điều tương tự là cung cấp công cụ để TQ giám sát người dân của họ lẽ nào Mỹ lại làm ngơ.
https://www.google.com/amp/s/www.voatiengviet.com/amp/m%E1%BB%B9-th%C3%AAm-14-c%C3%B4ng-ty-trung-qu%E1%BB%91c-v%C3%A0o-danh-s%C3%A1ch-%C4%91en-kinh-t%E1%BA%BF-v%C3%AC-d%C3%ADnh-%C4%91%E1%BA%BFn-t%C3%A2n-c%C6%B0%C6%A1ng/5959940.html
Lonely08
TÍCH CỰC
2 tháng
@Black Mamba Cái ví dụ của bác không liên quan cho lắm…
Còn apple mà làm thế thì tụi nhân quyền nó thích lắm, nó kiện ngập mặt luôn. Chưa kể báo chí có drama để đăng, mấy diễn đàn lớn thì có chuyện đàm tiếu, còn youtuber và nhiều hơn nữa. Cái này ảnh hưởng tới cổ phiếu và dang tiếng nữa
Nếu nghĩ apple giấu thì cũng không phải là sai, nhưng lỡ 1 ngày đẹp trời mà bị phát hiện thì… quay lại đoạn thứ 2 kể trên
@Lonely08 Mình thì lại nghĩ ngược lại, là Apple nó chả ngán mấy cái chuyện bị đàm tiếu hay drama gì. Có vẻ trước giờ Apple nó vẫn miễn nhiễm với mấy cái kiểu ấy rồi, cổ phiếu của nó thì vẫn lúc xuống lúc lên, nhưng sản phẩm của nó vẫn tốt nên vẫn sống khỏe thôi, nhiều hôm mới ra sản phẩm bị chê lên chê xuống, giá cổ phiếu giảm bị các nơi rêu rao chế nhạo, xong chỉ vài ngày nó lại tăng tiếp.
Lonely08
TÍCH CỰC
2 tháng
@Black Mamba Ở đây mình tính đường dài, không tính mấy cái lặt vặt dăm ba ngày
Cổ phiếu mà chơi dăm ba ngày thì chả khác nào đang chơi “cá độ trí tuệ” cả. Còn đường dài của mình là 5 năm trở lên cơ
Chúc mừng a/e nhà táo nhé
@centernc chắc phải mua Galaxy Fold quá!?!
@centernc Yên tâm, android cũng lẽo đẽo học theo thôi, bỏ củ sạc với tai nghe còn chưa sợ?
@quocvu089 Nói mà k biết ngượng. Apple học theo gg chứ j. Lâu nay ifan hay ca tụng riêng tư lắm mà. Giờ thì học lõm gg đó ifan chính hiệu
Hôm bữa bay acc facebook là vì nhắn tin link đồi trụy trong messenger hả anh em? Vậy messenger có còn private ko ?
@nghia3d Nó quét ông ạ, còn nó thích đọc cũng được 😆)
@nghia3d Nó ko đọc đâu ... nó copy thôi 😆
@nghia3d Mess mà private thì thằng Mark đã k cưới vợ tàu 😆
cabk
TÍCH CỰC
2 tháng
@nghia3d nói miệng với nhau nó còn biềt nói gì gửi tn qua nền tảng của nó
6922723pro
ĐẠI BÀNG
2 tháng
Apple chỉ cần thêm nút Đồng ý và Không đồng ý giống như tính năng chặn theo dõi thôi. Apple làm gì cũng vì riêng tư của người dùng mà, phải hỏi ý trước mới được hành động chớ 😁
@6922723pro Tính năng chặn theo dõi phải hỏi ý kiến từ người dùng bởi vì nó chỉ đem lại lợi ích cho doanh nghiệp là chủ yếu, người dùng chỉ được lợi rất ích thậm chí là không được lợi mà trái lại còn thấy bị làm phiền. Còn vấn đề theo dõi ảnh này là để phát hiện các hành vi phạm tội giúp chính phủ, chẳng doanh nghiệp nào muốn tạo ra 1 sản phẩm mà thân thiện với các đối tượng phạm tội, khủng bố tin dùng vì sẽ ko lo bị chính phủ phát hiện và truy bắt cả.
6922723pro
ĐẠI BÀNG
2 tháng
@Cam vui vẻ Có nói ngược không vậy? Tính năng chặn theo dõi mà đem lại lợi ích cho doanh nghiệp, mời xem lại thống kê số lượng người đồng ý cho phép theo dõi nha 😆)
vtsn4
CAO CẤP
2 tháng
Giờ cái gì cũng kèm chữ Giống Apple, theo Apple... Trái táo trở thành American Standard
Muốn chứng minh được những gì mình làm thì Apple phải công bố mã nguồn hệ thống này mới được! và sẽ có nhiều anh.....nhảy vào!
6922723pro
ĐẠI BÀNG
2 tháng
@phucprolangtu Nếu thực sự vì người dùng mà không phải vì mục đích kinh doanh (giống Google Photos), chính trị (bị chính phủ ép cung cấp thông tin) thì cứ công khai thôi, sợ đếch gì nhờ kkk
6922723pro
ĐẠI BÀNG
2 tháng
@phucprolangtu Biết đâu công khai mã nguồn lại còn được cộng đồng mạng hỗ trợ tìm lỗi bảo mật, giống Linux đấy. Tất cả vì người dùng thân yêu thôi 😆
Mặc dù là ifan lâu năm, nhg nếu apple triển khai cái csam này thì mình sẵn sàng chuyển qua android
@minhtymeo Thiệt ko?
@quocvu089 Tại s ko nhỉ?
Tóm tắt lại là trong cái ảnh thì Apple đối chiếu với hình ảnh trẻ em. Còn với 2 vị này thì chỉ cần thay đổi đối tượng là có thể lọc ra ảnh khác không liên quan đến trẻ em. Vậy Apple đang làm ở Mỹ, kiểm soát icloud tìm ảnh có CSAM. Còn ở TQ hay nơi khác thì sao?
Ryan Vu
ĐẠI BÀNG
2 tháng
muốn chơi với tàu xì thì phải làm theo lệnh tàu xì, xưa giờ vẫn vậy. nên đối với khách hàng của Apple ở tàu xì thì ko còn cách nào khác. ở tàu xì thì mọi thứ đều phải nghe lời anh bình hí mà, nên muôn làm ăn ở tàu xì là phải ngoan. không ngoan thì biến. nên tất cả các công ty công nghệ của tàu đều phải nghe lời hết. nên biết đâu cái hệ thống này là của A bình hí chuyển cho Apple để tiện kiểm soát hơn ;-)
Carl
CAO CẤP
2 tháng
Ngộ ghê, phát hiện ra lỗ hổng trong công cụ của mình suy ra Apple cũng có lỗ hổng? Đúng là thời nay cái giống gì cũng lôi Apple vô để kiếm chút fame.
@Carl Đọc tit xong vô bình luận à. Cái này là sai sót từ bước design rồi, h Apple thay vì quét ảnh ấu dâm thì nó chọn quét ảnh khác thì người dùng cũng ko biết được. Và cái này thì vi phạm quyền riêng tư người dùng.
Carl
CAO CẤP
2 tháng
@nhoxboy2010 Vậy ra cái "lỗ hổng" là việc Apple có thể chỉnh lại công cụ dò ảnh để quét nội dung khác? Theo lập luận này thì tất cả phần mềm, hệ điều hành trên đời đều là "lỗ hổng" cả vì nhà phát triển có thể sửa lại bất cứ lúc nào để quét dữ liệu người dùng. Lạy hồn 2 nhà nghiên cứu đã có phát hiện chấn động giới công nghệ.
@Carl Ông mod dịch sai (hoặc cố tình), ở bài gốc thì từ đó là "flaw" chứ ko phải "Vulnerability". 2 ông nghiên cứu chỉ chứng minh rằng công cụ của Apple đang vi phạm nghiêm trọng quyền riêng tư của người dùng, cái mà apple luôn tự hào ấy.
Doanh nghiệp nào chẳng phải hoạt động theo luật.
Như Mỹ cấm doanh nghiệp Mỹ làm ăn với Huawei thì thằng nào dám cãi.
Nếu Tim Cook giải trình trước nghị viện không okay thì cũng phải mở khoá hết nếu luật quy định.
Các công ty như Google, Mic … chẳng ủng hộ rối rít Apple vụ FBi.
Hôm bữa vào group kín telegram có đứa kia post tấm ảnh cắt từ film tom & jerry, ngồi nhìn 1 hồi nhớ xem nó trong tập nào mà không nhớ ra được. Thế mà trưa hôm sau bật youtube lên nó hiện top đúng tập đó luôn mới ghê chứ.








  • Chịu trách nhiệm nội dung: Trần Mạnh Hiệp
  • © 2021 Công ty Cổ phần MXH Tinh Tế
  • Địa chỉ: 209 Đường Nam Kỳ Khởi Nghĩa, Phường 7, Quận 3, TP.HCM
  • Số điện thoại: 02862713156
  • MST: 0313255119
  • Giấy phép thiết lập MXH số 11/GP-BTTTT, Ký ngày: 08/01/2019