PTT評價

Re: [新聞] 蘋果將偵測兒童色情影像 用戶上傳iCloud

看板MobileComm標題Re: [新聞] 蘋果將偵測兒童色情影像 用戶上傳iCloud作者
jason2641668
(鋼球智者)
時間推噓32 推:34 噓:2 →:88

※ 引述《peter0627 (biscuit)》之銘言:
: ──────────────────────────────────────
: 1.原文連結:連結過長者請使用短網址。
: https://www.cna.com.tw/amp/news/aopl/202108060201.aspx
: 2.原文標題:標題須完整寫出(否則依板規刪除並水桶)。
: 蘋果將偵測兒童色情影像 用戶上傳iCloud就舉報
: 3.原文來源(媒體/作者):例:蘋果日報/王大明(若無署名作者則不須)
: 中央社 譯者:李佩珊/核稿:張佑之
: 4.原文內容:請刊登完整全文(否則依板規刪除並水桶)。
: (中央社舊金山6日綜合外電報導)蘋果公司(Apple)今天表示,iPhone和iPad即將開始: 偵測含有兒童性虐待的影像,當這些影像上傳到蘋果在美國的網路儲存空間時加以舉報,: 不過提倡隱私權的人士對此表示憂心。

Apple 設計這套系統的時候就考慮過有人會出來靠北隱私了

背景知識

- Hash 值: 每個檔案都有一個唯一的 Hash 值 (指紋的概念) 科學家用數學保證他幾乎不會重複

每個雲端空間基本上都會在你上傳檔案的時候計算 Hash 值
為了要避免他們儲存太多重複的檔案
有兩個用戶上傳一樣hash的檔案可以只存一份就好

(例如 lol.exe 一百個用戶上傳到自己的帳號 存一百份根本是浪費空間)

---

美國國家失蹤與受虐兒童中心 將兒童色情的檔案 Hash 值資料庫提供給 Apple
iCloud 會判斷你上傳的圖片 Hash 值是不是出現在兒童色情的檔案資料庫裡面

例如兒童色情資料庫:

檔案 -> Hash 值

兒童色情圖片1.jpg -> 123456
兒童色情圖片2.jpg -> 30678
兒童色情圖片3.jpg -> 878787

你今天上傳一張圖片

圖片.jpg -> 696969
刺激.jpg -> 30678

刺激.jpg 出現在兒童色情的Hash資料庫中
前面有說到每個檔案的 Hash 值是唯一的
所以你上傳的圖片轉換成 Hash 值出現在資料庫中說明甚麼

你 在 上 傳 違 法 圖 片

讓我們來看看 iCloud 的用戶協議

---

您同意不會使用本服務於:

a. 上傳、下載、貼文、發電子郵件、傳輸或儲存任何違法、騷擾、威脅、具傷害性、侵權、誹謗、辱罵、暴力、猥褻、侵入性的、侵犯他人隱私、仇恨、涉及種族或倫理問題的侵犯,或其他違法的內容;

E. 進入 / 使用您的帳號與內容

蘋果公司保留採取其相信之合理必要或適當手段之權利以執行和 (或) 確認遵守本協議之任何部分。 您承認且同意當蘋果公司相信其為合理必要且適當時,蘋果公司得無須向您負責,而依法律要求向法律執行機關、政府單位和 (或)第三人,使其接觸、使用、保存和 (或) 揭露您帳戶的資訊與內容,或蘋果公司善意相信該等接觸、使用、揭露或保存之行為係屬 (a) 遵守法律之程序或請求;(b) 執行本協議,包括對任何潛在的違反情事為調查; (c) 檢測、預防或以其他方式處理安全性、詐欺或技術問題; (d) 基於法律之要求或准許,保護蘋果公司、其使用者、第三人或公眾的權利、財產與安全。

---

安卓仔也不用見獵心喜
或者說那我換到安卓就好

來看看 Google Drive 的協議

https://www.google.com/drive/terms-of-service/

2. Program Policies

We may review content to determine whether it is illegal or violates our
Program Policies, and we may remove or refuse to display content that we
reasonably believe violates our policies or the law. But that does not
necessarily mean that we review content, so please don’t assume that we do.

---

基本上所有雲端空間都不可能讓你存兒童色情圖片

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.113.0.229 (臺灣)
PTT 網址
※ 編輯: jason2641668 (140.113.0.229 臺灣), 08/07/2021 21:44:46

vi000246 08/07 21:44不可能吧 這樣每上傳一張照片 就要掃上萬次hash

vi000246 08/07 21:44效率很低耶

vi000246 08/07 21:44不過zip起來就沒事了 根本抓不到

哪裡效率低 xdddd

LastAttack 08/07 21:45以下開放卓_,果_,中國機_互咬

Medic 08/07 21:46應該是自己的手機就算出hash值 等上傳時提供該值

fmatt 08/07 21:46hash值應該可以用轉檔的方式改變?

可以 只要一個 pixel 不一樣 hash 值就會變了

MengXian 08/07 21:4730678這個代號XD

hms5232 08/07 21:48一樓的意思是算出檔案雜湊值後還要和資料庫比對

請相信我這兩件事情 在現代資訊科學技術都做得非常快了 都是一年成本 100 萬美金以內可以搞定的

nevikw39 08/07 21:48hash 值是會碰撞的 無限大的定義域映射到有限的值域

hms5232 08/07 21:48當然這個我相信一定有辦法解決 先不說有沒有什麼

hms5232 08/07 21:49搜尋法 你上傳後他再慢慢比對就好

※ 編輯: jason2641668 (140.113.0.229 臺灣), 08/07/2021 21:52:47

hms5232 08/07 21:50雜湊碰撞的問題也不算難解決 演算法更新或是符合時

hms5232 08/07 21:50再抓檔案出來比對就好 畢竟要常常發生碰撞的機會也

hms5232 08/07 21:50不會太多(雜湊演算法不要太舊的話

Medic 08/07 21:50現在怕的是 是不是不上傳 手機也會比對資料庫 只差

Medic 08/07 21:51再如果上傳 就把答案上傳 XD

Barefoot24 08/07 21:53按照這方法,只要Genius或小畫家加工不就繞過了

hollen9 08/07 21:53掃hash是防堵已知兒色

hollen9 08/07 21:53第一手兒色還是要倚賴AI和人工

hms5232 08/07 21:57我相信比對很快 只是好像有人誤會一樓是指計算雜湊

roc074 08/07 21:57上傳這種東西靠壓縮檔能避開嗎?

可以 你用 7zip 加密 或是一些黑科技的加密算法 除非 FBI 有意要查你 不然不可能自然掃掃的出來 不過還是不鼓勵違法啊

hms5232 08/07 21:57很慢

hms5232 08/07 21:57不過比對雜湊值這個有沒有啥方法加速我就不知道了

hms5232 08/07 21:58另外 ho大說的沒錯 大家自己想想Google相簿和FB怎麼

hms5232 08/07 21:58幫你找臉孔對應的就知道現在對圖片的分析已經很強了

雜湊值其實就是資料庫的字串比對而已 用最一般的 B-Tree 資料庫有加 index 要判斷其實速度很快 (更何況還有一堆新穎的技術) 總之雜湊值比對真的很 EZ 啦 我一個研究生給我足夠的錢 我都有信心可以處理 iCloud 量的雜湊值比對

roc074 08/07 22:01了解,我沒有違法的東西,只是我上傳私人東西都會

roc074 08/07 22:01習慣用7z壓縮並加上密碼...

那就穩 小案子你用 7z + AES-256 我猜台灣政府應該是沒能力解 (如果是大案子會找國外的公司處理就不好說)

※ 編輯: jason2641668 (114.34.224.21 臺灣), 08/07/2021 22:03:57

hugh509 08/07 22:03微軟的也會掃,從很久以前就明白告訴使用者了

nevikw39 08/07 22:07其實 Google 最近也有新聞

Luos 08/07 22:09md5?

Luos 08/07 22:10這根music fingerprint 又不一樣

roc074 08/07 22:10MD5不安全,現在應該都是用sha1的樣子

Luos 08/07 22:11單純就是每張圖算一個hash 丟去跟server比對?

Xperia 08/07 22:11Apple跟Google都有相關規定,也就證明了Apple引以

Xperia 08/07 22:11為傲的隱私保障可不包含雲端空間

Luos 08/07 22:13這樣 原圖截一點 或者縮小 算出來的hash不就不一

Luos 08/07 22:13樣了?

我不確定 Apple 算 Hash 的方式有沒有黑科技 廣義的 Hash 確實一個 pixel 不一樣就不一樣 因為就我所知有一些優化方式是可以部份取樣的 取樣出有問題在完整比對 如果剛好取到那段一樣的特徵 一樣 gg 所以別做壞事才是真的

※ 編輯: jason2641668 (114.34.224.21 臺灣), 08/07/2021 22:20:01

roc074 08/07 22:19光靠截圖或是改變解析度大概都逃不過

ZnOnZ 08/07 22:22專業推

square4 08/07 22:28電子包漿跟副檔名的問題

※ 編輯: jason2641668 (114.34.224.21 臺灣), 08/07/2021 22:29:43

Luos 08/07 22:32這樣真的就像music fingerprint 的算法

HOLAHOJIAN 08/07 22:36Google很早就有了啊,最近才上新聞

HOLAHOJIAN 08/07 22:36https://i.imgur.com/dYDZmnW.jpg

duckbill360 08/07 22:37所以其實蘋果沒有掃描你的照片‘內容’,只是掃描你

duckbill360 08/07 22:37客戶端產生出的照片Hash值而已??

CJhang 08/07 22:37下載被解壓縮 調色 裁剪 都會不一樣吧

q02210221 08/07 22:43google雲端就有人被抓了

s25g5d4 08/07 22:44哪裡有說到蘋果是用 hash 值比對違規檔案的?

https://techcrunch.com/2021/08/05/apple-icloud-photos-scanning/

tommy123310 08/07 22:55意思是犯罪者如果上傳一手的照片就繼續逍遙法外?

這我不敢保證 不過 Google 的確定會抓 下面那篇有新聞 台灣人拍未成年表妹的鮑魚 自產應該是第一手 總之還是違法的事情不要做 QQ

tom282f3 08/07 22:56hash很容易跑掉欸 隨便編輯一下就完全不一樣了

tom282f3 08/07 22:56不知道他們實務上怎麼判斷 說不定還是跟Google一樣

tom282f3 08/07 22:56用AI識別

Apple 好像就是想要宣稱這種方式比較不會侵犯隱私 (也確實)

※ 編輯: jason2641668 (114.34.224.21 臺灣), 08/07/2021 22:57:54

qss05 08/07 22:58為什麼要一張一張比對,如果真的有色情圖的資料庫

qss05 08/07 22:58,又真的是用hash比對,他只要去select你上傳的ha

qss05 08/07 22:58sh有沒有出現在裡面就好了,0.0x秒的事,可是我覺

qss05 08/07 22:58得不可能這樣做,就像前面講到的,只要有變動,他

qss05 08/07 22:58就會改變hash,你不可能知道上傳人變動什麼,而且

qss05 08/07 22:58每天會有多少要上傳,又有多少新的出現,這樣去檢

qss05 08/07 22:58查根本不合理,你說用圖像辨識去確認,感覺還比較

qss05 08/07 22:58有機會,也許你的手機在存的時候,就自動跟辨識資

qss05 08/07 22:58料庫做比對,寫入可能的tag,上傳的時候會去比對包

qss05 08/07 22:58含這些tag的,是不是兒童色情

IScmDa 08/07 23:03就我google相簿使用經驗,相片都很自動加上特徵,例

IScmDa 08/07 23:03如狗,貓,海之類的,或許針對媒體檔會用機器學習比對

IScmDa 08/07 23:03?

henry78925 08/07 23:23你都說一個pixel值不一樣hash就不一樣了

henry78925 08/07 23:23隨便拍一張照怎麼可能跟出現在資料庫

henry78925 08/07 23:23你不可能事先有這張照片放資料庫

對 所以他們宣稱這樣比較照顧使用者隱私 xd

change70121308/07 23:25如果用ai圖片學習,就等於可能出錯,出錯就要人工審

change70121308/07 23:25核,人工審核就侵犯隱私了。誰有權利這樣做?他們又

change70121308/07 23:25受誰監督

Hash 幾乎不會誤判 可能相對代價就是守備範圍沒那麼廣

※ 編輯: jason2641668 (114.34.224.21 臺灣), 08/07/2021 23:36:37 ※ 編輯: jason2641668 (114.34.224.21 臺灣), 08/07/2021 23:37:19

Rynin 08/07 23:44推 謝謝講解

y800122155 08/08 00:01Google的以圖搜圖是可以用部分圖片搜到完整原圖,所

y800122155 08/08 00:01以並不是你做簡單微調人家就一定查不到,不過Google

y800122155 08/08 00:01好像搜不到左右相反的原圖,所以做過某種程度的影像

y800122155 08/08 00:01處理還是有可能避開審查,這是指同一張圖的審查。如

y800122155 08/08 00:01果是像CNN那樣抽取出圖片的輪廓特徵再比對就完全不

y800122155 08/08 00:01是同一回事了

abadjoke 08/08 00:12hash值這種藉口我是覺得很爛啦

abadjoke 08/08 00:12別人隨便圖片裁一裁加浮水印 影片剪一剪放上廣告

abadjoke 08/08 00:12就是完全不同的新檔案了 更別提還有新的犯罪內容

abadjoke 08/08 00:12只看hash是能看什麼?老實承認會看用戶上傳的內容

abadjoke 08/08 00:12(無論是人工還是AI看)會很難嗎?

abadjoke 08/08 00:14在我看來這也不過是另一個蘋果宣傳的日常

abadjoke 08/08 00:14一邊說打擊犯罪討好一部分的人 同時又用很爛的藉口

abadjoke 08/08 00:14說我們打擊犯罪的過程不會看到你們這些無辜的人

abadjoke 08/08 00:14上傳的東西去騙另一部分在乎的消費者

kevin190 08/08 00:26Google一堆影像處理專家, hash值計算會這麼單純?

pig4306 08/08 00:37只要老師沒對到答案 那就不是違法的啦

kevin190 08/08 00:41現今老早就有許多影像特徵抽取方法, 可以克服因影

kevin190 08/08 00:41像放大縮小位移或多次重壓縮造成的影響

demintree 08/08 00:52哪裡有技術文件說蘋果用hash值檢查?

demintree 08/08 00:56用hash來做效率很差,更新一下exif 就完全不同了,你

demintree 08/08 00:56這個設計跟沒有一樣

atrix 08/08 01:09這樣就可以看得出來,

atrix 08/08 01:09很多人根本沒有相關知識卻在高談闊論。

atrix 08/08 01:09講個最簡單卻是外行容易搞混的事,

atrix 08/08 01:09sha256,md5這些是hash算法不是加密算法。

ben1357956 08/08 01:13長知識

change70121308/08 02:12蘋果原文還有說未成年想傳裸露自拍也會跳出警告,父

change70121308/08 02:12母也能收到通知,這種不可能有資料庫可以比對的

Medic 08/08 02:20好像有提 Message 傳送露骨照片會警告兒童和父母

Medic 08/08 02:21還會順便將收到的照片模糊化

nike319546 08/08 03:15根本不是用HASH值,你自己腦補的嗎? 你哪邊看到的

nike319546 08/08 03:15也講不出來,這一定是用AI辨識

板上討論這麼多篇 可以不用硬要回 完全不會顯得你比較專業 虧你還 NTU 的

※ 編輯: jason2641668 (114.34.224.21 臺灣), 08/08/2021 04:23:14

rrrrr123 08/08 04:55cool

tomliu1923 08/08 18:38ai辨識比較可能吧,hash值太容易閃了,加個浮水印就

tomliu1923 08/08 18:38不一樣了,根本不可行

aspeter 08/08 18:48不同圖的hash值不同,那是用來加密的吧,最好分得出來

aspeter 08/08 18:54128bit=>1/2^128才碰撞,更別說你的圖檔了

stocktonty 08/08 19:14本來就想查都查得到了 會覺得這個能保密的人才神奇

a1234567289 08/08 21:34用AI來做image embedding也可以說是hash阿 然後再和

a1234567289 08/08 21:34色圖比embedding的相似度就可以了

a1234567289 08/08 21:35他用的hash是辨識相似度的hash 不是那種密碼學用對

a1234567289 08/08 21:35抗修改的那種md5或SHA

a1234567289 08/08 21:37密碼學用的hash值的相似度與否與原始檔案是否相似無

a1234567289 08/08 21:37

k5a 08/09 00:56Google雲端硬碟也一樣會檢查 上禮拜八卦才吵過

k5a 08/09 00:59看推文 就未成年表妹鮑魚照那篇新聞

zjin1126 08/09 11:11locality sensitive hashing

joeboy 08/09 16:26你可以不要存jpg阿 你可以存zip heehee

joeboy 08/09 16:27你去TG晃一圈就知道有多少東西都放雲端了

joeboy 08/09 16:27只不過三不五時會直接沒了

pig0038 08/10 16:20我 mega drive 力抗法西斯 FBI