Re: [新聞] 蘋果將偵測兒童色情影像 用戶上傳iCloud
※ 引述《peter0627 (biscuit)》之銘言:
: ──────────────────────────────────────
: 1.原文連結:連結過長者請使用短網址。
: https://www.cna.com.tw/amp/news/aopl/202108060201.aspx
: 2.原文標題:標題須完整寫出(否則依板規刪除並水桶)。
: 蘋果將偵測兒童色情影像 用戶上傳iCloud就舉報
: 3.原文來源(媒體/作者):例:蘋果日報/王大明(若無署名作者則不須)
: 中央社 譯者:李佩珊/核稿:張佑之
: 4.原文內容:請刊登完整全文(否則依板規刪除並水桶)。
: (中央社舊金山6日綜合外電報導)蘋果公司(Apple)今天表示,iPhone和iPad即將開始: 偵測含有兒童性虐待的影像,當這些影像上傳到蘋果在美國的網路儲存空間時加以舉報,: 不過提倡隱私權的人士對此表示憂心。
Apple 設計這套系統的時候就考慮過有人會出來靠北隱私了
背景知識
- Hash 值: 每個檔案都有一個唯一的 Hash 值 (指紋的概念) 科學家用數學保證他幾乎不會重複
每個雲端空間基本上都會在你上傳檔案的時候計算 Hash 值
為了要避免他們儲存太多重複的檔案
有兩個用戶上傳一樣hash的檔案可以只存一份就好
(例如 lol.exe 一百個用戶上傳到自己的帳號 存一百份根本是浪費空間)
---
美國國家失蹤與受虐兒童中心 將兒童色情的檔案 Hash 值資料庫提供給 Apple
iCloud 會判斷你上傳的圖片 Hash 值是不是出現在兒童色情的檔案資料庫裡面
例如兒童色情資料庫:
檔案 -> Hash 值
兒童色情圖片1.jpg -> 123456
兒童色情圖片2.jpg -> 30678
兒童色情圖片3.jpg -> 878787
你今天上傳一張圖片
圖片.jpg -> 696969
刺激.jpg -> 30678
刺激.jpg 出現在兒童色情的Hash資料庫中
前面有說到每個檔案的 Hash 值是唯一的
所以你上傳的圖片轉換成 Hash 值出現在資料庫中說明甚麼
你 在 上 傳 違 法 圖 片
讓我們來看看 iCloud 的用戶協議
---
您同意不會使用本服務於:
a. 上傳、下載、貼文、發電子郵件、傳輸或儲存任何違法、騷擾、威脅、具傷害性、侵權、誹謗、辱罵、暴力、猥褻、侵入性的、侵犯他人隱私、仇恨、涉及種族或倫理問題的侵犯,或其他違法的內容;
E. 進入 / 使用您的帳號與內容
蘋果公司保留採取其相信之合理必要或適當手段之權利以執行和 (或) 確認遵守本協議之任何部分。 您承認且同意當蘋果公司相信其為合理必要且適當時,蘋果公司得無須向您負責,而依法律要求向法律執行機關、政府單位和 (或)第三人,使其接觸、使用、保存和 (或) 揭露您帳戶的資訊與內容,或蘋果公司善意相信該等接觸、使用、揭露或保存之行為係屬 (a) 遵守法律之程序或請求;(b) 執行本協議,包括對任何潛在的違反情事為調查; (c) 檢測、預防或以其他方式處理安全性、詐欺或技術問題; (d) 基於法律之要求或准許,保護蘋果公司、其使用者、第三人或公眾的權利、財產與安全。
---
安卓仔也不用見獵心喜
或者說那我換到安卓就好
來看看 Google Drive 的協議
https://www.google.com/drive/terms-of-service/
2. Program Policies
We may review content to determine whether it is illegal or violates our
Program Policies, and we may remove or refuse to display content that we
reasonably believe violates our policies or the law. But that does not
necessarily mean that we review content, so please don’t assume that we do.
---
基本上所有雲端空間都不可能讓你存兒童色情圖片
--
不可能吧 這樣每上傳一張照片 就要掃上萬次hash
效率很低耶
不過zip起來就沒事了 根本抓不到
哪裡效率低 xdddd
以下開放卓_,果_,中國機_互咬
應該是自己的手機就算出hash值 等上傳時提供該值
hash值應該可以用轉檔的方式改變?
可以 只要一個 pixel 不一樣 hash 值就會變了
30678這個代號XD
一樓的意思是算出檔案雜湊值後還要和資料庫比對
請相信我這兩件事情 在現代資訊科學技術都做得非常快了 都是一年成本 100 萬美金以內可以搞定的
hash 值是會碰撞的 無限大的定義域映射到有限的值域
當然這個我相信一定有辦法解決 先不說有沒有什麼
搜尋法 你上傳後他再慢慢比對就好
雜湊碰撞的問題也不算難解決 演算法更新或是符合時
再抓檔案出來比對就好 畢竟要常常發生碰撞的機會也
不會太多(雜湊演算法不要太舊的話
現在怕的是 是不是不上傳 手機也會比對資料庫 只差
再如果上傳 就把答案上傳 XD
按照這方法,只要Genius或小畫家加工不就繞過了
掃hash是防堵已知兒色
第一手兒色還是要倚賴AI和人工
我相信比對很快 只是好像有人誤會一樓是指計算雜湊
上傳這種東西靠壓縮檔能避開嗎?
可以 你用 7zip 加密 或是一些黑科技的加密算法 除非 FBI 有意要查你 不然不可能自然掃掃的出來 不過還是不鼓勵違法啊
很慢
不過比對雜湊值這個有沒有啥方法加速我就不知道了
另外 ho大說的沒錯 大家自己想想Google相簿和FB怎麼
幫你找臉孔對應的就知道現在對圖片的分析已經很強了
雜湊值其實就是資料庫的字串比對而已 用最一般的 B-Tree 資料庫有加 index 要判斷其實速度很快 (更何況還有一堆新穎的技術) 總之雜湊值比對真的很 EZ 啦 我一個研究生給我足夠的錢 我都有信心可以處理 iCloud 量的雜湊值比對
了解,我沒有違法的東西,只是我上傳私人東西都會
習慣用7z壓縮並加上密碼...
那就穩 小案子你用 7z + AES-256 我猜台灣政府應該是沒能力解 (如果是大案子會找國外的公司處理就不好說)
※ 編輯: jason2641668 (114.34.224.21 臺灣), 08/07/2021 22:03:57微軟的也會掃,從很久以前就明白告訴使用者了
其實 Google 最近也有新聞
md5?
這根music fingerprint 又不一樣
MD5不安全,現在應該都是用sha1的樣子
單純就是每張圖算一個hash 丟去跟server比對?
Apple跟Google都有相關規定,也就證明了Apple引以
為傲的隱私保障可不包含雲端空間
這樣 原圖截一點 或者縮小 算出來的hash不就不一
樣了?
我不確定 Apple 算 Hash 的方式有沒有黑科技 廣義的 Hash 確實一個 pixel 不一樣就不一樣 因為就我所知有一些優化方式是可以部份取樣的 取樣出有問題在完整比對 如果剛好取到那段一樣的特徵 一樣 gg 所以別做壞事才是真的
※ 編輯: jason2641668 (114.34.224.21 臺灣), 08/07/2021 22:20:01光靠截圖或是改變解析度大概都逃不過
專業推
電子包漿跟副檔名的問題
這樣真的就像music fingerprint 的算法
Google很早就有了啊,最近才上新聞
所以其實蘋果沒有掃描你的照片‘內容’,只是掃描你
客戶端產生出的照片Hash值而已??
下載被解壓縮 調色 裁剪 都會不一樣吧
google雲端就有人被抓了
哪裡有說到蘋果是用 hash 值比對違規檔案的?
https://techcrunch.com/2021/08/05/apple-icloud-photos-scanning/
意思是犯罪者如果上傳一手的照片就繼續逍遙法外?
這我不敢保證 不過 Google 的確定會抓 下面那篇有新聞 台灣人拍未成年表妹的鮑魚 自產應該是第一手 總之還是違法的事情不要做 QQ
hash很容易跑掉欸 隨便編輯一下就完全不一樣了
不知道他們實務上怎麼判斷 說不定還是跟Google一樣
用AI識別
Apple 好像就是想要宣稱這種方式比較不會侵犯隱私 (也確實)
※ 編輯: jason2641668 (114.34.224.21 臺灣), 08/07/2021 22:57:54為什麼要一張一張比對,如果真的有色情圖的資料庫
,又真的是用hash比對,他只要去select你上傳的ha
sh有沒有出現在裡面就好了,0.0x秒的事,可是我覺
得不可能這樣做,就像前面講到的,只要有變動,他
就會改變hash,你不可能知道上傳人變動什麼,而且
每天會有多少要上傳,又有多少新的出現,這樣去檢
查根本不合理,你說用圖像辨識去確認,感覺還比較
有機會,也許你的手機在存的時候,就自動跟辨識資
料庫做比對,寫入可能的tag,上傳的時候會去比對包
含這些tag的,是不是兒童色情
就我google相簿使用經驗,相片都很自動加上特徵,例
如狗,貓,海之類的,或許針對媒體檔會用機器學習比對
?
你都說一個pixel值不一樣hash就不一樣了
隨便拍一張照怎麼可能跟出現在資料庫
你不可能事先有這張照片放資料庫
對 所以他們宣稱這樣比較照顧使用者隱私 xd
如果用ai圖片學習,就等於可能出錯,出錯就要人工審
核,人工審核就侵犯隱私了。誰有權利這樣做?他們又
受誰監督
Hash 幾乎不會誤判 可能相對代價就是守備範圍沒那麼廣
※ 編輯: jason2641668 (114.34.224.21 臺灣), 08/07/2021 23:36:37 ※ 編輯: jason2641668 (114.34.224.21 臺灣), 08/07/2021 23:37:19推 謝謝講解
Google的以圖搜圖是可以用部分圖片搜到完整原圖,所
以並不是你做簡單微調人家就一定查不到,不過Google
好像搜不到左右相反的原圖,所以做過某種程度的影像
處理還是有可能避開審查,這是指同一張圖的審查。如
果是像CNN那樣抽取出圖片的輪廓特徵再比對就完全不
是同一回事了
hash值這種藉口我是覺得很爛啦
別人隨便圖片裁一裁加浮水印 影片剪一剪放上廣告
就是完全不同的新檔案了 更別提還有新的犯罪內容
只看hash是能看什麼?老實承認會看用戶上傳的內容
(無論是人工還是AI看)會很難嗎?
在我看來這也不過是另一個蘋果宣傳的日常
一邊說打擊犯罪討好一部分的人 同時又用很爛的藉口
說我們打擊犯罪的過程不會看到你們這些無辜的人
上傳的東西去騙另一部分在乎的消費者
Google一堆影像處理專家, hash值計算會這麼單純?
只要老師沒對到答案 那就不是違法的啦
現今老早就有許多影像特徵抽取方法, 可以克服因影
像放大縮小位移或多次重壓縮造成的影響
哪裡有技術文件說蘋果用hash值檢查?
用hash來做效率很差,更新一下exif 就完全不同了,你
這個設計跟沒有一樣
這樣就可以看得出來,
很多人根本沒有相關知識卻在高談闊論。
講個最簡單卻是外行容易搞混的事,
sha256,md5這些是hash算法不是加密算法。
長知識
蘋果原文還有說未成年想傳裸露自拍也會跳出警告,父
母也能收到通知,這種不可能有資料庫可以比對的
好像有提 Message 傳送露骨照片會警告兒童和父母
還會順便將收到的照片模糊化
根本不是用HASH值,你自己腦補的嗎? 你哪邊看到的
也講不出來,這一定是用AI辨識
板上討論這麼多篇 可以不用硬要回 完全不會顯得你比較專業 虧你還 NTU 的
※ 編輯: jason2641668 (114.34.224.21 臺灣), 08/08/2021 04:23:14cool
ai辨識比較可能吧,hash值太容易閃了,加個浮水印就
不一樣了,根本不可行
不同圖的hash值不同,那是用來加密的吧,最好分得出來
128bit=>1/2^128才碰撞,更別說你的圖檔了
本來就想查都查得到了 會覺得這個能保密的人才神奇
用AI來做image embedding也可以說是hash阿 然後再和
色圖比embedding的相似度就可以了
他用的hash是辨識相似度的hash 不是那種密碼學用對
抗修改的那種md5或SHA
密碼學用的hash值的相似度與否與原始檔案是否相似無
關
Google雲端硬碟也一樣會檢查 上禮拜八卦才吵過
看推文 就未成年表妹鮑魚照那篇新聞
locality sensitive hashing
你可以不要存jpg阿 你可以存zip heehee
你去TG晃一圈就知道有多少東西都放雲端了
只不過三不五時會直接沒了
我 mega drive 力抗法西斯 FBI
5
六七年前在讀研究所的時候,因為主題是影像分析比對,所以有找了許多論文 我就看過幾篇google 發表的論文 透過快速比對 hash 值來快速搜尋圖片 論文中就提到他們把 原先比較距離使用的 兩個值相減平方 這類的概念 直接改成把所有資料簡化成0與1 利用 OR XOR 的方法 來高速比對 當然 論文中並沒有提到 google 是如何對圖片做hash的 或是 用什麼方法取特徵點的8
在開一篇特地來打爆安卓仔最後的幻想 人權聲明: 我自己也用 Android + Google 雲端空間 之前有一篇在八卦板蠻轟動的新聞 拍表妹下體上傳雲端 Google通報台灣警卻因這點難成罪9
AI可以將圖片分類,找出有問題的圖片 具體做法有很多種,我們先簡介目前效果最好的神經網路 首先會用數學模擬神經元的運算 簡化來說每一層的網路輸出(Output)就是輸入(Input)乘上權重(Weight)再加上偏移(Bias) Output = Input * Weight + Bias3
我只能說不管怎樣 他們一定會侵犯隱私 人工審核照片的 如果是我來設計抓未成年影像的AI 我會先判斷年齡,用臉或是體形,判斷是否為未成年 再判斷圖片是否有裸露,性行為13
用檔案 hash 比對圖片實在太不可靠了,改個 1 bit 資料就可以讓 hash 不同 我覺得蘋果不會做這種智障系統,否則這系統根本沒用 所以去翻了一下相關文件 看起來是用蘋果自己開發的新演算法 NeuralHash9
美國司法部的官網對兒童色情有簡要說明,最好去看一看,免得惹上大麻煩: 有幾點特別值得注意的: 1. 美國聯邦定義的「兒童」指的是18足歲以下。 2. 明確的性行為的法律定義並不要求一張圖片描述一個孩子正在進行性活動。
58
Re: [情報] 蘋果新的照片審查機制原文恕刪 因為覺得兒童色情及用戶隱私是相當重要的議題,但使用者對於其技術的誤解容易造成議 題失焦,所以希望透過這篇回文拋磚引玉吸引更多人的討論,也懇請各位大神對於我說錯 的地方不吝指教QQ。 在討論運作方式前,先來看看幾個技術文件提到的大前提XD14
Re: [情報] 蘋果新的照片審查機制嗨又是我XDD,因為蘋果釋出了一份新的說明文件,正好解釋了一些我上一篇 文章中尚待釐清的問題,所以再寫一篇文與板友分享與討論~ 註:以下內容皆是我個人對於文件的解讀,完整的資訊請參考官方文件,且 如有說錯的地方也請不吝指教!- 上完成,而不是雲端。 在本地端進行比對? 所以是每次上傳 iCould 前,都要把"整個資料庫"的圖片的hash code 下載到本地端嗎? : 反之,若用戶認為他們的帳戶被偵測錯誤,可以向蘋果提出上訴。蘋果表示,新軟體只對 : 上傳到 iCloud 的照片起作用,所以用戶可以自行關閉,只要設備中的照片沒有上傳到蘋
- 我想你圖片檔有2-3萬張,用雜湊比對會比較快, 下面是perl的寫法,看看適合嗎? #!/usr/bin/perl use File::Copy; $PWD = `pwd`;
43
[討論] Xperia 1 VI 緋紅 簡單開箱41
[問題] 中華電信異常?3
[問題] Samsung galaxy a15價位6
[情報] POCO F6系列國際版資訊台灣8sGen3首發5
[購機] Samsung S24, S24+,A55, 小米145
Poco F6及F6 Pro國際價格公布4
Re: [問題] 行動電源跟手機匹配問題4
[心得] Xperia 1VI霧白色簡短開箱3
[問題] Chromecast 網路設定問題X
[討論] 3G六月底關台 亞太難民何去何從12
[問題] 行動電源跟手機匹配問題1
[問題] 5g量到降速的ping值16
[閒聊] 充電器統一規格前 是什麼樣的世界?