Re: [新聞] 蘋果將偵測兒童色情影像 用戶上傳iCloud
我只能說不管怎樣 他們一定會侵犯隱私
人工審核照片的
如果是我來設計抓未成年影像的AI
我會先判斷年齡,用臉或是體形,判斷是否為未成年
再判斷圖片是否有裸露,性行為
當符合的特徵越多,就越有可能是未成年色情
你用hash抓到,當然毫無疑問,不需人工審核就知道是犯罪圖片
但未成年色情不只有那些已存在的,可以用hash辨識
還有新拍攝的,需要靠AI找出來的
像我上面講的,越多符合特徵的圖片篩出來,
再經由人工審核才有辨法判斷是否違法
hash是一種低效率手段,光是整理資料庫就是大工程
更別說數千萬計的圖片都要一張一張掃過,這個只能偶爾排程跑一次
或是先用AI抓出可疑圖片,再用hash掃過,
掃不到再交給人工審核
這樣才能縮小範圍,快速抓到違法圖片
我只能說雲端相簿都是沒隱私的
會怕的人可以把照片zip起來再丟雲端
或是自架NAS,自己的資料自己管
--
你在上傳圖片的時候就會算 hash 值記在資料庫了...
你傳上去的圖片hash值又不會變 = =
如果你有看過大公司 Storage System 的 paper 的話
基本上都會存 data 的 sha-1
我說的是色情圖片的資料庫 每張圖都要loop這資料庫
一次吧
Apple 現在的作法就是在你手機丟個 hash 資料庫
你手機晶片都能運算的檢查 你覺得這樣會沒效率嗎
現代資料庫也不會用 loop 一個一個比對
你的想法是 hash 比對這件事情是 O(N) N=資料筆數
可是實際上資料庫不是這樣運作的
資料庫不要太大的話 比對的效率可以趨近於 O(1)
你如果有興趣可以看一下 HashMap 跟 B-Tree
PS B-Tree 不是 O(1)
這也不算現代了 幾乎都是二三十年前就有的東西
現在都是在這上面做優化 所以肯定查的速度更快
可是根據我逛過暗網看過的東西 應該不會是O(1)
這不用暗網啊 資工大二的資料結構就有教了 = =
資料結構是必修課 算是資工系的常識吧
你可以不信我 但你要信一下 Google
其實我覺得非蘋果員工在那邊幫蘋果擔心運算資源不足
還蠻有趣的
抓有兩種方式,兩種都對,一種的確是FBI資料庫,但
另一種就是FB那種方式,偵測後自動判斷,連泳裝都能
被當猥褻照片,只要多加幾個參數,就是原PO講的人工
審核,至於蘋果要用哪種沒講,也應該不會講。所以考
慮隱私,兩種加總才是答案,這也就是為什麼說,別用
手機拍小孩,這也不是危言聳聽,想拍小孩記得買相機
另外運算資源?FB雖很不穩,但有聽過是因為運算太兇
出包嗎?中國那種審更兇地也都沒問題,不用你擔心啦
喔,原文有講犯罪資料庫喔。但還是老話,別太相信那
些人講法,今天他們不注重隱私,未來也不可能注重,
像google已經好幾起抓好幾年前的人了,他們改變政策
的話,被抓也不意外,雲端基本上沒隱私可言,不管哪
個國家都一樣,而且別以為只有這類犯罪,版權物也一
樣,放上雲端最好還是加密,不然你用10幾年帳號被凍
就欲哭無淚了。
相似度搜尋並不是純hashmap的O(1)複雜度喔。詳情可
以搜An optimal Algorithm for Approximate Nearest
Neighbor Searching in Fixed Dimensions這篇論文
hashmap適用的條件是找物件“本身“ 但這裡的功能是
在做相似度的尋找
使用k-d樹的話找相似度的複雜度是O(log N)
5
六七年前在讀研究所的時候,因為主題是影像分析比對,所以有找了許多論文 我就看過幾篇google 發表的論文 透過快速比對 hash 值來快速搜尋圖片 論文中就提到他們把 原先比較距離使用的 兩個值相減平方 這類的概念 直接改成把所有資料簡化成0與1 利用 OR XOR 的方法 來高速比對 當然 論文中並沒有提到 google 是如何對圖片做hash的 或是 用什麼方法取特徵點的8
在開一篇特地來打爆安卓仔最後的幻想 人權聲明: 我自己也用 Android + Google 雲端空間 之前有一篇在八卦板蠻轟動的新聞 拍表妹下體上傳雲端 Google通報台灣警卻因這點難成罪32
Apple 設計這套系統的時候就考慮過有人會出來靠北隱私了 背景知識 - Hash 值: 每個檔案都有一個唯一的 Hash 值 (指紋的概念) 科學家用數學保證他幾乎不會重複 每個雲端空間基本上都會在你上傳檔案的時候計算 Hash 值 為了要避免他們儲存太多重複的檔案9
AI可以將圖片分類,找出有問題的圖片 具體做法有很多種,我們先簡介目前效果最好的神經網路 首先會用數學模擬神經元的運算 簡化來說每一層的網路輸出(Output)就是輸入(Input)乘上權重(Weight)再加上偏移(Bias) Output = Input * Weight + Bias13
用檔案 hash 比對圖片實在太不可靠了,改個 1 bit 資料就可以讓 hash 不同 我覺得蘋果不會做這種智障系統,否則這系統根本沒用 所以去翻了一下相關文件 看起來是用蘋果自己開發的新演算法 NeuralHash9
美國司法部的官網對兒童色情有簡要說明,最好去看一看,免得惹上大麻煩: 有幾點特別值得注意的: 1. 美國聯邦定義的「兒童」指的是18足歲以下。 2. 明確的性行為的法律定義並不要求一張圖片描述一個孩子正在進行性活動。
58
Re: [情報] 蘋果新的照片審查機制原文恕刪 因為覺得兒童色情及用戶隱私是相當重要的議題,但使用者對於其技術的誤解容易造成議 題失焦,所以希望透過這篇回文拋磚引玉吸引更多人的討論,也懇請各位大神對於我說錯 的地方不吝指教QQ。 在討論運作方式前,先來看看幾個技術文件提到的大前提XD14
Re: [情報] 蘋果新的照片審查機制嗨又是我XDD,因為蘋果釋出了一份新的說明文件,正好解釋了一些我上一篇 文章中尚待釐清的問題,所以再寫一篇文與板友分享與討論~ 註:以下內容皆是我個人對於文件的解讀,完整的資訊請參考官方文件,且 如有說錯的地方也請不吝指教!12
[情報] 蘋果iPhone擬偵測兒童色情圖像 引發隱私標題: 蘋果iPhone擬偵測兒童色情圖像 引發隱私保護爭議 內文: 詳情請見新聞內文9
[問卦] google跟FBI怎麼知道裸照主角未成年?餓死抬頭 假設我在google相簿上傳一張裸照 然後,google或FBI要怎麼知道 裸照裡的主角是不是未成年? 有AI可以做出準確的判斷ㄇ?- 上完成,而不是雲端。 在本地端進行比對? 所以是每次上傳 iCould 前,都要把"整個資料庫"的圖片的hash code 下載到本地端嗎? : 反之,若用戶認為他們的帳戶被偵測錯誤,可以向蘋果提出上訴。蘋果表示,新軟體只對 : 上傳到 iCloud 的照片起作用,所以用戶可以自行關閉,只要設備中的照片沒有上傳到蘋