[情報] 蘋果高管承認兒童安全功能讓用戶混淆 並透露相關保障措施新
【情報來源】
cnBeta/cnBeta
原網址:https://www.cnbeta.com/articles/tech/1166001.htm
(原始未刪減的網址)
【情報內容】
蘋果高管承認兒童安全功能讓用戶混淆 並透露相關保障措施新細節
2021年08月14日 01:53
蘋果公司軟體工程高級副總裁Craig Federighi今天在接受《華爾街日報》的重要採訪時,為該公司計畫中有爭議的兒童安全功能進行了辯護,透露了一些關於蘋果公司掃描使用者照片庫中的兒童性虐待材料(CSAM)保障措施的新細節。
Craig Federighi承認,蘋果在上周宣佈這兩項新功能時處理得不好,這兩項功能涉及檢測兒童資訊中的明確內容和存儲在iCloud照片庫中的CSAM內容,並承認圍繞這些工具存在廣泛的混淆。很明顯,很多資訊在如何理解方面被搞得很亂,蘋果希望可以更加清楚地向用戶進行說明。
https://i.imgur.com/MvArKoD.png
事後看來,在同一時間推出這兩個功能是造成這種混亂的主要原因。蘋果推出的通信安全功能意味著,如果兒童通過iMessage發送或接收露骨的圖像,他們在查看之前會得到警告,圖像會被模糊,並且會有一個選項讓他們的父母得到提醒。另一方面,CSAM掃描則試圖在上傳到iCloud之前,將用戶的照片與已知CSAM的散列圖像進行匹配。檢測到CSAM的帳戶將接受蘋果公司的人工審查,並可能被報告給美國國家失蹤和被剝削兒童中心(NCMEC)。
這些新功能受到了來自用戶、安全研究人員、電子前沿基金會(EFF)和愛德華斯諾登的大量批評,甚至是蘋果員工的批評。在這些批評聲中,Craig Federighi解決了其中一個主要的關注領域,強調蘋果的系統將受到保護,防止被政府或其他協力廠商利用,並有多層次的可審計性。
Craig Federighi還透露了圍繞該系統保障措施的一些新細節,例如,使用者需要在其照片庫中滿足約30個CSAM內容的匹配,蘋果才會被提醒,屆時它將確認這些圖像是否是CSAM的真實實例。如果而且只有當用戶達到30張已知兒童色情圖片的匹配門檻時,蘋果才會知道使用者的帳戶和這些圖片的情況,而且在這一點上,蘋果只知道這些圖片,不知道使用者的任何其他圖片。
Craig Federighi還指出了將匹配過程直接放在iPhone上的安全優勢,而不是發生在
iCloud的伺服器上。因為它在手機上,安全研究人員能夠不斷研究蘋果手機軟體中發生了什麼。因此,如果做出任何改變,以某種方式擴大這個範圍,安全研究人員就會及時發現。
當被問及用於匹配使用者設備上CSAM內容的圖像資料庫是否會插入其他材料(如政治內容)而受到影響時,Craig Federighi解釋說,該資料庫是由多個兒童安全性群組織的圖像構建的,其中至少有兩個是在不同的司法管轄區。據Craig Federighi稱,這些兒童保護組織以及一個獨立的審計機構將能夠核實圖像資料庫只包括來自這些實體的內容。
--------------
華爾街日報獨家報導原文:
蘋果公司高管為打擊兒童色情內容的工具辯護
蘋果公司的新工具引起了人們對iPhone私隱受到侵蝕的擔憂。該公司負責軟體工程的高級副總裁Craig Federighi對此進行了辯護。
https://tinyurl.com/s9htcudj
專訪影片連結:
Apple’s Software Chief Explains ‘Misunderstood’ iPhone Child-Protection
Features (Exclusive) | WSJ
https://www.youtube.com/watch?v=OQUO1DSwYN0
美國PTT傳送門:
Apple’s Software Chief Explains ‘Misunderstood’ iPhone Child-Protection
Features
https://redd.it/p3m9ql
繼上次由首席蘋果隱私執行長跟媒體訪問,
仍止不住網路上對於這件事情的爭議之後,
這次由蘋果愛好者所熟知的首席蘋果軟體高級副總裁來向大家解釋這套系統的原理,
這次訪問主要透漏了那個所謂的「門檻」為30張 CSAM 照片,
另外對於一些系統的實作細節也更詳細的說明,
不過儘管如此,多數國外網友仍不買帳,要求直接刪除整套系統,
否則將抵制所有蘋果產品。
https://i.imgur.com/FWBuRp6.png
--
--
謝謝蘋果堅持捍衛用戶隱私的決心