PTT評價

[情報] 蘋果回應解釋放棄兒童性虐待材料(CSAM)檢測計劃的原因

看板iOS標題[情報] 蘋果回應解釋放棄兒童性虐待材料(CSAM)檢測計劃的原因作者
Lyeuiechang
(誠誠小屁孩)
時間推噓27 推:27 噓:0 →:41

【情報來源】
原網址:https://www.ithome.com/0/716/194.htm
(原始未刪減的網址,未提供者水桶60日)

【情報/優惠內容】(國外文章請附上簡單翻譯)

蘋果回應解釋放棄兒童性虐待材料(CSAM)檢測計劃的原因

【介紹或心得】

IT之家/故淵

2023/9/1 8:24:41

IT之家 9 月1 日消息,蘋果公司在遭到媒體、非營利機構和消費者的諸多反對之後,於去年12 月宣布,iCloud 雲服務停止兒童性虐待材料(CSAM)檢測計劃。

這項檢測計劃於2021 年8 月開始測試,主要會檢測存儲在iCloud 的CSAM 圖像資料,但自推出以來備受爭議。

https://i.imgur.com/l9soptc.jpg


蘋果最初表示,CSAM 檢測將在2021 年底之前在iOS15 和 iPad OS15 的更新中實現,但該公司最終根據"客戶、宣傳團體、研究人員和其它方面的反饋" 推遲了這項功能。

一家名為Heat Initiative 的兒童安全組織本週告知蘋果公司,正組織一項活動,要求公司從iCloud 中“檢測、報告和刪除”CSAM,並要求為用戶提供更豐富的工具,來向蘋果
公司 舉報CSAM 內容。

IT之家援引Wired 報導,蘋果公司罕見地回應了Heat Initiative,蘋果公司用戶隱私和兒童安全總監Erik Neuenschwander 在回應中概述了放棄開發iCloud CSAM 掃描功能的原因:

"
兒童性虐待材料是令人憎惡的,我們致力於打破使兒童易受其影響的脅迫和影響鏈。

不過掃描每個用戶私人存儲的iCloud 數據,會成為數據竊賊發現和利用創造新的威脅載體。

而且這種方式會導致很多預期之外的嚴重後果,例如掃描一種類型的內容為批量監控打開了大門,並可能產生跨內容類型搜索其他加密消息傳遞系統的願望。

"
蘋果公司此前在關閉CSAM 計劃時表示:

"
在廣泛徵求專家意見,收集我們去年提出的兒童保護舉措的反饋後,我們正加大對
2021 年12 月上線的Communication Safety 功能的投資。 我們決定不再推進我們之前提出的iCloud 照片的CSAM 檢測工具。

兒童可以在沒有公司梳理個人數據的情況下得到保護,我們將繼續與政府、兒童倡導者和其它公司合作,幫助保護年輕人,維護他們的隱私權,讓互聯網成為兒童和我們所有人更安全的地方。

"

相關閱讀:

《 沉寂1 年多後,蘋果宣布iCloud 放棄兒童性虐待材料(CSAM)檢測計劃 》

心得/評論:

Wired 報導原文:

https://www.wired.com/story/apple-csam-scanning-heat-initiative-letter/

Apple’s Decision to Kill Its CSAM Photo-Scanning Tool Sparks Fresh
Controversy

Child safety group Heat Initiative plans to launch a campaign pressing Apple
on child sexual abuse material scanning and user reporting. The company
issued a rare, detailed response on Thursday.

以下引述 Erik Neuenschwander 的說法:

“Child sexual abuse material is abhorrent and we are committed to breaking
the chain of coercion and influence that makes children susceptible to it,”
Erik Neuenschwander, Apple's director of user privacy and child safety, wrotein the company's response to Heat Initiative. He added, though, that after
collaborating with an array of privacy and security researchers, digital
rights groups, and child safety advocates, the company concluded that it
could not proceed with development of a CSAM-scanning mechanism, even one
built specifically to preserve privacy.

“Scanning every user’s privately stored iCloud data would create new threat
vectors for data thieves to find and exploit," Neuenschwander wrote. "It
would also inject the potential for a slippery slope of unintended
consequences. Scanning for one type of content, for instance, opens the door
for bulk surveillance and could create a desire to search other encrypted
messaging systems across content types.”

這件事情總算是正式落幕了,
他們也算是正式承認大眾最為擔心的點,
也就是 CSAM資料庫被抽換成或添加政府維穩需要的字詞或者資訊,
並且系統可以加以延伸判斷圖片以外的事情,
且不會破壞點對點加密,所以非常「有隱私」。

個人覺得是很高興看到蘋果至少在這件事情上有最後撤回並給出正式的理由,
當初一度炎上 Reddit 的時候基本上鬧得沸沸揚揚,EFF 還直接開無人飛機去總部抗議,當初一度也沒有做出任何道歉然後一直辯解,
連自家的金招牌 Air Force 1 (庫克說法) 都拿出來當擋箭牌,
讓很多人看了更加的憤怒,
最終導致九月那場預錄發布會蘋果根本連一個「隱私」字詞都不敢提。

https://www.eff.org/files/banner_library/apple_plane_photo-edited2.jpg



https://www.eff.org/deeplinks/2021/09/why-eff-flew-plane-over-apples-headquarters

https://www.youtube.com/watch?v=OQUO1DSwYN0

不過也許他們當初真的很純真的覺得這樣做很好,也許...

--

Lyeuiechang: [新聞]有狼師一直戳女學森(.)(.)而被家長吉上法院...12/04 23:42
Xhocer: ) (12/04 23:44
xj654m3: ( Y )12/04 23:46
Xhocer: \|/12/04 23:48
xj654m3: (╮⊙▽⊙)ノ|||12/05 00:47
Lyeuiechang: /|\╰╮o( ̄▽ ̄///)<12/05 01:17

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.192.87.99 (臺灣)
PTT 網址
※ 編輯: Lyeuiechang (123.192.87.99 臺灣), 09/02/2023 08:39:49

BlueSat 09/02 09:22只要不在本地掃描我就沒差,不要耗我的電幹這種事

BlueSat 09/02 09:22

Lyeuiechang 09/02 09:24 https://i.imgur.com/80ATApB.jpg

ShaoRouRou 09/02 09:45其他公司不是也有類似的功能嗎 還是不太一樣?

adon0313 09/02 09:47畢竟主客群

cka 09/02 09:48Google也有掃描你相簿,發現兒童色情會直接封鎖你go

cka 09/02 09:48ogle帳號

cka 09/02 09:49所以google現在沒事嗎?

kouta 09/02 10:00google 就無敵啊

hidexjapan 09/02 10:04但google沒有大張旗鼓的拿隱私來打廣告和洗臉對手

milkBK 09/02 10:18會一直回報 雜訊變多吧

jickey 09/02 10:22正確的決定,Apple主打隱私結果主動掃描客戶照片根

jickey 09/02 10:22本拿石頭砸自己的腳

jickey 09/02 10:23一開始不知道是誰腦袋撞到拿這個來宣傳

lovez04wj06 09/02 11:04Google是大到你拿他沒皮條,甚至一堆被鎖的是正常

lovez04wj06 09/02 11:04父母的子女紀錄照片

lovez04wj06 09/02 11:05這東西法規和各種理由不能能透過人工審核,但程式

lovez04wj06 09/02 11:05判別誤判機率超高,根本傻逼

berserkman 09/02 11:34推10樓

cityport 09/02 11:49大概發現的第一個人是Hunter Biden..只能放棄計畫

botdf 09/02 12:31被誤判直接社死,https://shorturl.at/hilp3

z897899878 09/02 12:37google哪有大到沒皮條,一堆人看東西會被掃描都選擇

z897899878 09/02 12:37別家或自己架NAS了

raphael0911 09/02 13:33蘋果真的注重用戶隱私,反觀Google相簿和那搞笑的Ch

raphael0911 09/02 13:33rome擋廣告。

dahlia7357 09/02 13:46跟D4掃描你箱子一樣蠢

akemidk 09/02 13:51就說色色圖不要傳上雲端,每天都被AI挑除了,給宅

akemidk 09/02 13:51宅工程師觀賞過濾

yuinghoooo 09/02 15:49竟然有人會覺得cloud有隱私

RaiGend0519 09/02 17:15雲端備份跟熱存取本來就要分開

RaiGend0519 09/02 17:15熱存取一個帳號,壓縮加密上傳一個帳號

RaiGend0519 09/02 17:16以前常看人笑對岸百度會掃檔,結果現在Google青出

RaiGend0519 09/02 17:16於藍

LonyIce 09/02 18:47雖然孩童保護立寓是好的,但國外有些矯枉過正到跟

LonyIce 09/02 18:47sjw 差不多了,就像 google 一樣

Kydland 09/02 19:46Miula之前就有說過 很多抓到的根本就是正常照片

Kydland 09/02 19:46而且幾乎都是父母幫小孩的紀錄 結果誤判過頭

Kydland 09/02 19:46歐美左膠對兒童性保護到不可思議的地步

Kydland 09/02 19:47只要拍兒童 就會被認定有性意圖 矯枉過正

Kydland 09/02 19:48自己有性幻想就認為大家都有性幻想 可悲左膠

kouta 09/02 20:33...美國兒童剝削比較嚴重 樓上不用什麼都扯左膠

bleach1991 09/02 20:53滿嘴扯左膠政確SJW也該看一下場合 美國就是兒童

bleach1991 09/02 20:53性剝削太嚴重才會有這種反動

twmadrid 09/02 22:17google我大多都是存pornhub直播主的圖

twmadrid 09/02 22:17還有鬥陣特攻的 也被鎖

twmadrid 09/02 22:17還討不回來 超扯

twmadrid 09/02 22:17那些圖隨便一看都是成年人甚至有的還有阿姨味咧

cityport 09/02 22:48重點不在CSAM吧,是蘋果擔心iCloud被駭客拿來掃全網

siegfriedlin09/03 01:09百度最會掃了吧 但擋的住嗎

dragon6 09/03 01:44估狗那種流氓的作法所以我才不敢去用他的相簿

dragon6 09/03 01:45隱私看光光,誤判還不給申冤的

Urushi 09/03 08:02某幾樓這種事情也要扯sjw左膠,先搞清楚狀況吧

bin12 09/03 11:12# icloud有隱私?

bin12 09/03 11:12# 雲端照片都被看光光

bin12 09/03 11:14# 更別說siri會偷聽對話

bin12 09/03 11:14# 然後塞廣告給你

qoopichu 09/03 12:30樓上請問哪家雲端服務不會檢查你檔案的?

bin12 09/03 15:41# 我有說哪一家不會檢查嗎?

bin12 09/03 15:41# 不必這麼急著 幫蘋果護航

lovez04wj06 09/03 21:52笑死,很急著黑喔

Melmetal 09/03 21:53#一堆#看了很躁= =

whrth2002 09/03 22:16兒童情色還是很需要被即早發現和處理啊….

jamt 09/04 01:34不過挺好笑的,一堆人罵Google卻有些人還買pixel巴

jamt 09/04 01:34著無限相簿不放喔

mdfkmdfk 09/04 07:29Google就廣告商怎麼可能注重隱私

eon4 09/04 13:37幾年前吹說自己不提供FBI手機解鎖 保護隱私好棒棒

eon4 09/04 13:37現在掃描客戶的雲端資料竟然就可以??邏輯壞死

qoopichu 09/04 17:42以為自己在用臉書吧