PTT評價

Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據

看板HatePolitics標題Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據作者
treasurehill
(寶藏巖公社,你還未夠班S)
時間推噓 3 推:4 噓:1 →:27

笑死!你這資訊門外漢就別在這耍寶自曝其短了!

我從來就沒有跟你爭論效率的問題

我爭論的是資料來源的正確性

蒸鰡模型是基於原有模型的再訓練

也就說他繼承原有模型的瑕疵

https://reurl.cc/26ea16

而且因為資料刪減的結果將導致資訊損失

最終甚至可能導致模型坍塌

這就是因為某些資料被過度放大的結果導致訓練結果嚴重偏差

網路上已經有很多論文證明此一結論了

你連別人在講什麼都沒搞清楚

就不要在這野人獻曝出來丟人現眼了!

回去多念點書再來好嗎

https://36kr.com/p/2303919815749129


然而,来自牛津、剑桥、帝国理工等机构研究人员发现,如果在训练时大量使用AI内容,会引发模型崩溃(model collapse),造成不可逆的缺陷。


也就是,随着时间推移,模型就会忘记真实基础数据部分。即使在几乎理想的长期学习状态下,这个情况也无法避免。

因此研究人员呼吁,如果想要继续保持大规模数据带来的模型优越性,就必须认真对待人类自己写出来的文本。

※ 引述《lono (lono)》之銘言:
: 你發這種文章
: 大陸人就知道這裡是井蛙版了
: : 別別這種蒸鰡效果是基於原有資料的基礎上加工
: : 如果原本的資料無法回答的問題
: : 蒸鰡出來的結果也不可能
: https://i.imgur.com/Hq1Xx9m.jpeg

: 事實上DeekSeek在某些項目的表現超過openai的產品
: 蒸餾法老早就有了
: 為什麼現在效能突飛猛進呢?
: Deepseek對於記憶體運用效率做了額外的改良
: 根據外媒的報導,他們在短短兩個月時間,在2,048個H800 GPU叢集上,訓出6710億參

: 的MoE語言模型,比頂尖AI效率高出10倍。
: 這項突破不是用CUDA實現的,而是通過大量細粒度最佳化以及使用輝達的類彙編等級的
PT
: X(平行執行緒執行)程式設計。
: https://hao.cnyes.com/post/133219
: 你可以先查資料再發文嗎?
: ※ 引述《treasurehill (寶藏巖公社,你還未夠班S)》之銘言:
: : 其實這種抓取他人數據再行訓練行為絕對是違法的
: : 就連中國自己的人民法院判決都認為這種盜用他人網站數據的行為構成不正競爭
: : 我是不知道一旦追訴起來,中國還有什麼臉面對美方的指控
: : 這鐵定會成為下一波貿易制裁的主要爭點
: : http://yn.people.com.cn/BIG5/n2/2022/0330/c361322-35199254.html
: : 法院經審理認為,原告主張權利的5萬余條用戶投訴信息系經過長期經營、管理、維

: 而
: : 形成的數據信息,能夠給原告帶來特定的社會效益和經濟效益,屬於其市場競爭優勢

: 應
: : 當受到法律保護。被告在其網站中使用原告網站5萬余條投訴信息的行為,本質上是

: 正
: : 當利用原告網站投訴信息、違法將該信息據為己有的行為,違反了誠實信用原則和公

: 的
: : 商業道德,給原告造成了實際損失,應當適用反不正當競爭法一般條款予以規制。此

: ,
: : 被告在其網站虛構投訴數量及處理進展等行為,容易造成相關公眾對其網站經營規模

: 影
: : 響力、服務效率產生誤認,亦構成虛假宣傳的不正當競爭行為。最終,法院判決被告

: 止
: : 涉案不正當競爭行為、消除影響,並賠償原告105萬元。
: : 而且就算在法律上的追訴行為無效,擁有數據所有權者也不是沒有反制的方法
: : 他只要在輸出的數據上加上隱密的干擾訊息即可
: : 這樣就會嚴重影響直接抓取數據來進行訓練者的訓練結果的正確性
: : 這招在之前的商業資料庫就常常被使用
: : 不管是明碼或浮水印都可為數位識別的足跡追蹤
: : 在AI時代更可以用此手段來干擾抓取資料者的訓練成果
: : 讓他GIGO
: : 別別這種蒸鰡效果是基於原有資料的基礎上加工
: : 如果原本的資料無法回答的問題
: : 蒸鰡出來的結果也不可能超越
: : 所以這種抄襲手法最多只有短期功效,長期來說是不可能超越數據擁有者的
: : 頂多滿足一下民族自信心而已

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.70.83.123 (臺灣)
PTT 網址
※ 編輯: treasurehill (42.70.83.123 臺灣), 01/30/2025 12:43:14

aragorn747 01/30 12:43那帳號是槓精 無腦反綠並護航白圾 你

aragorn747 01/30 12:43還回他...

※ 編輯: treasurehill (42.70.83.123 臺灣), 01/30/2025 12:45:36

shoeii 01/30 12:45他之前還說台灣人自動有中共國身分 腦子壞

shoeii 01/30 12:46城這樣體恤一下吧

※ 編輯: treasurehill (42.70.83.123 臺灣), 01/30/2025 12:51:15

William 01/30 12:51資料蒸餾過去已經很多模型用過了,deeps

William 01/30 12:51eek 的突破就是找到用蒸餾法但是能維持

William 01/30 12:51模型準確度不會降低太多的工程手段....

※ 編輯: treasurehill (42.70.83.123 臺灣), 01/30/2025 12:51:43

brella 01/30 12:52

brella 01/30 12:52有時候有些人真的不知道腦袋裡面裝啥

※ 編輯: treasurehill (42.70.83.123 臺灣), 01/30/2025 12:53:58

Xceberus 01/30 12:54https://i.imgur.com/PMbB3Md.jpeg

tradeent 01/30 12:54你不要拿過時論文來討論現實業界

2024才發表的論文過時?我看你是看不懂在胡扯吧!

https://www.thepaper.cn/newsDetail_forward_29019927

[Submitted on 7 Oct 2024 (v1), last revised 8 Oct 2024 (this version, v2)] Strong Model Collapse Elvis Dohmatob, Yunzhen Feng, Arjun Subramonian, Julia Kempe Within the scaling laws paradigm, which underpins the training of large neural networks like ChatGPT and Llama, we consider a supervised regression setting and establish the existance of a strong form of the model collapse phenomenon, a critical performance degradation due to synthetic data in the training corpus. Our results show that even the smallest fraction of synthetic data (e.g., as little as 1\% of the total training dataset) can still lead to model collapse: larger and larger training sets do not enhance performance. We further investigate whether increasing model size, an approach aligned with current trends in training large language models, exacerbates or mitigates model collapse. In a simplified regime where neural networks are approximated via random projections of tunable size, we both theoretically and empirically show that larger models can amplify model collapse. Interestingly, our theory also indicates that, beyond the interpolation threshold (which can be extremely high for very large datasets), larger models may mitigate the collapse, although they do not entirely prevent it. Our theoretical findings are empirically verified through experiments on language models and feed-forward neural networks for images.

※ 編輯: treasurehill (42.70.83.123 臺灣), 01/30/2025 12:59:28

William 01/30 13:03deepseek 的調整之一就是用 RL取代SFT,

William 01/30 13:03這篇paper就是用sft..

William 01/30 13:04看paper要先看懂assumption好嗎....

聽你在騙,DeepSeek-R1一樣有用到SFT好嗎! DeepSeek-R1採用多階段流程訓練,結合了監督強化(Supervised Fine-Tuning, SFT)和 強化學習(Reinforcement Learning, RL)技術。學習,最後再進行一次這種監督梯度和 強化學習。 然後GPT-4 一樣是 Transformerd 模型架構,再加上 RL (Reinforcement learning, 強化 學習),還不是出現比前一代效率下降的情況,如何證明使用RL就可以有效避免模型崩潰 ?

lbowlbow 01/30 13:13支那人有夠生氣

※ 編輯: treasurehill (42.70.83.123 臺灣), 01/30/2025 13:19:00 ※ 編輯: treasurehill (42.70.83.123 臺灣), 01/30/2025 13:43:27

William 01/30 13:44DeepSeek-v3-Base 只用純 RL 的方式去訓

William 01/30 13:44練了 DeepSeek-R1-Zero,並發現在各評估

William 01/30 13:44指標上與 OpenAI o1 能力相當,但問題就

William 01/30 13:44是輸出的有時候會出現多語言、閱讀上的

William 01/30 13:44問題; 所以他們決定透過將 DeepSeek-v3-

William 01/30 13:44Base 先做 SFT(論文是說幾千筆而已),讓

William 01/30 13:44模型做 cold start,然後再透過 RL 的算

William 01/30 13:44法去訓練出DeepSeek-R1。

然後GPT-4 一樣是 Transformerd 模型架構,再加上 RL (Reinforcement learning, 強化 學習),還不是出現比前一代效率下降的情況,如何證明使用RL就可以有效避免模型崩潰 ?

※ 編輯: treasurehill (42.70.83.123 臺灣), 01/30/2025 13:44:48

meblessme 01/30 14:24美企在中國告中國人違法?

William 01/30 14:31gpt4的架構在openai網站上有....

skyyo 01/30 14:54這篇雙方都很專業了 想不到綠色濾鏡可以影

skyyo 01/30 14:54響這麼大@@

skyyo 01/30 14:55其實應該要問寶藏巖你覺得你的綠共友們說

skyyo 01/30 14:55問不到64+用了蒸餾就是垃圾AI

skyyo 01/30 14:55這種觀點的看法 嘻嘻

skyyo 01/30 14:57喔還有綠共代表選手chatDPP跟deepseek的差

skyyo 01/30 14:57