Re: [新聞] 三位臺灣AI專家發起DeepSeek R1改造計畫
別人已經搞出來啦
DeepSeek-R1 1776 (美國獨立宣言年份)
R1 1776 is a DeepSeek-R1 reasoning model that has been post-trained by
Perplexity AI to remove Chinese Communist Party censorship. The model
provides unbiased, accurate, and factual information while maintaining high
reasoning capabilities.
R1 1776 是一個 DeepSeek-R1 推理模型,經由 Perplexity AI 進行後訓練,以移除中國共產黨的審查。該模型在保持高推理能力的同時,提供公正、準確且基於事實的信息。
https://huggingface.co/perplexity-ai/r1-1776
https://www.perplexity.ai/hub/blog/open-sourcing-r1-1776
擁抱各位最愛的西方價值觀
這樣募資要退錢嗎?
※ 引述《shala (沙羅是轉換後的文字檔打m)》之銘言:
: 1.媒體來源:
: iThome
: 2.記者署名:
: 文/王宏仁 | 2025-02-08發表
: 3.完整新聞標題:
: 三位臺灣AI專家發起DeepSeek R1改造計畫,要打造繁中版開源授權的推理模型
: 4.完整新聞內文:
: 這項計畫將以DeepSeek R1為基礎來進行改造,透過重新訓練模型的方式,並以開源授權: 釋出模型權重,也就是採取開放權重的策略釋出,最後還會打造新的模型身份與品牌
: OpenAI去年發表了新一代推理模型o1之後,讓眾人看到GAI開始媲美真人博士或軟體開發: 高手般的解題能力,掀起了新一輪的大型語言模型競賽。春節期間,以開放權重釋出的De: epSeek R1模型,大幅降低了這一波推理模型競賽的門檻,成了全球AI產業的熱門焦點,: 開始浮現客製化推理模型的趨勢。
: 臺灣也有三位AI專家,在2月7日發起了一項臺灣製造大型語言模型計畫,專案代號「自由: 鋼普拉」(FreedomGunpla R1),希望募資3千萬元,預計在3月底釋出第一版預覽的推理: 模型。
: 這款引起全球AI圈熱議的DeepSeek R1模型,在論文中揭露了多項媲美甚至超越OpenAI o1: 推理模型的能力,因為可以部署到本地端,來避免企業自己的機敏資料上傳到網路,而引: 起AI圈的重視,不過,R1模型簡體版用戶協議中提到自己通過三項中國AI法規的備案,也: 讓外界擔心這款模型生成的內容偏重於對齊中國價值。
: 因此,臺灣有三位不同AI領域的專家,發起了這項重新改造DeepSeek R1,來打造對齊多: 元價值的繁體中文版推理模型計畫「自由鋼普拉」。這三位發起人,包括了AI PM助理新: 創MeetAndy AI創辦人薛良斌,Taiwan LLM開發者林彥廷以及雲端遊戲軟體開發供應商Ubi: tus的執行長郭榮昌。
: 薛良斌是台灣生成式AI年會主辦人,也是知名售票平臺KKTIX和MLOps新創InfuseAI的共同: 創辦人,由他來負責募集這項模型改造計畫的資源。
: 林彥廷則是具有中文大型語言模型訓練經驗的專家,他剛結束了在Meta的實習,參與了Me: ta訓練Llama模型的過程。林彥廷將負責FreedomGunpla R1的模型訓練工作。而最後一位: 郭榮昌則擁有大規模GPU叢集管理經驗,旗下公司曾獲得Nvidia破億元投資,也擁有亞洲: 最大的GPU農場。郭榮昌將負責算力架構和管理。
: 臺灣目前也有幾款繁中版大型語言模型,主要以Meta釋出的Llama模型為基礎來客製訓練: ,但薛良斌認為,Llama 3模型不夠聰明,甚至用以「太笨了」來形容,他指出,如果想: 要打造出自主能力的AI代理,使用媲美O1等級推理能力的模型是最低標準。
: 這項計畫的技術重點包括了,將以DeepSeek R1為基礎來進行改造,透過重新訓練模型的: 方式,並以開源授權釋出模型權重,也就是採取開放權重的策略釋出,最後還會打造新的: 模型身份與品牌。薛良斌強調,這不只是一個技術專案,更是一項文化工程,因為這是一: 項多元價值觀的對齊任務。
: 預計分三階段來實現目標,第一階段先對齊西方價值觀,可能導致模型推理能力下滑,薛: 良斌評估,很高機率達成這個里程碑。第二階段再進一步讓變笨的模型變得聰明,這部分: 則需要投入更多資源來驗證。這項計畫的終極目標是,不論使用者用繁體中文或是英文時: ,這款模型的表現可以比使用簡體中文更好。
: 這項計畫希望募資3千萬元,將由財團法人開放文化基金會(OCF)處理募資,專款專用,: 透過這筆資金,希望至少可以訓練兩次模型。在時程上,初步預計2025年3月底前釋出第: 一版預覽模型,開始搜集早期測試者的意見回饋後快速迭代,再釋出最終的版本。
: 5.完整新聞連結 (或短網址)
: https://www.ithome.com.tw/news/167280
--
人家是撈錢領補助
這個有台灣價值嗎?會吹捧党嗎?
是AI變 BI嗎
擋人財路你壞壞
還不是要感謝deepseek多虧deepseek開源
撈錢而已
別人做完 沒錢可以賺了
騙人募資
爆
[情報] 50美元訓練出媲美DeepSeek R1標題: 李飛飛團隊用不到50美元訓練出媲美DeepSeek R1的AI推理模型 來源: Futu 網址:![[情報] 50美元訓練出媲美DeepSeek R1 [情報] 50美元訓練出媲美DeepSeek R1](https://i.imgur.com/kFg9GjUb.jpeg)
爆
[情報] 微軟官方:DeepSeek R1 現已在 Azure 及 G標題: DeepSeek R1 is now available on Azure AI Foundry and GitHub DeepSeek R1 現已在 Azure AI Foundry 和 GitHub 上提供。 來源: 微軟 Azure 官方 Blog![[情報] 微軟官方:DeepSeek R1 現已在 Azure 及 G [情報] 微軟官方:DeepSeek R1 現已在 Azure 及 G](https://i.imgur.com/Mn5ppb7b.png)
68
Re: [情報] Perplexity CEO:實驗性整合DeepSeek R1模更新: 年初一大新聞 美國上市公司(NET)、CDN市佔80%的 Cloudflare 宣佈引入 Deepseek R1 模型至他們的 serverless GPUs 產品 Workers AI 中![Re: [情報] Perplexity CEO:實驗性整合DeepSeek R1模 Re: [情報] Perplexity CEO:實驗性整合DeepSeek R1模](https://i.imgur.com/rDAhYVDb.png)
57
[情報] Perplexity CEO:實驗性整合DeepSeek R1模標題: Perplexity CEO:實驗性整合DeepSeek R1模型 來源: Perplexity CEO Aravind Srinivas 網址:![[情報] Perplexity CEO:實驗性整合DeepSeek R1模 [情報] Perplexity CEO:實驗性整合DeepSeek R1模](https://i.imgur.com/qRQi9ZVb.png)
50
Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據OpenAPI 的 Chief Research Officer (首席研究員) Mark Chen 2025/01/29 凌晨發了一波推文評價 Deepseek R1 的論文 恭喜 DeepSeek 產出了一個 o1 級別的推理模型!他們的研究論文顯示,他們獨立發現了![Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據 Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據](https://i.imgur.com/A73X07xb.png)
11
Re: [心得] DeepSeek將是刺破本輪泡沫的那根釘子DeepSeek其實真正的創新在model的高效設計,其真正的關鍵在efficient MOE還有MLA設計 這其實是2024年初DeepSeek V2就發表的東西 R1是把這個高效model設計+O1推理模型的LLM+RL合併出來的效應 我覺得歐美廠商因為本錢大所以忽略了降本增效的飛輪效應,所以第二個推理模型反而是中 國公司出圈了,推理模型的Test Time Compute對模型效率的敏感性就非常強烈了,訓練中1X
[討論] DeepSeek這一仗,是民進黨輸了對啊 剛剛輝達官方發文表示,DeepSeek-R1是一個具有最先進推理能力的開放模型,與傳統型相比 不會直接提供回應,DeepSeek-R1會針對問題進行多次推理及查詢,採用思路鏈、共識和搜尋 方法以提供最佳答案與可靠性。 輝達進一步說明,DeepSeek-R1證明為何加速運算對於AI推理的需求至關重要,由於模型可以1
[問卦] DeepSeek 就只是仿造ChatGPT 還吹成這樣剛看了DeepSeek R1原始文件 Guo, D., Yang, D., Zhang, H., Song, J., Zhang, R., Xu, R., ... & He, Y. (2025). DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning. arXiv preprint arXiv:2501.12948. 看完結論就是![[問卦] DeepSeek 就只是仿造ChatGPT 還吹成這樣 [問卦] DeepSeek 就只是仿造ChatGPT 還吹成這樣](https://i.imgur.com/jY9j0u3b.jpg)
1
[討論] 所以可以開吹Deepseek了嗎?微軟Ai副總: DeepSeek R1 is now available in the model catalog on Azure AI Foundry and GitHub, joining a diverse portfolio of over 1,800 models, including frontier, open-source, industry-specific, and task-based AI models. As part of Azure AI Foundry, DeepSeek R1 is accessible on a trusted, scalable, and![[討論] 所以可以開吹Deepseek了嗎? [討論] 所以可以開吹Deepseek了嗎?](https://i.imgur.com/YdMmsJwb.jpeg)
2
[問卦] perplexity導入DeepSeekR1後,體驗更好就是老黃每天在用的那個AI聚合服務 Perplexity 在導入推理模型 DeepSeek R1後 使用上體驗是比 o1 更好一些 尤其是在看新聞時候,如果用 R1 追問該新聞相關問題時 R1 會公開思維鏈的內容,會發現明顯是與 o1 的思維鏈作法有些許差異
![Re: [新聞] 三位臺灣AI專家發起DeepSeek R1改造計畫 Re: [新聞] 三位臺灣AI專家發起DeepSeek R1改造計畫](https://i.imgur.com/myw9ipjb.jpeg)