PTT評價

Re: [閒聊] Deepseek加Project Digi=AI的大海賊時代?

看板C_Chat標題Re: [閒聊] Deepseek加Project Digi=AI的大海賊時代?作者
arrenwu
(最是清楚哇她咩)
時間推噓15 推:15 噓:0 →:16

※ 引述《litsix (Altwort)》之銘言:
: 回頭看看老黃在CES端出來的Project Digi,你要說他事前沒收到Deepseek的相關消
: 息,我是不信的。
: 這次的Deepseek事件不亞於當年NovelAI v1流出,個體戶或中小型公司也有機會拿到
: 門票了,AI的大海賊時代來臨啦!!
: 誰會先找到大秘寶呢,有洽否?
我看板上的討論,好像對於「免費爽用的模型」非常的驚喜!?

那我分享一下好了

網路上有不少有名的軟體都可以免費使用開源的語言模型

Ollama 應該是最自由的,
不過我目前覺得第一次使用的話,LM Studio 比較容易。

步驟非常簡單:

1. 到 https://lmstudio.ai/ 下載 LM Studio,然後安裝

2. 安裝完之後點開程式,他會引導你下載一個比較陽春的語言模型,
把語言模型載入之後,就可以開始玩了
https://i.imgur.com/nrg2nZx.jpg

圖 Deepseek加Project Digi=AI的大海賊時代?

3. 如果對於陽春的模型不喜歡,
還有一堆語言模型可以隨意下載使用 https://lmstudio.ai/models
VRAM 12GB 的話大概可以用到 14B 的模型

就算沒有GPU也可以跑啦,就只是出結果的速度會比較慢而已

--
角卷綿芽 五周年紀念套組
https://i.imgur.com/k9SZ73Z.jpg

預購時間:預購開放至 2025/02/03 下午五點
預購連結:https://bit.ly/4j6AXIg

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 98.45.195.96 (美國)
PTT 網址

gino071701/28 12:31ollama要設定安裝路徑竟然是打指令的 他那個gui做好看的

其實 Ollama 那個指令也就是一行文,然後就可以開始了。 只是CLI的界面對一般人來說實在不太討喜XD

guogu01/28 12:37ollama沒有gui吧 就是純文字 只是載入有點麻煩...

我記得應該搭配 openai-gui 使用?

kaj198301/28 12:38又鬼轉綿芽

※ 編輯: arrenwu (98.45.195.96 美國), 01/28/2025 12:39:19

guogu01/28 12:40lmstudio能用A卡加速嗎? GPT4ALL可以

guogu01/28 12:40但只有官方處理過的模型可以 但後來它都沒更新新的模型

guogu01/28 12:41ollama目前只支援6800以上 可是我用的是6600XT阿

h010366101/28 12:42ollama是工具不是模型

purplvampire01/28 12:42Ollama有chrome外掛

guogu01/28 12:46然後不要期待本地模型的效果 應該說一般家用電腦能跑的

jacky4038301/28 12:47網頁版還是適合大眾使用 電腦小白不會用就是不會用

guogu01/28 12:47像是7B 14B這種等級 基本上都蠻蠢的 除了限制少

guogu01/28 12:48完全被線上的吊起來打 除非有特殊需求不然用線上的就好

guogu01/28 12:50要免錢 不用登入的可以去鴨鴨走玩

guogu01/28 12:50我有色情相關內容要翻譯都是去找鴨鴨走

btfghai01/28 12:54也是找鴨鴨+1

asdfg061201/28 13:087B 14B這種就相關行業會玩的在特定情境下好用

htps076301/28 13:13Ollama 是用來讀取模型的吧,本地小模型目前好像沒什麼

htps076301/28 13:13能讓人驚艷的應用吧,除了拿來跑翻譯跟聊天之類的

guogu01/28 13:22嗯 像是聊天AI那種基本都是7B 8B左右

spfy01/28 14:05現在AMD的AI MAX 也搞統一記憶體了 最大可以吃到96G 已經可

spfy01/28 14:05以跑70B了 #相信AMD

guogu01/28 14:10老黃不是要推一個AI盒子 #相信老黃

spfy01/28 14:12Project Digits要3000美金起 MAX395+128G的ROG Z13 2025

spfy01/28 14:13也才不到台幣8萬 對預算比較拮据的人還是有差

guogu01/28 14:47自問自答 lmstudio應該是可以用A卡加速

guogu01/28 14:48跑7B模型大概是27token/sec

qxpbyd01/28 15:48local模型都不怎麼樣 除非自架R1 不然還是線上的好用

qxpbyd01/28 15:49純GUI我是用Cherry Studio

guogu01/28 18:17自架要到線上等級大概有難度 看B站討論

guogu01/28 18:19線上版本是698B 這等級少說也要個300GB的記憶體吧