PTT評價

[閒聊] 想玩AI繪圖一定要買顯卡嗎?

看板PC_Shopping標題[閒聊] 想玩AI繪圖一定要買顯卡嗎?作者
EBVirus
(洨洨積極哥)
時間推噓43 推:43 噓:0 →:83

各位高手安安
小弟AI小白最近想玩看看AI繪圖或者本地端大語言模型
無奈原本的顯卡只有3070 8g 跑下去覺得體驗實在很差
但看看目前主流的這些顯卡的價格...
實在有點花不太下去

想問看看如果想玩AI繪圖的話
有滿多雲端服務或API的方式
這樣跟自己買一張本地端跑圖比起來
價格不會比較划算嗎?
因為看到板上好像滿多人手骨都滿粗的
很多人都願意投資這些錢來買顯卡跑
所以有這個疑問...


--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 36.239.1.34 (臺灣)
PTT 網址

FirePopcorn 11/02 05:53問就是買,財力即算力

JeffreyZH 11/02 05:57AI入門VRAM其實最重要 至少16G

JeffreyZH 11/02 05:57記憶體不夠你連圖都沒辦法生出來

BITMajo 11/02 06:00沒打算投入相當預算,乾脆就打消念頭吧

BITMajo 11/02 06:00顯卡好好拿來打遊戲不好嗎

BITMajo 11/02 06:02反正不管哪種方法,投入一堆生出的 AI 圖

BITMajo 11/02 06:02八成跟網路上某個其他人的 AI 圖差不多

※ 編輯: EBVirus (36.239.1.34 臺灣), 11/02/2024 06:11:43

cannedtuna 11/02 06:20找縮小的量化模型

cannedtuna 11/02 06:20裝lm studio裡面各種大小都有

devirnt 11/02 06:213060-12g比3070好

wolver 11/02 06:27不然你要買AMD顯卡來玩AI嗎?

aglet 11/02 07:16微軟的bing image也能玩

pita30 11/02 07:28好奇用8600G有幫助嗎

spfy 11/02 07:40你直接訂閱NovelAI之類的就好了吧...

leviva 11/02 07:424060 Ti 16G

march55237 11/02 07:45會拿來生財就買 純玩玩買線上服務就

march55237 11/02 07:45

sasado 11/02 07:48本地當然要顯卡

iPhoneX 11/02 07:49線上的先玩玩看

Zenryaku 11/02 07:52https://i.imgur.com/3JWytql.jpeg

conqueror507 11/02 07:55計算力對於速度的影響還是滿大的

conqueror507 11/02 07:59現在也可以用一般記憶體來替代顯存

conqueror507 11/02 07:59,記憶體可以加多一點

conqueror507 11/02 08:05你也可以多組幾台電腦,放在那邊讓

conqueror507 11/02 08:05他們跑就是了

tsubasawolfy 11/02 08:13你要拿來賺錢的就投資壓 想玩玩的

tsubasawolfy 11/02 08:13線上那些買一兩個月過過癮就好

isoBlue 11/02 08:13記憶體可以說能替代但是如果VRAM不夠用

isoBlue 11/02 08:13,把VRAM塞爆然後offload到記憶體,如果

isoBlue 11/02 08:13只是實驗性玩玩看可以,如果要穩定用跟

isoBlue 11/02 08:13流暢的體驗VRAM一定要夠

MoneyBlue 11/02 08:13花一點錢買線上網站幫算生AI圖的吧,

MoneyBlue 11/02 08:13除非是做遊戲之類需要大量產圖,要不然

MoneyBlue 11/02 08:13通常是玩幾天就膩了。

tsubasawolfy 11/02 08:13塞記憶體那個之前不是會變超慢?

tsubasawolfy 11/02 08:13NV有改進了?

isoBlue 11/02 08:18VRAM offload到記憶體我個人是覺得很慢

MK47 11/02 08:20我覺得雲端買API比較划算 玩一下你就膩了

MK47 11/02 08:20用API還能做別的事情

spfy 11/02 08:21你如果很認真想玩 網路超多教學社團討論

spfy 11/02 08:22PTT也有AI_Art或電瞎西恰都能討論 根據你的

spfy 11/02 08:22文章內容 我是建議你買網站服務就好....

isoBlue 11/02 08:23我也覺得api用用看看再說吧,除非是有閒

isoBlue 11/02 08:23錢、研究或是工作用

conqueror507 11/02 08:26會很慢沒錯,現在用pony 或者sdxl也

conqueror507 11/02 08:26很慢,雖然出圖的精度高很多

awenracious 11/02 08:46我是買4060ti 16G來跑

odanaga 11/02 09:06稍微玩用線上就好 要自己訓再考慮買

kuninaka 11/02 09:59你玩得很熟在買顯示卡玩LOCAL運算

Tosca 11/02 10:02我都用ipad pro M2跑本地端 還算堪用

Tosca 11/02 10:03怎麼可能玩幾天就膩啦 慾望是無窮的好咩

Tosca 11/02 10:03civitai模型一堆你以為是怎麼來的?!

sxing6326 11/02 10:09之前有板友分享用8600G,主記憶體共享

sxing6326 11/02 10:0916G,就是NPU太弱,看你要不要等AMD更

sxing6326 11/02 10:09強的SOC上市囉

bear1414 11/02 10:36玩一玩體驗的話用線上的吧

erisiss0 11/02 10:37你錢多,一年有個七八萬預算就可以不買

erisiss0 11/02 10:38人家做訓練是要生產賺錢的

bear1414 11/02 10:39你已經有3070 最低投資就換4060 16G吧

arnold3 11/02 11:08cpu可以跑啊 只是跑很慢而已

arnold3 11/02 11:10不然就用google Colab租一個gpu來跑

phoque 11/02 11:46也可以跟CSP租算力 或買現成的SaaS

dolphintail 11/02 12:05玩玩的話現在有很多線上的吧

tsai1453 11/02 12:463070會體驗很差嗎? 我1070用stable di

tsai1453 11/02 12:46ffusion的pony還玩得滿開心的。 但是可

tsai1453 11/02 12:46能用途不一樣,我就畫開心的

conqueror507 11/02 12:47跑圖的時候,相當於顯卡不能用,我

conqueror507 11/02 12:47是覺得再組一台電腦會比較好

gbcg9725 11/02 12:47有很多雲端服務

harry886901 11/02 12:52不然你買colab的付費會員也能跑 價格

harry886901 11/02 12:52也不貴 如果只是想玩玩可以先試試

pikaaco 11/02 12:59線上的先玩一玩 說不定一下就不想玩了

Amulet1 11/02 13:03問就是雲端

csghuuguh 11/02 13:14玩雲計算的就好

csghuuguh 11/02 13:15沒興趣就停掉就好

aabbc777 11/02 13:323070出掉換4060ti 16g,遊戲部分差不多

aabbc777 11/02 13:32,但是跑圖或是看日翻中的小說方便很多

changmary 11/02 13:43模型沒GPU 靠CPU和NPU無法跑快

saimeitetsu 11/02 14:18APU目前問題在於能支援加速的應用太

saimeitetsu 11/02 14:18少了…github上幾乎99%都是cuda加速

saimeitetsu 11/02 14:18

Supasizeit 11/02 14:26我還以為你是用CPU硬幹派

heha751019 11/02 14:49看你有沒有要瑟瑟阿 有就要買顯卡

heha751019 11/02 14:50我自己是12400+4070 SDXL跑起來還行

heha751019 11/02 14:51跑圖過程還可以看個ptt 玩個模擬器

heha751019 11/02 14:53現在回想當初捏爆買到4070 真的值得

Lightee26 11/02 15:27可以試試租4090一小時10幾元

jeffguoft 11/02 15:32二手板蹲3090,玩AI就是24G vram起步

hitsukiaoi 11/02 15:42不然你當那些買百萬運算卡跑自家AI的

hitsukiaoi 11/02 15:42都傻子嗎..

CardLin 11/02 16:32RAM 128GB+RTX2070VRAM8G可跑flux.1-dev

sxing6326 11/02 16:35不然就是給人換16G VRam,不便宜

yeeouo 11/02 16:39本地ai要折騰的 直接去玩novalai那種人家

yeeouo 11/02 16:39弄好的吧 自己折騰首先電腦是一大筆錢 算

yeeouo 11/02 16:39出來的圖也沒人家企業折騰好的東西效果好

yeeouo 11/02 16:39 除非你是這方面的佬

yeeouo 11/02 16:43不然的話你可以去看對岸ComfyUI的完整教

yeeouo 11/02 16:43程 能勸退一個是一個 絕大部分都只是想跟

yeeouo 11/02 16:43風玩一下的 線上的玩一玩就夠了簡單效果

yeeouo 11/02 16:43

aq981334 11/02 17:59現在租雲端運算設定上超麻煩,比本地麻

aq981334 11/02 17:59煩多了,大部分那些都是給專業人員弄的

aq981334 11/02 17:59,介面繁雜

aq981334 11/02 17:59設定繁瑣,而且價格也不便宜

aq981334 11/02 18:00大部份用個人電腦跑AI繪圖,網路上一堆

aq981334 11/02 18:00教學,大部分教學都是跑在Windows上對

aq981334 11/02 18:00初學者來說簡單很多

aq981334 11/02 18:01Python之類一堆東西都嘛包好了,不用配

aq981334 11/02 18:01系統環境幹嘛的,有要深入研究也有教學

aq981334 11/02 18:01怎麼包

sadsumo 11/02 18:10架設其實還好吧...安裝包都整合的不錯

sadsumo 11/02 18:11要先安裝的就Python跟Git

sadsumo 11/02 18:11裝完後git pull 套件位置就都拉下來

sadsumo 11/02 18:11最後去整理一下批次檔的參數

sadsumo 11/02 18:13ComgyUI有做自己的GUI,Webui就用瀏覽器

sadsumo 11/02 18:13去call本機的local host

sadsumo 11/02 18:14我大概就玩這兩種其實安裝是真的還好

sadsumo 11/02 18:15最重要的是本地不用錢不設限那個自由度

sadsumo 11/02 18:16你可以一次下一百張圖的感覺真的是爽

sadsumo 11/02 18:16顯卡我從3060 12g開使用到現在4070TIS

sadsumo 11/02 18:17說真的3060 12G其實我覺得就可以接受了

sadsumo 11/02 18:17當然4070TIS只需一半不到時間

sadsumo 11/02 18:17可是3060 12G速度我覺得是可以接受的範圍

cutejojocat 11/03 00:05不用買顯卡啊 直接租雲端機器跑就好

cutejojocat 11/03 00:05 如果跑少比較划算

kelvin0004 11/03 06:00玩玩而已用線上服務 大量跑還是要買