[閒聊] 想玩AI繪圖一定要買顯卡嗎?
各位高手安安
小弟AI小白最近想玩看看AI繪圖或者本地端大語言模型
無奈原本的顯卡只有3070 8g 跑下去覺得體驗實在很差
但看看目前主流的這些顯卡的價格...
實在有點花不太下去
想問看看如果想玩AI繪圖的話
有滿多雲端服務或API的方式
這樣跟自己買一張本地端跑圖比起來
價格不會比較划算嗎?
因為看到板上好像滿多人手骨都滿粗的
很多人都願意投資這些錢來買顯卡跑
所以有這個疑問...
--
問就是買,財力即算力
AI入門VRAM其實最重要 至少16G
記憶體不夠你連圖都沒辦法生出來
沒打算投入相當預算,乾脆就打消念頭吧
顯卡好好拿來打遊戲不好嗎
反正不管哪種方法,投入一堆生出的 AI 圖
八成跟網路上某個其他人的 AI 圖差不多
找縮小的量化模型
裝lm studio裡面各種大小都有
3060-12g比3070好
不然你要買AMD顯卡來玩AI嗎?
微軟的bing image也能玩
好奇用8600G有幫助嗎
你直接訂閱NovelAI之類的就好了吧...
4060 Ti 16G
會拿來生財就買 純玩玩買線上服務就
好
本地當然要顯卡
線上的先玩玩看
計算力對於速度的影響還是滿大的
現在也可以用一般記憶體來替代顯存
,記憶體可以加多一點
你也可以多組幾台電腦,放在那邊讓
他們跑就是了
你要拿來賺錢的就投資壓 想玩玩的
線上那些買一兩個月過過癮就好
記憶體可以說能替代但是如果VRAM不夠用
,把VRAM塞爆然後offload到記憶體,如果
只是實驗性玩玩看可以,如果要穩定用跟
流暢的體驗VRAM一定要夠
花一點錢買線上網站幫算生AI圖的吧,
除非是做遊戲之類需要大量產圖,要不然
通常是玩幾天就膩了。
塞記憶體那個之前不是會變超慢?
NV有改進了?
VRAM offload到記憶體我個人是覺得很慢
我覺得雲端買API比較划算 玩一下你就膩了
用API還能做別的事情
你如果很認真想玩 網路超多教學社團討論
PTT也有AI_Art或電瞎西恰都能討論 根據你的
文章內容 我是建議你買網站服務就好....
我也覺得api用用看看再說吧,除非是有閒
錢、研究或是工作用
會很慢沒錯,現在用pony 或者sdxl也
很慢,雖然出圖的精度高很多
我是買4060ti 16G來跑
稍微玩用線上就好 要自己訓再考慮買
你玩得很熟在買顯示卡玩LOCAL運算
我都用ipad pro M2跑本地端 還算堪用
怎麼可能玩幾天就膩啦 慾望是無窮的好咩
civitai模型一堆你以為是怎麼來的?!
之前有板友分享用8600G,主記憶體共享
16G,就是NPU太弱,看你要不要等AMD更
強的SOC上市囉
玩一玩體驗的話用線上的吧
你錢多,一年有個七八萬預算就可以不買
人家做訓練是要生產賺錢的
你已經有3070 最低投資就換4060 16G吧
cpu可以跑啊 只是跑很慢而已
不然就用google Colab租一個gpu來跑
也可以跟CSP租算力 或買現成的SaaS
玩玩的話現在有很多線上的吧
3070會體驗很差嗎? 我1070用stable di
ffusion的pony還玩得滿開心的。 但是可
能用途不一樣,我就畫開心的
跑圖的時候,相當於顯卡不能用,我
是覺得再組一台電腦會比較好
有很多雲端服務
不然你買colab的付費會員也能跑 價格
也不貴 如果只是想玩玩可以先試試
線上的先玩一玩 說不定一下就不想玩了
問就是雲端
玩雲計算的就好
沒興趣就停掉就好
3070出掉換4060ti 16g,遊戲部分差不多
,但是跑圖或是看日翻中的小說方便很多
模型沒GPU 靠CPU和NPU無法跑快
APU目前問題在於能支援加速的應用太
少了…github上幾乎99%都是cuda加速
的
我還以為你是用CPU硬幹派
看你有沒有要瑟瑟阿 有就要買顯卡
我自己是12400+4070 SDXL跑起來還行
跑圖過程還可以看個ptt 玩個模擬器
現在回想當初捏爆買到4070 真的值得
可以試試租4090一小時10幾元
二手板蹲3090,玩AI就是24G vram起步
不然你當那些買百萬運算卡跑自家AI的
都傻子嗎..
RAM 128GB+RTX2070VRAM8G可跑flux.1-dev
不然就是給人換16G VRam,不便宜
本地ai要折騰的 直接去玩novalai那種人家
弄好的吧 自己折騰首先電腦是一大筆錢 算
出來的圖也沒人家企業折騰好的東西效果好
除非你是這方面的佬
不然的話你可以去看對岸ComfyUI的完整教
程 能勸退一個是一個 絕大部分都只是想跟
風玩一下的 線上的玩一玩就夠了簡單效果
好
現在租雲端運算設定上超麻煩,比本地麻
煩多了,大部分那些都是給專業人員弄的
,介面繁雜
設定繁瑣,而且價格也不便宜
大部份用個人電腦跑AI繪圖,網路上一堆
教學,大部分教學都是跑在Windows上對
初學者來說簡單很多
Python之類一堆東西都嘛包好了,不用配
系統環境幹嘛的,有要深入研究也有教學
怎麼包
架設其實還好吧...安裝包都整合的不錯
要先安裝的就Python跟Git
裝完後git pull 套件位置就都拉下來
最後去整理一下批次檔的參數
ComgyUI有做自己的GUI,Webui就用瀏覽器
去call本機的local host
我大概就玩這兩種其實安裝是真的還好
最重要的是本地不用錢不設限那個自由度
你可以一次下一百張圖的感覺真的是爽
顯卡我從3060 12g開使用到現在4070TIS
說真的3060 12G其實我覺得就可以接受了
當然4070TIS只需一半不到時間
可是3060 12G速度我覺得是可以接受的範圍
不用買顯卡啊 直接租雲端機器跑就好
如果跑少比較划算
玩玩而已用線上服務 大量跑還是要買
35
[請益] 這台可以只升級顯卡4070ti嗎(AI繪圖)主要需求是AI繪圖的出圖與訓練,據說CPU跟RAM影響都不大,只看VRAM。 本來想組新機3060怕無感、3080 12G看不到全新的、再捏到4070Ti 12G 就想問看看能不能只換顯卡了。(然後剛剛列出來才發現機殼可能也要換) E3還能再戰嗎?其實我主要是擔心主機板那個1150。 : CPU (中央處理器):Intel Xeon E3-1231 V3【四核】3.4GHz(↑3.8G)/8M/無內顯20
[閒聊] 投入 生成式AI / GPT 的顯卡選購建議看了板上的一些AI組機文,實在有點話想拿出來聊聊。 比較常提到的繪圖大家應該都知道,現在建議就是3060 12G,VRAM稱王, 其他選擇就是4070(Ti) 12G / 3090 24G / 4090 24G,4080 16G CP值太差...之類。 不過我真的強烈建議還弄的到二手3090就去弄、預算有個80K拿4090比較不會後悔。 為什麼呢?18
[請益] 關於顯卡鎖算力疑問近期需組一台AI運算的主機 非挖礦,走影像AI運算工作用 鎖定intel配n家顯卡 逛罰站屋菜單時納悶 為何3060、3080幾乎都鎖算力或缺貨(包含Ti之類)9
[閒聊] 繪圖AI爆紅,AMD顯卡銷量是不是完蛋了現在最熱門的Stable Diffusion只有用N卡才能運作, 即使之後推出其他開源繪圖AI可以想見也會是用N卡跑效能更佳, 這樣AMD下個月要發布的RDNA3銷量是不是會非常慘淡? 等等黨可以伐500,但除非A卡殺到見骨否則在可見的未來都不會想購入新A卡 該準備空AMD了嗎?8
[問卦] AI讓電腦界終於又能迎來換機潮了吧?AI讓電腦界終於又能迎來換機潮了吧? 因為AI元年的出現 讓許多USER像我一樣 本來一台電腦用個七八年 想說不打電動 只看影片上網 措措有餘 結果一個AI算圖 AI轉檔 本來這種應該是吃電腦職業飯的工程師或美工人員5
[問卦] 認真問,Ai對女生的影響是什麼?如題, 雖然老黃演講, 底下聽眾都很興奮, 不過話說回來, Ai繪圖,男生的興趣,6
Re: [閒聊] AI色圖看多後感覺有點千篇一律: 目前看下來的感覺是這樣的…… AI對於那種只想要流量的人不友善。 只要你是使用AI創作並標註,那一般大眾就會用更高的標準去看待。 相對來說如果是真的很有愛、在稀少特殊性癖上產圖,相對來講友善不少。2
[問卦] AI繪圖 -> AI影片各位宅女美男大家好 我看垃圾文集散地的Face書一直充斥著意淫AI繪圖的文章 讓我inin的 估狗了一下相關的AI繪圖軟體的操作方式發現到電腦顯示卡的使用比重好像滿高的 想了一下現在都能AI繪圖了3
Re: [問卦] 所以AI大模型要怎麼賺錢是台灣沒跟到這波 對岸歐美都有靠AI賺爛發財的 基本上光繪圖類的大模型就玩出一堆服務了 像繪圖的NOVEL AI 跟 MIDJOURNRY 都不是大團隊 但MIDJOURNRY11人團隊就有上億美元年收- 目前電腦為 Macbook Pro M1 Max(32GB ram), 預計安裝 Stable Diffusion, 並且裝個幾個模型來跑一些人像繪圖的臉孔訓練, 想請問: 1. 在 OS 環境下容易出現相容性的問題嗎?會建議另外組一台 PC 去跑嗎?