PTT評價

Re: [閒聊] 5070賣549鎂有4090的效能?

看板C_Chat標題Re: [閒聊] 5070賣549鎂有4090的效能?作者
ZMTL
(Zaious.)
時間推噓68 推:73 噓:5 →:96

※ 引述《qweraakk ()》之銘言:
: 補個恰點
: 這樣我要用ps5pro還是pc玩黑悟空 囧
:
: ----
: Sent from BePTT
:

不要看看跑分就覺得5070能打4090
一個VRAM 12G、一個VRAM 24G
就連玩遊戲,12G能撐多久都不知道,總之現在要全開8G肯定不夠的
更別說接下來幾年是AI的年代,12G跟24G VRAM能跑的AI模型天壤之別

阿你一定會說現在AI輔助遊戲還看到、也不玩AI繪圖,那對玩家來說AI有差嗎?

有,如果你玩GAL GAME或要看生肉漫畫的話,
中國有人tune了本地跑的日翻中語言模型,用遊戲腳本跟輕小說訓練的,
這東西完整版要跑起來也要12G以上的VRAM

有興趣可以研究看看,現在都不需要漢化組了其實
SakuraLLM
https://github.com/SakuraLLM/SakuraLLM


總之這年頭VRAM很重要,
不否認50系列CP值還蠻高的,但你要說4090但雕就想多了

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 60.250.61.214 (臺灣)
PTT 網址
※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 11:53:32

curlymonkey01/07 11:53所以直上5090就對了

lightdogs01/07 11:53就看需求吧

HanadaIru01/07 11:54反正買來還不都是玩遊戲的,玩AI的誰會買5070

所以我在談AI的遊戲應用, 包含本機的AI翻譯,跟現在已經有透過視覺模型幫你刷每日任務的AI了 然後現在的AI會越來越不純網,轉為部份需求在本地運算、需要超大模型在連網, 這個方法好處是可以大量減少token費用

Wardyal01/07 11:54有沒有漫畫可以自動翻譯的模型阿

brian04081801/07 11:55怎麼買張顯卡 要考慮的多工越來越多

arrenwu01/07 11:55這跟ChatGPT有太大的不同嗎?

有,因為ChatGPT的訓練文本太多太雜而且以英文為主 SakuraLLM只做很單純的日翻中,而且是用ACG文本訓練的 同時,不用網路不用錢

※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 11:58:43

andy048101/07 11:57但都要買CP值的人了 會去跑多工嗎

Yan23901/07 11:57打個遊戲還要訓練Ai?

arrenwu01/07 11:57我是覺得跑AI的人比例不高就是了

arrenwu01/07 11:58很多有工具需求的人是在用專門的服務

連網服務都要錢,而且越來越貴是個問題 過了AI推廣期就開始宰盤子了,現在專業板的ChatGPT 一個月是200鎂

meatybobby01/07 11:58說得好 就應該直上5090

storyo1141301/07 11:58跑AI不會買這吧

usoko01/07 11:58跑AI當然是直上5090 跑遊戲的70TI綽綽有餘了吧

healworld01/07 11:58沒差吧,這就是把遊戲玩家跟AI切開,老黃這刀很可以

再說一點,現在跑展會,包含微星、華碩都在推透過電腦本地做離線的AI輔助, 基本上手機場也是,不管是iPhone或是Samsung, 大部分的AI都是透過本機的小模型來處理瑣碎、細節、具備個人隱私的任務 如果未來PC走向AI輔助操作的發展,個人電腦跑AI的算力還是很重要, 都要換50了就不能不考慮這些

※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:02:16

fash589601/07 12:00單純跑遊戲5070還是可以啊,如果要跑AI為啥不一開始直

fash589601/07 12:00接上5090,更別說5080也只有給16G而已

violegrace01/07 12:0020K是還要什麼東西啦= = 要VRAM就直上90

felaray01/07 12:01要AI請直上5090

Xpwa563704ju01/07 12:02一般人誰會跑這個

Peugin01/07 12:02不就沒錢的人考慮CP值,不然誰不知道買頂規

rabbithouse01/07 12:02所以我能直接完生肉 我的腦袋也有12G以上VRAM(

wesdrf14501/07 12:02打遊戲的效能真的有接近4090的話 只打遊戲的鐵入這張.

james351001/07 12:02戰未來又不看這張 直接衝5090去了

james351001/07 12:02實際上這價錢確實沒必要考慮4090

yoyun1012101/07 12:03你要5090才跑得動的AI遊戲, 根本賣不了啦

不是跑AI遊戲, 是跑AI進行一些輔助的遊戲操作,包含我前面提到的遊戲文本翻譯模型

https://i.imgur.com/i8Olh2O.png

7B大概就比過去的機翻好一點 語言模型也一直在縮小到可以讓家用電腦設備可以入門

※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:05:13

Yanrei01/07 12:05不講究畫質是不是買5070TI就好了

saiboos01/07 12:055090至少保價7年!

Yanrei01/07 12:05感覺再過一段時間也差不多該換老電腦了

Srwx01/07 12:06要看未來有沒有很神的AI遊戲拉開差距

Srwx01/07 12:06或者是AI輔助成為主流不被當成作弊

而且兩年前8G VRAM已經開始不夠遊戲使用了

https://www.ptt.cc/PC_Shopping/E.n4ijIqwYKvnY

12G VRAM能撐幾年、現在換50系列目標是撐幾年還是要考慮

※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:07:56

andy048101/07 12:07還是老話 一個遊戲即時翻譯AI軟體 要求超越5070那就是開

gx992601/07 12:07那要看能不能繼續縮需求 不然使用門檻是80跟90的AI功能就

gx992601/07 12:07很難推廣了

andy048101/07 12:07發好玩的 穩穩爆死

andy048101/07 12:07阿用不到這種極少數人才能玩的翻譯軟體 那有差嗎

gx992601/07 12:08就變成高級玩具而已 離實用還有距離

andy048101/07 12:08都買CP值的5070了 還會在乎用不到那種極端軟體幹嘛

basara3001/07 12:08當然買70ti,光是記憶體就值了

5070 ti我覺得是比5070合理跟長久使用的選擇沒錯

kinghtt01/07 12:09會買5070的就是純遊戲玩家,用到AI輔助都不知道幾年後,

kinghtt01/07 12:09搞不好6070出了才用到

每一代都換顯卡的換換病不在本篇需要討論的範圍XD 現在換50也是希望能撐個五年起吧,我覺得5070不如就上5070 ti

※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:10:13

arrenwu01/07 12:09我會去玩一下 CUDA相關的運用 但我覺得大部分人不用想

smik01/07 12:09只拿來跑遊戲,換到5070ti就是CP值頂了,再上去沒太大意義

violegrace01/07 12:09好了啦 就是不敢講價格喔 只會在那邊AI遊戲VRAM

Ceferino01/07 12:09頻寬就鎖死了是在幻想什麼,皮衣刀客能賣你3萬的東西絕

arrenwu01/07 12:09這些有的沒的。在本地端用別人的repo做事的門檻滿高的

Ceferino01/07 12:09對不會賣2萬給你

yoyun1012101/07 12:09不是, 這個價位的哪需要考慮撐幾年..

換一張兩萬的顯卡不會考慮撐幾年,認真?

arrenwu01/07 12:105年起.... 忍者無敵 XD

yoyun1012101/07 12:11549鎂三年後就能換7070了

Jiajun072401/07 12:11鬧麻了 搞ai的乖乖拿最頂配的 拿cp值卡大談

zseineo01/07 12:11講遊戲的話就是70只有12G 有些遊戲2K可能會不夠

arrenwu01/07 12:11一般來說就你有需求再去換卡 想著"這樣生產力較強"的結果

arrenwu01/07 12:11大多就是"想太多了"

vsepr5501/07 12:12AI仔是這樣的

如果真的不考慮要撐幾年、能不能開2k4k 大部分的人應該3060就夠了,不用買到萬元級的顯卡吧

※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:13:16

kinghtt01/07 12:125070應該不至於推不動2K吧?穩60FPS+高效能應該沒問題

cross98011501/07 12:13gal就算沒熟肉我也會選啃生肉就是了

cross98011501/07 12:13這張除了12G以外 cuda也砍得算兇

yoyun1012101/07 12:13兩萬不就半隻iphone而已嗎, 用三年很夠本了

silomin01/07 12:133-5年後才成熟好用的東西到時再換就好 現在買適合的很OK

zseineo01/07 12:14現在pc遊戲有些就很吃vram 不好說

arrenwu01/07 12:14俗話說:未來可期 未來買 XD

andy048101/07 12:155070推2K推不動大概是FPS開到超過144然後又死不降吧

Shichimiya01/07 12:15會日文現省12G VRAM

trtrtradam01/07 12:16你這種需求小眾到沒什麼人在乎吧

cross98011501/07 12:16砍得部分影響多 但對gal玩家來說..不多

cross98011501/07 12:16更別說gal玩家是少數

fman01/07 12:17不是每個人都需要AI服務啦,很多人組電腦也就上上PTT和臉書

那不如3060吧XD

CloudVII01/07 12:1716G夠用嗎

hduek15301/07 12:173060哪夠 沒看魔物測試版的慘狀嗎 正式版不知道能修多

hduek15301/07 12:17

有一部份是面數bug,官方已經有說排除了啊

※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:18:18

e04su3no01/07 12:18沒事 等AI正大大規模成體系運用在遊戲上,那時可能已經

e04su3no01/07 12:18是70系列了

nacoojohn01/07 12:18考慮CP值的 會跟你說學日文

yys31001/07 12:18這能翻色色嗎 chatgpt不給翻麻煩

可以,而且訓練文本印象中有成人遊戲跟小說, 能本地離線跑的AI模型=沒有倫理限制

dionysus778801/07 12:19我12G跑2K惡靈古堡4重製版會沒辦法畫質全開 爆顯存

shirokase01/07 12:19現在吃VRAM到16G都還有點緊繃的遊戲,除了荒野外還有

shirokase01/07 12:19嗎?

crazy634155601/07 12:20本地inference一個大模型沒必要吧

目前的語言模型大部分是強調通用性,像是SakuraLLM這種就是專門做ACG日翻中, 而且可以生成成人內容,雲端的模型大部分都有倫理限制

※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:22:19

Dheroblood01/07 12:21還是要錢喔 4080不用錢?

MonDaNai01/07 12:21就20k的等級 你要求要有30k 50k 70k的效能本來就多啦

arrenwu01/07 12:21荒野建議配備是 RTX4060 喔,而且這個還是在開幀生成的

arrenwu01/07 12:22情況下60fps

YaKiSaBa01/07 12:2212g是現有新遊戲的門檻 真的不夠

yoyun1012101/07 12:22荒野那是已知, 現在怕的是GTA6

arrenwu01/07 12:22如果 MHWs 正式版沒有更好的優化 要無腦60fps大概要至少

Arashi073101/07 12:22魔王獵人荒野2k就吃7G多了,8G真的不夠

arrenwu01/07 12:22RTX 470

arrenwu01/07 12:22RTX 4070*

yoyun1012101/07 12:23不過再怎樣也不可能搞到要5080 5090才能順跑, 不然怎

yoyun1012101/07 12:23麼賣

a1987070401/07 12:23當初為了4K遊戲的買3080路過,如果5070沒買就是等6系列

rgbff01/07 12:23vram大的你根本搶不到,不然也是芭樂價

rgbff01/07 12:24切這一刀至少一般玩家還有機會能入手

arrenwu01/07 12:24@yoyun10121 這倒是真的

aegius1r01/07 12:24一般人真的不會去煩惱AI模型這種東西啦

那還是得面對這年頭VRAM 12G已經會碰到3A遊戲開2K 4K的上限了 老黃敢這樣賣不要把他當白痴XD

crazy634155601/07 12:25放上Collab之類的地方做推論不可行嗎

Colab限制越來越多了,去年開始Google就不太讓一般人白嫖算AI

dragonjj01/07 12:25專業!

e04su3no01/07 12:26遊戲廠商會配合主流硬體啦

GGMouseKing01/07 12:26SakuraLLM我3080跑q6k效果跟即時性都蠻好的,讚歎時

GGMouseKing01/07 12:26代進步

只是真的強烈建議VRAM 12G不太夠了, 要換就是5070 ti 的16G

SAptr01/07 12:28真的是...你真的自己train過AI model嗎 12G很夠

我用3090,跑人聲訓練24G都在燒 12G的話文字7B可以,超過也不夠吧

SAptr01/07 12:28更別說你自己不train 只要inference 根本不用多少vram

cccwahaha01/07 12:30"一般人" 看到套裝機上面寫個"電競"就掏錢買了

SAptr01/07 12:3024G不夠你有考慮過你batch size是設了什麼嗎

lavendin8201/07 12:31你的世界是只有3060和5090嗎

我覺得5070ti 16G VRAM很棒啊

※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:32:42

pobby226601/07 12:32現在potplay也能語音字幕+ai翻譯真的屌

h010366101/07 12:32買90只是玩ai,跑ai都上100了

LunaDance01/07 12:32Inference沒那麼吃資源

cross98011501/07 12:33我是建議內文換個例子啦 畢竟gal本來就小眾

cross98011501/07 12:33gal常玩的人 看一般常見用語不太需要翻(只是差在啃

cross98011501/07 12:33原文還是要用心一點,會比較累),但真的搞的那幾間

cross98011501/07 12:33…那種東西也不是一般訓練得出來的,一堆自創詞還是

cross98011501/07 12:33有的沒有的設定用語 換個遊戲就又不同套設定

就有人已經訓練完了啊,Google 搜尋SakuraLLM很多範例, 尤其在成人漫畫跟遊戲,這邊就不方便貼了

MonDaNai01/07 12:34玩遊戲想撐兩代才換卡就至少70ti 16g啦 不然MHWs需求就

MonDaNai01/07 12:34要12g了 除非未來大作都當沒看到或關這關那的 太不方便

※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:36:35

SAptr01/07 12:35用個箭頭就好了 OCR翻沒這麼吃資源

https://i.imgur.com/i8Olh2O.png

a0515070701/07 12:358G還夠吧 連荒野都能跑了

SAptr01/07 12:36你說你要自己產AI色圖吃資源我還能當作你在說真話

rgbff01/07 12:365070ti要多7000,蛋蛋都捏破了

Stella01/07 12:37我現在最常用的是whisper日文轉中文,也是需要大量的顯存

Whisper用Large模型蠻厲害的,我之前試著讓他做迷片字幕過,模型尺寸有差

SuiseiTrain01/07 12:37不跑AI行8行

reader271401/07 12:403060魔物哪有慘 是3060ti ram不夠才有問題

3060VRAM有8G版跟12G版,說到底有一部份還是VRAM的問題

※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:41:31

zack86701/07 12:44長久使用是多長 不就到下一代60xx推出而已

jay92031401/07 12:45愛sakura 好用愛用 AI翻使我生活豐滿

Stella01/07 12:46現在的AI已經可以做到local端的全自動翻譯了,準確率至少

Stella01/07 12:46有個85%,很方便,whisper語言轉文字+LLM翻譯

blackstyles01/07 12:49會再出Vram 加強版啦

LonyIce01/07 12:49你是不是有買4090?

嘿嘿,我的是便宜撿的3090,24G VRAM爽用

AkikaCat01/07 12:49sakura翻小說是確實算滿強,但也真的不是大眾需求,有

AkikaCat01/07 12:49需要的自己會上 70ti 以上的卡,對於沒必要且經費有限

AkikaCat01/07 12:49的人來說,70 還是可以選擇的。另外,買張卡本來就不需

AkikaCat01/07 12:49要猶豫太久,會猶豫代表你還不需要,繼續捏。

※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:51:52

parax01/07 12:514070s用Luna掛Sakura在遊戲裡即時翻譯大概有0.5-1秒的延遲

parax01/07 12:51,如果用4090等級的能做到幾乎0延遲嗎?

Ouroboros01/07 12:52你是不是買4090被坑爛才在酸

我只是建議要上5070不如多花一點上70ti,差那4G VRAM真的會差很多

※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 12:54:51

ringil01/07 12:59SakuraLLM我10g也能加減跑 當然你會說完整版要更多vram

ringil01/07 12:59但我之前租H100比較過覺得其實差異沒那麼大 有時甚至比較

ringil01/07 12:59差 當然vram是越大越好啦 不然不夠的時候會哭

basara3001/07 13:00一般沒有換換病玩家升級都三五年,對應老黃就隔代升級

basara3001/07 13:00,買5070ti比較還能應對未來三到五年遊戲的成長

zseineo01/07 13:02我是買了A卡才發現Sakurara 只能加減用XDD

abcd510188801/07 13:024090一般人根本不需要 5070爽買

abcd510188801/07 13:03長久使用 = 0

lsd2596801/07 13:03我跑CNN模型用12G也能跑 我同學甚至不用4090也能跑

lsd2596801/07 13:03transformer 拿AI嚇普通人真的不必要==

lsd2596801/07 13:04而且吃多少VRAM這個也可以靠超參數調整

與其說嚇普通人,不如說提醒一下5070沒有上打4090那麼厲害 但很多人可能沒注意到12G VRAM在去年開始就會碰到很多使用情境的門檻, 還是一句話,要換建議換16G的5070ti

※ 編輯: ZMTL (60.250.61.214 臺灣), 01/07/2025 13:06:25

school430301/07 13:13用參數多一點的SakuraLLM會比得上Claude3.5sonnet嗎?

school430301/07 13:13 我試過一些補丁是覺得C3.5S比較好耶

TAKADO01/07 13:14一張遊戲卡還要想這麼多賣點說服玩家掏錢是不是哪裡怪怪的

TAKADO01/07 13:14,一張60爽玩中等畫質3A遊戲的年代已經484回不去了。

lolicon01/07 13:15西洽人均N87(

coollee01/07 13:26我可以理解推16g 但你的使用範例本來就是 特殊 需求了

coollee01/07 13:27更何況現在steam大宗還是1080p的年代

zseineo01/07 13:32大宗1080P根本不用升級啊XDD

mao808261101/07 13:39兩萬塊還要想用5年嗎,現在早就不是一卡可以撐5年的時

mao808261101/07 13:39代了

gm325201/07 13:52所以看起來我不用未來AI那些的話,5070能打4090了

lovehina930401/07 13:53簡單來說不管怎樣都是吊打我現在用的970...

tomalex01/07 14:07(′・ω・‵) 都比我的內顯強

hidexjapan01/07 14:11這次就是把遊戲卡和AI卡切開啊,老黃80、90的定價和

hidexjapan01/07 14:11規格是要把跑去MAC 跑陣列計算的拉回來

hidexjapan01/07 14:14M4Pro加到48GB RAM只加14000,M4 mini出來之後整個Ma

hidexjapan01/07 14:14c mini cluster這兩個月大爆發

h7531141801/07 14:20要1070用40就跑的到了不用升

h7531141801/07 14:2512g以後會越來越不夠跑是真的

hinanaitenco01/07 14:39載別人train好的做inference根本用不了多少vram

hinanaitenco01/07 14:39正常人不會自己train

hinanaitenco01/07 14:41要train用2×a100都比較好 96GB vram

Vram01/07 14:48大小真的很重要

lazioliz01/07 14:58等應用出來再說啦 都還用不到誰會買張大vram起來放

poor14701/07 15:09要跑ai的 還不會看顯卡vram 那還真是笑死

Puye01/07 15:48想太遠了 真的普及時 這麼看重AI的 早換卡了

linzero01/07 17:54本機翻譯的商業或免費軟體可能靠顯卡會發展較完善吧

awenracious01/07 18:03等5060