PTT評價

[請益] 1660S x2 or 3070 組DL server

看板PC_Shopping標題[請益] 1660S x2 or 3070 組DL server作者
yoyololicon
(十年魔乃粉)
時間推噓 8 推:8 噓:0 →:21

乳題

最近想組個機器跑些DL的project

因為是自己玩玩的性質,所以都找些二手零件壓成本

用的是四代平台4790S + 8G 1866 x4,電供650w

最重要的顯卡預算大概是15k上下

目前最符合條件的感覺就3070

不過以前在學校跑DL的經驗,有兩顆gpu跑平行會快很多

所以想乾脆用兩隻1660S來組,記憶體還可以上到12G

但是就沒有Tensor core可以玩了qq,也不確定這樣組的效能是否可以追上3070

還請版友給個建議

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 118.167.108.197 (臺灣)
PTT 網址

darkdixen 11/22 10:183070

os653 11/22 10:20DL GPU記憶體可以相加?還是說你想同時跑兩個model?

同一個model,但開data parallel可以在兩張卡用不同資料同時跑inference 主要是batch size可以大兩倍

tsitned 11/22 10:223080 or3090

tsitned 11/22 10:22除非你就跑垃圾

※ 編輯: yoyololicon (118.167.108.197 臺灣), 11/22/2020 10:26:37

yoyololicon 11/22 10:273080以上就爆預算惹...

jasn4560 11/22 10:29預算不高 感覺可以去撿2080ti

jasn4560 11/22 10:29大Vram效能跟3070應該差沒多少

gameguy 11/22 10:34二手貨,兩張1070

scott771128 11/22 10:35我的印象開data parellel is不等於你有雙倍VRAM可以

scott771128 11/22 10:35用,除非你的卡支援NVlink

scott771128 11/22 10:37像是RTX Titan、Tesla還有RXX000系列的圖像卡

yoyololicon 11/22 10:42沒吧 我自己看pytorch的doc 都沒說需要nvlink

yoyololicon 11/22 10:43data paralle不需要gpu之間的傳輸

yoyololicon 11/22 10:43以前實驗室就是兩顆1080ti同時跑超快

yoyololicon 11/22 10:461070x2可以 但怕power不夠qq

tsitned 11/22 10:48有自己的意見很好啊 你去買一買再上來分享

tsitned 11/22 10:49建議借一張3080比較

sma1033 11/22 12:24當然是買兩張1070Ti,怕power稱不住可以降一點PL

sma1033 11/22 12:27做實驗只有一張卡你training時就沒辦法試其他東西

sma1033 11/22 12:27只有一張卡非常難用

學長你怎麼在這XDDDD

※ 編輯: yoyololicon (118.167.108.197 臺灣), 11/22/2020 12:31:46

sma1033 11/22 12:33我資深電蝦潛水鄉民耶

ericinttu 11/22 13:27認親給個推

sachialanlus11/22 21:42比起算力 你可能要注意的是vram

sachialanlus11/22 21:42這幾年model越來越大 vram太小的話 可能就只能跑bas

sachialanlus11/22 21:42e或minimum的

suitup 11/23 06:05推學長良心建議

suitup 11/23 06:05本來都想推3080 10g了 單卡vram大就是王道

walter59478 11/23 12:13跟你一樣的配置跟需求,看看amd之後能不能支援,不

walter59478 11/23 12:13然那個vram真香