PTT評價

[請益] 機器學習 Nvidia Tesla T4 or Quadro RTX

看板PC_Shopping標題[請益] 機器學習 Nvidia Tesla T4 or Quadro RTX作者
hizuki
(入贅桧月家,我妻彩花)
時間推噓 3 推:3 噓:0 →:16

目前打算購入一台機架式伺服器,目標是HPE或Dell的2U型號,如HP DL380 G10的入門雙路配置
諮詢了業務代表,考慮到目前的PCI-e lanes的狀況,
Tesla T4是可以插入七塊的,而Quadro RTX 8000因為預算的緣故,大概只能購入兩塊

Tesla T4是不支援NVlink的
不過Quadro RTX8000有一個問題,如果我想把兩塊配置到不同的CPU上,伺服器的PCIe托架是分開的,似乎沒有這種NVlink 可以把兩塊連起來?
(以上都是Passive版,即低卡主動散熱無圖像輸出介面)

還是說靠PCI-e傳輸資料已經足夠了,不需要NVlink?

另外RTX Titan的價格似乎比較好,價格就比Tesla T4貴一點,可是記憶體大了非常多。不過就Driver狀況來講,運算速度會不會差很多?



-----
Sent from JPTT on my Samsung SM-G8870.

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 38.106.22.59 (美國)
PTT 網址

hizuki 04/18 14:04目前用Titan XP 和GTX1080倒是沒有出錯的問題

mikapauli 04/18 14:32Titan肯定是CP值最高的

mikapauli 04/18 14:34用tensor core選T4,用NVLink或雙精度選V100,

V100太貴又記憶體比RTX8000小

mikapauli 04/18 14:35其他就RTX8000

hizuki 04/18 14:36但是Titan要三槽位很難插,只能找美超微定機器了?

marunaru 04/18 14:53apollo 6500

基礎伺服器想把價格壓低的,不然預算案過不了的,這個太貴了

※ 編輯: hizuki (38.106.22.59 美國), 04/18/2020 15:18:20

kaltu 04/18 17:49如果你在乎記憶體和model size

kaltu 04/18 17:49不急的話跟Lambda Labs之類的公司用租的

kaltu 04/18 17:49然後等下一代,越來越多謠言說下一代的記憶體有可能

kaltu 04/18 17:49提升超過兩倍

kaltu 04/18 17:51貴司要train大型model又要雙精度,很急的話也只能捏

kaltu 04/18 17:51下去RTX8000

雙精度應該沒需求

hcwang1126 04/18 19:03nv有些卡吃超過64 GB有夠可怕

atrix 04/19 00:20Titan rtx 只占用雙槽,不會卡到第三槽。

散熱器會突來一點

red0210 04/19 01:58Quadro 不是繪圖卡嗎?另外,機器學習很少用雙精度

red0210 04/19 01:58吧。如果是我會選 Tesla

Quadro確實有沒有輸出的型號,但是Tesala T4的記憶體太小了是一個問題

※ 編輯: hizuki (38.106.22.59 美國), 04/20/2020 02:07:46

atrix 04/21 10:20我晚點裝看看,我記得是不會卡到阿?

atrix 04/21 10:45是裝的下拉,不過多卡時,散熱就很緊

atrix 04/21 10:45http://i.imgur.com/SY1vtWZ.jpg