PTT評價

Re: [新聞]剖析中研院大型語言模型事件的衝擊

看板Soft_Job標題Re: [新聞]剖析中研院大型語言模型事件的衝擊作者
DrTech
(竹科管理處網軍研發人員)
時間推噓 5 推:6 噓:1 →:12

先說結論:

發展本土化,繁體中文LLM模型,然後期待這個模型能讓大家使用,根本是錯誤方向。不知道這些專家學者,是在騙經費,還是還沒想清楚產業到底缺什麼。


---
如果今天你使用Google搜尋,搜到"台灣是中國的",或任何有政治偏見的相關文章。
你會不會覺得Google很爛?
所以我們台灣應該要發展一個"繁體,本土"的搜尋引擎取代google?

即使真的做出來了,台灣版google搜尋:
一個只能搜少量英文,繁體,台灣本土資訊的搜尋系統,可被搜尋到的內容還無法一直更新,
有多少商業價值?

這種搜尋引擎,別期待能做什麼產業的應用。
可成為大家可沿用的基礎系統,
這類搜尋引擎本身沒有什麼實用性。

這時重點反而要放在,我們能不能把這搜尋引擎變成工具,內部可以換成自己想要的資料來賺錢。裡面資料有偏見,不通用,根本沒差。
我有了工具,自己改就好。
(ElasticSearch就是走這條路)


同樣的道理也適用於台灣的 LLM/AI的發展。
現在新聞看到的內容,政府相關單位發展AI的模式都很好笑:

因為模型有偏見,所以我們要產出一個本土化知識,繁體中文,專屬於台灣的LLM。之後可能還會包裝,這模型兼顧國際化,英文能力也還可以。

實際上這種丟棄大量英文與簡體中文知識的模型,能力與後續潛力是絕對不如LLaMA2
(或其他不分地域語料的模型)的發展方式的。

如果OpenAI ChatGPT 丟棄大量全球知識,只能輸出台灣本土知識,你還會用嗎?

過分強調本土化,繁體化的模型根本沒意義。
最後台灣產官學只會輸出一堆,號稱本土化,產業化,繁體中文大模型。
結果每個模型能力,都不如免費的ChatGPT網頁版,或都不如LLaMA2用多語言fine-tune的模型。因為只用繁體知識,本土知識,訓練資料量,與跨語言知識量,推理能力,差太多了。

Demo當然沒問題,問訓練資料內有的就好。
但稍微問偏一點的,通用能力完全不如任何全域不分國界的開源模型。

計畫結束了,也永遠不會更新模型新知識。這類LLMs的發展,就如只能搜台灣知識的搜尋引擎,實用性被嚴重限制。


所以,在台灣做任何LLM研發,本土化知識,繁體中文輸出的LLM根本不是重點。
產出任何LLM意義都不大。


真正的重點,應該是要發展自主的LLM工具,
讓各界能夠任意修改LLM能力。
能不能讓台灣各企業,能換上自己公司的專有資料產生專屬的LLM,在各行各業都能取代部分人力,這才是重要的。

台灣真正需要的,
不是只能搜繁體中文知識都搜尋引擎。
不是只能看台灣知識的短影片APP。
不是只能輸出台灣本土知識與繁體中文的LLM。


而是發展適合中小企業可訓練LLM的簡易工具。

--

※ PTT 留言評論
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 42.72.188.61 (臺灣)
PTT 網址

BoXeX10/15 02:40學術研究本來就是做玩具

BoXeX10/15 02:40以現在AI發展速度 你要商用還不如多等個幾年

BoXeX10/15 02:40等技術都成熟了再拿來用

BoXeX10/15 02:44除非你公司跟google微軟一樣有錢 可以成為技術的領頭羊

BoXeX10/15 02:45不然你在那邊開發半天 可能比不上未來人家call一行API

DrizztMon10/15 07:50關鍵字 騙經費

Lhmstu10/15 09:43比較有經費

askaleroux10/15 10:51這麼說不就等 OpenAI Meta就好

una28310/15 11:10本來中研院只是一個小組在做中文斷句研究

una28310/15 11:11結果一下子被openAI超車只能跑去做明清文書做市場區隔

una28310/15 11:12但選舉的時候總是要拿出點成績交待誰叫數發部太廢

una28310/15 11:12就這麼被推上火線

neo527710/15 15:20雖然是實在話但是這樣台灣價值不構不會有經費

lukelove10/15 16:54台灣價值留給專門的公司做就好了 其他公司做了也拿不到

lukelove10/15 16:54

francej10/15 17:00說穿了就是騙研究經費啊 不過人家有靠山 到最後只要

francej10/15 17:01生出個幾篇paper交差了事就好了

francej10/15 17:02當國產搜尋引擎都搞不起來了 現在生成式AI運算成本更高

francej10/15 17:03自己土炮的系統到最後一定是不了了之