Re: [新聞]剖析中研院大型語言模型事件的衝擊
先說結論:
發展本土化,繁體中文LLM模型,然後期待這個模型能讓大家使用,根本是錯誤方向。不知道這些專家學者,是在騙經費,還是還沒想清楚產業到底缺什麼。
---
如果今天你使用Google搜尋,搜到"台灣是中國的",或任何有政治偏見的相關文章。
你會不會覺得Google很爛?
所以我們台灣應該要發展一個"繁體,本土"的搜尋引擎取代google?
即使真的做出來了,台灣版google搜尋:
一個只能搜少量英文,繁體,台灣本土資訊的搜尋系統,可被搜尋到的內容還無法一直更新,
有多少商業價值?
這種搜尋引擎,別期待能做什麼產業的應用。
可成為大家可沿用的基礎系統,
這類搜尋引擎本身沒有什麼實用性。
這時重點反而要放在,我們能不能把這搜尋引擎變成工具,內部可以換成自己想要的資料來賺錢。裡面資料有偏見,不通用,根本沒差。
我有了工具,自己改就好。
(ElasticSearch就是走這條路)
同樣的道理也適用於台灣的 LLM/AI的發展。
現在新聞看到的內容,政府相關單位發展AI的模式都很好笑:
因為模型有偏見,所以我們要產出一個本土化知識,繁體中文,專屬於台灣的LLM。之後可能還會包裝,這模型兼顧國際化,英文能力也還可以。
實際上這種丟棄大量英文與簡體中文知識的模型,能力與後續潛力是絕對不如LLaMA2
(或其他不分地域語料的模型)的發展方式的。
如果OpenAI ChatGPT 丟棄大量全球知識,只能輸出台灣本土知識,你還會用嗎?
過分強調本土化,繁體化的模型根本沒意義。
最後台灣產官學只會輸出一堆,號稱本土化,產業化,繁體中文大模型。
結果每個模型能力,都不如免費的ChatGPT網頁版,或都不如LLaMA2用多語言fine-tune的模型。因為只用繁體知識,本土知識,訓練資料量,與跨語言知識量,推理能力,差太多了。
Demo當然沒問題,問訓練資料內有的就好。
但稍微問偏一點的,通用能力完全不如任何全域不分國界的開源模型。
計畫結束了,也永遠不會更新模型新知識。這類LLMs的發展,就如只能搜台灣知識的搜尋引擎,實用性被嚴重限制。
所以,在台灣做任何LLM研發,本土化知識,繁體中文輸出的LLM根本不是重點。
產出任何LLM意義都不大。
真正的重點,應該是要發展自主的LLM工具,
讓各界能夠任意修改LLM能力。
能不能讓台灣各企業,能換上自己公司的專有資料產生專屬的LLM,在各行各業都能取代部分人力,這才是重要的。
台灣真正需要的,
不是只能搜繁體中文知識都搜尋引擎。
不是只能看台灣知識的短影片APP。
不是只能輸出台灣本土知識與繁體中文的LLM。
而是發展適合中小企業可訓練LLM的簡易工具。
--
學術研究本來就是做玩具
以現在AI發展速度 你要商用還不如多等個幾年
等技術都成熟了再拿來用
除非你公司跟google微軟一樣有錢 可以成為技術的領頭羊
不然你在那邊開發半天 可能比不上未來人家call一行API
關鍵字 騙經費
比較有經費
這麼說不就等 OpenAI Meta就好
本來中研院只是一個小組在做中文斷句研究
結果一下子被openAI超車只能跑去做明清文書做市場區隔
但選舉的時候總是要拿出點成績交待誰叫數發部太廢
就這麼被推上火線
雖然是實在話但是這樣台灣價值不構不會有經費
台灣價值留給專門的公司做就好了 其他公司做了也拿不到
錢
說穿了就是騙研究經費啊 不過人家有靠山 到最後只要
生出個幾篇paper交差了事就好了
當國產搜尋引擎都搞不起來了 現在生成式AI運算成本更高
自己土炮的系統到最後一定是不了了之
爆
[問卦] 中研院自己做的大型語言模型怎麼了?中研院最近發布了他們自己開發的LLM 說是在處理繁體中文的任務上表現優異 可是小妹看了一下跑出來的成果55
Re: [問卦] 中研院自己做的大型語言模型怎麼了?阿肥外商碼農阿肥啦! 昨天晚上都在跟獵人直播來不及趕上大型翻車現場,這邊中午看hugging face hub還 可以進去,但現在已經進不去了。 這邊阿肥就直接說,基本上現在所有中文開源語言模型除了少數像chatGLM這種中國比較 早期做的自己完全從零訓練的語言模型外,大家都是從meta 的llama魔改的,差別在於預55
Re: [閒聊] ChatGPT是語言模型不是搜尋引擎本來沒想這麼早回這篇的,不過既然都有人把討論串回起來了我丟點資訊, 既然都會看網紅發表對ChatGPT的看法(沒有貶義),我覺得也可以看看這個: 台大電機副教授李宏毅老師的ChatGPT講解(先回到PTT還是學術論壇XD) ChatGPT (可能)是怎麼煉成的 - GPT 社會化的過程34
[討論] 中研院繁中LLM被爆直接拿對岸的來套!中央研究院詞庫小組(CKIP) 中研院資訊所、語言所於民國75年合作成立 前天釋出可以商用的繁中大型語言模型(LLM) CKIP-Llama-2-7b 以商用開源模型 Llama-2-7b 以及 Atom-7b 為基礎22
Re: [爆卦] 中央研究院詞庫小組大型語言模型看到這篇真的龜懶趴火 語氣還真的他媽的大啊 敢嗆鄉民去上LLM課程啊 誰不知道LLM的正確率一定會有誤差? 現在的問題是我國最高學術研究機構中央研究院直接拿對岸LLM套 且直接用opencc大量將簡體資料轉繁體資料!20
Re: [討論] ChatGPT的思維是甚麼?阿肥外商碼農阿肥啦! 剛好看到這篇文章就回覆一下,這次大型語言模型(LLM)表現出來的是語言模型的湧現能 力,我其實不贊同LeCun說的LLM是歪路,畢竟雖然我們可以直覺知道加大網路連接數可能 是實踐人類大腦的一個重要步驟(畢竟人腦的連結數量跟複雜性在生物醫學上都有驗證), 但科學上不去驗證你沒辦法證明某些事情的。X
Re: [爆卦] 中央研究院詞庫小組大型語言模型對於LLM只有這一點認知程度的話,最好不要就這樣出來帶風向會比較好,不然先去 跟陽明交大校長先去旁邊先學習一下什麼叫做LLM,不同LLM之間又有什麼差異。 第一個錯誤的認知是認為LLM就應該要提供正確的答案,事實上LLM是一個機率模型, 它所做的事情是基於模型的權重預測下一個token(詞塊)最高的機率是那個,它不是資 料庫,所以你不能因為它答的一個答案不是你所想的就是說這個模型如何如何。5
Re: [新聞] 中研院 AI 大翻車!繁中大型語言模型 CKI那個 我記得以前的新聞是這樣講的 防止簡體版AI偏見,產官學聯手開發繁體版AI語音模型 聯發創新基地負責人許大山博士表示: 「大型語言模型是近年來人工智慧技術進步的亮點 ,更是未來進步不可或缺的基石。聯發科技向來重視創新及科技發展,此次結合中研院及 國教院,成為台灣極少數能訓練大型語言模型的團隊,既發展自主訓練大型人工智慧模型5
Re: [問卦] AI發展到什麼程度你才會開始感到害怕?阿肥外商碼農阿肥啦!在下鍵盤研究員,基本上現在所有的模型本質上都還是弱人工智慧 的,只是這兩三年研究累積的體現。 當前還有很多問題是需要解決的,像是雖然有偏好模型,但LLM還是對於學習並非是有偏 的 ,這邊的偏好依舊需要人工大量去微調,這就跟我們人類差異很大。- 請容我搬運一篇對岸知乎的文章, 這是一篇非常長的文章,其中大部分片段與本文無直接關聯,而且是2023/02寫的. 我只搬運本串相關的記憶體的部分,還有尾部的結論.且未修飾原文用字 詳細的有興趣請直接去原網址看吧. ChatGPT背後的經濟賬