Re: [新聞] 天下晨間新聞:Meta、微軟財報,史上最
※ 引述《GivemeApen (走林森北路回家)》之銘言:
: 原文內容:
: Meta和微軟財報都用力說明一件事,我們投資AI的錢,並不是丟進水裡。
: #Meta淨利大漲35%,祖克柏努力證明AI投資有成
現今AI大模型語言網絡的根本理論問題在於,它就是個類神經網絡的強化版,
它的能力來自於模式匹配,無論如何訓練也不會產生真正智能的推理能力。
所以現在各家廠商耗費巨資狂用電力,可以訓練出愈來愈大的語言模型,但有其局限。
而那局限是現有AI模型無論耗費多少算力都無法跨越。
舉例就像在二維平面,雖有無窮平面廣度,但再怎麼探索也無法離開平面而達三維空間。AI的智能理論沒有突破,投入資源想要突破,只是徒增浪費而已,市場遲早會發現真相。不過,學術界針對這項問題,已經有幾篇論文問世,如下影片內容;
https://www.youtube.com/watch?v=ojndlMzGZZk
--
全書贈閱 《推背圖諰:中國國運與人類命運之預言憂患》全書PDF檔 免費流通
https://amidha.blogspot.com/2024/10/TBTSbook.html
詮釋《推背圖》,反省過去,展望未來,自二十一世紀浩劫後重建人類文明,
至於二十七世紀人工生命挑戰人類,終於二十九世紀全球政權交付人工智能。
--
copilot已經可以把過去給助理工程師的工作取代了
這篇還不錯,提醒到深度學習AI的下一個挑戰
你這個已經變成哲學問題了 請先定義何謂推理能力
然後請定義何謂智能
以軟體業來說現況的AI可能是一個不錯的狀態
人類現在連自己腦袋是怎麼運作的都搞不清楚了.....
人類的智力是不是一種黑箱?嚴格來說也是啊
你可以證明以後也不可能突破嗎?
這樣說好了 如果輸入資料 經過黑箱 然後輸出的答案
正確率有95% 但有5%錯誤 這不算智力表現嗎
但正向一點看,也是以後的新機會
AI現在熱的也不是思考與哲學,而是處理判斷技術突破
人類的錯誤率可是更高的 但人類卻說自己有智力呢
相比過去寫一堆判斷式,語言模型能處理的更好
目前來說 能不能用才是重點吧 黑不黑箱有差嗎
而且你說推理能力不太對 ai最大的挑戰是思考能力
ai可以思考就恐怖了 就相當於有自己的意識了
可能很多人類不能理解的問題 ai會先自己理解
這篇大意就只會已經看過的題目,稍加修改後結果變差
不過CoT/ToT可能還沒發揮到極致,這車我先不上…
現在的AI推理能力不行,很簡單 看翻譯就知道
被說以指數學習的翻譯功能,至今也沒追上熟練的人類
你比諾貝爾得獎者還厲害?
因為這些模型本質並不是真正理解人類的語言
AI出來之後 翻譯有比以前好多了
但距離真正實用還差滿遠的
比如中文好了 中華隊大敗日本隊到底贏還是輸
有些技術是可行而不可為,你看到市面上的模式都是可
為的。
必須參照前後文語意才能得出答案 AI目前還做不到
AI對於口語化的用法翻譯能力很差
AI不可能有自己的思考 因為人類不會允許
這其實有盲點
你是要訓練出智力80 智力100 還是智力150的
要搞出有創造力的AI的確很難
但只是要搞出有學習能力(複製貼上)的沒那麼難
不過AI在成熟區域速度量產是真的很快
比如影片 動畫 之類的 比人工快太多了
我是不會自大到一定能比AI厲害
如果真的有人試圖去弄出非人類智慧 那一定會變成全
民公敵
我對AI發展樂觀其成,唯一不滿的是....太費電了
AI有能力處理BIG DATA
人腦不行,懂?
一堆人連back propagation 可能都沒聽過就滿嘴AI
無論如何訓練也不會產生真正智能的推理能力???
人類的語言能力>訓練出來的
人類的社會行為>訓練出來的
從小各種各樣的訓練,就連本能
也是演化過程中汰舊之後寫在基因裡的\
到底是哪裡不能訓練...
大談
現在人類缺的是把類比資料轉換成數位資料的能力,AI
的推論能力已經很強了,侷限AI的是訓練資料的不足
但到底什麼是智能?什麼是推理能力??你怎麼知道人
類的智能人類的推理能力不是就像AI這樣子運作的??
AI已經能過常春藤大學考試、奧林匹克競試、還會看論
文推導
人類可以從類比資料中整理出資訊,但目前AI做不到
現在是辦公室生產力噴飛的起點,類似電力流水線對工
廠生產力的提升那樣,至於會不會大量失業導致衰退不
好說
目前美國就業主要靠醫療、政府、休閒觀光支撐,白領
工作則是蕭瑟冷清
大談,你覺得大廠會燒錢去弄沒競爭力或可行性的東
西嗎
目前AI強項是把之前知識儲存起來,整理,在人類有
問題或者工作提供精確度較高的答案
推,一直訓練,代表會得都是舊的,取代簡單煩複的工
作也就夠了,自己搞也要研究好幾天
要蠻注意回答的,問複雜點很容易唬爛
覺得AI翻譯還不夠好的大概不瞭解
garbage in garbage out, 品質追上只是遲早的
只要比人類強就賣得出去 人類也沒有多少智能
應該說便宜的低層人類工作也沒需要多少智能
剛剛不小心按到推
不會推論沒關係 百億人類會就可以拿來用
AI最大的問題是,當大家都覺得他正確的時候,如果
他是錯的怎麼辦,尤其是大家想要的創造性答案
嘛,助理沒多強,多請幾個就很有用啊。AI也是這樣
,做助理工作綽綽有餘
沒差吧 更先進的AI模型一樣能使用已投入的AI算力啊
AI算力永遠不嫌多
目前的AI早就超越個別人類了吧 AI是通才 人類是專才
個別人類通常只能在某個領域專精
chatgpt基本上所有領域都有不錯的表現
即使現在只是聰明的搜尋引擎也很好用了
我要回應AI在翻譯工作的部分。我是個業餘翻譯者,
翻過三本專業書籍。隔了十年之後,我現在在翻譯第四
本。我對AI是不是能賺錢,到現在都還很有疑慮。所以
我的持股裡面跟AI有關係的只有台積電,而且是因為
我覺得2330不用靠AI就能賺錢。但我覺得AI翻譯功能真
的很強,我只能說現在有GPT翻譯實在太爽了!基本上
丟進去之後出來的初譯稿就有80-90%的完成度,我只要
確認它翻譯的正不正確(絕大部分都對,而且很多地方
比我對,畢竟我只是業餘的)、潤飾文稿、修正專有名
詞。還有一個重點,這樣可以省下許多打字時間,一
本幾萬字的書打字時間就差很多。目前估計它可以幫
我節省一半的時間,而且是因為我自己太久沒翻譯有點
生疏,加上還不熟悉人機整合的工作模式。等到火力
全開,我認為可以比我之前的工作方式節省70%的時間
。所以AI賺不賺錢我不知道,但AI翻譯的能力我是高
度肯定的
只要能日常生活對95%以上 還是真香
這不是哲學問題是數學問題啊
資訊工程理論基礎是一個 Turing machine 不能生出
另外一個 Turing machine, 所以只要這些運算都還是
個 Turing machine 時,在人類自己能理解並把人類
自己的推理能力用 Turing machine 實作以前,的確
是做不到啊
這波浪潮說的準確一點是算力革命而不是算法革命
現在AI不只能翻譯 還能直接幫你寫出一本書
AI直接幫你想書名 列出章節大綱 完成內容
作者也是只需要潤飾就好
讀者也不用自己讀書 直接整本書丟給AI
叫AI直接給出重點摘要就好
AI寫完書,再叫AI讀書,太神奇啦
那你去放空NV發大財啊。
這個就等新的演算架構開發出來啦
現在市場是快速砸錢強化硬體,用現有的技術硬幹
能源消耗太大就沒意義了阿 整天算力算力
當能源無限多喔
或許就目前來說夠了?
你還不是在2維的螢幕看3D的東西
需要多一點你這樣的人!
那是因為在3維世界看過3D的東西吧 所以可以在2維
理解3D的東西
現在叫你在3維看4維的東西 你確定理解是對的嗎
問題是ai給的資訊不一定正確
爆
[閒聊] AI偏好在所有戰爭遊戲模擬中主動使用核武原來AI都有內建甘地的核平人格... 美國康奈爾大學(Cornell University)一項新研究發現,大型語言模型(LLMs)人工智 慧(AI)在模擬情境中充當外交代表時,時常展現出「難以預測的局勢升級行為,往往會 偏好直接以核攻擊作為結束」。18
Re: [情報] 特斯拉第四季營收遠低於預期 盤後大跌逾6%不太一樣啊 首先自駕的車子吃電池先天上就決定算力有個上限在 而自駕容錯率又低 落地場景難度相對高 現在生成式AI算力無限往上疊 在雲端上跑沒有電池綁手綁腳限制 而且可以搞出一堆花樣來 才不是啥鬼泡沫玩意QQ 有小道傳言說 祖柏克現在搞AI是覺這玩意可以幫助他的原宇宙 因為他覺得他元宇宙NPC都可以叫AI來當 Meta最近很狂 都喊出AGI口號了9
Re: [新聞] 學家:美股AI熱潮像是2000年網際網路量變帶動質變 一直是不變的道理 這次是什麼量呢? 運算能力的量 造就了很多以前沒辦法達成的事情,可以用電腦暴力破解X
Re: [爆卦] 中央研究院詞庫小組大型語言模型對於LLM只有這一點認知程度的話,最好不要就這樣出來帶風向會比較好,不然先去 跟陽明交大校長先去旁邊先學習一下什麼叫做LLM,不同LLM之間又有什麼差異。 第一個錯誤的認知是認為LLM就應該要提供正確的答案,事實上LLM是一個機率模型, 它所做的事情是基於模型的權重預測下一個token(詞塊)最高的機率是那個,它不是資 料庫,所以你不能因為它答的一個答案不是你所想的就是說這個模型如何如何。6
[問卦] 用PTT來訓練AI語言模型會怎樣PTT是台灣最大的討論區之一,包含了許多不同主題的討論版,從政治、經濟、科技、娛樂 到生活、旅遊等等,因此PTT的資料可以提供豐富的語言資源,進行大型語言模型的訓練可 能會有以下的影響: 增加模型的多樣性:PTT 的資料來源眾多,而每個版的用語、詞彙、語言風格都不同,因此 使用PTT的資料訓練大型語言模型可以增加模型的多樣性,使其更能夠應對不同領域的自然5
Re: [新聞] 中研院 AI 大翻車!繁中大型語言模型 CKI那個 我記得以前的新聞是這樣講的 防止簡體版AI偏見,產官學聯手開發繁體版AI語音模型 聯發創新基地負責人許大山博士表示: 「大型語言模型是近年來人工智慧技術進步的亮點 ,更是未來進步不可或缺的基石。聯發科技向來重視創新及科技發展,此次結合中研院及 國教院,成為台灣極少數能訓練大型語言模型的團隊,既發展自主訓練大型人工智慧模型5
Re: [心得] WWDC24節錄-系統級個人助理面世自己回自己的文,給想進入AI生活的人一點知識科普,順便闢謠一下網路上漫天飛的錯誤 資訊。 === 個人裝置跑『大模型、小模型』,大小如何定義? 以下節錄台大洪教授的臉書文字內容:2
Re: [問卦] AI產出的產品之間有關聯性嗎?: 阿肥碼農阿肥啦!有興趣可以看我在科技版的文章,看一下chatGPT的思維模式綜述。 #1Zxi_nPB (Tech_Job) 基本上,現在的深度學習突破的領域在學術界已經是一兩年前的舊聞了,現在所有的語言 視覺模型最好的成果都是基於Transformers(變形金剛)這個家族爆發性成長的結果。2
Re: [新聞]輝達設廠「2處機會大」 黃仁勳認擔心電力我這邊幫老黃緩頰一下,我記得之前有在八卦發過文,當前如果要做預訓練的AI模型這個 就是一個耗電怪物。以Meta訓練llama3 70B(以當前來說就真的是700億個參數就只是小 模型)的模型從零開始2.4萬張H100初估就足以批敵半座小城市一天的用電量,如果未來 需要更大的訓練光是10萬張顯卡一起動作就足夠讓一個城市的電網癱瘓,這也是為什麼電 力問題是當前各國都重視的,沒有足夠的電力就沒有安全的AI。- 請容我搬運一篇對岸知乎的文章, 這是一篇非常長的文章,其中大部分片段與本文無直接關聯,而且是2023/02寫的. 我只搬運本串相關的記憶體的部分,還有尾部的結論.且未修飾原文用字 詳細的有興趣請直接去原網址看吧. ChatGPT背後的經濟賬