Re: [問卦] 為什麼AI 這2-3年進步這麼神速?
我在2005年寫的論文是有關類神經網路解問題,那時雖然有matlab裡的工具箱可用
但論文的問題不適用,所以用數學式跟寫神經元程式一步一步弄出來
然後寫完模型後還要讓他學習,光一個改變參數就要讓他學習四個小時才能有答案
以前的電腦算力不足,軟體無法搭配,AI學習速度非常之慢
這幾年的電腦算力提升不少外,一些創新的網路模型也有出現,也有軟體有現成工具
一些瓶頸有突破後,導致現有的發展速度非常快速的成長
話說:剛開始讀類神經網路是從頭念起~想出神經元的這種構想的學者真的有長遠見識
※ 引述《soulmola (肥宅的教育不能等)》之銘言:
: 雖然我小時候就聽過ai了
: 但那時候也沒像現在這樣
: 生成式XXX 百花齊放
: 給個一句白話文 只要不是文盲會下指令
: 都會用…
: 文案程式期刊整理短影片醫學行程規劃查資料
: 雖然不完美 但快要萬能了
: 不敢想像再過10年會是什麼畫面
: 八卦?
--
姿勢就是力量
--
跟我當初做的一樣
神經元不就看到模擬神經元QQ
XXXX
學AI可以幹嘛
抄襲自然界生物而已 有見識?
能抄也是一種本事其實…. 有些人連抄都
不會
嗯嗯 跟我想到的一樣
algorithm
啟發式演算法~當初還學了幾個方法XD
那時候一堆類神經論文非常流行
那時候算力太慢,跟參數怎麼抓都一堆論文
本來想把參數迴圈化~怕電腦當機,作罷
也不全是硬體關係 NN的研究本來就
都在比參數和組合演算法的
後來一堆人在研究怎麼用方法找參數
(自適應) 或堆疊模型 看怎樣比較
準
2005年用類神經網路不會被教授罵嗎?
那個時候還是AI寒冬,連很多教授也輕視
笑死,我是被老闆逼著用的 XD
但那時是解數學解~不太算是AI的領域
我也有用過nntool來做大學專題
也是卡在CPU 記憶體不夠 當時單核+768M
B 常常跑到熱當 最後只好縮減參數跑
2006做的 老師也不會用XD
35
首Po雖然我小時候就聽過ai了 但那時候也沒像現在這樣 生成式XXX 百花齊放 給個一句白話文 只要不是文盲會下指令 都會用…
因為硬體普及 成本下降 開發車欠體的人 就變多惹 人多有白痴2
其實就三十年前的演算法,電子炒過一堆領域後換它,有人說只是聊天那就太膚淺了,最近一次的突破是底特律警方利用AI辨識抓通緝犯,結果錯抓到個孕婦還是個尼哥,被求償一億美元,就技術人員的說法,這類演算法對有色人種很容易誤判,嗯,翻轉時代來臨了。 ※ 引述《soulmola (肥宅的教育不能等)》之銘言: : 雖然我小時候就聽過ai了 : 但那時候也沒像現在這樣 : 生成式XXX 百花齊放![Re: [問卦] 為什麼AI 這2-3年進步這麼神速? Re: [問卦] 為什麼AI 這2-3年進步這麼神速?](https://i.imgur.com/TaTyKRKb.jpg)
11
阿肥外商碼農阿肥啦! 先說一下,你小時候聽到的AI這個多半是指符號主義跟控制論這派,這派興起大概就是19 80年左右,主要就是從集合論跟控制論下手,當時的電腦科學家相信只要窮舉人類的邏輯 符號跟搭配控制系統工程就可以達到人工智慧的入口,不過後來發現這種根本無法模擬出 人類的模糊性更糟糕的是隨著系統越來越複雜抽象邏輯會發生衝突等現象,所以符號主義21
我剛好研究所讀資工領域的。 你應該知道在這次AI大模型震撼世人之前,電腦科學界在紅啥嗎?? 就是Big Data,大數據,資料探勘。 但是因為"算力"不足,所以在十年前,幾乎都是關注於儲存與基礎處理而已。 譬如NoSQL數據庫與一些簡單的資料探勘,那個時候SVM分析歸類資料可火的。![Re: [問卦] 為什麼AI 這2-3年進步這麼神速? Re: [問卦] 為什麼AI 這2-3年進步這麼神速?](https://jochen-hoenicke.de/queue/mempool-20201126-eth.png)
2
近期AI成果一個很重要的因素是從 ‘‘有限’’解放到‘’無限‘’ 有了一定程度的‘‘無限’’作為能力 能做到的事顯然就變得強很多 我們可以稍微回顧一下深度學習AI的發展 2012年Nvidia的GPU被用到圖片分類問題上 其實1970年代就已經有相關技術 但是很吃算力 與其讓電腦慢慢學習特徵 不如人工研究怎麼抓特徵1
你電腦電子資訊領域就算硬體軟體再發達再先進 二類組領域還有文組領域的 會認為當你把一疊資料讓電腦去運算 就可以製造出 當你在烹調任何食物的時候 什麼時候要加鹽巴嗎? 什麼時候加味精? 什麼時候加胡椒![Re: [問卦] 為什麼AI 這2-3年進步這麼神速? Re: [問卦] 為什麼AI 這2-3年進步這麼神速?](https://img.youtube.com/vi/biMrHwwsK-M/mqdefault.jpg)
爆
Re: [問題] 繪師有權力禁止別人學習畫風?兩邊都有學一點,試著回一下: 「繪師能不能禁止AI學習他的畫風?」 其實這個問題預設條件就錯了,現行的AI其實追根究柢到最後都是統計技術, 那種「會自己思考」的AI還不存在,可能也還要很久才會出現。 現在所謂的AI技術幾乎都是指深度學習、類神經網路等技術,71
Re: [閒聊] AI畫圖是不是大數據拼圖?只要是深度學習AI,原理都是把圖轉換成矩陣,通過神經網路作back propogation學習特 徵,在整個模型的運算過程中只有矩陣,不存在任何圖像拼接的過程 你認為圖很像,是因為那個tag底下的圖大多有類似特徵,模型通過矩陣學習到這個特徵 當然,也有一些generator的算法是會拿部分來源當輸出,不通過矩陣運算的,怎麼選也 是讓模型自己學,類似概念可以參考pointer network或residual network之類的算法![Re: [閒聊] AI畫圖是不是大數據拼圖? Re: [閒聊] AI畫圖是不是大數據拼圖?](https://i.imgur.com/RWgqfIbb.jpeg)
32
[請益] 成為 AI 工程師的進修方向(代po)(本文作者無帳號,協助在科技和軟體兩板代po ^ ^~) 大家好, 小弟目前在台北某傳產擔任數據分析師,學歷是國立統計所,碩論是做 ML 演算法改良(沒投期刊,我覺得是垃圾),碩班期間有自修 DL。 希望能用 DL 找工作,主力程式為 Python。 目前剛進去公司半年多,主要負責影像辨識的專案,內容是用 Yolo 進行 real time 的瑕疵檢測,專案目前也已經上線了,因此算是有一些實務經驗。23
Re: [請益] 想從零開始轉行當AI軟體工程師大家討論了很多高深的數學,或是頂會。 實際上,我真的很懷疑有多少人真的在業界上搞 AI。 只論台灣吧。首先市場上純研發,需要數學或考績強制發論文的職缺,占不到5%。而且這兩年職缺越來越少。更何況頂會… 台灣業界一年也沒看多少人在發頂會,幾乎沒有吧。就連國際研討會,比例來說也沒看到多少人在發,常常看論文的我都沒搜到台灣業界發的論與。板上動不動就需要數學與改模型架構,真的感受差很大,可能是我看得不夠多? 好啦,如果你在國外大公司當我錯了。的確很多人搞數學,但是人數比例還是超級少。 再來談產品。首先論產品的效果,資料面就決定結果論了。實際工作時,有大部份的時間在處理資料。然後還是要花很多時間做特徵工程。當然特徵工程你可以搞很深的數學啦,但是可能需求方,多給你一個有用的資料特徵,都比搞數學重要。1X
Re: [新聞] ChatGPT的「幻覺」根本無法解我快笑死了 語言學教授連發言資格都沒有,你懂AI嗎? AI 的模型有幾種 ? 光是目前就有數10種以上 例如最早的 線性迴歸 決策樹 分群 分類 類神經網路![Re: [新聞] ChatGPT的「幻覺」根本無法解 Re: [新聞] ChatGPT的「幻覺」根本無法解](https://i.imgur.com/GtDcZYBb.jpg)
3
Re: [心得] 百聞不如一見的人工智慧學校首先,那種比較像進階的電腦補習班。如果研究機器學習,深度學 習,那個分支太多,實在不是一個短短的補習就可以搞定。比如我 自己專注在電腦視覺跟AOI,所以我看的paper也就跟其相關,其他 的我也只能放棄。 再者,這基本上就是教你怎樣用現有框架去完成老闆交付的任務,3
[AI] NVIDIA 繪圖研究推動生成式 AI 前瞻發展NVIDIA 繪圖研究推動生成式 AI 前瞻發展 預定八月在電腦繪圖大會 SIGGRAPH 發表相關 論文 (GNN 記者 紙箱 報導) 2023-05-03 18:21:50 #3d![[AI] NVIDIA 繪圖研究推動生成式 AI 前瞻發展 [AI] NVIDIA 繪圖研究推動生成式 AI 前瞻發展](https://i.imgur.com/X3X7vRBb.png)
X
Re: [爆卦] DeepMind的AlphaCode AI也會寫程式來, 我116驗算法電碩 簡單回答鄉民問題, 鄉民:ai只是中等工程師。 答:沒錯,但這個問題分兩層面講,