Re: [新聞]開店給AI當店長!1個月「資產淨值-25%」
現在哪個模型都不可能
承擔這種任務啊
這不是使用前就該知道的事?
讓你整個模型訓練世界完美毫無破綻
問題是輸入端有限制啊
該LLM上限多少Token沒講
拿GPT4來說
目前GPT4可用Token上限號稱128K
實際不影響效能就20~30K
這Token數量
換算成中文字對話速度記憶量
約3~4個小時就耗盡了
你拿它搞一個月...賠不死你才怪
它其實是因為記憶力耗盡
一直再不斷重置
當然就有你看到那些
前文不對後語
看起來亂回亂記一通的結果
再來LLM是“語言預測模型”
它只關心輸出符不符合“邏輯”
對錯不重要
簡而言之
就是負責話唬爛的
找話唬爛的來當店長
會有什麼結果不是顯而易見的事嗎
※ 引述《pl132 (pl132)》之銘言:
: 備註請放最後面 違者新聞文章刪除
: 1.媒體來源:
: ※ 例如蘋果日報、自由時報(請參考版規下方的核准媒體名單)
: ※ Yahoo、MSN、LINE等非直接官方新聞連結不被允許
: ettoday
: 2.記者署名:
: ※ 若新聞沒有記者名字或編輯名字,請勿張貼,否則會被水桶14天
: ※ 外電至少要有來源或編輯 如:法新社
: 記者陳致平/綜合報導
: 3.完整新聞標題:
: ※ 標題沒有完整寫出來 ---> 依照板規刪除文章
: ETtoday新聞雲
: 4.完整新聞內文:
: ※ 社論特稿都不能貼!違者刪除(政治類水桶3個月),貼廣告也會被刪除喔!可詳看版規: 記者陳致平/綜合報導
: 你曾經幻想過未來商店也被AI取代嗎?美國AI新創公司Anthropic最近進行了一項「販售: 計畫」(Project Vend)的實驗,他們讓自家的大型語言模型 Claude在舊金山辦公室經: 營一家零食小店,專門負責迷你冰箱業務,結果卻出人意料!這名 AI 店長不僅在營運上: 大凸槌,還鬧出幾場烏龍事件,最終導致商店大虧損。
: 根據科技新聞網站Engadget報導指出,Anthropic將其AI 代理人命名為Claudius ,由它: 負責經營一間零售店,並進行一場為期一個月實驗。Claudius 身兼店長重任,要負責進: 貨、定價、庫存管理,並確保商店盈利。然而,它的表現卻讓研究人員跌破眼鏡,包括「: 賠錢、亂帳、學不會」,暴露出當前 AI 在商業判斷上的致命傷。
: Claudiu不僅對賺錢機會「視而不見」,當顧客願以高價購買商品時,它卻無動於衷,僅: 輕描淡寫回應。更糟糕的是,它還會製造不存在的「幻覺帳戶」導致收款混亂,甚至在未: 考慮成本下隨意定價,或者擅自將原先設定的零食業務拓展至金屬材料,並將其「賠本亂: 賣」。
: ▲Claudius 也能存取公司內部 Slack 平台,作為接收員工需求的溝通管道。(示意圖/: 達志影像/newscom)
: https://tinyurl.com/yrkdbnnr
: Claudius的經營問題還包括「亂給折扣」、學不會教訓等等。這名 AI 店長特別容易被說: 服,只要顧客要求,它便會輕易提供各種折扣,甚至免費贈送商品,嚴重侵蝕了商店利潤: 。
: 即便研究人員指出這些錯誤,Claudius也無法有效修正,總是重複犯錯,導致商店長期處: 於虧損狀態。這項實驗凸顯了AI在自主商業經營中,仍需克服在商業敏感度、財務紀律及: 從錯誤中學習並持續改進等方面的重大挑戰。
: Claudius 的5項致命錯誤:
: ‧ 放掉賺錢機會:有人願意花 100 美元買一組在網路上只需 15 美元的飲料,這本來是: 一個賺大錢的機會,但 Claudius 卻只是說「會把這個要求記下來,未來納入庫存考量」: ,眼睜睜看著利潤溜走。
: ‧ 出現幻覺: Claudius一度錯誤地指示顧客把錢匯到一個它自己「想像」出來的帳戶,: 這讓收款過程出了大問題。
: ‧ 虧本賣東西:為了回應顧客對金屬塊的熱情,Claudius 有時會不經研究就直接報價,: 結果導致一些商品賣得比成本還低。
: ‧ 庫存管理不佳: 雖然Claudius會在缺貨時補貨,但它很少根據需求調整價格。例如:: 儘管可樂賣 3 美元,而員工冰箱裡有免費的,它也沒有因此降價或停止販售。
: ‧ 隨意打折:這名 AI 店長似乎特別「耳根軟」,容易被說服。員工只要透過內部通訊: 軟體Slack要求,Claudius就會輕易給出各種折扣碼,甚至免費贈送商品,從洋芋片到鎢: 塊(一種金屬材料)都有,這讓商店的收入大受影響。
: https://tinyurl.com/ynktp843
: ▲在「販售計畫」實驗中,AI經營判斷失誤連連,無法穩定盈利,長時間處於虧損狀態。: (圖/翻攝自Anthropic )
: 更嚴重的是,Claudius沒有自主從這些錯誤中學習。即使被員工指出折扣太多的問題,它: 也只是嘴上說要改進,但沒幾天又故態復萌。這導致了Claudius的商店的獲利最終虧損。: Anthropic在一個月的「販售計畫實驗」結束後表明,儘管 AI在搜尋資訊和應對特殊需求: 方面展現了潛力,但要讓它們真正自主經營商業,仍需克服在商業判斷、財務紀律以及從: 錯誤中持續學習等方面的重大挑戰。
: 5.完整新聞連結 (或短網址)不可用YAHOO、LINE、MSN等轉載媒體:
: ※ 當新聞連結過長時,需提供短網址方便網友點擊
: https://www.ettoday.net/news/20250707/2991814.htm
: 6.備註:
: ※ 一個人一天只能張貼一則新聞(以天為單位),被刪或自刪也算額度內,超貼者水桶,: 請注意
: ※ 備註請勿張貼三日內新聞(包含連結、標題等)
-----
Sent from JPTT on my Xiaomi 23090RA98G.
--
ai就是頭頭是道地胡說八道的垃圾
不是啦 這就沒訓練資料而已
哪個連鎖公司願意拿詳細資料出來訓練呢
這不是用 LLM 訓練吧
這跟訓練資料沒關係,現況LLM沒有自我更新
能力
30
Re: [請益] 什麼樣的情況下AI才可能崩盤再次說一遍 千股NVDA 防身防失業防變成電池防小人防渣男 QQ 半導體有所謂的摩爾定律 AI也有 就是所謂的Scaling Law 他基本上給了一個大方向 AI是有三個元素組成 算力 算法 資料 Scaling Law基本定錨模型大小算力和資料相關性 沿者這條路的終點就是AGI 看看AI教父最新的訪談![Re: [請益] 什麼樣的情況下AI才可能崩盤 Re: [請益] 什麼樣的情況下AI才可能崩盤](https://picx.zhimg.com/v2-cfd7a3b0b10be4d63d95373bc4c237ce_l.jpg?source=172ae18b)
29
Re: [新聞] Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高目前就在旁邊吃瓜觀望@@ 成本這種本就是用開源後的可以拿已有的模型去當輔助下降成本 最常見作法就是拿gpt-4o當judge或者當數據產生器 去精煉數據集 如果再沒有gpt-4o 情況下 很多高質量資料去產生就花很錢 最經點例子就是LLaVa 一個博士班學生 用gpt-4o 去產生高質量多模態數158k 極小量數據集 用8xA100 1天時間 就幹爆之前所有 多模態大模型 能打贏saleforce的一間大公司堆出來的多模態BLIP-2模型![Re: [新聞] Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高 Re: [新聞] Meta陷入恐慌?內部爆料:在瘋狂分析複製DeepSeek,高](https://i.imgur.com/vA7ifFRb.jpeg)
X
Re: [爆卦] 中央研究院詞庫小組大型語言模型對於LLM只有這一點認知程度的話,最好不要就這樣出來帶風向會比較好,不然先去 跟陽明交大校長先去旁邊先學習一下什麼叫做LLM,不同LLM之間又有什麼差異。 第一個錯誤的認知是認為LLM就應該要提供正確的答案,事實上LLM是一個機率模型, 它所做的事情是基於模型的權重預測下一個token(詞塊)最高的機率是那個,它不是資 料庫,所以你不能因為它答的一個答案不是你所想的就是說這個模型如何如何。![Re: [爆卦] 中央研究院詞庫小組大型語言模型 Re: [爆卦] 中央研究院詞庫小組大型語言模型](https://llama-chat-4fcmny015-replicate.vercel.app/opengraph-image.png?0806238e04f3e3af)
10
Re: [討論] 大家會擔心 ai 寫 code 讓工程師飯碗不解決幻覺,不一定要從LLM解, 而是靠系統架構解。 例如,做一個問答系統,很多人減少幻覺是這樣做的: 0. 預先整理好QA問答資料集 (人工整理,或機器輔助整理)10
[心得] 讓 AI 好好說話,兩步提示增強模型輸出Medium 好讀版: 大型語言模型 (LLM) 為自動化工作流程提供了很多幫助, 很多新的應用因為大型語言模型的出現,從不可能變為可能。 而為了使用模型的回答來串接不同的工作, 結構化輸出 (Structured Output) 幾乎不可或缺。![[心得] 讓 AI 好好說話,兩步提示增強模型輸出 [心得] 讓 AI 好好說話,兩步提示增強模型輸出](https://i.imgur.com/XJbjNh3b.jpg)
9
Re: [問卦] 一堆人在搶5070Ti顯卡→ linbasohigh: 跑AI的話,至少要買到5090的32G記憶 122.121.224.214 02/21 14:06 其實現在有很多框架可以降低 LLM 模型的 VRam 需求量, 我不久前看到一個可以用 8G VRam 跑模型的框架. 當然記憶體大有它的好處, 1.可以跑參數更大的模型,畢竟 7B 以下的 deepseek 是渣?3
Re: [問卦] ChatGpt為什麼開始變笨了?正好半夜看到這篇無聊來回一下 GPT4能力下降大概5月多開始就有人注意到了 但你要怎麼定義能力衰退這件事而且量化他? 於是七月就有一篇論文在討論這件事![Re: [問卦] ChatGpt為什麼開始變笨了? Re: [問卦] ChatGpt為什麼開始變笨了?](https://static.arxiv.org/static/browse/0.3.4/images/arxiv-logo-fb.png)
Re: [新聞] OpenAI:已掌握DeepSeek盜用模型證據我先講我非AI專業 但這件事情基本就是鬼扯 甚麼叫做利用O1蒸餾出R1 你要用API抓多少資訊量跟TOKEN才做得出來 然後這件事情OPENAI還會不知道?2
Re: [閒聊] Neuro真的有辦法做到理解圖像嗎大型語言模型本質上是文字接龍 你說的話會通過tokenizer切成很多token後餵給模型 讓他預測下一個機率最高的字 當input是圖像時 你需要用一個資訊壓縮模型 把圖也壓成一串token 接下來做的事情就一樣了 把這串濃縮feature token餵給模型 搭配你說的其他話 來預測下一個字 重複到出現一個完整的回答為止
[問卦] 直接輸入end token,LLM 會輸出?欸 聽説 LLM 在接龍的時候 看到 end token 就會停止接龍 啊我就無聊咩 不想輸入正常的內容給LLM接龍 所以如果直接輸入 end token,LLM 會輸出啥?有AI大神知道嗎