上個月,一個做製造業的朋友問我:「我們公司想導入 AI Agent,你覺得該用哪家的?」

我反問他:「你要的是一個會自動跑報表的工具,還是一個能自己判斷產線異常然後決定怎麼處理的系統?」

他愣了一下:「這不是同一件事嗎?」

不是。而且搞混這兩件事的代價很高。

同一個字,兩種完全不同的東西

「Agent」這個詞在 2024 年被用到爛掉。每家 AI 公司都在賣 Agent,但他們賣的東西差異大到離譜。

AI Agents(代理人) 是任務導向的自動化工具。你給它明確的目標、定義好的工具、清晰的規則,它幫你執行。醫療輔助決策系統根據症狀比對資料庫給出建議、工業控制系統依據感測器數據調整參數、自動化測試腳本按照預設流程跑測試——這些都是 AI Agents。它們的核心價值是可靠性:在定義好的邊界內,反覆執行,不出意外。

Agentic AI(能動型 AI) 是另一回事。它不只執行,它會規劃、會拆解問題、會在執行過程中根據新資訊調整策略。你丟給它一個開放式任務——「幫我研究這個市場的進入策略」——它會自己決定要搜集哪些資料、怎麼分析、什麼時候該停下來問你意見。它的核心價值是能動性:面對不確定性時,能自主做出合理的下一步。

兩者的差別,用一個比喻來說:AI Agent 是一個優秀的執行者,你告訴它「去買咖啡」,它會精確地完成任務。Agentic AI 更像一個初級夥伴,你說「下午的會議需要提神」,它會自己判斷該買咖啡、泡茶、還是建議你先睡十五分鐘。

為什麼這個區分很重要

這不是學術上的咬文嚼字。選錯架構,整個系統從根壞起。

我在建自動發文管線的時候就踩過這個坑。一開始我把它設計成 Agentic 風格——讓系統自己判斷什麼時候該發、發什麼內容、用什麼圖。聽起來很酷,但結果是系統三天兩頭做出奇怪的決策:凌晨三點發長文、幫一篇嚴肅的循環經濟文章配了一張色彩繽紛的抽象畫、甚至自作主張改了貼文的 hashtag。

後來我想通了:自動發文不需要能動性,它需要的是可靠性。我把架構改成純 Agent 模式——從 Google Sheet 讀排程、按規則生圖、照時間發送。一切變得穩定。我在〈AI Agent 規劃指引〉裡分享過,Agent 落地的關鍵不是技術能力,是邊界設計。這個教訓的根源就在這裡:你得先搞清楚任務本質上需要的是代理人還是能動夥伴。

反過來也一樣。我的辯論引擎一開始設計成純 Agent:每個模型固定講三輪、固定順序、固定格式。結果辯論品質很差,因為真正的辯論需要模型根據對方的論點調整策略。後來我加入了能動性設計——讓模型可以選擇反駁、追問、或轉換論述角度——辯論品質才跳了一個層級。

規則很簡單:任務邊界明確、輸出可預測 → Agent。任務開放、需要動態判斷 → Agentic。 混用必出事。

能動性的代價

Agentic AI 強大,但自由的代價是不確定性。而且這種不確定性跟傳統軟體 bug 不一樣——它不是「壞了」,而是「做了一個你沒預期到的合理決策」。

幻覺(Hallucination) 在能動型系統裡特別危險。一般 chatbot 產生幻覺,頂多給你一個錯誤答案。但 Agentic AI 會根據那個幻覺繼續做下一步——用一個不存在的 API 端點去發送請求、引用一篇不存在的論文來支持它的分析、基於錯誤的數據做出策略建議。錯誤會滾雪球。

任務崩潰(Task Collapse) 是另一個特有問題。能動型系統在執行多步驟任務時,可能在第七步突然忘記第三步的結論,或者在子任務之間的切換中丟失上下文。我在跑辯論引擎長對話模式時就遇過:到了第四輪,模型開始重複第二輪的論點,完全忘了中間有人反駁過。長鏈推理的脆弱性,到目前為止還沒有完美的解法。

責任邊界(Accountability) 最棘手。當系統自主決策,出錯時誰來負責?如果一個 Agentic AI 在金融交易中做了一個「合理但虧損」的決策,是開發者的責任、使用者的責任、還是模型的責任?這個問題目前在法律和倫理層面都還沒有共識。

我的實務做法是加入我稱之為「韁繩設計」的機制:讓系統有能動性,但在關鍵決策點設硬性檢查門檻。比如辯論引擎可以自由選擇論述角度,但輪數有硬上限;能動分析可以自主搜集資料,但最終建議必須經過人類確認才能執行。自由但不失控。

市場正在進入轉折期

從純工具到能動夥伴,這個演化不只是技術升級。它改變了人跟 AI 的協作關係。

過去,你用 AI 工具的方式跟用 Excel 差不多——輸入、處理、輸出。現在,能動型 AI 會回嘴、會提問、會說「我覺得你這個方向可能有問題」。這需要使用者具備一種新能力:跟 AI 協商的能力。不只是下指令,而是判斷它的建議是否合理、在什麼時候該信任它、什麼時候該覆蓋它的決策。

我自己的經驗是,跟能動型 AI 協作最大的心智轉換是接受「它會犯錯但整體更好」。就像帶一個聰明但經驗不足的新人——你不會因為他偶爾判斷失誤就不讓他做事,而是設計一個容錯的工作流程,讓他在犯錯中成長,同時確保錯誤不會造成不可逆的損害。

這跟我在〈Code is Cheap:從 Vibe Coding 到 CLAWS〉裡談的觀點一致:在後程式碼時代,真正的核心能力不是寫程式,而是架構設計和品味判斷。同樣的,在能動智能體的時代,核心能力不是操作 AI,而是設計人機協作的架構——什麼該自動化、什麼該保留人類判斷、中間怎麼銜接。

選擇的藝術

回到我朋友的問題。他最後沒有「導入 AI Agent」。他做的是更根本的事:先盤點公司裡哪些流程適合代理人(明確、重複、可預測),哪些問題需要能動夥伴(開放、動態、需要判斷),然後針對不同需求選擇不同架構。

這聽起來不夠酷炫,不像「全面 AI 轉型」那麼有話題性。但這是對的做法。

能動智能體正在崛起,這個方向不會逆轉。但崛起不代表所有場景都需要能動性。最好的系統設計,往往是在對的地方用 Agent 的可靠性,在對的地方釋放 Agentic 的能動性——然後在兩者之間,設計精準的韁繩。

工具跟夥伴不是高低之分。是適配之分。搞清楚你面對的是哪一種問題,答案就出來了。