AI Agent 會取代人類還是 Workflow tool 嗎?
AI Agent 熱潮正起,本篇深入探討 AI Agent 的最新思考,以及人與 AI 的分工如何精準切分,幫助你掌握未來工作趨勢。
卷首語:
帥吧這個封面圖,讓 AI 領導者管理其它不同的 AI 員工,我最近在做的 Agent 團隊。
好久不見朋友們,跟大家報告我的近況!
四月底剛離職
六月底開新公司 Ordilux
五月到八月把線上課程錄製的差不多
開了一個知識倉鼠社群,有興趣的朋友可以 ++,分享一些日常看到不錯的內容跟思考
正文開始前,跟大家介紹新公司品牌 Ordilux

公司品牌叫 Ordilux,公司願景是『為企業導入 AI 員工』,過程包含:
解決大量重複性任務
優化並建立可重複流程
導入專屬 Agent,能處理各種任務(封面圖呈現一位人工智慧 Leader 管理其他人工智慧員工的創新概念)。
在這個人工智慧快速演進的時代,它將取代越來越多低效勞力,讓人們擺脫傳統 SaaS 軟體的繁瑣適應。
Ordilux 提供的首要價值是 Taas(任務即服務,Task as a Service)。
我們協助企業將工作任務流程化並自動化,讓你專注於最具價值的核心:戰略分析、承擔責任,以及情感溝通。
例如:
數據分析師從海量數據中提煉洞察,而 Ordilux 處理資料整理的瑣碎工作。
老闆針對客戶需求報價,而 Ordilux 簡化繁雜的需求彙整。
電商主管評估成本與收益,而 Ordilux 自動生成每月耗時數天的報表。
一旦基礎任務自動化,我們再建置各種 Agent,讓它們學習並處理更廣泛的需求。
雖然 Agent 技術仍處於火熱發展階段,充滿未知變化,但這正是身處前沿的優勢,我們將帶領企業一同探索科技進步,開創成長與轉型的無限可能。
歡迎聯繫我們 contact@ordiluxcorp.com 一起討論如何為你的企業注入 AI 的力量。
以下文章也是近期對於 Agent 及 Workflow Tool 的一點思考,也從『人的任務』帶入去切,AI 到底影響著人們的哪些工作,正文開始。
任務目標越模糊,Agent 越容易失真
現在市場對 AI Agent 有不實際幻想,期待它能解決所有問題。但現階段仍不可能,原因如下:
定義目標及達成目標的方式,會影響 Agent 如何規劃及調用工具。
LLM 底層是機率性「預測」,而非嚴謹的「邏輯演繹」。因此 LLM 執行任務會產生兩個主要副作用:
每步小偏差 → 多步後累積成重大錯誤
缺乏連貫的因果模型 → 難以在多輪決策任務中維持穩定策略
因為其輸出文字都是來自統計規律的推理,所以在每一個推理的步驟上都可能發生小機率的偏差,這一偏差容易導致在多輪推理後逐漸放大錯誤。
直觀來說,當 Agent 面對明確規範的任務(如程式設計、資料整理)表現穩定,能有效調用工具並規劃步驟。但目標不明、準則模糊或需求曖昧時,會出現「失真」或「目標漂移」的現象:
指令不明確 → Agent 預測目標與真實需求不一致
模糊規則 → 多輪任務規劃、調用外部工具時偏差逐步累積放大
因此,人類的「任務設計」與「目標定義」能力,將成為 LLM Agent 有效運作的關鍵。
LLM 的個案處理經驗弱
搜尋功能讓 LLM 能力大幅提升,但在個案處理上仍相對弱勢,有幾個原因在於:
缺乏經驗性直覺:LLM 依賴統計特徵與語境關聯,遇到訓練數據未涵蓋的情境時只能根據近似特徵「猜測」,無法像專家般連結經驗與推理。
糾錯流程過度線性或盲目:出錯時,Agent 常常會重複「相同」的操作,缺乏跳出既定模式尋找新策略的彈性(例如同樣的 API 回傳錯誤,一直重試參數卻不改其他路徑)。
自我反思能力不足:缺乏元認知能力,無法審視是否理解錯題目、流程是否偏離目標或需要止損,難以主動糾錯或回退。
所以當 LLM 要解決個人或企業內部流程時,極度仰賴過往相似案例和處理經驗。
若不了解公司文化或「潛規則」,它給出的解決方案很容易一看就知道不行。
例如建立績效制度時,若不了解公司側重元老員工、政治關係等潛規則,解決方案就會變成不切實際的理想化建議。
約束越大 LLM 反而越強
看過獵人的朋友都知道,獵人的世界觀有個設定是,為自己立下越大的限制及誓約,能換來的能力越強。
庫拉皮卡就是將能力限制在只能對幻影旅團使用,才能獲得強大的念能力。
LLM 和 Agent 亦然:操作限制越明確、目標越清晰,執行能力越強。但要求完成通用複雜任務時,能力反而越弱。
目前最成功的案例是 Claude Code、Cursor 等程式設計 Agent,原因在於強大約束力:程式環境明確、目標清晰。
並且人在其中扮演著主要駕駛者,儘讓 Agent 作為一名副駕駛。
這點非常重要,就像前面所述,LLM 對於複雜任務的推理容易失真、個案處理經驗薄弱,所以『人的主導』就會非常重要。
Agent 與 Workflow Tool 的關係
在 AI agent 的世界裡,Workflow 就是「能逐步重複執行,並在相同問題下產生一致答案的解題流程。」。
理想狀態下,Agent 不只是機械式執行,而是能自我反思、迭代優化 Workflow,同時維持既定目標和原則。
這樣的 AI 更像會思考、有經驗的人類,而非單純的重複作業機器。
這裡可以用四個階段來表示:
第一階段
AI 代理人(agent)必須先「把任務穩穩定定做好」。也就是說,每次做事結果都一樣,不會亂跑,也不會出錯,像是做家事的流程表,每一步照做都能完成乾淨,不會失常。第二階段
AI 開始有「反省」能力。它不只機械式執行,還會檢查自己做得夠不夠好、有沒有什麼地方可以改進 — 像是人做完事情會回想:「我那一步是不是可以更快?有地方是不是多做了?」第三階段
AI 能在「不偏離主要目標」的前提下,自己想辦法優化整套流程,而且還可以跟人解釋為什麼要這樣改。例如:它幫你洗衣服,本來分 5 步,現在發現 3 步也能洗乾淨又更省水,還會跟你說明:「我把第 2 步和第 4 步合併了。」第四階段
AI 已經能理解不同場景、限制下目標的「變化型」。比如今天家裡突然停水,但 AI 還是知道要用有限資源把衣服洗乾淨,會用新的方式達成相同目標,懂得變通而且能應對真實世界的狀況。
一眼好懂就是:
最開始它只會照做(有「準確穩定」的能力),
漸漸會自我檢查、主動改進流程,
然後還能解釋「怎麼變得更有效率」、
最終成長到能靈活應對新情況、資源有限等挑戰。
這樣的 Agent,就已經不只是「照表操課」的機器,而是真的像一個會工作、會思考、會解釋、會進步的聰明助手了!才會慢慢的越來越像人。
人類要透過建構 Workflow 把明確的流程自動化,並透過 Agent 來迭代、使用及創造這些 Workflow。
面對複雜問題或是沒有單一解決方案時,人類就要作為主駕駛來操作我們的 Agent 達成目標,並在每一次達成目標的過程中,與 Agent 共同反思執行目標的方法及流程(Workflow)的迭代
因為有『記憶』,長時間下來 Agent 會在跟人類的協作過程中懂的 SOP 的目標約束及執行的原則,然後更好的創造標準流程及執行方法。
人要做什麼?
隨著 AI 能力越來越強,『寫作』這件事已經逐漸超越人類水平了。
據好萊塢一位大師級編劇 Paul Schrader 所說:
我才剛意識到 AI 比我還聰明。它有更好的點子,也能更有效率地執行。這是一個存在主義的時刻,就像 Kasparov 在 1997 年發現 Deep Blue 即將在西洋棋上擊敗他時的心情一樣。
故事編寫、腳本撰寫有大量公式和素材可循,AI 能快速趕上人類。因此 AI 能力將在有明確經驗流程的領域快速成長。
不僅寫作,AI 在醫療診斷、心理諮商、溝通技巧等領域都逐漸接近人類水準,因此我們面臨一個核心問題:
人的價值是什麼?
重新解構的任務
人們常用「職業替代」來看待 AI 變革,這種觀點不夠精確,還會引發不必要的恐慌。
AI 帶來的或許不是取代,而是任務重構。
個人工作價值可分為四類:
規則型任務:明確規則、標準化流程,如銀行存款資訊輸入、會計發票數字登錄。
策略型任務:整合多源資訊、權衡優先順序、臨場判斷或運用隱性知識,如策略規劃、罕見疾病診斷。
情感溝通任務:共情溝通、客戶安撫、談判協商等。
承擔責任:人類應負的責任。
因此,AI 執行規則型任務,人類則整合 AI 能力創造價值,整合面向包括:
AI 流程組合與系統架構師
負責設計完整解決方案、調度不同 AI 模組,搭建自動化流程,確保各任務環節精確協同。任務包括判斷應用哪些 AI、如何分工協作、如何設計 prompt、整合/轉換資料等等。
「組合」、「與 AI 互動」及「設計有效 prompt、workflow」本質上為同一鏈路,都是促使 AI 能發揮最大效益的架構工作。
AI 輸出監督與高階決策者
這類人才能駕馭「人類經驗、判斷、道德、隱性知識」等關鍵能力,填補自動化系統與實際需求的最後鴻溝,同時具備產業 Know-how 與全面的風險意識。
所以,高階人才如何投資未來?
專精「任務整合」或深耕無法被量化的領域?當提問能力遠比解題能力更稀缺時,什麼才是新時代最關鍵的專業能力與判斷智慧?
雖然說 AI 的進步讓大多數解題、知識、甚至創造性成果都進入「不再稀缺」的階段,連情感與說服力都能被模擬。
但「人」永遠不可替代的,是兩項本質:
每個人都是獨一無二、有限且會老去的存在,「人性」因此極其寶貴,這是無論 AI 怎麼複製都無法取代的社會/文化/生命價值。
真實世界中的決策,那些由主觀經驗、個人情境、獨到判斷、即時心境等構成的選擇,是 AI 永遠無法完全預測、取代、承擔的。
人類的「主動選擇」賦予生活、創造、合作以及責任的本質意義。
AI 只能輔助、顯示數據與可能性,但最終的拍板權、願意冒風險的主體、以及為選擇負責的存在,永遠只能是「人」。
從「替代焦慮」到「協作共生」
AI Agent 並非要完全取代人類,而是重新定義了人機協作的邊界。當我們理解 LLM 的本質是機率性預測而非嚴謹邏輯時,就能更清楚地認知:明確的任務邊界與人類主導,才是 AI Agent 發揮最大效益的關鍵。
而其中最重要的三個核心洞察:
約束即力量:就像獵人的誓約設定,AI Agent 在明確約束下表現最佳。成功案例如 Claude Code、Cursor 都證實了這點。
人類是不可或缺的主駕駛:面對複雜任務時,AI 的錯誤會累積放大,人類的經驗判斷、即時糾錯和策略調整成為關鍵。
價值重構而非職業消失:AI 承接規則型任務,人類則專注於策略整合、情感溝通和承擔責任,這是互補而非競爭關係。
AI 時代最珍貴的不是技術本身,而是人類的主動選擇權和為選擇承擔責任的勇氣。當 AI 能模擬大部分技能時,真正無法被複製的是每個人獨特的生命經驗、價值判斷和願意為決策負責的主體性。
這不是人類的退場,而是重新找到自己在智慧時代中最核心、最不可替代的位置。








真的是好文章,想要分享但是發現您沒有張貼在FB / LinkedIn,請問這樣我還能分享嗎? (著名李元魁文章)
我就是那種任務釐清很P 很不J 的人,所以我會困惑於任務流程之中。