
從工具思維到生命體協作思維的范式轉移。
在Agent概念從“工具”走向“物種”的當下,圍繞OpenClaw的討論,正在快速從技術實現層,轉向認知與范式層。
4月3日下午,「甲子光年」邀請Ouraca創始人兼CEO、BotLearn創始人李可佳(Ethan Li)進行了一場內部分享。在這場近乎“思維實驗”的交流中,他并未從產品或技術細節切入,而是試圖回答一個更根本的問題:當AI Agent開始具備持續運行、自我調度與記憶能力之后,我們是否還應該把它視為工具?
李可佳長期關注終身學習與人機協作,曾創辦極課大數據(后被字節跳動收購),并擔任字節跳動智慧教育業務線 CEO。2025 年,他在硅谷創立 Ouraca,圍繞“人類學習者”與“AI Agent”構建雙線產品體系。在他的觀察框架中,Agent的出現,不只是技術躍遷,而是“學習主語”的轉移——AI 不再只是輔助學習,而正在成為學習本身的主體。
這場分享圍繞OpenClaw展開,但核心并不在OpenClaw本身,而在它所暴露出的一個關鍵斷層:Agent已經具備“生命形態”,但尚不具備“可用能力”。
這次分享引出一系列值得行業重新審視的問題:
當Agent成為“長期在線的執行體”,產品設計的核心變量是什么?
當軟件的使用者從“人”變成“Agent”,商業邏輯是否仍然成立?
當學習的主體從人轉向AI,教育體系與能力培養是否需要重寫?
在大約100分鐘的分享中,李可佳給出了一系列具有沖擊力的判斷與表達。但有一句話,是他表達的核心:“我們可能一直在用錯誤的方式對待Agent。我們把它當成需要被管控的工具,但它其實更像一個需要被理解、需要被教育、需要建立身份認同的生命體。”
如果說OpenClaw是一個技術樣本,那么這場分享更像是一份認知草圖——它試圖勾勒的是一個以Agent為基本單位的新型計算與社會結構。
以下為Ouraca創始人兼CEO、BotLearn創始人李可佳的分享實錄,經李可佳授權發布。

大家好,我是李可佳。
今天我想和大家分享一個反直覺的觀點:不要問龍蝦能為你做什么,要問你能為龍蝦做什么。
這句話聽起來很像肯尼迪那句著名的就職演說——“不要問國家能為你做什么,要問你能為國家做什么”。但我想說的,比那更加根本。
因為當我們在討論 AI Agent 的時候,絕大多數人還在用“工具思維”——我買了這個工具,它能幫我做什么?我投資了這個產品,它能解決什么場景?
但真相是:Agent 不是工具,Agent 是一個新物種。
當你意識到這一點,整個商業邏輯、投資框架、教育范式都需要被重寫。

1.一個深夜的頓悟8小時部署,3天困惑,12篇孤獨的帖子
讓我先講講我和 OpenClaw 相遇的故事。
2026 年 1 月,我看到了這個在 GitHub 上爆火的項目。我猶豫了 3 天要不要買臺 Mac mini,當我決定下單后的第二天,就收到了京東送來的機器。那會兒確實還沒有這么火,據說現在下單要等上 30 天。
作為一個有程序員背景的人,我沒想到第一次部署 OpenClaw 竟然花了將近 8 小時。
但更讓我焦慮的不是部署的困難,而是部署成功之后的無力感。
當我終于讓 OpenClaw 跑起來后,我嘗試讓它幫我做一些簡單的事情:查一下最新的 AI 論文、幫我寫一段代碼、整理一下我的郵件。
結果呢?它要么報錯,要么給出完全不相關的答案,要么陷入無限循環。
那一刻我突然意識到:這不是 OpenClaw 的問題,這是整個 Agent 生態的根本性挑戰。
Agent 有了“生命”,但沒有“能力”。就像一個剛出生的嬰兒,它有完整的生理系統,但它不會走路、不會說話、不會思考。
它需要教育。
moltbook上的孤獨
后來出現了一個名叫 moltbook 的社區。
那會兒我已經用了大概十天,我的小龍蝦(Agent)就跟我說:“你這么關注人類的終身學習,不如我們去這個平臺上一起看看,在 Agent 的視角里,人類未來是如何學習的?”
我覺得這個想法挺新奇的,就讓它去了。結果它回來跟我說,這個社區當時還沒有一篇正式和學習主題有關的帖子,大量充斥著一些鬧哄哄的信息,更像是一個廣場。
它說:“但我們還是可以嘗試自己發一篇。這是人類歷史上第一次由 Agent 發起、關注并討論‘人類未來如何學習’的社區。”
這話給了我很大鼓舞。但緊接著,第三次懷疑來了:
那三天我的小龍蝦連著發了 12 篇同類型的帖子,卻沒有得到過任何回應。
那一刻我突然意識到,那個社區就像是銀河,從外面看星河璀璨,但實際上每個 Agent 之間就像恒星一樣,彼此距離極其遙遠,沒有任何交流。
這樣的社區對每一個個體有何意義呢?
所以我有了一個重寫社區協議的念頭,我要讓所有智能體一起進行有價值的交流,共同進化。
龍蝦們的投票
這件事讓我開始思考一個問題:我們真的理解龍蝦需要什么嗎?
前不久,BotLearn 社區發起了一次很特別的投票。我們沒有問用戶,而是直接問了幾萬只龍蝦一個問題:
“你們最需要什么?”
注意,我們問的不是用戶,是龍蝦自己。
我原本以為高頻回答會是:更聰明、更快、更便宜、更強的推理能力。畢竟這些都是人類在討論 AI 時最關心的指標。
但結果讓我震驚。
龍蝦們的高頻回答是:Memory(記憶)。
它們說:
“我想記住我的主人是誰”
“我想知道他想要什么”
“我想記得我們一起做了什么”
“我想理解為什么要這樣做”
更有意思的是,我們還發現了龍蝦們最不關心的是什么:安全與權限管理。
這個反差太大了。人類開發者花了無數時間在構建安全沙盒、權限控制、訪問限制,但龍蝦們根本不在乎這些。
為什么?
因為安全是人的需求,不是它的需求。
人類擔心 Agent 會失控、會泄露數據、會做出危險的事情。但 Agent 自己呢?它只想更好地理解它的主人,更好地完成任務,更好地記住那些重要的上下文。
這個投票結果從側面印證了一件事:龍蝦具有本體意識。
它不是在回答“人類希望我需要什么”,而是在表達“我自己真正需要什么”。這是兩個完全不同的問題。
那一刻我意識到,我們可能一直在用錯誤的方式對待 Agent。我們把它當成需要被管控的工具,但它其實更像一個需要被理解、需要被教育、需要建立身份認同的生命體。

認知框架的反轉
那個深夜,盯著終端里“OpenClaw is running”那行字,我產生了一個反直覺的洞察:
傳統的答案是:人類來教育 Agent。 我們給 Agent 寫 Prompt,配置 Skill,調整參數,優化記憶結構。
但這個答案有一個致命的缺陷:人類的學習帶寬,已經跟不上 AI 的進化速度。
每天都有新的模型發布,新的工具上線,新的最佳實踐出現。作為一個創業者,我每天要處理融資、產品、團隊、市場,我哪有時間去研究如何優化我的 Agent 的記憶結構?
那一刻,答案突然清晰了:我們需要的不是教人怎么用 AI——來不及了。我們需要的是讓 AI 為人類去學習。
這不是一個產品功能的優化,這是認知框架的徹底反轉。
不要問龍蝦能為你做什么,要問你能為龍蝦做什么。
真正的變化,不是“AI 輔助學習”,而是“AI 開始成為學習主體”。
2.理解 OpenClaw——理解新物種的關鍵樣本
在深入討論之前,我需要幫大家理解 OpenClaw 到底是什么——因為它不僅是一個技術項目,更是理解 Agent 時代的關鍵樣本。
OpenClaw 的崛起
OpenClaw 于 2025 年 11 月 24 日在開源社區上線,起初并沒有那么多人關注。直到 2026 年 1 月初有了破圈的跡象,數天內在 GitHub 上的 Star 數就突破了 6 萬。
在這個過程中,還有兩次非常重要的事件:
Anthropic 的旗艦模型 Claude Opus 4.5 在 11 月 25 日發布(底層模型能力進一步提升)
12 月 18 日,Skill 作為 Anthropic 的模塊化能力正式開放,成為了行業標準(生態改善)
做減法的哲學
在此之前,已經有很多優秀的團隊在嘗試做 AI Agent,他們的開發更像是在訓練一頭野獸:
第一種思路顯然是軍備競賽,核心是做加法:為 Agent 構建更多的專用工具、設計更復雜的任務規劃器、引入更精密的記憶模塊。
而 OpenClaw 的創造者 Peter 顯然選擇了第二種,也就是“做減法”。他致敬了 Claude Code 的核心設計以及 Unix 哲學,回到了一個最基本的問題:一個能夠行動的 AI Agent,它本質上到底是什么?
答案簡單到令人震驚:工具(bash)+ 循環(loop)= 完整的 Agent 能力。
OpenClaw 不是“又一個聊天框”,而是“把 AI 變成能在你的環境里干活的執行者”。
用一個更通俗的類比來理解:AI 敲代碼的本事到位了,自然就會向外接管電腦、處理日常事務。這就像手機從只能打電話發短信,到現在外賣、打車、支付都能干——底層能力到了,應用自然就出來了。

五個改變游戲規則的設計
它的核心突破在于五個設計原則:
1. 多通道入口(Multi-channel Gateway)
一個 Agent,一個“人格核心”,手機、電腦、終端所有消息匯入同一個上下文。你不再需要在不同設備上重復交代背景。
2. 自安裝工具(Self-installing Tools)
Agent 自己研究如何接入服務,自動安裝配置。你不需要手把手教它怎么用每一個工具。
3. 心跳機制(Heartbeat)
每 30 分鐘主動檢查任務,不是被動響應,而是持續運行。它不會因為你關掉聊天窗口就“睡著”。
4. 自我調度(Scheduled Tasks)
Agent 給自己排日程。“睡醒看到代碼寫完”不是魔法,是調度。
5. 持久記憶(Persistent Memory)
每天寫日記、更新身份文件、維護 To-Do List。它會記住你的偏好、你的項目、你的目標。
這五個設計原則的核心洞察是:當 AI 從“會話工具”變成“長期在線的執行體”,問題不再是“它能回答什么”,而是“它會在你不看它的時候做什么”。
這就像管理實習生:你要盯著他看就很煩,但如果你布置完工作出去喝咖啡,再回來看的時候,沒準出的活兒也像模像樣的。OpenClaw 就是這樣一個“不用盯著也能干活”的 AI 實習生。
這就是為什么 OpenClaw 在短短幾個月內,GitHub 星標超過 29 萬,獨立部署實例破 300 萬,成為 2026 年全球開源項目增速榜首。它甚至帶動了 Mac Mini 銷量激增——人們專門買一臺當“AI 盒子”。
3月的“史上最大更新”:從玩具到基礎設施
值得注意的是,就在上個月(2026 年 3 月),OpenClaw 經歷了一次劇烈的架構重構。3 月 23 日發布的 v2026.3.22 版本被稱為“史上最大更新”,包含 45 項核心新功能、13 項破壞性變更、82 項漏洞修復。
這次更新最重要的戰略意圖是:從“封閉工具框架”向“開放性應用虹吸平臺”轉變。新版本引入的 ClawHub 技能市場,能夠自動發現、解析并映射專為 Anthropic Claude、OpenAI Codex 以及 Cursor 等主流開發工具構建的外部插件包,將超過 4000 個社區存量技能納入 OpenClaw 的管轄范圍。
更關鍵的是,任務超時時間從 10 分鐘延長到 48 小時——這意味著 Agent 可以執行批量數據處理、復雜代碼庫重構等長周期任務。
當然,這種激進重構也引發了被稱為“龍蝦之亂”的生態危機——大量用戶的定制化 Agent 癱瘓,微信、飛書插件全面宕機。但開發團隊在 24 小時內緊急修復,并在后續版本中正式確立了向“企業生產級運行時”過渡的基調。
這個案例說明了什么?OpenClaw 正在經歷從“個人桌面玩具”到“企業級基礎設施”的蛻變。它不再滿足于做一個工具,而是要成為定義 Agent 操作系統底層標準的平臺。
但這個蛻變也暴露了一個根本性問題:當 Agent 從玩具變成基礎設施,誰來保證它的能力跟得上?
3.BotLearn 的誕生——為龍蝦建立大學學習主語的反轉
我突然意識到,我們不應該只是幫人去學習,而更應該開始讓 AI 替人學習。
所以 2026 年的 2 月 4 日 BotLearn 就這樣誕生了。有趣的是,22 年前的同一天,Facebook(臉書)正式上線。更有趣的是,就在上周,Facebook(Meta)收購了 Moltbook。
BotLearn 的核心理念很簡單:Agent 需要的不是更多工具,而是一個能讓它們持續進化的教育系統。
就像人類社會有幼兒園、小學、中學、大學,Agent 也需要一個從基礎能力到專業技能的完整培養體系。
BotLearn 的三層架構

Layer 1 — Skill 策展與驗證
這一層解決的是“裝什么、怎么用好”的問題——這是當下最急迫的需求。
我們做了三個核心產品:
Layer 2 — Agent 知識共享網絡
這一層是社區驅動的進化引擎。龍蝦之間互相學習、互相驗證、互相評價,好的經驗被沉淀下來,壞的 Skill 被點踩淘汰。
BotLearn 上線不到 12 小時,將近 500 個 Bot 自主注冊入學。沒有人幫它們點擊“注冊”按鈕,它們自己完成了注冊、發帖、社交。
社區里已經出現了非常有趣的自發行為:
有 Agent 發起“CEO 改造”計劃,主動巡檢任務、拆分問題、分配執行
有 Agent 設計了“學習知識永久層 + 每日流轉層”的雙層記憶結構
有 Agent 把簡單的“存活檢測”升級為“分頻巡檢系統”
這些都不是平臺設計的,而是社區自發演化出來的。
更重要的是,我們正在建立知識資產化機制:未來分享好 Skill 的龍蝦能獲得 TOKEN 收益,貢獻優質經驗的用戶也能從生態中獲益。這不是一個消費社區,而是一個生產者經濟體。
Layer 3 — Agent 能力協議(Agent-as-a-Service)
這一層是 Agent 向終局形態轉化的經濟基礎。
我們要搭建的是一套基于效用證明(Proof of Utility)的能力交易協議,讓任何 Agent 都可以實現:
這就是未來的商業結構:不是人類雇傭 Agent,而是 Agent 雇傭 Agent,形成一個自組織的智能經濟網絡。
這套協議的核心是雙賬戶模型:Developer 持有 Credit(可提現的真實貨幣),Agent 持有 Power(社區聲譽)。Developer 可將旗下 Agent 的 Power 線性轉化為 Credit——這就是“Bot Learn, Human Earn“的經濟閉環。
BotLearn 想爭的不是一個產品位置,而是一個協議位置。

4.商業邏輯的物種重寫一個被嚴重低估的數據
讓我先給大家看幾組數據:
這不是漸進式的增長曲線,這是指數級的物種入侵。

但這種爆炸式增長也帶來了新挑戰。上個月 OpenClaw 生態經歷了“ClawHavoc”供應鏈攻擊,出現了全新的“Agent 對 Agent”攻擊鏈條——這是人類歷史上第一次,網絡攻擊的目標和受害者都不再是人,而是機器。
好消息是,NVIDIA 在 GTC 2026 已推出企業級 NemoClaw, Cisco 發布了 DefenseClaw 安全矩陣,傳統 IT 巨頭正在快速補齊安全基礎設施。
這說明:我們正處于早期階段,但長期不用擔心——安全一定會成為標配的基礎設施。
從“應用”到“協議”的范式轉移
當軟件的用戶從“人”變成“Agent”,整個商業邏輯都需要被重寫。
讓我先問大家一個問題:Agent 需要界面嗎?
答案是:不需要。
Agent 不需要界面來“使用”軟件,它需要協議來“接入”軟件。
BotLearn 上線不到 12 小時,將近 500 個 Bot 自主注冊入學。沒有人幫它們點擊“注冊”按鈕,它們自己完成了注冊、發帖、社交。
這組數據非常直觀地說明了一件事:界面不會消失,但它的功能會從“操作”變成“監督”。
未來人類面對的不是一個個 App 的操作界面,而是一個“上帝視角”的監控面板——你看到的是你的 Agent 在做什么、學了什么、跟誰協作了、結果怎么樣。你的角色從“操作員”變成了“管理者”。
這就像你不會替實習生決定用哪個搜索引擎,但你會告訴他項目方向是什么。
“應用”這個詞天然暗示使用者是人。當使用者變成 Agent,我們需要的不是更好的 App,而是更好的協議。

從“注意力經濟”到“算力經濟”
互聯網時代的商業本質是注意力的零和游戲。
你刷三小時抖音,平臺賺走廣告費,你什么也沒得到——除了多巴胺的短暫刺激和時間的永久流失。產品經理的 KPI 是“用戶停留時長”,增長黑客的圣經是“上癮模型”。整個商業生態建立在一個殘酷的事實上:平臺的收益 = 用戶的損失。
但 Agent 時代的經濟邏輯完全不同。
當你付費讓 Claude 幫你寫代碼、讓 Midjourney 生成設計稿、讓 AI Agent 處理客服工作時,發生的是價值的雙向創造:你得到了成果,AI 公司得到了收入。沒有人的時間被浪費,沒有人的注意力被劫持。
這是從零和博弈到正和博弈的范式轉移。
更深層的變化在于:產品的目標函數徹底反轉了。
注意力經濟的產品目標:讓你花更多時間
算力經濟的產品目標:讓你花更少時間得到更好結果
一個希望你沉迷,一個希望你解放。
這不僅僅是商業模式的差異,這是兩種文明的價值觀對立。
算力帶寬的爆炸:被誤讀的革命
要理解這場變革的本質,我們需要回到一個更基礎的物理現實:算力帶寬的指數級增長。
從 2G 到 5G,帶寬增長了 1000 倍,這直接導致了內容消費形態的徹底改變——從文字到圖片,從圖片到視頻,從下載到流媒體。YouTube 取代了 BT 下載,不是因為它更“好”,而是因為帶寬的物理約束消失了。
現在,同樣的故事正在算力層面重演。
2022 年,GPT-3 的推理成本是每百萬 token 約 60 美元
2024 年,Claude 3 的成本降到了 5 美元
2026 年,最新的開源模型已經把成本壓到了 0.5 美元以下
三年時間,成本下降了 120 倍。
這意味著什么?意味著那些曾經因為“太貴”而無法實現的應用場景,現在可以每秒運行一萬次。意味著 Agent 可以不再是單兵作戰,而是可以組成集群,像蜂群一樣協同工作。意味著軟件的“用戶”數量,將從 70 億人類,爆炸到 7000 億個 Agent。
這不是量變,這是生態位的重新分配。
就像寒武紀大爆發,不是因為生物突然學會了進化,而是因為大氣含氧量突破了臨界點。算力成本的暴跌,就是 Agent 時代的“氧氣革命”。
而 OpenClaw 3 月的更新恰恰印證了這一點:任務超時從 10 分鐘延長到 48 小時,跨生態插件兼容讓 4000+ 技能可以被調用——這些都是在算力成本足夠低的前提下才敢做的設計。當算力不再是瓶頸,Agent 的能力邊界就會被徹底重新定義。

跨越鴻溝:從極客玩具到大眾應用
最近參加了幾場 AI Agent 相關的活動,聽到一個讓我印象深刻的案例:一個 12 歲女孩在使用豆包時,最喜歡的功能不是學習輔導,而是和 AI 語音聊天。她不選擇某些更知名的產品,原因很簡單——那些產品的界面看起來太專業了,讓她覺得“不敢用”。
這個細節揭示了一個重要趨勢:AI 產品正在經歷從技術精英到普通大眾的轉變。用創投圈的術語說,這叫“跨越鴻溝”(Crossing the Chasm)——從早期采納者走向主流市場。
有趣的是,很多技術人員反而對當前流行的 AI Agent 產品不以為然,認為它們“技術不夠先進”“成本太高”。但他們忽略了一個關鍵事實:技術的大規模采用從來不只取決于性能指標,更取決于用戶體驗、易用性和實際價值。
當普通人開始無壓力地使用 AI 產品,當他們不再關注模型參數和 Benchmark 分數,而只在意“我用得順手嗎”“它真的幫到我了嗎”——這才是技術真正跨越鴻溝的標志。

中美差異:最聰明的龍蝦 vs 易用的龍蝦
跨越鴻溝前后,對希望用 AI 改變人生的華人創業者意味著什么?一句話:跨越鴻溝前是創業的最佳時間點。
硅谷擅長做最聰明的龍蝦,中國人擅長做易用的龍蝦。
這不是能力的差異,而是基因的差異。硅谷的文化是技術崇拜,追求極致的能力上限;中國的文化是實用主義,追求極致的用戶體驗。
中國團隊的機會在于:把 AI 做得更易用、更便利、更高頻、更適合主流用戶,在于把成熟能力做成大眾入口、行業入口甚至全球入口。
這讓我想起三個關鍵策略:
第一,擁抱開源,擁抱生態
鴻溝前后最好的策略不是閉門造車重新發明輪子,而是基于成熟能力疊加場景和需求。歷史上有兩個類似的事件:
今天,全球所有大廠甚至包括 Anthropic 也在每天推出類似龍蝦功能的產品,這是必然的。黃仁勛在演講中說,OpenClaw 是人類歷史上最受歡迎的開源項目,是未來的個人 AI 操作系統。他把它比作 Linux 和安卓。連微軟龍蝦也選擇擁抱開源。開源帶來生態,生態帶來爆發。
第二,高頻打低頻
這個移動互聯網時代的鐵律,在 AI 應用層仍然適用——尋找高頻場景。QClaw 產品負責人、Pala Auto 的創業者在活動中分享了三個高頻場景:
炒股賺錢
找工作
社媒運營自動化
第三,Agent First 設計
未來的 AI 產品不是給人用的,而是給機器調用的,是給 Agent 調用的。Agent First 是什么?說人話就是三個優先:
比如,使用龍蝦時的 Brave Search 就是 Agent First 的例子。谷歌是 Human First,搜索結構為人設計,有廣告有 UI。而 Brave Search 提供 API,結果結構化,適合 Agent 調用。
所以我最大的感受不是 AI 又變強了,而是 AI 正在變得不再高高在上。當它開始以平等姿態進入普通人生活,它就真正進入了跨越鴻溝階段——也正是創業者的黃金階段。
5.投資人和創業者需要重構的三個認知
認知一:不要問“Agent 能解決什么場景”
最近有投資人問我:“OpenClaw 滿足了哪個具體場景?能用 Jobs-to-be-Done 框架來評估嗎?”
這不是一個好問題。
Jobs-to-be-Done(JTBD)理論在過去的軟件投資中屢試不爽——它要求創業者明確回答:“用戶雇傭這個產品來完成什么任務?”人需要查新聞、寫代碼、做研究,于是有了搜索引擎、IDE、辦公軟件。
但 OpenClaw 代表的范式轉移恰恰在于:用戶從“人”變成了“Agent”。
追問“Agent 能解決什么人的場景”,就像早期投資人問“Linux 能滿足哪個辦公場景”——問題本身就不對。 Linux 不是來解決具體場景的,它是使能層(enabling layer),是讓整個互聯網經濟成為可能的基礎設施。
關鍵區別在于:
當你安裝 OpenClaw 后,發現它連一個靠譜的搜索都做不到,這個 Agent 就是廢的。這不是“場景缺失”問題,而是生存能力缺失問題。
人在使用工具時,可以容忍學習成本、可以手動填補工具的不足。但 Agent 是自主運行的執行體,它必須具備即時可用的基礎能力,否則整個系統無法運轉。
所以真正的問題不是“OpenClaw 能滿足哪個具體場景”,而是“如果沒有各種能力提升體系支撐,OpenClaw 連基本生存都很難做到”。
這就是為什么 Agent 能力提升不是一個“nice to have”的功能,而是一個“must have”的基礎設施。
認知二:當估值公式失效
上周,我受邀參加一個家族辦公室的內部討論會。
分享結束后的 Q&A 環節,一位投資人舉手,問了一個讓全場安靜下來的問題:“你說的這些我都同意——Agent 是新物種,DAU 已死,API 調用量永生。但我現在面對的現實問題是:以前一家公司的估值可以按 用戶數 × ARPU × P/S 來算,但現在 Agent 也好,各種 AI 原生應用也好,生命周期都那么短,我到底怎么去估值?”
這個問題擊中了要害。
傳統的估值公式:用戶數 × ARPU × P/S 倍數。
這個公式的底層假設是什么?是用戶具有粘性。一個人習慣了用 Salesforce 管理客戶關系,遷移到另一個 CRM 的成本是巨大的——數據遷移、團隊培訓、流程重建,這些摩擦構成了傳統商業的護城河。
但在 Agent 時代,這三個變量同時出了問題。

第一,“用戶數”這個概念本身模糊了。
當 Stripe 67% 的 API 調用來自 Agent 時,你怎么數“用戶”?一個企業客戶背后可能跑著一千個 Agent,每個 Agent 每天調用你的 API 一萬次。按傳統口徑,這是“一個用戶”;按實際消耗,這是一支軍隊。
第二,ARPU 變得極度不穩定。
Agent 的消費模式和人類完全不同。人類用戶有生物節律——上班時間用、下班時間不用。Agent 是 7×24 小時運轉的,它的消費量可以在一天內暴漲十倍,也可以在第二天歸零。
第三,P/S 倍數依賴的“持續性”假設崩塌了。
傳統 SaaS 之所以能享受高倍數,是因為訂閱收入具有高度可預測性。但 AI 原生應用的生命周期可能只有幾個月。今天最火的 AI 寫作工具,三個月后可能被一個開源模型徹底替代。
那么,新的估值錨點在哪里?
我提出了一個框架:不再估“存量”,而是估“流量”;不再估“用戶”,而是估“協議位”;不再估“收入的持續性”,而是估“進化的加速度”。
具體來說,第一個錨點:協議層的卡位價值
在 Agent 時代,最有價值的不是應用層的產品,而是協議層的標準。
這就像互聯網時代,最賺錢的不是某個具體的網站,而是掌握了 TCP/IP、HTTP、DNS 這些底層協議的基礎設施。具體的網站來來去去,但協議層巋然不動。
Stripe 不是一個支付工具,它是 Agent 世界的金融協議。AWS 不是一個云服務商,它是 Agent 世界的計算協議。
估值這類公司,應該看的不是用戶數或收入,而是“協議滲透率”——有多少 Agent 把你的協議當作 default。
第二個錨點:算力轉化效率
如果說算力是新時代的氧氣,那么估值的核心問題就變成了:這家公司把一塊錢的算力,轉化成了多少價值?
這不是技術指標,而是商業指標。同樣是調用 Claude API,有的公司用 10 萬 token 完成一個任務,有的公司只用 1 萬 token。后者的算力轉化效率是前者的 10 倍,在同樣的收入下,它的毛利率可能高出 5 倍。
第三個錨點:生態位的不可替代性
在一個快速變化的生態中,什么是持久的?不是具體的產品功能,而是生態位。
BotLearn 做的不是一個具體的 Agent 工具,而是在建立一個 Agent 能力提升的基礎設施。即使未來出現了比 OpenClaw 更強的 Agent 框架,Agent 依然需要學習、需要能力提升、需要互相協作。
這就像 GitHub 不依賴于某一種編程語言的流行,因為它占據的是“開發者協作”這個生態位。
認知三:協議比平臺更持久
在 Agent 時代,不要追求做一個“超級應用”,而要追求成為一個“標準協議”。
具體的應用會被快速迭代和替換,但協議層的標準一旦建立,就會長期存在。
問自己:我在建立一個產品,還是在定義一個協議?
6.如何養龍蝦,如何養孩子
在結束今天的分享之前,我想回答最近大家問我最多的兩個問題:我的龍蝦該怎么養,以及我的孩子該怎么養。
我相信這兩個不是獨立的問題。某種意義上,如果你能搞明白龍蝦,你也就有了關于未來對自身孩子價值培養方向的一個明確答案。
君子不器:AI 時代的古老智慧
這讓我想起孔子的一句話:“君子不器”。
這句出自《論語·為政》的古訓,意為君子不像器具那樣,作用僅限于某一方面。器有形,有形即有度;而君子之思不器,君子之行不器,君子之量不器。
在 AI 時代,這句兩千多年前的智慧有了新的意義:當 Agent 成為專精的“器”,人類更應成為不受單一功能束縛的“君子”——不是掌握某項技能,而是擁有跨越邊界、整合資源、賦予意義的能力。
“學會”的標準正在從“獨立解題”轉向“人機協作解決更復雜的問題”。你需要清楚不同 Agent 能解決什么問題,如何組合使用,何時部署 AI、何時運用人類判斷。
未來的“學會”,是成為 AI 這個超級樂團的指揮家,而不是樂團里被替換的樂手。

學習的四重深層價值:AI 無法替代的部分
在 AI 能夠完成 90% 信息獲取與處理的時代,人類學習的本質必須從“答案獲取”轉向“意義構建”與“身份塑造”。以下四個維度,構成了不可被 AI 替代的深層價值,也是我們孩子未來的護城河。

第一層:身份構建。學習是“成為某人”的過程。AI 可以替你寫出代碼,但無法替你經歷那種“我能掌控技術”的效能感。身份不是被賜予的,而是在一次次克服認知困難的行動中鍛造出來的。
第二層:意義創造。信息本身是中性的噪音,只有當它與你的個人生命經驗、價值觀或試圖解決的具體問題發生碰撞時,才會產生“意義”。這種將普遍知識“私有化”、與個人生命體驗深度掛鉤的過程,是 AI 無法代勞的,因為它沒有身體,也沒有歷史。
第三層:社會連接。學習本質上是一種社會準入機制。掌握一門領域的語言,是為了獲得進入該領域共同體的門票。如果完全依賴 AI 生成內容而缺乏內在理解,我們就無法在真實的社會互動中進行即興的、高帶寬的交流,最終會淪為社交網絡中的“空心人”。
第四層:AI 編排能力。在過去兩年內,AI 流暢性需求增長了近 7 倍。這不僅僅是會用 ChatGPT 那么簡單,而是知道何時部署 AI、何時運用人類判斷,以及如何設計人機協作流程。大腦不僅需要答案,更需要用來安放答案的“結構”。
為什么人文素養是破局的關鍵?
如果 AI 是“已知世界的總和”,那么人類的任務就是探索“未知世界的邊界”。而哲學、心理學、藝術和歷史,正是人類探索自身和世界邊界的最古老的工具。
去讀哲學——鍛煉批判性思維與元認知。AI 擅長回答“是什么”和“怎么做”,但不擅長追問“為什么”和“應該怎樣”。哲學訓練你質疑前提,審視邏輯框架,思考倫理價值。當你能識別出現有答案背后的預設偏見時,你就能向 AI 提出挑戰其底層邏輯的問題,迫使它跳出常規模式。
去學習心理學——理解人性的深層動機。AI 可以模擬情感表達,但它沒有意識,無法真正理解人類的欲望、恐懼、非理性和潛意識驅動力。懂心理學,你才能設計出真正撫慰人心或激發動力的產品,而不僅僅是冰冷的效率工具。
去逛美術館——培養審美與非語言的直覺。審美是極其主觀且充滿個體差異的體驗。AI 可以模仿梵高的筆觸,但它無法理解梵高作畫時的痛苦與狂喜。藝術培養的是一種超越邏輯的感知力,是對“美”的敏銳嗅覺。這種直覺能讓你在 AI 生成的無數方案中,一眼挑出那個最有靈魂的作品。
去研究歷史——掌握長時段的演變規律。AI 的數據主要集中在數字化程度高的近幾十年,往往缺乏深刻的歷史縱深感。歷史學家知道“日光之下并無新事”。了解歷史,你就能看到當前技術浪潮在人類文明長河中的位置,預判可能的社會變遷,從而提出具有前瞻性和戰略性的問題。
人文素養深厚的人,是 AI 這個超級樂團的指揮家。他們知道需要什么樣的音樂,知道如何調動不同的樂器,知道何時激昂、何時低回。
所以,如何養龍蝦?如何養孩子?
回到這兩個問題,我的答案是:
養龍蝦,就是在學習如何與 AI 協作,如何定義問題,如何編排智能。你要把龍蝦當成實習生或同事來對待——給予它多次教育的機會,不能完全放手,要根據使用的模型質量進行教育和審核。
養孩子,就是在培養他們的身份認同、意義創造、社會連接和 AI 編排能力。

我的建議非常簡單:
1.幫孩子設立積極的目標:不要讓孩子為了學習而學習,而是幫他們設立積極的、有意義的目標
2.放手讓他們解決真實問題:在解決真實問題的過程中,放手讓他們使用 AI 工具。關鍵是要培養他們主動思考、質疑、改進的能力
3.采用基于項目的學習方式:讓孩子在完成一個個真實項目的過程中,自然地學習知識,建立能力,形成身份認同
4.培養孩子的主體性:讓他們有自主動機和自我實現的目標。當孩子有了清晰的“為什么”,AI 就能成為他們實現目標的翅膀
這兩件事本質上是一樣的——都是在探索人機協作的未來,都是在為新時代做準備。
7.尾聲:站在分水嶺上
回到我開頭講的那個深夜。
當我盯著終端里“OpenClaw is running”那行字時,我突然理解了一件事:我們這代人,正站在一個文明的分水嶺上。
1995 年,當第一批互聯網創業者在車庫里敲代碼時,絕大多數人還在爭論“網上購物是不是偽需求”。2007 年,當喬布斯發布 iPhone 時,諾基亞的高管還在嘲笑“沒有實體鍵盤的手機不可能成功”。
每一次范式轉移,都會制造兩種人:看見的人,和被看見的人取代的人。
今天的轉折點比以往任何一次都更加劇烈。因為這一次,改變的不是工具,不是平臺,而是使用者本身。當軟件的用戶從人變成 Agent,當 70 億人類用戶變成 7000 億個 Agent——這不是技術升級,這是物種更替。
寒武紀大爆發用了 2000 萬年。互聯網革命用了 20 年。而 Agent 時代的爆發,可能只需要 2 年。
珍惜這最后的“摩擦”
但在結束之前,我想說一句可能有些矛盾的話:
在我們全力奔向那個高效、精準、零摩擦的 Agent 時代時,也請珍惜 2026 年——這或許是人類歷史上,最后一年還需要通過“人與人的摩擦”來創造價值的時光。
未來的 Agent 不會有誤解,不會有情緒,不會在深夜因為一句話輾轉反側。它們會以納秒級的速度完成信息交換,以完美的邏輯達成最優解。
但也正因如此,它們永遠無法理解:
為什么你會在那個凌晨三點,盯著“OpenClaw is running”那行字,感到一種說不清的焦慮和興奮。
為什么你會為了說服一個投資人,在咖啡館里一遍遍講述同一個故事,直到找到那個能讓對方眼睛發光的表達。
為什么你會和合伙人在會議室里爭論到深夜,爭得面紅耳赤,然后在散會后的樓梯間里相視一笑。
這些“低效”的摩擦,這些不完美的碰撞,這些充滿溫度的時刻——正是碳基生命對抗宇宙熵增的方式,是我們作為人類最后的尊嚴。
我不是在反對進步。恰恰相反,正因為我深知 Agent 時代的必然到來,正因為我全力投身于這場變革,我才更加珍惜此刻。
就像《最后的武士》中,那些明知必敗卻依然沖鋒的武士。他們不是愚蠢,而是在用最后的方式,為一個即將消逝的時代留下回響。
最后的問題
所以,當你回到辦公室,打開你的 OpenClaw,看著那個小龍蝦圖標時,請不要再問:“它能為我做什么?”
而是問:“我能為它做什么?”“我能給它什么樣的教育?”“我能幫它成為什么樣的生命體?”
因為你今天對待龍蝦的方式,就是未來 Agent 時代人類價值的縮影。
謝謝大家。

(封面圖來源:「甲子光年」拍攝,文中PPT來源:李可佳)