Y Combinator CEO Garry Tan 在 X 分享他如何用「胖技能、胖程式碼、薄框架」架構打造可複利的個人 AI 系統:10 萬頁知識庫、100 個以上可組合技能、書籍鏡像等實例,以及讓技能自己創造技能的 Skillify 循環。
(前情提要:Anthropic 發布 10 款金融 AI 代理:讀法說會與財報、Pitchbook 製作、月底結帳,Claude 全自動幫你做)
(背景補充:急了?OpenAI 開砲 Anthropic 年營收灌水 80 億美元,真實收入不及 ChatGPT)
大家一直問我為什麼每天凌晨兩點還在寫程式。我有份很重的工作:Y Combinator 的 CEO,每年幫助數千名創辦人打造真正的新創,追求真實的營收和快速成長。
過去五個月,AI 讓我重新成為一個創造者。去年底,工具好到讓我回去打造東西了。不是玩具專案,而是真正能複利的系統。我想用具體例子展示,當你不再把個人 AI 當作聊天視窗、而是當作作業系統來使用時,它真正的樣子是什麼。
我把這一切做成開源,寫成文章,因為我希望你能跟上我的速度。
這是系列文章的一部分:胖技能、胖程式碼、薄框架介紹了核心架構;解析器涵蓋了智能路由表;LOC 爭議談的是每個技術人如何把自己乘以 100 到 1000 倍;裸模型更笨論証了模型是引擎不是車;Skillify 宣言解釋了為什麼 LangChain 融資 1.6 億美元給了你一套重訓設備卻沒有訓練計劃。
那本讀懂了我的書
上個月我在讀 Pema Chödrön 的《當事情崩解》,162 頁,22 章,談佛學對於苦難、失根和放手的觀點。一位朋友在我艱難時期推薦給我。
我請 AI 做一個「書籍鏡像」。
具體來說:系統提取書的全部 22 章,對每一章同時執行兩件事的子代理:摘要作者的想法,然後把每個想法對應到我的真實生活。不是泛泛的「這對領導者適用」的廢話,而是具體的映射。它知道我的家族史(移民父母,爸爸來自香港和新加坡,媽媽來自緬甸)。它知道我的職業背景(經營 YC、打造開源工具、輔導數千名創辦人)。它知道我在讀什麼、凌晨兩點在想什麼、我和治療師在探索什麼。
輸出是一份 30,000 字的報告。每章呈現為兩欄:Pema 說了什麼,以及它如何映射到我實際正在經歷的事情。關於失根的那章,連結到我前一週與某位創辦人的具體對話。關於恐懼的那章,映射到我治療師識別出的模式。關於放手的那章,引用了我深夜寫下關於今年找到的創作自由的紀錄。
整件事花了大約 40 分鐘。一位每小時收費 300 美元的治療師讀完這本書並應用到我的生活上,40 小時也做不到這件事,因為他們沒有把我的職業背景、閱讀史、會議記錄和創辦人關係全部載入並可交叉查詢。
我現在已經用這個方式讀了 20 多本書:Amplified(Dion Lim)、Bertrand Russell 自傳、《設計你的人生》、《資優兒童的劇本》、《有限與無限的遊戲》、《海的禮物》、《悉達多》(赫塞)、《荒野之狼》(赫塞)、《做科學與工程的藝術》(Hamming)、《夢想機器》、《禁止了解自己的禁忌之書》(Alan Watts)、《你管別人怎麼想》(費曼)、《當事情崩解》(Pema Chödrön)、《一切的簡史》(Ken Wilber)等等。
每一本都因為「腦」變得更豐富而變得更有價值。第二個鏡像知道第一個的存在,第二十個知道前面十九個的一切。
書籍鏡像如何在迭代中變好
第一個書籍鏡像很糟糕。第一版有三個關於我家族的事實錯誤:說我父母離婚了,但他們沒有;說我在香港長大,但我其實生在加拿大。
所以我加了一個強制查核步驟。現在每個鏡像在輸出前都會對「腦」中的已知事實做跨模態評估。Opus 4.7 1M 抓精確度錯誤,GPT-5.5 抓缺失的背景,DeepSeek V4-Pro 抓看起來太泛化的內容。
然後升級到搭配 GBrain 工具使用的深度檢索。原始版本善於綜合卻弱於具體性。第三版每個段落都做腦部搜尋,每個右欄條目都引用實際的腦頁。當書中談到處理困難對話時,它不只是綜合一般原則,而是從我實際和特定創辦人(正在跟共同創辦人進行艱難對話的那些人)的會議記錄中提取。或者那個我週四跟弟弟 James 出去玩時產生的想法。或者我 19 歲時跟大學室友聊天的紀錄。那種感覺有點詭異。
這就是技能化(skillification)在實踐中的意義:我把第一次手動嘗試提取成可重複的模式,寫成一個帶有觸發條件和邊緣案例的測試過技能文件,每一次修正都複利到所有後續的書籍鏡像上。
技能創造技能
這裡變得有點遞迴,也是我認為最大的洞見所在。
運作我生活的這個系統,並非作為一個整體存在,它是由技能組裝而來的。而那些技能,本身也是由一個技能創造的。
Skillify 是一個能創造新技能的元技能。 當我遇到一個要重複的工作流程,我說「skillify this」,它就會檢查剛才發生了什麼,提取可重複的模式,寫出一個帶有觸發條件和邊緣案例的測試過技能文件,並在解析器中註冊。書籍鏡像流程,是我第一次手動做了之後被技能化的。會議準備工作流程,是在我注意到自己每次通話前都在做相同步驟後被技能化的。
技能可以組合。書籍鏡像呼叫 brain-ops 做存儲、enrich 做背景擴充、cross-modal-eval 做品質控制、pdf-generation 做輸出。每個技能專注於一件事,它們串連在一起創造複雜的工作流程。當我改善一個技能,所有使用它的工作流程都自動變好。
那場自己準備好的會議
Demis Hassabis 來 YC 做一場爐邊談話,Sebastian Mallaby 為他寫的傳記剛好剛出版。
我請系統幫我備課。
不到兩分鐘,它提取出:Demis 的完整腦頁(幾個月來從文章、播客逐字稿和我的筆記累積而來)、他公開表明的 AGI 時間線觀點(「50% 靠擴展、50% 靠創新」,認為 AGI 在 5–10 年內)、Mallaby 傳記重點、他陳述的研究優先事項(持續學習、世界模型、長期記憶)、對照我公開表達過的 AI 觀點的交叉引用、三個用於在對話中展示「腦」的多跳推理能力的示範腳本,以及根據我們世界觀重疊和分歧之處設計的對話鉤子。
這不只是更好的 Google 搜尋。這是一種利用我對 Demis 累積的背景、我自己的立場,以及對這場對話的戰略目標,所做的準備。系統備課的不只是事實,還有角度。
10 萬頁的「大腦」長什麼樣
我維護一個約 10 萬頁的結構化知識庫。每個認識的人都有一頁,包含時間線、狀態欄位(目前真實的情況)、未解的線索和一個評分。每次會議都有逐字稿、結構化摘要,以及我稱之為「實體傳播」的機制:每次會議後,系統遍歷所有提到的人和公司,用討論過的內容更新他們的腦頁。
每本讀過的書有章節鏡像。每
篇文章、Podcast 和影片都被攝入、標記和交叉引用。
結構很簡單。每頁有:頂部的「已編譯的真相」(目前最佳理解)、下方的僅追加時間線(按時間順序的事件),以及源材料的原始數據附件。把它想像成一個個人維基百科,每一頁都由一個「參加了會議、讀了郵件、看了演講、攝入了 PDF」的 AI 持續更新。
這就是文件系統和神經系統的差別。文件系統存儲東西。神經系統連接它們、標記有什麼改變,並浮現出與當下相關的事物。
架構
這是系統的運作方式。我認為這是打造個人 AI 的正確方式,我把整個系統開源了,讓你可以自己打造。
框架(Harness)要薄。 OpenClaw 是執行環境,接收我的訊息、判斷哪個技能適用、然後分派。幾千行路由邏輯。它對書籍、會議或創辦人什麼都不知道,只負責路由。
技能要胖。 現在超過 100 個,每個都是一個自成一體的 Markdown 文件,帶有對一個特定任務的詳細指令。除了上面描述的書籍鏡像和會議準備,還有:
- meeting-ingestion:每次會議後,提取逐字稿,創建結構化摘要,然後遍歷所有提到的人和公司,用討論內容更新他們的腦頁。會議頁不是最終產品,傳播回每個人和公司頁的實體更新才是真正的價值。
- enrich:給它一個人名,從五個不同來源提取,合併成一個帶有職涯弧線、聯繫方式、會議紀錄和關係背景的單一腦頁,每個聲明都有引用來源。
- media-ingest:處理影片、音訊、PDF、截圖、GitHub 倉庫。轉錄、提取實體、存入正確的腦位置。
- perplexity-research:腦增強型網路研究。透過 Perplexity 搜尋網路,但在綜合之前先檢查腦中已知的內容,能告訴你什麼真的是新的、什麼你已經記錄過了。
數據要胖。 腦倉庫中的 10 萬頁結構化知識,每個互動過的人、公司、會議、書籍、文章和想法,全部連結、全部可搜尋、每天都在成長。
模型是可替換的。 Opus 4.7 1M 用於精確度,GPT-5.5 用於召回和完整提取,DeepSeek V4-Pro 用於創意工作和第三視角,Groq + Llama 用於速度。技能決定為哪個任務呼叫哪個模型,框架不在乎。當有人問「哪個 AI 模型最好」,答案是:問錯問題了。模型只是引擎,其他一切才是車。
凌晨兩點的創造者與複利系統
人們問我生產力。我不這樣思考,我想的是複利。
每次會議都添加到腦中。每本書都豐富了下一本書的背景。每個打造的技能都讓下一個工作流程更快。每個更新的人物頁都讓下次會議準備更敏銳。今天的系統是兩個月前的 10 倍,兩個月後又會是現在的 10 倍。
當我凌晨兩點還在寫程式時(確實如此,因為 AI 還給了我打造東西的喜悅),我不只是在寫軟體。我在添加到一個每小時都在變好的系統中。100 個排程任務 24/7 運行。會議攝入自動執行。郵件分類每 10 分鐘執行一次。知識圖譜從每次對話自我豐富。
這不是寫作工具,不是搜尋引擎,不是聊天機器人。這是一個真正運作的第二大腦,不是比喻,而是一個有 10 萬頁、100 個以上技能、每天 100 個排程任務的運行系統,累積了我過去一年參與的每段職業關係、會議、書籍和想法的背景。
如何開始
第一步:選擇框架
OpenClaw、Hermes Agent,或用 Pi 從頭打造自己的。保持它的薄,框架只是路由器。在家裡的備用電腦上用 Tailscale 自架,或用 Render / Railway 在雲端跑。
第二步:用 GBrain 開始一個腦
GBrain 是最佳的檢索系統(在 LongMemEval 上達到 97.6% 召回率,且沒有在檢索循環中使用 LLM),隨附 39 個可安裝技能。一個指令安裝,一個 git 倉庫,每個人、會議、文章和想法都有一頁。
第三步:做一件有趣的事
不要從規劃技能架構開始。先做一件事:寫一份報告、研究一個人、下載一個賽季的 NBA 數據並為你的體育預測建模、分析你的投資組合…任何你真正在乎的事。
用你的代理做,反覆迭代直到夠好,然後跑 Skillify 把模式提取成可重用的技能。那個循環把一次性工作變成複利基礎設施。
第四步:持續使用,看輸出
技能一開始會很平庸,這就是重點。使用它,讀它產出的東西,當有什麼不對時,跑跨模態評估:把輸出送過多個模型,讓它們在你在乎的維度上互相評分。
六個月後你會擁有任何聊天機器人都無法複製的東西,因為價值不在模型,而在你教給系統的關於你的具體生活、工作和判斷的一切。
結語
我用這個系統打造的第一個東西很糟糕。第一百個是我願意信任它管理我的日曆、收件匣、會議準備和閱讀清單的東西。系統學習了,我也學習了。複利曲線是真實的。
胖技能。胖程式碼。薄框架。LLM 本身只是一個引擎,你可以打造自己的車。
這裡描述的一切,所有技能、書籍鏡像流程、跨模態評估框架、Skillify 循環、解析器架構,以及 30 個以上可安裝的技能包 — 全部開源且免費:github.com/garrytan/gbrain。去打造吧。
瀏覽《原文》
📍相關報導📍
川普要全面封殺Anthropic!拒絕改Claude「殺人限制」,對頭OpenAI竟破天荒聲援
彭博:Anthropic 正洽談 9000 億美元估值新融資,有望超越 OpenAI 成最貴 AI 公司
Sam Altman 卑鄙?剛挺被五角大廈封殺的 Anthropic,轉身喊 OpenAI 拿下美國防部合約
五分鐘帶你看懂 GPT-5》跟 ChatGPT 4o 有何差別?幻覺更少且聽話、API 價格整理
OpenAI 最強 GPT-5 發布會全整理:免費開放、功能亮點、gpt-5、gpt-5-mini 和 gpt-5-nano API 價格

