適用於 OpenClaw 的記憶插件

讓 AI 擁有
類腦記憶

Memok 為 OpenClaw 提供持久記憶:自動保存、智能召回、夜間夢境優化,讓智能體越用越強,真正記得你們聊過什麼。

記憶與模型無關——任意大模型或小本地模型共享同一套強韌、可聯想的長期記憶。輕量模型也能憑持久上下文與召回,表現出接近更大模型的判斷力與「高智商」連貫推理

100K+
記憶句子
1000萬+
詞-句關聯
24h
夢境週期

為什麼做 Memok

智能體默認是「失憶」的:每次新會話都會丟掉好不容易積累的上下文。向量庫有幫助,但往往意味著新廠商、難解釋的相似度分數,以及沉重的 embedding 流水線——對必須本地部署或要在小模型上快速交付的團隊尤其痛苦。

Memok 的起點很簡單:可解釋、可持久、可隨時間變好的記憶層,與智能體一起安裝、尊重隱私,並在夜間繼續整理——讓產品從「好看演示」走向「能上線的副駕駛」,而不先交一筆「記憶平臺稅」。

問題 → 在你方棧上可持久記憶 → 智能體連貫性可衡量。無需另購記憶 SaaS。

我們不單獨維護 Release 發行頁;迭代以倉庫默認分支提交為準。缺陷請走 Issues;設計類交流可用 Discussions。

Memok 的故事

我們如何賦予 AI 類腦記憶——五章簡單說明。

第一章:人類如何記憶

想象一下你的大腦在開會的場景。老闆說了三件事:

  • 「下週五要交季度報告」
  • 「新客戶對接人是 Elena Rossi,電話 +44 20 7946 0958」
  • 「下午三點團隊聚餐」

你的大腦不會錄下整段會議。 它會拆成小塊——「報告-週五-截止」、「Elena-客戶-電話」、「聚餐-三點-團隊」——然後貼上標籤。 紅標籤給重要的,灰標籤給隨便的。一週後,紅標籤還在;灰標籤掉了,忘了。用得著就記住,用不著就忘掉。

第二章:AI 原來是條金魚

現在的 AI(ChatGPT、Claude 等)就像一個超級聰明但記性極差的人

你:「我喜歡去科莫湖釣魚,用蚯蚓效果最好。」

AI:「科莫湖那種世界級景點,水清魚多,蚯蚓確實好使。」

第二天:

你:「我昨天說的釣魚地點在哪?」

AI:「您昨天說了什麼?」

每次對話結束,記憶就被清空。

第三章:Memok 給 AI 造了一個大腦

Memok 只做一件簡單的事:給 AI 建一個跟人類大腦差不多的記憶系統

步驟1:拆解

當你跟 AI 聊天,Memok 不會存整段對話。它會請 LLM 幫忙:

「這段話講了哪幾件事?每件事的核心詞是什麼?」

你的釣魚故事變成:

句子核心詞
「去科莫湖釣魚」科莫湖、釣魚
「用蚯蚓作餌」蚯蚓、餌料
「釣到五條鱸魚」鱸魚、收穫
「感到開心」開心、體驗

然後存進數據庫,句子和詞連上線

第四章:貼標籤與信念系統

每個句子有兩個標籤:

Weight(權重)

這句話有多重要?默認是 1。

Duration(新鮮度)

這句話有多新?默認 7 天。

剛存的記憶都是短期記憶,就像你昨天剛知道的事,記得清楚,但過一週可能就忘了。

第二天,你又聊起釣魚,Memok 從庫裡隨機抽一些記憶給 AI 看。但不是完全隨機——Weight 高、Duration 新的記憶,被抽中的概率更大。AI 覺得有用,Memok 就給這條記憶 +1 Weight,+1 Duration。 你越聊釣魚,「科莫湖」和「釣魚」相關的記憶就越紅、越新鮮。

第五章:AI 也會睡覺

人為什麼要睡覺?科學發現,睡覺時大腦在做重要的事:

  • 整理白天記的東西
  • 忘掉不重要的
  • 強化重要的

Memok 也給 AI 設計了「睡覺」——每天晚上 03:00,自動「發夢」

做夢第一步:篩選記憶

  • Weight ≥ 7? → 升為長期記憶,不會被刪
  • Duration 減 1(7→6→5→4→3→2→1→0)
  • Duration=0 且 Weight<7? → 刪除(忘了它)

簡單說:常被提到的記憶晉級,沒人提的就慢慢遺忘。

結語:Memok 的使命

Memok 想讓 AI 真正記住你

不是存個文件那種記住,而是像老朋友一樣:

  • 你說過喜歡釣魚,他下次主動提
  • 你提過週五要交報告,他週三提醒你
  • 你聊過擔心的事,他後來還記得關心

有記憶的 AI,不只是更聰明。
是更懂你。

社群聲音

我們鼓勵在 GitHub Discussions 分享公開的部署筆記、前後對照與教學實例。以下為早期 OpenClaw + Memok 用法的簡短、匿名示意摘要(合成情境,非付費背書)。

跑了一週夜間整理後,助手不再反覆追問釋出清單——模型沒換,少了很多脈絡斷裂。

合成情境 · 內部維運試點(示意)

SQLite 留在 VPC,法務不必再為新的向量廠商重跑 DPIA;召回結果在資料表裡逐列可查。

合成情境 · 強合規產業草圖(示意)

上週實驗的概念會在新練習裡被溫和帶出——不是魔法,但助教少重複定義的時間。

合成情境 · 教學場景(示意)

以上為匿名、合成示意,不代表所有負載。歡迎在 Discussions 寫下可重現的真實案例。

到 Discussions 分享 →

開源共建

Memok 與 memok-ai(核心)與 memok-ai-openclaw(插件)倉庫貢獻者一起演進——此處不設「廠商團隊牆」。讀代碼、提 Issue、提交小而美的 PR 皆可參與。

查看貢獻者圖 →

核心功能

不只是存儲,而是類人腦的選擇性記憶、聯想式召回與睡眠鞏固。任意模型共用同一套強大記憶層;小參數智能體也能靠長期記憶以小博大,表現遠超「只會當下這一句話」的裸模型。

自動保存

每輪對話結束後自動提取核心內容,存入 SQLite 本地數據庫。無需手動操作,對話即記憶。

智能召回

基於隨機詞采樣 + 權重關聯,每輪自動注入相關記憶候選。AI 自己判斷哪些該用。

夢境優化

夜間自動運行 dreaming-pipeline:權重衰減、孤兒清理、記憶合併,讓記憶越用越精。

類腦記憶的科學基礎與技術壁壘

Memok 不是「換個名字的向量庫」。管線刻意對齊認知科學中的要點——選擇性編碼、聯想式提取、離線鞏固與受控遺忘——讓行為可解釋、可審計,從而形成工程與產品上的差異化:比堆 embedding 更少的黑箱環節,卻有一條從理論到落地代碼的清晰路徑。

科學錨點(啟發式類比,非醫療聲明)

  • 編碼與顯著性——每輪提煉核心句與關鍵詞,更接近「要義記憶」而非原始日誌堆砌。
  • 聯想式召回——加權詞–句圖類似激活擴散:召回是可解釋路徑,而非難以說明的相似度分數。
  • 鞏固(「夢境」)——夜間剪枝、合併與衰減,與文獻中睡眠依賴的記憶重組形成類比。
  • 遺忘即能力——主動削弱低價值關聯,避免智能體被陳舊上下文淹沒。

技術白皮書

我們發佈 Memok 算法原理的詳細闡述:圖構建、基於採樣的召回、權重更新、夢境流水線,以及與稠密向量索引的複雜度取捨。可用於安全評審、論文引用、企業內架構評審與技術盡調。

目標用戶與場景

不僅是個人 AI 開發者:面向企業內 AI 應用、教育科研、以及對數據極度敏感的行業團隊。

🛠️

AI 開發者與集成方

插件作者、平臺工程與 OpenClaw 運維:需要持久記憶,又不想單獨維護一套向量雲服務。

🏢

企業內 AI 與業務智能體

客服、銷售、運營、知識庫等場景——對話要跨周沉澱,而不是每張工單從零開始。

🎓

教育與研究

可復現的本地記憶層,適合實驗課、人機交互研究與助教場景——圖結構可審查,而非黑盒檢索。

🔒

強監管與知識產權場景

法務、金融、醫療相關流程與研發資料:默認不把對話全文送往第三方 embedding 服務。

小模型也能有大智慧

頂級大模型不是「聰明」的唯一路徑。Memok 為算力與預算有限的團隊提供同一套持久、可聯想的記憶層:7B 或更小的本地模型,也能在用戶偏好、機構上下文與長期任務上保持連貫,把預算更多留給合規、產品與體驗,而不只堆參數量。

隱私安全與本地部署

記憶默認落在本機或 VPC 內的 SQLite,無需把對話全文強制上傳到向量雲——這對數據敏感行業是結構性優勢:更易做數據出境與駐留評估、更易做離線/專有云部署,並可對接現有 KMS、備份與訪問審計策略,減少再引入一家向量廠商的子處理方談判成本。

  • 默認路徑不依賴雲端 embedding,攻擊面通常小於完整 RAG 棧。
  • 安裝後可離線運行,適合實驗室、邊緣節點與高隔離環境(仍需您自行完成合規評估)。

典型應用場景

以下為合成旅程,用於說明記憶行為方式,不代表付費客戶背書。

落地時請替換為您自己的試點數據與合規流程。

🎧

客服與售後副駕駛

每張工單可繼承歷史症狀、SKU 特例與已執行過的政策例外。模型在回覆前看到候選記憶——更少重複提問、更快首解。

📚

教學與輔導助手

學生上週卡殼的概念,在相關主題再次出現時被聯想召回。進度以「句子 + 關聯」編碼,而非整段聊天記錄,便於教師審計。

🏛️

企業知識從對話中沉澱

覆盤、Runbook、銷售對話以結構化記憶累積,而不是死在 Slack 線程裡。召回默認在 VPC 內 SQLite,適合敏感行業。

性能數據

真實生產環境的運行數據

<50ms
召回延遲
SQLite 本地查詢
~200ms
保存速度
每輪對話
~15MB
存儲佔用
1000+ 句子 + 關聯

與傳統向量數據庫對比

一眼對照:Memok 把記憶圖放在助理旁的本機 SQLite;常見託管向量庫多半多一次網路跳躍與獨立計費。

特性MemokPinecone/Weaviate
部署成本
免費 (SQLite)$25-200/月
召回方式
詞關聯 + 權重純向量相似度
可解釋性
知道為什麼召回黑盒
冷啟動
立即工作需要大量數據
隱私安全
數據本地存儲上傳雲端
🧠

真·聯想式召回

不像向量庫只找「相似」的,memok 能跨主題聯想。提到「React」可能召回「hooks」「打包」「SSR」—語境相關但語義不必完全相同。

自我優化

夢境函數每晚自動清理 20-30% 低價值記憶。用過的記憶權重+1,越用越準。3天后有效記憶比例從 60% 提升到 85%+。

🎯

零配置上手

無需調 embedding 模型、無需設維度、無需建索引。安裝即用,一條命令即可完成安裝,記憶立即開始積累。

如何驗證(以及尚缺什麼)

本頁數字來自長期內部自用實例,用於數量級判斷,不能替代您在自有硬件、隱私模型與提示詞分佈上的壓測。我們正在準備可復現實驗包(數據集 + 腳本),方便第三方自行對比 Memok 與向量基線,而不必僅憑文案採信。

參考硬件(示意)

場景配置召回 p50(本地 SQLite)
開發筆記本8–16GB 內存、SSD、單用戶典型候選拉取 <50ms
小型 VPC2 vCPU,與 OpenClaw 同區部署同量級,主要受磁盤與圖規模影響
工作站32GB、NVMe、多插件宿主更大圖仍有 headroom;仍無遠程向量一跳

任務向對比(向量庫 vs Memok)

  • 客服交接——向量檢索擅長找「語義相近工單」;Memok 還能串起同一客戶故事裡的決策鏈(例如「退款 + 店鋪積分」),即便措辭差異大。
  • Runbook 問答——純餘弦容易漏掉流程膠水句(「第 3 步後回滾特性開關 X」)。Memok 把這些步驟存成可加權聯想的句子,複用時權重上升。
  • 小模型配對——自用實例中,經數晚夢境整理後,人工評估的有用召回比例約從 60% 提升到 85%+,且未更換底層 LLM。實際效果因任務而異,建議待公開 harness 發佈後自行復現。
「不是最完美的向量搜索,但是最像人腦的記憶系統——有遺忘、有聯想、有強化,而且零成本、零運維。」

工作原理

模仿人腦的記憶機制:編碼 → 存儲 → 召回 → 鞏固

編碼 → 儲存 → 召回 → 鞏固
1

對話編碼

OpenClaw 每輪對話結束後,自動調用 memok 提取核心句子(core_idea)和關鍵詞(core_words)。

// 自動觸發,無需干預
對話 → 提取核心 → 存入 SQLite
2

記憶存儲

數據分層存儲:words(原始詞)、normal_words(歸一化概念)、sentences(句子)、links(關聯)。

sentences: 1,176 條
normal_words: 1,548 個概念  
sentence_to_normal_link: 110,956 條關聯
3

智能召回

每輪對話前,隨機採樣 20% 詞彙 + 查詢詞彙,召回關聯句子,注入系統上下文。

// 自動注入的候選記憶
(memok)以下為每輪自動附帶的候選記憶...
- [id=123] memok v2 Pipeline 比 v1 快 8 分鐘
- [id=456] 夢境函數設計:句子+詞語兩層清理
4

使用反饋

AI 若使用了某條記憶,調用 memok_report_used_memory_ids 上報,該記憶權重 +1,更容易被召回。

// AI 自動上報
memok_report_used_memory_ids([123, 456])
→ 句子 123、456 的 weight + 1
5

夢境整理

每日凌晨自動運行:duration 衰減、低權重句子清理、孤兒詞刪除、記憶合併。

# 每日 03:00 自動執行
predream-decay: 全表 duration -1
dreaming-pipeline: 抽詞 → 故事 → 合併 → 清理

技術架構

輕量、本地、可擴展

SQLite
本地存儲

單文件數據庫,無需部署。支持 1000+ 用戶規模。

OpenClaw
插件集成

原生插件 API,無縫集成對話流程。

LLM API
模型無關

支持 DeepSeek、Moonshot、OpenAI 等任何兼容 API。

Croner
定時調度

進程內定時器,無需系統 crontab。

社區與生態

以 GitHub 為樞紐:memok-ai 承載記憶管線;memok-ai-openclaw 承載 OpenClaw 插件。Issues 修缺陷、Discussions(memok-ai)聊設計、Star 傳遞需求信號。模板與集成指南優先在倉庫內迭代。

安裝 OpenClaw 插件

將 memok 安裝為 OpenClaw 插件:境內推薦從 Gitee 插件鏡像拉取一鍵腳本或手動克隆;亦可使用 GitHub 源(memok-ai-openclaw)安裝即馬上體驗,無需漫長配置。記憶管線核心代碼仍在 memok-ai

首次安裝可能耗時較長。安裝過程會拉取並安裝 OpenClaw 及其依賴(npm 包等),在一般網絡下可能需要數分鐘——並非卡死,請耐心等待依賴安裝完成。

方式一一鍵腳本(推薦)

bash
# Linux / macOS(Gitee 鏡像)
bash <(curl -fsSL https://gitee.com/wik20/memok-ai-openclaw/raw/main/scripts/install-cn-linux-macos.sh)

# Windows PowerShell(Gitee 鏡像)
irm https://gitee.com/wik20/memok-ai-openclaw/raw/main/scripts/install-windows.ps1 | iex

方式二手動:從倉庫安裝 OpenClaw 插件

bash
git clone https://gitee.com/wik20/memok-ai-openclaw.git
openclaw plugins install ./memok-ai-openclaw
openclaw memok setup    # 交互式配置 LLM 和夢境時間
openclaw gateway restart

學習、排障與常見問題

視頻教程與在線沙箱在路線圖中——當前最快路徑仍是安裝 + GitHub 文檔。正式指南擴展前,可先查閱下方 FAQ。

視頻教程

安裝與召回的錄屏教程在規劃中,請關注倉庫與 Discussions 的首發通知。

即將推出

在線試玩

只讀沙箱以便在生產安裝前先體驗召回——尚無公開 URL,已列入路線圖。

路線圖

商業合作諮詢——請在 GitHub Discussions 說明部署與合規訴求。在明確提供企業 SLA 之前,此處不構成對商業條款的承諾。

安裝成功但沒有記憶寫入,該查什麼?

確認 OpenClaw 是否調用了插件鉤子、SQLite 路徑權限是否正確,並在一輪對話中打開日誌。已知網關邊界情況見 GitHub Issues。

能否完全不調用雲端 embedding?

可以,這是默認路徑。Memok 從抽取詞與圖權重構建關聯,僅需您已為 OpenClaw 配置的 LLM 端點。

如何備份或遷移記憶?

對 SQLite 文件與配置目錄做快照,與任何有狀態服務一樣:大版本升級前先備份。

在哪裡提集成需求(Slack、Teams、自研 CRM)?

在 Discussions 附上流程草圖;我們優先支持能自然映射到「句子 + 關聯」模型的集成。

路線圖與透明度

開源、本地優先;優先級隨維護精力與用戶反饋變化——請關注倉庫提交與 Issues,並在 Discussions 用具體場景參與討論。

功能請求與缺陷跟蹤 →

已完成
社區版 v1.0
OpenClaw 插件、自動保存、智能召回、夢境優化 ✓
進行中
社區版完善
README、插件安裝腳本(memok-ai-openclaw)、示例配置、常見技術棧集成說明
規劃中
可復現基準包
公開腳本與數據集,便於在自有硬件上覆跑 Memok 與向量基線對比
規劃中
入門視頻與託管試玩
錄屏安裝走讀;可選只讀沙箱,在生產安裝前先感受召回
規劃中
企業向安全資料包
威脅模型摘要、數據流圖、便於 DPA 起草的表述(不能替代您的法律顧問)

安全與合規姿態

Memok 不能替代您的法務評估。我們提供的是更小、可審計的面:本地 SQLite、顯式候選召回、無強制第三方向量上傳。靜態加密隨磁盤/卷策略;傳輸安全沿用您已為 OpenClaw 與 LLM 配置的 TLS。

  • 訪問控制由操作系統/容器 IAM 與 OpenClaw 配置共同承擔——憑證輪換沿用現有流程。
  • 不為插件本身宣稱 SOC2/HIPAA 等認證;強監管團隊請與既有控制措施及文書配套使用。
  • 隱私政策與數據處理說明將隨上游倉庫版本化發佈。

安全公告請關注倉庫 →

讓 AI 真正記得你

告別冷啟動與失憶循環。為 OpenClaw 裝上持久、可聯想的記憶——任意模型、尤其是小模型,也能憑藉連續上下文與召回,做出更大模型才有的連貫與高水準判斷。