适用于 OpenClaw 的记忆插件

让 AI 拥有
类脑记忆

Memok 为 OpenClaw 提供持久记忆:自动保存、智能召回、夜间梦境优化,让智能体越用越强,真正记得你们聊过什么。

记忆与模型无关——任意大模型或小本地模型共享同一套强韧、可联想的长期记忆。轻量模型也能凭持久上下文与召回,表现出接近更大模型的判断力与「高智商」连贯推理

100K+
记忆句子
1000万+
词-句关联
24h
梦境周期

为什么做 Memok

智能体默认是「失忆」的:每次新会话都会丢掉好不容易积累的上下文。向量库有帮助,但往往意味着新厂商、难解释的相似度分数,以及沉重的 embedding 流水线——对必须本地部署或要在小模型上快速交付的团队尤其痛苦。

Memok 的起点很简单:可解释、可持久、可随时间变好的记忆层,与智能体一起安装、尊重隐私,并在夜间继续整理——让产品从「好看演示」走向「能上线的副驾驶」,而不先交一笔「记忆平台税」。

问题 → 在你方栈上可持久记忆 → 智能体连贯性可衡量。无需另购记忆 SaaS。

我们不单独维护 Release 发行页;迭代以仓库默认分支提交为准。缺陷请走 Issues;设计类交流可用 Discussions。

社区声音

我们鼓励在 GitHub Discussions 发表公开的部署笔记、前后对比与教学用法。本页不设付费背书区;欢迎用真实线程打开讨论。

去 Discussions 分享 →

开源共建

Memok 与 memok-ai 仓库贡献者一起演进——此处不设「厂商团队墙」。读代码、提 Issue、提交小而美的 PR 皆可参与。

查看贡献者图 →

核心功能

不只是存储,而是类人脑的选择性记忆、联想式召回与睡眠巩固。任意模型共用同一套强大记忆层;小参数智能体也能靠长期记忆以小博大,表现远超「只会当下这一句话」的裸模型。

💾

自动保存

每轮对话结束后自动提取核心内容,存入 SQLite 本地数据库。无需手动操作,对话即记忆。

🎯

智能召回

基于随机词采样 + 权重关联,每轮自动注入相关记忆候选。AI 自己判断哪些该用。

🌙

梦境优化

夜间自动运行 dreaming-pipeline:权重衰减、孤儿清理、记忆合并,让记忆越用越精。

类脑记忆的科学基础与技术壁垒

Memok 不是「换个名字的向量库」。管线刻意对齐认知科学中的要点——选择性编码、联想式提取、离线巩固与受控遗忘——让行为可解释、可审计,从而形成工程与产品上的差异化:比堆 embedding 更少的黑箱环节,却有一条从理论到落地代码的清晰路径。

科学锚点(启发式类比,非医疗声明)

  • 编码与显著性——每轮提炼核心句与关键词,更接近「要义记忆」而非原始日志堆砌。
  • 联想式召回——加权词–句图类似激活扩散:召回是可解释路径,而非难以说明的相似度分数。
  • 巩固(「梦境」)——夜间剪枝、合并与衰减,与文献中睡眠依赖的记忆重组形成类比。
  • 遗忘即能力——主动削弱低价值关联,避免智能体被陈旧上下文淹没。

技术白皮书

我们发布 Memok 算法原理的详细阐述:图构建、基于采样的召回、权重更新、梦境流水线,以及与稠密向量索引的复杂度取舍。可用于安全评审、论文引用、企业内架构评审与技术尽调。

目标用户与场景

不仅是个人 AI 开发者:面向企业内 AI 应用、教育科研、以及对数据极度敏感的行业团队。

🛠️

AI 开发者与集成方

插件作者、平台工程与 OpenClaw 运维:需要持久记忆,又不想单独维护一套向量云服务。

🏢

企业内 AI 与业务智能体

客服、销售、运营、知识库等场景——对话要跨周沉淀,而不是每张工单从零开始。

🎓

教育与研究

可复现的本地记忆层,适合实验课、人机交互研究与助教场景——图结构可审查,而非黑盒检索。

🔒

强监管与知识产权场景

法务、金融、医疗相关流程与研发资料:默认不把对话全文送往第三方 embedding 服务。

小模型也能有大智慧

顶级大模型不是「聪明」的唯一路径。Memok 为算力与预算有限的团队提供同一套持久、可联想的记忆层:7B 或更小的本地模型,也能在用户偏好、机构上下文与长期任务上保持连贯,把预算更多留给合规、产品与体验,而不只堆参数量。

隐私安全与本地部署

记忆默认落在本机或 VPC 内的 SQLite,无需把对话全文强制上传到向量云——这对数据敏感行业是结构性优势:更易做数据出境与驻留评估、更易做离线/专有云部署,并可对接现有 KMS、备份与访问审计策略,减少再引入一家向量厂商的子处理方谈判成本。

  • 默认路径不依赖云端 embedding,攻击面通常小于完整 RAG 栈。
  • 安装后可离线运行,适合实验室、边缘节点与高隔离环境(仍需您自行完成合规评估)。

典型应用场景

以下为合成旅程,用于说明记忆行为方式,不代表付费客户背书。

落地时请替换为您自己的试点数据与合规流程。

🎧

客服与售后副驾驶

每张工单可继承历史症状、SKU 特例与已执行过的政策例外。模型在回复前看到候选记忆——更少重复提问、更快首解。

📚

教学与辅导助手

学生上周卡壳的概念,在相关主题再次出现时被联想召回。进度以「句子 + 关联」编码,而非整段聊天记录,便于教师审计。

🏛️

企业知识从对话中沉淀

复盘、Runbook、销售对话以结构化记忆累积,而不是死在 Slack 线程里。召回默认在 VPC 内 SQLite,适合敏感行业。

性能数据

真实生产环境的运行数据

<50ms
召回延迟
SQLite 本地查询
~200ms
保存速度
每轮对话
~15MB
存储占用
1000+ 句子 + 关联

与传统向量数据库对比

特性MemokPinecone/Weaviate
部署成本免费 (SQLite)$25-200/月
召回方式词关联 + 权重纯向量相似度
可解释性 知道为什么召回黑盒
冷启动 立即工作需要大量数据
隐私安全 数据本地存储上传云端
🧠

真·联想式召回

不像向量库只找「相似」的,memok 能跨主题联想。提到「React」可能召回「hooks」「打包」「SSR」—语境相关但语义不必完全相同。

自我优化

梦境函数每晚自动清理 20-30% 低价值记忆。用过的记忆权重+1,越用越准。3天后有效记忆比例从 60% 提升到 85%+。

🎯

零配置上手

无需调 embedding 模型、无需设维度、无需建索引。安装即用,一条命令搞定,记忆立即开始积累。

如何验证(以及尚缺什么)

本页数字来自长期内部自用实例,用于数量级判断,不能替代您在自有硬件、隐私模型与提示词分布上的压测。我们正在准备可复现实验包(数据集 + 脚本),方便第三方自行对比 Memok 与向量基线,而不必仅凭文案采信。

参考硬件(示意)

场景配置召回 p50(本地 SQLite)
开发笔记本8–16GB 内存、SSD、单用户典型候选拉取 <50ms
小型 VPC2 vCPU,与 OpenClaw 同区部署同量级,主要受磁盘与图规模影响
工作站32GB、NVMe、多插件宿主更大图仍有 headroom;仍无远程向量一跳

任务向对比(向量库 vs Memok)

  • 客服交接——向量检索擅长找「语义相近工单」;Memok 还能串起同一客户故事里的决策链(例如「退款 + 店铺积分」),即便措辞差异大。
  • Runbook 问答——纯余弦容易漏掉流程胶水句(「第 3 步后回滚特性开关 X」)。Memok 把这些步骤存成可加权联想的句子,复用时权重上升。
  • 小模型配对——自用实例中,经数晚梦境整理后,人工评估的有用召回比例约从 60% 提升到 85%+,且未更换底层 LLM。实际效果因任务而异,建议待公开 harness 发布后自行复现。
「不是最完美的向量搜索,但是最像人脑的记忆系统——有遗忘、有联想、有强化,而且零成本、零运维。」

工作原理

模仿人脑的记忆机制:编码 → 存储 → 召回 → 巩固

编码 → 存储 → 召回 → 巩固
1

对话编码

OpenClaw 每轮对话结束后,自动调用 memok 提取核心句子(core_idea)和关键词(core_words)。

// 自动触发,无需干预
对话 → 提取核心 → 存入 SQLite
2

记忆存储

数据分层存储:words(原始词)、normal_words(归一化概念)、sentences(句子)、links(关联)。

sentences: 1,176 条
normal_words: 1,548 个概念  
sentence_to_normal_link: 110,956 条关联
3

智能召回

每轮对话前,随机采样 20% 词汇 + 查询词汇,召回关联句子,注入系统上下文。

// 自动注入的候选记忆
(memok)以下为每轮自动附带的候选记忆...
- [id=123] memok v2 Pipeline 比 v1 快 8 分钟
- [id=456] 梦境函数设计:句子+词语两层清理
4

使用反馈

AI 若使用了某条记忆,调用 memok_report_used_memory_ids 上报,该记忆权重 +1,更容易被召回。

// AI 自动上报
memok_report_used_memory_ids([123, 456])
→ 句子 123、456 的 weight + 1
5

梦境整理

每日凌晨自动运行:duration 衰减、低权重句子清理、孤儿词删除、记忆合并。

# 每日 03:00 自动执行
predream-decay: 全表 duration -1
dreaming-pipeline: 抽词 → 故事 → 合并 → 清理

技术架构

轻量、本地、可扩展

SQLite
本地存储

单文件数据库,无需部署。支持 1000+ 用户规模。

OpenClaw
插件集成

原生插件 API,无缝集成对话流程。

LLM API
模型无关

支持 DeepSeek、Moonshot、OpenAI 等任何兼容 API。

Croner
定时调度

进程内定时器,无需系统 crontab。

社区与生态

以主仓库为枢纽:Issues 修缺陷、Discussions 聊设计、Star 传递需求信号。模板与集成指南优先在仓库内迭代。

安装 OpenClaw 插件

将 memok 安装为 OpenClaw 插件:一键脚本或克隆后安装。安装即马上体验,无需漫长配置。

方式一一键脚本(推荐)

bash
# Linux / macOS
bash <(curl -fsSL https://raw.githubusercontent.com/galaxy8691/memok-ai/main/scripts/install-linux-macos.sh)

# Windows PowerShell
irm https://raw.githubusercontent.com/galaxy8691/memok-ai/main/scripts/install-windows.ps1 | iex

方式二手动:从仓库安装 OpenClaw 插件

bash
git clone https://github.com/galaxy8691/memok-ai.git
openclaw plugins install ./memok-ai
openclaw memok setup    # 交互式配置 LLM 和梦境时间
openclaw gateway restart

学习、排障与常见问题

视频教程与在线沙箱在路线图中——当前最快路径仍是安装 + GitHub 文档。正式指南扩展前,可先查阅下方 FAQ。

视频教程

安装与召回的录屏教程在规划中,请关注仓库与 Discussions 的首发通知。

即将推出

在线试玩

只读沙箱以便在生产安装前先体验召回——尚无公开 URL,已列入路线图。

路线图

商业合作咨询——请在 GitHub Discussions 说明部署与合规诉求。在明确提供企业 SLA 之前,此处不构成对商业条款的承诺。

安装成功但没有记忆写入,该查什么?

确认 OpenClaw 是否调用了插件钩子、SQLite 路径权限是否正确,并在一轮对话中打开日志。已知网关边界情况见 GitHub Issues。

能否完全不调用云端 embedding?

可以,这是默认路径。Memok 从抽取词与图权重构建关联,仅需您已为 OpenClaw 配置的 LLM 端点。

如何备份或迁移记忆?

对 SQLite 文件与配置目录做快照,与任何有状态服务一样:大版本升级前先备份。

在哪里提集成需求(Slack、Teams、自研 CRM)?

在 Discussions 附上流程草图;我们优先支持能自然映射到「句子 + 关联」模型的集成。

路线图与透明度

开源、本地优先;优先级随维护精力与用户反馈变化——请关注仓库提交与 Issues,并在 Discussions 用具体场景参与讨论。

功能请求与缺陷跟踪 →

已完成
社区版 v1.0
OpenClaw 插件、自动保存、智能召回、梦境优化 ✓
进行中
社区版完善
README、安装脚本、示例配置、常见技术栈集成说明
规划中
可复现基准包
公开脚本与数据集,便于在自有硬件上复跑 Memok 与向量基线对比
规划中
入门视频与托管试玩
录屏安装走读;可选只读沙箱,在生产安装前先感受召回
规划中
企业向安全资料包
威胁模型摘要、数据流图、便于 DPA 起草的表述(不能替代您的法律顾问)

安全与合规姿态

Memok 不能替代您的法务评估。我们提供的是更小、可审计的面:本地 SQLite、显式候选召回、无强制第三方向量上传。静态加密随磁盘/卷策略;传输安全沿用您已为 OpenClaw 与 LLM 配置的 TLS。

  • 访问控制由操作系统/容器 IAM 与 OpenClaw 配置共同承担——凭证轮换沿用现有流程。
  • 不为插件本身宣称 SOC2/HIPAA 等认证;强监管团队请与既有控制措施及文书配套使用。
  • 隐私政策与数据处理说明将随上游仓库版本化发布。

安全公告请关注仓库 →

让 AI 真正记得你

告别冷启动与失忆循环。为 OpenClaw 装上持久、可联想的记忆——任意模型、尤其是小模型,也能凭借连续上下文与召回,做出更大模型才有的连贯与高水准判断。