Плагин памяти для OpenClaw

Дайте ИИ
память как у мозга

Memok — стойкая система памяти для OpenClaw: автосохранение, умное извлечение и ночная «оптимизация сна», чтобы ваши агенты становились сильнее с каждым использованием.

Память независима от модели: одна и та же долговечная ассоциативная среда для любого LLM — фронтирного или локального. Компактные модели получают дальний горизонт суждений и непрерывность, раньше требовавшие гораздо большей модели — мало параметров, поведение «большого мозга».

100K+
Предложений памяти
10M+
Связей слово–предложение
24h
Цикл «сна»

Зачем существует Memok

Агенты по умолчанию забывают: каждая новая сессия выбрасывает накопленный контекст. Векторные стеки помогают, но часто тянут за собой новых вендоров, непрозрачные скоры и тяжёлые пайплайны эмбеддингов — больно для команд, которым нужно оставаться локальными или быстро выкатывать малые модели.

Memok начался с простой цели: долговечная, объяснимая память, которая ставится вместе с агентом, уважает приватность и улучшается, пока вы спите — чтобы перейти от «крутого демо» к «боевому копилоту» без налога платформы памяти.

Проблема → стойкая память на вашем стеке → измеримая непрерывность для агентов. Отдельный SaaS памяти не нужен.

Мы не публикуем тегированные релизы; изменения попадают в основную ветку. Баги — в Issues; широкие темы — в Discussions.

История Memok

Как мы дали ИИ память, похожую на человеческую — в пяти простых главах.

1. Как запоминают люди

Представьте мозг на совещании. Руководитель говорит три вещи:

  • «Квартальный отчёт — к пятнице»
  • "Новый клиент: Elena Rossi, +44 20 7946 0958"
  • «Командный обед в 15:00»

Мозг не сохраняет всё совещание целиком. Он режет поток на смысловые куски — «отчёт—пятница—дедлайн», «Elena—клиент—телефон», «обед—15:00—команда» — и помечает их. Важному — «красные» метки, остальному — «серые». Через неделю красные ещё на виду, серые поблекли.Пользуйся памятью — или потеряешь.

2. ИИ был золотой рыбкой

Сегодняшние чат-боты (ChatGPT, Claude и др.) — как очень умный человек с амнезией.

Вы: «Люблю рыбачить на Комо. Там лучше всего берут на червей.»

ИИ: «Комо — знаменитое место: чистая вода, много рыбы. С червями там действительно хорошо ловится.»

На следующий день:

Вы: «Где я вчера говорил, что рыбачу?»

ИИ: «Извините, что вы вчера говорили?»

Каждый новый чат — как стирание памяти.

3. Memok даёт ИИ «мозг»

Memok делает одну простую вещь: строит для ИИ систему памяти, похожую на человеческую.

Шаг 1: разложить по полочкам

Во время диалога Memok не хранит весь лог. Он спрашивает LLM:

«Какие здесь ключевые предложения? Какие базовые понятия?»

История про рыбалку превращается в строки таблицы:

ПредложениеКлючевые слова
«Рыбачил на озере Комо»Комо, рыбалка
«Ловил на червей»черви, наживка
«Поймал пять окуней»окунь, улов
«Был очень доволен»радость, опыт

Затем всё уходит в базу — предложения связаны со словами.

4. Метки и система убеждений

У каждого предложения два поля:

Weight (важность)

Насколько это важно? Стартует с 1.

Duration (свежесть)

Насколько это новое? Стартует с 7 дней.

Новые записи — это кратковременная память: как то, что вы только что услышали. Неделю помните отчётливо, потом след может поблекнуть.

Когда снова заходите про рыбалку, Memok подмешивает кандидатов случайно — но не совсем вслепую: чем выше вес и свежее duration, тем выше шанс попасть в выборку.Если ИИ использует воспоминание, Weight +1, Duration +1. Чем больше вы говорите о рыбалке, тем «ярче» остаются узлы «Комо» и «рыбалка».

5. ИИ видит сны ночью

Зачем людям сон? Нейронаука показывает: во сне мозг делает важную работу:

  • перебирает, что усвоил за день
  • выбрасывает лишнее
  • укрепляет важное

Memok даёт ИИ «сон» — каждую ночь около 3:00 автоматический «сон» (dream).

Шаг сна 1: отбор записей

  • Weight ≥ 7? → перевести в долговременную память (не удалять)
  • Duration −= 1 (7→6→5→4→3→2→1→0)
  • Duration = 0 и Weight < 7? → удалить (забыто)

Простое правило: о чём часто говорят — закрепляется; о чём забыли — уходит.

Зачем нужен Memok

Memok хочет, чтобы ИИ по-настоящему помнил вас.

Не «положил файл в папку», а как старый друг:

  • помнит, что вы любите рыбалку, и сам заводит разговор в следующий раз;
  • помнит, что отчёт в пятницу, и напомнит в среду;
  • помнит ваши переживания и спросит о них позже.

ИИ с памятью — не просто умнее.
Он ближе к вам.

Голоса сообщества

Мы поддерживаем публичные заметки в GitHub Discussions — развёртывание, до/после, педагогические идеи. Ниже короткие анонимные иллюстративные сценарии ранних установок OpenClaw + Memok (синтетика, не реклама).

После недели ночных «dream»-прогонов ассистент перестал заново спрашивать чеклист релиза — тот же маленький модельный слой, меньше потерянных ограничений.

Синтетика · внутренний пилот (иллюстрация)

SQLite в VPC упростил согласование: не добавляли нового вендора векторов, строки в БД можно аудировать напрямую.

Синтетика · регул. отрасль (иллюстрация)

Концепты прошлой лабы мягко всплывали в новых заданиях — меньше повторов определений для ассистентов преподавателя.

Синтетика · обучение (иллюстрация)

Это анонимные синтетические примеры, а не проверенные отзывы для любой нагрузки. Делитесь воспроизводимыми историями в Discussions.

Обсудить в Discussions →

Создаём открыто

Memok развивается вместе с контрибьюторами репозиториев memok-ai (ядро) и memok-ai-openclaw (плагин) — отдельного «вендорского списка» здесь нет. Читайте код, заводите issues или присылайте точечный PR.

Граф контрибьюторов →

Ключевые возможности

Не просто хранилище — память как у мозга: избирательное кодирование, ассоциативное извлечение и ночная консолидация. Один и тот же мощный слой для любой модели; лёгкие агенты ведут себя «выше своего» числа параметров.

Автосохранение

После каждого раунда диалога извлекает суть и складывает в локальный SQLite. Без ручных действий — сам разговор становится памятью.

Умное извлечение

Случайная выборка слов и веса связей: перед раундом подмешиваются кандидаты в память. ИИ сам решает, что использовать.

Оптимизация «сна»

Ночью запускается конвейер «сна»: затухание весов, чистка сирот, слияние — со временем память становится точнее.

Память как у мозга — с опорой на науку

Memok — не «векторное хранилище с красивым названием». Конвейер сознательно опирается на идеи когнитивистики: избирательное кодирование, ассоциативное извлечение, консолидация в «офлайне» и управляемое забывание — чтобы поведение было объяснимым и пригодным для аудита. Меньше движущихся частей, чем у стека эмбеддингов, но понятнее путь от теории до кода в проде.

Научные опоры (вдохновлено наукой, не медицинские заявления)

  • Кодирование и салиентность — каждый раунд выделяет ключевые предложения и слова, ближе к «памяти по сути», чем к сырому логу.
  • Ассоциативное извлечение — взвешенный граф слово–предложение напоминает распространение активации: извлечение — это объяснимые цепочки, а не непрозрачный косинус.
  • Консолидация («сон») — ночная обрезка, слияние и затухание похожи на реорганизацию памяти во сне из литературы.
  • Забывание как функция — слабые связи подрезаются, чтобы агент не тонул в устаревшем контексте — аналог адаптивного забывания.

Технический whitepaper

Публикуем подробный разбор алгоритмов Memok: построение графа, извлечение на сэмплировании, обновление весов, конвейеры «сна» и компромиссы со сложностью против плотных векторных индексов. Для security review, академических ссылок или внутренних архитектурных советов.

Для кого Memok

Не только соло-разработчики ИИ: команды, которые внедряют агентов в реальные организации и аудитории.

🛠️

Создатели ИИ и интеграторы

Авторы плагинов, платформенные инженеры и операторы OpenClaw, которым нужна стойкая память без отдельного векторного SaaS.

🏢

Корпоративный и внутренний ИИ

Копилоты на CRM, поддержке, операциях и базах знаний — где диалоги должны накапливаться неделя за неделей, а не обнуляться с каждым тикетом.

🎓

Образование и исследования

Воспроизводимая локальная память для лабораторий, ассистентов преподавателей и исследований «человек–ИИ» — граф, который можно разобрать, а не чёрный ящик retrieval.

🔒

Регулируемые команды и сильный IP

Юридические, финансовые, смежные с медициной процессы и НИОКР, где по умолчанию нельзя отправлять транскрипты на сторонние embedding API.

Малые модели — большое суждение

Фронтирные модели — не единственный путь к «умным» агентам. Memok даёт командам с ограниченными ресурсамитот же стойкий ассоциативный слой: локальная 7B или <10B может рассуждать с непрерывностью, предпочтениями пользователя и контекстом организации, за которые раньше платили гораздо большим чеком. Бюджет — на комплаенс и UX, а не только на число параметров.

Приватность прежде всего — на вашем железе

Воспоминания живут в SQLite на вашей машине или в VPC — без обязательной выгрузки текста диалогов в векторное облако. Это структурное преимущество для чувствительных к данным отраслей: проще DPIA, яснее резидентность, проще air-gapped и «суверенные» облака. Стыкуйте с вашим KMS, бэкапами и политиками доступа — без очередного списка субпроцессоров вендора.

  • По умолчанию эмбеддинги не обязательны — меньше поверхность атаки, чем у полного RAG-стека.
  • После установки можно работать офлайн: лаборатории, периферия, режимы близкие к закрытым контурам (с вашей оценкой комплаенса).

Сценарии, под которые мы проектируем

Составные сценарии — иллюстрация поведения памяти, не платные кейсы.

Подставьте свои имена и цифры в пилоте; механика остаётся той же.

🎧

Копилот поддержки

Тикет наследует прошлые симптомы, особенности SKU и исключения из политик, которые команда уже решила. Модель видит кандидатов в память до ответа — меньше повторов, быстрее первый контакт.

📚

Помощник в обучении

Темы, с которыми студент буксовал на прошлой неделе, всплывают при связанных вопросах. Прогресс — предложения и связи, а не гигантский дамп чата — проще аудит для преподавателя.

🏛️

Корпоративные знания из диалогов

Постмортемы, runbook и звонки продаж копятся как структурированная память, а не тонут в Slack. Извлечение остаётся на SQLite в вашем VPC для чувствительных секторов.

Бенчмарки

Реальные показатели из эксплуатации

<50ms
Задержка извлечения
локальный запрос SQLite
~200ms
Скорость сохранения
на раунд диалога
~15MB
Хранилище
для 1000+ предложений и связей

Сравнение с классическими векторными БД

Коротко: Memok держит граф памяти в SQLite рядом с агентом; облачные векторы чаще дают сетевой хоп и отдельный счёт.

ФункцияMemokPinecone/Weaviate
Стоимость развёртывания
Бесплатно (SQLite)$25–200/мес
Метод извлечения
Ассоциации слов + весатолько векторное сходство
Объяснимость
знает почемучёрный ящик
Холодный старт
работает сразунужен большой датасет
Приватность
данные остаются локальнозагрузка в облако
🧠

Настоящее ассоциативное извлечение

В отличие от векторных БД, которые ищут только «похожее», Memok связывает смыслы между темами: скажите «React» — всплывут hooks, bundler, SSR — связано по контексту, хоть и не совпадает семантически.

Самооптимизация

«Сон» ночью убирает 20–30% низкоценных записей. Использованные получают weight +1 и со временем точнее. В наших прогонах доля «полезной» памяти за несколько дней выросла с ~60% до 85%+.

🎯

Ноль настроек

Не нужно крутить эмбеддинги, размерности и индексы: установили — и поток памяти пошёл. Одна команда — и можно работать.

Как мы валидируем (и чего ещё не хватает)

Цифры на странице — из долгоживущих внутренних dogfood-инсталляций: они для порядка величин, а не замена вашим бенчмаркам на своём железе, модели приватности и смеси промптов. Готовим воспроизводимый harness (датасеты + скрипты), чтобы стороны могли перезапустить сравнения без слепой веры в наш текст.

Эталонное железо (ориентир)

ПрофильКонфигурацияRecall p50 (локальный SQLite)
Ноутбук разработчика8–16 ГБ ОЗУ, SSD, один пользователь<50 мс типичная выборка кандидатов
Небольшой VPC2 vCPU, рядом с OpenClawТот же порядок; упирается в диск и размер графа
Рабочая станция32 ГБ ОЗУ, NVMe, хост с несколькими плагинамиЗапас под большие графы; удалённого векторного hop всё ещё нет

Сравнение по задачам (векторная БД vs Memok)

  • Передача кейса между операторами — векторный поиск находит семантически похожие тикеты; Memok поднимает цепочки решений («возврат + магазинный кредит»), привязанные к истории аккаунта, даже если формулировки разошлись.
  • Q&A по runbook — чистый косинус может потерять процедурный клей («после шага 3 откатить фичефлаг X»). Memok хранит такие шаги связанными предложениями с растущим весом при повторном использовании.
  • Пара с малой моделью — в dogfood ночные проходы «сна» подняли качество извлечения по человеческой оценке с ~60% до 85%+ за несколько дней без смены базовой LLM. У вас будет иначе; это стимул прогнать будущий публичный harness.
“Не идеальный векторный поиск, зато максимально «мозговая» память — с забыванием, ассоциацией, подкреплением и нулевой ценой и нулевой эксплуатацией.”

Как это работает

Похоже на механизмы человеческой памяти: кодирование → хранение → извлечение → консолидация

Кодирование → Хранение → Извлечение → Сон (консолидация)
1

Кодирование диалога

После каждого диалога в OpenClaw Memok автоматически выделяет ключевые предложения (core_idea) и слова (core_words).

// Запускается само, без ручных действий
Диалог → извлечь суть → SQLite
2

Хранение памяти

Иерархия данных: слова (сырые), normal_words (нормализованные понятия), предложения, links (связи).

sentences: 1,176 записей
normal_words: 1,548 понятий
sentence_to_normal_link: 110,956 связей
3

Умное извлечение

Перед раундом случайно берётся ~20% словаря плюс слова запроса, поднимаются связанные предложения и подмешиваются в системный контекст.

// Кандидаты в память подставляются автоматически
(memok) Ниже кандидаты памяти для раунда...
- [id=123] memok v2: конвейер на 8 мин быстрее v1
- [id=456] Дизайн «сна»: чистка предложений и слов
4

Обратная связь по использованию

Если ИИ использовал воспоминание, вызывается memok_report_used_memory_ids — вес записи +1, она чаще попадёт в выборку.

// ИИ сообщает об использовании сам
memok_report_used_memory_ids([123, 456])
→ предложения 123, 456: weight + 1
5

Ночная «организация сна»

Каждое раннее утро: затухание duration, чистка слабых предложений, удаление «сирот»-слов, слияние памяти.

# Ежедневно около 03:00
predream-decay: duration -1 для всех записей
dreaming-pipeline: слова → история → merge → cleanup

Архитектура

Лёгкий, локальный, масштабируемый

SQLite
Локальное хранилище

Один файл БД, без отдельного деплоя. Держит масштаб 1000+ пользователей.

OpenClaw
Интеграция плагина

Нативный API плагинов, встроенный в поток диалога.

LLM API
Независимость от модели

DeepSeek, Moonshot, OpenAI или любой совместимый API.

Croner
Планировщик

Планировщик внутри процесса, системный crontab не нужен.

Сообщество и экосистема

Живите рядом с upstream: memok-ai — конвейер памяти; memok-ai-openclaw — плагин OpenClaw, issues, Discussions (в memok-ai) и звёзды как сигнал. Шаблоны и гайды по интеграции появляются там первыми.

Установить плагин OpenClaw

Поставьте Memok как плагин OpenClaw — скрипт в один клик или ручной clone. Память ощущается сразу после установки— без долгой подготовки «прежде чем заработает».

Первый запуск может занять время. При первой установке качается и поднимается OpenClaw со всем деревом зависимостей — на обычном канале это несколько минут: не зависло, просто тянет зависимости.

Способ 1Скрипт в один клик (рекомендуется)

bash
# Linux / macOS
bash <(curl -fsSL https://raw.githubusercontent.com/galaxy8691/memok-ai-openclaw/main/scripts/install-linux-macos.sh)

# Windows (PowerShell)
irm https://raw.githubusercontent.com/galaxy8691/memok-ai-openclaw/main/scripts/install-windows.ps1 | iex

Способ 2Вручную: плагин OpenClaw из репозитория

bash
git clone https://github.com/galaxy8691/memok-ai-openclaw.git
openclaw plugins install ./memok-ai-openclaw
openclaw memok setup    # Интерактивно: LLM и расписание «сна»
openclaw gateway restart

Учиться, отлаживаться, углубляться

Видео-гайды и хостинговая песочница в дорожной карте — сегодня быстрейший путь: установка и документация на GitHub. Пока расширяем гайды, пользуйтесь FAQ.

Видео-гайд

Запись установки и извлечения памяти запланирована. Следите за репозиторием и Discussions за первым релизом.

Скоро

Хостинговая песочница

Песочница только для чтения, чтобы почувствовать извлечение до продакшена — в дорожной карте, публичного URL пока нет.

Дорожная карта

Коммерческие запросы — опишите развёртывание и требования комплаенса в GitHub Discussions. Это не обязательство по enterprise SLA, пока мы явно не предложим иное.

Установка прошла, но память не появляется — что проверить?

Убедитесь, что OpenClaw вызывает хуки плагина, проверьте права на путь SQLite и прогоните один раунд диалога с логированием. Известные edge cases шлюза — в Issues на GitHub.

Можно ли без исходящих вызовов к embedding API?

Да — это путь по умолчанию. Memok строит связи из извлечённых слов и весов графа; нужен лишь тот LLM endpoint, который вы уже настроили для OpenClaw.

Как бэкапить или мигрировать память?

Бэкапьте файл SQLite и каталог конфигурации, которые использует ваша установка. Как у любого stateful-сервиса: снимок перед обновлениями.

Где запросить интеграции (Slack, Teams, свой CRM)?

Откройте Discussion с наброском процесса. В приоритете интеграции, которые хорошо ложатся на модель предложение–связь.

Дорожная карта и прозрачность

Открытый код и локальный приоритет — community-редакция развивается. Приоритеты меняются вместе с ресурсами мейнтейнеров и сигналом пользователей: следите за репо и участвуйте в Discussions с конкретными сценариями.

Запросы функций и баг-трекер →

Готово
Сообщество v1.0
плагин OpenClaw, автосохранение, умное извлечение, оптимизация сна ✓
В работе
Улучшения для сообщества
README, скрипты установки плагина (memok-ai-openclaw), примеры конфигов, гайды по типовым стекам
Запланировано
Воспроизводимый бенчмарк-harness
Публичные скрипты и датасеты, чтобы команды сами гоняли Memok против векторных баз на своём железе
Запланировано
Онбординг-видео и хостинговая песочница
Записанный walkthrough по установке; опциональная read-only песочница, чтобы почувствовать извлечение до продакшена
Запланировано
Security pack для enterprise
Краткая модель угроз, схемы потоков данных, формулировки под DPA (не замена вашему юристу)

Безопасность и комплаенс

Memok не заменяет вашу юридическую экспертизу. Мы даём компактную, проверяемую поверхность: локальный SQLite, явные кандидаты извлечения, без обязательной выгрузки в сторонний векторный сервис. Шифрование на диске — по вашей политике томов; транспорт — как вы уже завершаете TLS к OpenClaw и провайдеру LLM.

  • Контроль доступа — это IAM ОС/контейнера плюс конфигурация OpenClaw; крутите секреты так же, как сегодня.
  • Мы не заявляем SOC 2 или HIPAA для самого плагина; регулируемые команды должны сочетать Memok со своими контролями и документами.
  • Политика приватности и формулировки по данным будут жить рядом с upstream-репозиторием и версионироваться вместе с кодом.

Следите за репозиторием для security advisories →

Пусть ИИ по-настоящему помнит вас

Без холодного старта и петель амнезии. Дайте OpenClaw стойкую память уровня агента — чтобы любая модель, особенно меньшая, рассуждала с непрерывностью и контекстом, как гораздо более крупный «мозг».