Все юзкейсы

OpenClaw по-киберпанковски: локальный ассистент на своём железе

Практический сценарий self-hosted OpenClaw: SimpleX вместо номера телефона, локальные Whisper и TTS, память через Markdown и Ollama, а вся инфраструктура — на домашнем NAS.

OpenClaw на домашнем NAS с локальной инфраструктурой и голосовыми сервисами

OpenClaw можно собрать не как очередной чат-бот поверх чужих облаков, а как автономную систему, которая живёт на собственном железе и опирается на локальные сервисы там, где это действительно важно.

В этом сценарии акцент сделан не на «максимуме модных интеграций», а на практичном контроле над инфраструктурой: приватный канал связи, локальная обработка голоса, локальная память и предсказуемое управление бюджетом на модели.

Что входит в такую сборку

1. Канал общения без номера телефона

Для общения с ассистентом используется SimpleX Chat. Такой выбор даёт сразу несколько преимуществ:

  • не нужен телефонный номер;

  • нет публичной директории и лишней метадаты;

  • никто не сможет написать первым без invite-ссылки;

  • канал не завязан на уязвимые для блокировок и сбоев централизованные схемы.

Для OpenClaw это хороший вариант, если хочется минимизировать внешние зависимости уже на уровне транспорта.

2. Локальный speech-to-text через Whisper

Голосовые сообщения можно расшифровывать локально через Whisper, поднятый в домашней сети как HTTP-сервис. В такой схеме:

  • аудио не уходит во внешние API;

  • не нужен отдельный облачный STT-провайдер;

  • транскрибация остаётся доступной внутри локального контура.

Это особенно удобно, если Whisper уже используется для других домашних систем и OpenClaw просто подключается к существующему сервису.

3. Локальный text-to-speech на NAS

Обратный канал — озвучка ответов — может работать через kitten-tts на NAS. Даже компактной модели без GPU уже хватает для нормального голосового ответа, который удобно слушать в мессенджере как обычное голосовое сообщение.

Практический плюс здесь простой: ассистент не только пишет, но и говорит локально, без облачной TTS-цепочки.

Где живёт сам OpenClaw

В описанном сценарии вся инфраструктура OpenClaw развёрнута на Arch Linux внутри Synology NAS. На той же локальной машине живут:

  • оркестрация;

  • память;

  • TTS;

  • навыки и обслуживающие сервисы.

Это даёт несколько важных свойств:

  • железо физически у владельца;

  • энергопотребление остаётся низким;

  • система не зависит от VPS и чужих правил доступа;

  • большую часть сервисов можно держать внутри домашнего контура.

Такой подход не обязателен для всех, но для self-hosted-сценариев это очень сильная архитектурная точка.

Память и поиск по ней — тоже локально

Долговременная память OpenClaw хранится в Markdown-файлах, а семантический поиск по ним можно вынести на локальную embedding-модель через Ollama.

Это означает, что:

  • поиск по памяти не зависит от внешнего embedding API;

  • память продолжает работать даже при офлайн-режиме;

  • инфраструктура становится проще с точки зрения приватности и контроля расходов.

Если цель — действительно автономный агент, локальный memory search здесь почти так же важен, как локальный голос.

Модели через единый шлюз и с контролем бюджета

Для LLM-инференса можно использовать единый API-шлюз вроде Venice.ai, а поверх него — добавить автоматическое переключение моделей по дневному бюджету.

Логика простая:

  • утром система работает на более сильной модели;

  • по мере расхода лимита переходит на более дешёвые варианты;

  • heartbeat-задачи и служебные операции всегда остаются на быстрых и дешёвых моделях.

В результате OpenClaw сохраняет хорошее качество там, где оно нужно, и не сжигает бюджет на рутинные фоновые процессы.

Что в итоге даёт такая архитектура

На выходе получается не просто «чат с LLM», а локально ориентированный ассистент, который:

  • не требует номера телефона для доступа;

  • не отправляет голосовые сообщения в облако;

  • озвучивает ответы локальной моделью;

  • хранит память и ищет по ней локально;

  • работает на собственном железе;

  • может поддерживать и чинить свою среду, а не только отвечать текстом.

Кому подойдёт такой сценарий

Это не массовая конфигурация и не путь «включил за пять минут». Но для тех, кому важны локальность, автономность, предсказуемость и контроль над инфраструктурой, такой подход выглядит очень сильным use-case для OpenClaw.

Он показывает, что OpenClaw можно использовать не только как удобный интерфейс к моделям, но и как полноценного self-hosted-ассистента, встроенного в собственную экосистему сервисов.