OpenClaw по-киберпанковски: локальный ассистент на своём железе
Практический сценарий self-hosted OpenClaw: SimpleX вместо номера телефона, локальные Whisper и TTS, память через Markdown и Ollama, а вся инфраструктура — на домашнем NAS.

OpenClaw можно собрать не как очередной чат-бот поверх чужих облаков, а как автономную систему, которая живёт на собственном железе и опирается на локальные сервисы там, где это действительно важно.
В этом сценарии акцент сделан не на «максимуме модных интеграций», а на практичном контроле над инфраструктурой: приватный канал связи, локальная обработка голоса, локальная память и предсказуемое управление бюджетом на модели.
Что входит в такую сборку
1. Канал общения без номера телефона
Для общения с ассистентом используется SimpleX Chat. Такой выбор даёт сразу несколько преимуществ:
не нужен телефонный номер;
нет публичной директории и лишней метадаты;
никто не сможет написать первым без invite-ссылки;
канал не завязан на уязвимые для блокировок и сбоев централизованные схемы.
Для OpenClaw это хороший вариант, если хочется минимизировать внешние зависимости уже на уровне транспорта.
2. Локальный speech-to-text через Whisper
Голосовые сообщения можно расшифровывать локально через Whisper, поднятый в домашней сети как HTTP-сервис. В такой схеме:
аудио не уходит во внешние API;
не нужен отдельный облачный STT-провайдер;
транскрибация остаётся доступной внутри локального контура.
Это особенно удобно, если Whisper уже используется для других домашних систем и OpenClaw просто подключается к существующему сервису.
3. Локальный text-to-speech на NAS
Обратный канал — озвучка ответов — может работать через kitten-tts на NAS. Даже компактной модели без GPU уже хватает для нормального голосового ответа, который удобно слушать в мессенджере как обычное голосовое сообщение.
Практический плюс здесь простой: ассистент не только пишет, но и говорит локально, без облачной TTS-цепочки.
Где живёт сам OpenClaw
В описанном сценарии вся инфраструктура OpenClaw развёрнута на Arch Linux внутри Synology NAS. На той же локальной машине живут:
оркестрация;
память;
TTS;
навыки и обслуживающие сервисы.
Это даёт несколько важных свойств:
железо физически у владельца;
энергопотребление остаётся низким;
система не зависит от VPS и чужих правил доступа;
большую часть сервисов можно держать внутри домашнего контура.
Такой подход не обязателен для всех, но для self-hosted-сценариев это очень сильная архитектурная точка.
Память и поиск по ней — тоже локально
Долговременная память OpenClaw хранится в Markdown-файлах, а семантический поиск по ним можно вынести на локальную embedding-модель через Ollama.
Это означает, что:
поиск по памяти не зависит от внешнего embedding API;
память продолжает работать даже при офлайн-режиме;
инфраструктура становится проще с точки зрения приватности и контроля расходов.
Если цель — действительно автономный агент, локальный memory search здесь почти так же важен, как локальный голос.
Модели через единый шлюз и с контролем бюджета
Для LLM-инференса можно использовать единый API-шлюз вроде Venice.ai, а поверх него — добавить автоматическое переключение моделей по дневному бюджету.
Логика простая:
утром система работает на более сильной модели;
по мере расхода лимита переходит на более дешёвые варианты;
heartbeat-задачи и служебные операции всегда остаются на быстрых и дешёвых моделях.
В результате OpenClaw сохраняет хорошее качество там, где оно нужно, и не сжигает бюджет на рутинные фоновые процессы.
Что в итоге даёт такая архитектура
На выходе получается не просто «чат с LLM», а локально ориентированный ассистент, который:
не требует номера телефона для доступа;
не отправляет голосовые сообщения в облако;
озвучивает ответы локальной моделью;
хранит память и ищет по ней локально;
работает на собственном железе;
может поддерживать и чинить свою среду, а не только отвечать текстом.
Кому подойдёт такой сценарий
Это не массовая конфигурация и не путь «включил за пять минут». Но для тех, кому важны локальность, автономность, предсказуемость и контроль над инфраструктурой, такой подход выглядит очень сильным use-case для OpenClaw.
Он показывает, что OpenClaw можно использовать не только как удобный интерфейс к моделям, но и как полноценного self-hosted-ассистента, встроенного в собственную экосистему сервисов.