Документация Vera
Полностью локальный голосовой агент с оффлайн-распознаванием речи и локальной моделью LLM.
О проекте
Vera — локальный голосовой агент для Windows, работающий без передачи данных в облако. Все вычисления выполняются на компьютере пользователя:
- Распознавание речи: Vosk (оффлайн)
- Модель LLM: Ваша локальная (рекомендуется Qwen 3 1.7B)
- Синтез речи: pyttsx3
Важно: агент может ошибаться. Проверяйте критически важные данные, включая результаты веб-поиска, курсы валют, погодные данные и статистику.
Быстрый старт
Скачайте portable-версию с сайта и запустите:
Vera.exeПоследовательность:
- Дождитесь сообщения «Система готова»
- Скажите слово активации
- Произнесите команду
Режимы работы:
Голосовой режим
Обязательно используйте слово активации перед командой. Агент слушает постоянно, но реагирует только на свое имя.
✕ «Поставь таймер»
Текстовый режим (Терминал)
При вводе команд текстом слово активации не требуется. Вы уже находитесь в контексте диалога.
✓ «Вера, поставь таймер» (тоже сработает)
Консольные команды:
| Команда | Описание |
|---|---|
/help | Справка |
/color green | Цвет консоли |
/mute / /unmute | Управление микрофоном |
/exit | Завершение работы |
Системные требования
| Компонент | Минимум | Рекомендуется |
|---|---|---|
| ОС | Windows 10 x64 | Windows 11 x64 |
| RAM | 4 ГБ | 8+ ГБ |
| Диск | 2 ГБ | 4 ГБ SSD |
| Микрофон | Любой | USB или качественный встроенный |
Установка (для разработчиков)
Если вы хотите запустить агента из исходного кода или внести изменения:
Шаг 1: Клонирование
git clone https://github.com/tripleguard/agent_vera.git
cd agent_veraШаг 2: Зависимости
pip install -r requirements.txtШаг 3: Установка llama-cpp-python (Windows)
Установите Visual C++ Build Tools, затем:
pip install --upgrade pip setuptools wheel
pip install llama-cpp-pythonШаг 4: Модели
Vosk:
- Скачайте модель
vosk-model-small-ru-0.22 - Распакуйте её в корень проекта
LLM:
- Скачайте модель GGUF (например, Q4_K_M)
- Поместите файл в корень проекта (модель автоматически определяется агентом)
- Либо укажите путь в
data/config.json
Шаг 5: Запуск
python -m main.agentСправочник команд
Приложения
Вера, открой хром
Вера, закрой телеграм
Вера, запусти калькуляторАгент использует нечёткий поиск названий программ.
Окна
Вера, сверни окно
Вера, разверни браузер
Вера, переключись на телеграмФайлы и папки
Вера, открой файл отчет
Вера, найди файл резюме
Вера, открой папку проектПоиск выполняется в стандартных пользовательских каталогах.
Системные настройки
Громкость:
Вера, громкость 5
Вера, громкость 75 процентовЯркость:
Вера, яркость 7Прочее:
Вера, сделай скриншот
Вера, какой мой IPПитание
Вера, выключи компьютер
Вера, перезагрузи через час
Вера, спящий режимБез подтверждения выполняются только немедленные команды.
Время и напоминания
Вера, который час
Вера, таймер 10 минут
Вера, напомни через полчаса позвонитьПогода
Вера, погода в МосквеКурсы валют
Вера, курс доллараИсточник: ЦБ РФ.
Веб-поиск и Википедия
Вера, найди информацию о Python
Вера, кто такой Эйнштейн
Вера, открой ютубАгент выполняет поиск через DuckDuckGo, извлекает текст, затем формирует краткий ответ.
Как работает веб-поиск
Этапы:
- Запрос через DuckDuckGo
- Получение списка ссылок
- Загрузка страниц
- Очистка текста
- Суммаризация LLM
Ограничения:
- Возможны блокировки при частых запросах
- Некоторые сайты защищены от парсинга
- Модель может искажать информацию
Конфигурация
Файл: data/config.json
Основные параметры:
| Параметр | Описание |
|---|---|
activation_word | Слово активации |
silence_timeout | Таймаут тишины |
tts.voice_index | Голос Windows |
tts.rate | Скорость речи |
sites | Алиасы для сайтов |
Структура проекта
main/ Ядро агента
web/ Веб-модули
user/ Данные пользователя
data/ Конфигурация и сохранения
vosk-model/ Модель распознавания речи
*.gguf Модель LLMУстранение неполадок
Vosk не загружается
Проверьте наличие директории vosk-model-small-ru-0.22.
LLM не загружается
Проверьте путь до GGUF и корректность файла.
Нет звука
Проверьте корректность значения tts.voice_index.
Микрофон не работает
Проверьте настройки устройства в Windows.
Благодарности
- Георгию Герганову — за вклад в развитие локальных языковых моделей и технологий, лежащих в основе экосистемы LLM.
- Андрею Abetlen — за создание и поддержку проекта llama-cpp-python, позволившего интегрировать локальную LLM в Vera.
Лицензии и ссылки
- Vosk: alphacephei.com/vosk
- llama-cpp-python: github.com/abetlen/llama-cpp-python