Все LLM в одном окне
Claude, GPT, Gemini, Grok, Ollama, DeepSeek и другие — переключение одной командой /login.
Console.Matrix — гиперсовременный, кроссплатформенный AI-терминал со встроенным Qwen 2.5: рабочая ИИ-консоль из коробки, без ключей и регистрации. Один интерфейс ко всем LLM: Claude, GPT, Gemini, Grok, локальный Ollama. Без подписок-посредников и без чужих серверов.
Шесть причин, по которым обычный чат-бот больше не нужен.
Claude, GPT, Gemini, Grok, Ollama, DeepSeek и другие — переключение одной командой /login.
API-ключи хранятся локально. Никаких прокси и никаких серверов «между».
Несколько вкладок одновременно: каждая со своей моделью, контекстом и историей.
Windows, macOS, Linux, Android, iOS. Один и тот же интерфейс, одна и та же эстетика.
Цифровой дождь, командная строка, телеметрия токенов в реальном времени, 100% клавиатура.
MIT-лицензия, прозрачный код, форкайте, аудитируйте, расширяйте под себя.
Слева — список агентов. В центре — диалог. Справа — реальная телеметрия токенов.
Бесплатно. Везде. Открыто.
Все сборки подписаны. SHA-256 рядом с каждым файлом. Никакой регистрации.
Да. Сама программа бесплатна. Платите вы только напрямую тому LLM-провайдеру, чей ключ вы используете (OpenAI, Anthropic и т.д.), по их же тарифам — без накруток.
Только к выбранному провайдеру. Тексты диалогов и API-ключи остаются у вас — Console.Matrix не имеет сервера-посредника для трафика к LLM.
Да. Подключите Ollama, LM Studio или любой OpenAI-совместимый локальный сервер — общайтесь с моделью локально, без внешних API LLM.
Один UI на всех платформах, параллельные агенты, реальная телеметрия токенов, ваши ключи, ваши данные, эстетика терминала и нулевые подписки-посредники.
Нет. В Console.Matrix встроен Qwen 2.5 — он работает сразу из коробки, без регистрации и ключей. Когда захотите более сильную модель — добавьте Claude / GPT / Mistral одним /login.
Идея, баг, оффер — пишите. Отвечает живой человек.