- Что такое встроенные ИИ модели в Нейро42
Встроенные ИИ моделей — это набор моделей, размещенных в инфраструктуре Российской Федерации и доступных напрямую из платформы Нейро42.
Вам не нужно:
- создавать аккаунты у внешних провайдеров
- покупать отдельные подписки
- управлять несколькими АПИ(API) ключами
- решать вопросы хостинга
Достаточно сгенерировать один АПИ (API) ключ в личном кабинете, и вы получаете доступ ко всем типам моделей:
- Чат-модели
- Встраиваемые (Embedding) модели
- Речь-в-текст (Speech-to-Text)
Один ключ = весь стек ИИ-возможностей.
- Зачем использовать встроенные ИИ модели
Встроенные модели позволяют:
- Создавать ИИ-агентов
- Строить РАГ (RAG) системы
- Делать семантический поиск
- Обрабатывать аудио
- Автоматизировать интеллектуальные сценарии
- Писать и анализировать код
- Работать с русскоязычными и мультиязычными задачами
Это инфраструктурная основа для продакшн-агентов внутри Нейро42.
- Модели и типы
Модели сгруппированы по задачам. Вы выбираете тип в зависимости от архитектуры вашего сценария.
Чат-модели (текстовые ЛЛМ (LLM))
Используются для:
- ИИ-агентов
- Диалогов
- Генерации текста
- Аналитики
- Задач с рассуждением
- Генерации и отладки кода
Доступные модели
- ai-sage/GigaChat3-10B-A1.8B — универсальная русскоязычная LLM для диалогов
- MiniMaxAI/MiniMax-M2 — сложные аналитические задачи
- zai-org/GLM-4.7-Flash — быстрые ответы и чат-боты
- zai-org/GLM-4.7 — глубокие рассуждения
- openai/gpt-oss-120b — универсальные задачи и сложный текст
- Qwen/Qwen3-Coder-Next — генерация и исправление кода
- Qwen/Qwen3-Coder-480B-A35B-Instruct — работа с крупными кодовыми базами
- Qwen/Qwen3-235B-A22B-Instruct-2507 — сложные инструкции
- Qwen/Qwen3-Next-80B-A3B-Instruct — сбалансированные NLP-задачи
- t-tech/T-lite-it-2.1: легкая русскоязычная LLM для общего NLP
- t-tech/T-pro-it-2.1: продвинутая русскоязычная LLM с улучшенным reasoning
- t-tech/T-pro-it-2.0: предыдущая версия модели для русского текста
- t-tech/T-lite-it-1.0: ранняя русскоязычная легковесная LLM
- t-tech/T-pro-it-1.0: ранняя профессиональная русскоязычная LLM
Когда какую модель выбирать?
- Быстрый чат-бот → GLM-4.7-Flash
- Сложный агент с логикой → MiniMax-M2 или GLM-4.7
- Кодогенерация → Qwen3-Coder
- Русскоязычные бизнес-задачи → GigaChat или T-pro
Встраиваемые (Embedding) модели (поиск и РАГ (RAG))
Используются для:
- Семантического поиска
- Извлечения информации
- Построения баз знаний
- РАГ (RAG)архитектур
Модели:
- Qwen/Qwen3-Embedding-0.6B — текстовые эмбеддинги
- BAAI/bge-m3 — мультиязычный семантический поиск
Если вы строите агента с доступом к документам — без встраиваемой модели не обойтись.
Речь-в-текст (Speech-to-Text)
Используются для:
- Транскрибации звонков
- Голосовых агентов
- Анализа аудио
Модель:
- openai/whisper-large-v3 — точное распознавание речи
⚠️Пожалуйста обратите внимание, что мультимодальность в наших ЛЛМ ключах на данный момент находится в разработке. В связи с этим, возникает ограничение, которое относится только к ноде OpenAI и только при использовании LLM API-ключей, предоставленных нашей платформой.
В текущей версии LLM API keys мультимодальные запросы (текст + изображение/аудио/видео) пока недоступны.
-
Обработка изображений и видео пока не поддерживается.
-
Обработка аудио доступна только через отдельную категорию моделей speech-to-text (Whisper).
Если вы используете собственные ключи OpenAI, доступные мультимодальные возможности зависят от возможностей выбранной модели.
- Как создать АПИ (API) ключ к ИИ моделям
Если у вас ещё нет ключей, на главной странице личного кабинета увидите уведомление:
«У вас пока нет АПИ (API) ключей для ЛЛМ (LLM). Создайте новый ключ, чтобы начать использовать ЛЛМ (LLM) в своих проектах.»
Шаги:
- Прямо на стартовой странице в личном кабинете нажмите на кнопку «Создать АПИ (API)ключ»
- Для создания ключа нужно сделать всего 3 простых действия:
- Дать название на латинице
- Сделать небольшое описание
- Определить время действия данного ключа*
- Как только 3 пункта заполнены кликайте на «Создать»
- Скопируйте созданный ключ
- Сохраните его в безопасном месте
Ключ используется для авторизации во всех моделях.
* Зачем нужен срок действия АПИ (API) ключа
Срок действия АПИ (API) ключа — это ограничение по времени, в течение которого ключ остается действительным для доступа к ЛЛМ (LLM).
Это важно по трем причинам:
- Безопасность
Если ключ случайно утечет (в коде, репозитории, логах), он перестанет работать после окончания срока. Это снижает риск несанкционированного использования.
- Контроль доступа
Можно выдавать временные ключи:
- подрядчикам
- тестовым средам
- отдельным проектам
После завершения работы доступ автоматически закрывается.
- Финансовая защита
Просроченный ключ не позволит генерировать запросы к моделям, что защищает от непредвиденных расходов.
- Подключение ЛЛМ (LLM) через ноду ОпенИИ (OpenAI)
Шаг 1. Добавьте узел
В рабочей среде добавьте узел: Опен ИИ (OpenAI)
Шаг 2. Создайте учетные данные
Откройте:
Учетные данные → Создать учетные данные
Заполните поля:
- АПИ Ключ (API Key) → ваш АПИ (API) ключ из личного кабинета
- Базовый ЮРЛ (Base URL) (обязательно) → https://api.neuro42.ru/v1
Сохраните учетные данные.
Шаг 3. Настройте узел
В узле ОпенИИ (OpenAI):
- Выберите созданные учетные данные
- Выберите нужную модель из списка
После этого узел будет работать как стандартный ОпенИИ-интерфейс.
Готово.
⚠️ Если вы используете Use Responces API, возникает небольшое ограничение, которое относится только к ноде OpenAI и только при использовании LLM API-ключей, предоставленных нашей платформой.
В текущей версии Built-in Tools в Use Responses API пока не поддерживаются.
К таким инструментам относятся встроенные возможности моделей, например:
- web search
- code interpreter
- file search
- другие встроенные инструменты Responses API
- Архитектурные рекомендации
- Используйте разные модели на разных этапах Агента в зависимости от целевой функции
Пример РАГ (RAG) агента:
Встраиваемые (Embedding) → Qwen3-Embedding
Чат-модель → GLM-4.7 или MiniMax
Финальная генерация → GPT-OSS-120B
- Оптимизируйте стоимость
Для простых задач используйте легкие модели (T-lite, GLM-Flash).
Сложные сценарии рассуждения — только там, где это действительно нужно.
- Разделяйте окружения
Рекомендуется:
отдельный ключ для продакшна
отдельный ключ для тестирования
- Частые ошибки
- ❌ Не указали Базовый ЮРЛ (Base URL)
- ❌ Используете тяжелую модель для простой задачи