Перейти к содержимому

LLM модели в n8n

Полный справочник по языковым моделям, поддерживаемым в n8n через LangChain

n8n поддерживает 20+ языковых моделей через интеграцию с LangChain. Эта страница поможет выбрать подходящую модель для вашего проекта.

МодельПровайдерКонтекстЦена (input/1M)СкоростьКачество
GPT-4oOpenAI128K$2.50ВысокаяОтличное
GPT-4o-miniOpenAI128K$0.15Очень высокаяХорошее
Claude 3.5 SonnetAnthropic200K$3.00ВысокаяОтличное
Claude 3 HaikuAnthropic200K$0.25Очень высокаяХорошее
Gemini 1.5 ProGoogle1M$1.25ВысокаяОтличное
Gemini 1.5 FlashGoogle1M$0.075Очень высокаяХорошее
Mistral LargeMistral128K$2.00ВысокаяОтличное
Llama 3.1 70BGroq128K$0.59ЭкстремальнаяХорошее
МодельРазмерRAMСкоростьКачество
Llama 3.2 3B2 GB4 GBБыстраяБазовое
Llama 3.2 11B7 GB12 GBСредняяХорошее
Mistral 7B4 GB8 GBБыстраяХорошее
Mixtral 8x7B26 GB48 GBМедленнаяОтличное
Qwen 2.5 7B4 GB8 GBБыстраяХорошее
DeepSeek Coder7 GB12 GBСредняяОтличное (код)

  1. Получите API ключ на platform.openai.com
  2. В n8n: SettingsCredentialsAdd CredentialOpenAI API
  3. Вставьте ключ
gpt-4o # Лучшая модель OpenAI
gpt-4o-mini # Быстрая и дешёвая
gpt-4-turbo # Предыдущее поколение
gpt-3.5-turbo # Устаревшая, но дешёвая
o1-preview # Модель с reasoning
o1-mini # Быстрая reasoning модель

Для чат-ботов

gpt-4o-mini — баланс цены и качества

Для сложных задач

gpt-4o — максимальное качество

Для кода

gpt-4o или o1-mini для рассуждений


  1. Получите ключ на console.anthropic.com
  2. В n8n: CredentialsAnthropic API
  3. Вставьте ключ
claude-3-5-sonnet-latest # Лучшая модель для большинства задач
claude-3-5-haiku-latest # Быстрая и дешёвая
claude-3-opus-latest # Максимальное качество (дорогая)
  • Thinking mode — модель показывает ход рассуждений
  • 200K контекст — больше чем у OpenAI
  • Лучше для длинных документов и анализа
// Включение thinking mode в настройках модели:
// Extended Thinking: true
// Max Tokens to think: 10000

  1. Получите ключ на aistudio.google.com
  2. В n8n: CredentialsGoogle AI API
  3. Вставьте ключ
gemini-1.5-pro # Основная модель
gemini-1.5-flash # Быстрая версия
gemini-1.5-flash-8b # Самая быстрая
gemini-2.0-flash # Новейшая (экспериментальная)
  • 1 миллион токенов контекста — уникальная возможность
  • Multimodal — работает с изображениями и видео
  • Бесплатный tier — до 60 запросов в минуту

Окно терминала
curl -fsSL https://ollama.com/install.sh | sh
ollama serve &
Окно терминала
# Рекомендуемые модели:
ollama pull llama3.2 # 3B, быстрая
ollama pull llama3.1:8b # 8B, баланс
ollama pull mistral # 7B, хорошее качество
ollama pull qwen2.5:7b # 7B, отлично для русского
ollama pull deepseek-coder # Для программирования
  1. CredentialsOllama API
  2. Base URL: http://localhost:11434 (или IP сервера)
  3. В ноде выберите загруженную модель
  • Конфиденциальные данные (не уходят в облако)
  • Экономия на API запросах
  • Офлайн работа
  • Тестирование и разработка

Groq предоставляет самый быстрый inference для open-source моделей.

  1. Получите ключ на console.groq.com
  2. В n8n: CredentialsGroq API
llama-3.3-70b-versatile # Лучшее качество
llama-3.1-8b-instant # Самая быстрая
mixtral-8x7b-32768 # Хороший баланс
  • Скорость: до 700 токенов/сек (vs ~50 у OpenAI)
  • Цена: дешевле OpenAI в 3-5 раз
  • Качество: open-source модели уровня GPT-3.5

  1. Получите ключ на console.mistral.ai
  2. В n8n: CredentialsMistral Cloud API
mistral-large-latest # Топовая модель
mistral-medium-latest # Баланс
mistral-small-latest # Быстрая и дешёвая
codestral-latest # Для программирования
  • Европейский провайдер (GDPR compliant)
  • Отличное качество для своей цены
  • Сильная поддержка кода

Для enterprise-клиентов с требованиями к compliance.

  1. Создайте ресурс Azure OpenAI в portal.azure.com
  2. Получите endpoint и API key
  3. В n8n: CredentialsAzure OpenAI API
    • Resource Name
    • API Key
    • API Version
  • SLA 99.9%
  • Данные остаются в вашем регионе
  • Enterprise security

ПриоритетРекомендация
КачествоClaude 3.5 Sonnet, GPT-4o
БалансGPT-4o-mini, Gemini Flash
СкоростьGroq Llama 3.1 8B
БюджетOllama + Llama 3.2
ЗадачаРекомендация
Code reviewClaude 3.5 Sonnet
Генерация кодаGPT-4o, Codestral
ДебагClaude 3.5, o1-mini
Локальная разработкаDeepSeek Coder
Размер документаРекомендация
До 50K токеновGPT-4o-mini
До 200K токеновClaude 3.5 Sonnet
До 1M токеновGemini 1.5 Pro
ТребованиеРекомендация
Качество ответовClaude 3.5, GPT-4o
СкоростьGroq, Gemini Flash
КонфиденциальностьOllama + Llama 3.1

// Сначала тестируйте с gpt-4o-mini
// Переключайтесь на gpt-4o только если качество недостаточно
// Если основная модель недоступна — переключение на резервную
// В n8n: Error Workflow → другой AI Agent с Ollama
// Одинаковые запросы → одинаковые ответы
// Храните результаты в Redis или базе данных

Все LLM ноды в n8n имеют одинаковый интерфейс. Для смены модели:

  1. Отключите текущую Model ноду
  2. Добавьте новую (например, Anthropic вместо OpenAI)
  3. Подключите к Agent/Chain
  4. Настройте credentials