Для чат-ботов
gpt-4o-mini — баланс цены и качества
Полный справочник по языковым моделям, поддерживаемым в n8n через LangChain
n8n поддерживает 20+ языковых моделей через интеграцию с LangChain. Эта страница поможет выбрать подходящую модель для вашего проекта.
| Модель | Провайдер | Контекст | Цена (input/1M) | Скорость | Качество |
|---|---|---|---|---|---|
| GPT-4o | OpenAI | 128K | $2.50 | Высокая | Отличное |
| GPT-4o-mini | OpenAI | 128K | $0.15 | Очень высокая | Хорошее |
| Claude 3.5 Sonnet | Anthropic | 200K | $3.00 | Высокая | Отличное |
| Claude 3 Haiku | Anthropic | 200K | $0.25 | Очень высокая | Хорошее |
| Gemini 1.5 Pro | 1M | $1.25 | Высокая | Отличное | |
| Gemini 1.5 Flash | 1M | $0.075 | Очень высокая | Хорошее | |
| Mistral Large | Mistral | 128K | $2.00 | Высокая | Отличное |
| Llama 3.1 70B | Groq | 128K | $0.59 | Экстремальная | Хорошее |
| Модель | Размер | RAM | Скорость | Качество |
|---|---|---|---|---|
| Llama 3.2 3B | 2 GB | 4 GB | Быстрая | Базовое |
| Llama 3.2 11B | 7 GB | 12 GB | Средняя | Хорошее |
| Mistral 7B | 4 GB | 8 GB | Быстрая | Хорошее |
| Mixtral 8x7B | 26 GB | 48 GB | Медленная | Отличное |
| Qwen 2.5 7B | 4 GB | 8 GB | Быстрая | Хорошее |
| DeepSeek Coder | 7 GB | 12 GB | Средняя | Отличное (код) |
gpt-4o # Лучшая модель OpenAIgpt-4o-mini # Быстрая и дешёваяgpt-4-turbo # Предыдущее поколениеgpt-3.5-turbo # Устаревшая, но дешёваяo1-preview # Модель с reasoningo1-mini # Быстрая reasoning модельДля чат-ботов
gpt-4o-mini — баланс цены и качества
Для сложных задач
gpt-4o — максимальное качество
Для кода
gpt-4o или o1-mini для рассуждений
claude-3-5-sonnet-latest # Лучшая модель для большинства задачclaude-3-5-haiku-latest # Быстрая и дешёваяclaude-3-opus-latest # Максимальное качество (дорогая)// Включение thinking mode в настройках модели:// Extended Thinking: true// Max Tokens to think: 10000gemini-1.5-pro # Основная модельgemini-1.5-flash # Быстрая версияgemini-1.5-flash-8b # Самая быстраяgemini-2.0-flash # Новейшая (экспериментальная)curl -fsSL https://ollama.com/install.sh | shollama serve &# Скачайте с https://ollama.com/download# Или через Homebrew:brew install ollamaollama serve# Скачайте installer с https://ollama.com/download# После установки запустите Ollama из меню# Рекомендуемые модели:ollama pull llama3.2 # 3B, быстраяollama pull llama3.1:8b # 8B, балансollama pull mistral # 7B, хорошее качествоollama pull qwen2.5:7b # 7B, отлично для русскогоollama pull deepseek-coder # Для программированияhttp://localhost:11434 (или IP сервера)Groq предоставляет самый быстрый inference для open-source моделей.
llama-3.3-70b-versatile # Лучшее качествоllama-3.1-8b-instant # Самая быстраяmixtral-8x7b-32768 # Хороший балансmistral-large-latest # Топовая модельmistral-medium-latest # Балансmistral-small-latest # Быстрая и дешёваяcodestral-latest # Для программированияДля enterprise-клиентов с требованиями к compliance.
| Приоритет | Рекомендация |
|---|---|
| Качество | Claude 3.5 Sonnet, GPT-4o |
| Баланс | GPT-4o-mini, Gemini Flash |
| Скорость | Groq Llama 3.1 8B |
| Бюджет | Ollama + Llama 3.2 |
| Задача | Рекомендация |
|---|---|
| Code review | Claude 3.5 Sonnet |
| Генерация кода | GPT-4o, Codestral |
| Дебаг | Claude 3.5, o1-mini |
| Локальная разработка | DeepSeek Coder |
| Размер документа | Рекомендация |
|---|---|
| До 50K токенов | GPT-4o-mini |
| До 200K токенов | Claude 3.5 Sonnet |
| До 1M токенов | Gemini 1.5 Pro |
| Требование | Рекомендация |
|---|---|
| Качество ответов | Claude 3.5, GPT-4o |
| Скорость | Groq, Gemini Flash |
| Конфиденциальность | Ollama + Llama 3.1 |
// Сначала тестируйте с gpt-4o-mini// Переключайтесь на gpt-4o только если качество недостаточно// Если основная модель недоступна — переключение на резервную// В n8n: Error Workflow → другой AI Agent с Ollama// Одинаковые запросы → одинаковые ответы// Храните результаты в Redis или базе данныхВсе LLM ноды в n8n имеют одинаковый интерфейс. Для смены модели: