Добавить MCP
Подключите внешние инструменты через MCP
Пошаговое руководство по созданию первого AI агента в n8n с инструментами и памятью
В этом туториале мы создадим AI агента-помощника, который умеет:
Время: 20-30 минут Уровень: Начинающий Требования: Работающий n8n, API ключ OpenAI или Anthropic
# Установка на Linux/Maccurl -fsSL https://ollama.com/install.sh | sh
# Запуск моделиollama run llama3.2
# Ollama будет доступен на http://localhost:11434Откройте n8n и перейдите в Settings → Credentials
Нажмите Add Credential
Выберите OpenAI API (или Anthropic/Ollama)
Введите ваш API ключ
Нажмите Save
Создайте новый Workflow
Ctrl+NДобавьте Chat Trigger
Добавьте AI Agent
Добавьте Chat Model
gpt-4o-mini (дешевле) или gpt-4o (умнее)Сейчас агент только отвечает на вопросы. Давайте дадим ему инструменты!
На AI Agent кликните + рядом с “Tool”
Выберите Calculator
Инструмент автоматически подключится
Протестируйте в чате:
Сколько будет 15% от 850?Агент использует калькулятор и ответит: 127.5
Добавьте ещё один Tool: HTTP Request Tool
Настройте:
get_weatherGet current weather for a city. Returns temperature and conditions.https://wttr.in/{{ $fromAI('city') }}?format=j1В разделе Tool Input Schema:
{ "type": "object", "properties": { "city": { "type": "string", "description": "City name in English, e.g. Moscow, London" } }, "required": ["city"]}Протестируйте:
Какая погода в Москве?Без памяти агент не помнит предыдущие сообщения. Добавим её!
На AI Agent кликните + рядом с “Memory”
Выберите Window Buffer Memory — это самый простой тип памяти, хранит последние N сообщений
Настройте Context Window Length: 10 (сообщений)
Протестируйте память — напишите “Меня зовут Алексей”, затем “Как меня зовут?” — агент должен помнить имя!
| Тип | Описание | Когда использовать |
|---|---|---|
| Window Buffer | Последние N сообщений | Простые чат-боты |
| Buffer Memory | Все сообщения | Короткие сессии |
| Redis Memory | Хранение в Redis | Multi-instance, персистентность |
| Postgres Memory | Хранение в БД | Enterprise, аналитика |
Системный промпт определяет личность агента.
В настройках AI Agent найдите System Message
Введите промпт (пример ниже)
Сохраните и протестируйте
Пример системного промпта:
Ты — дружелюбный ассистент на русском языке.
Твои возможности:- Отвечать на вопросы- Выполнять математические вычисления (используй калькулятор)- Сообщать погоду в любом городе
Правила:- Всегда отвечай на русском языке- Будь кратким, но информативным- Если не знаешь ответ — честно скажи об этом- Используй эмодзи для дружелюбностиВаш workflow должен выглядеть так:
┌─────────────┐ ┌─────────────┐│ Chat Trigger│────→│ AI Agent │└─────────────┘ └──────┬──────┘ │ ┌────────────┼────────────┐ ↓ ↓ ↓ ┌──────────┐ ┌──────────┐ ┌──────────────┐ │ Model │ │Calculator│ │ HTTP Request │ │(OpenAI) │ │ │ │ (Weather) │ └──────────┘ └──────────┘ └──────────────┘ │ ↓ ┌──────────────┐ │Window Buffer │ │ Memory │ └──────────────┘Сохраните workflow — нажмите Ctrl+S или кнопку Save
Активируйте — переключатель в правом верхнем углу → Active
Протестируйте в чате — отправьте сообщения и проверьте ответы агента
Пример диалога:
Привет!→ Привет! Чем могу помочь?
Сколько будет 234 * 567?→ 234 × 567 = 132,678
Какая погода в Париже?→ В Париже сейчас 18°C, облачно
Напомни, что я спрашивал?→ Вы спрашивали про умножение и погоду в ПарижеХотите дать агенту доступ к GitHub, базам данных или файловой системе?
Добавьте MCP Client Tool к агенту
Подключите к MCP серверу (например, GitHub) — запустите npx @anthropic/mcp-server-github
Агент получит доступ к репозиториям, issues, PR и т.д.
Хотите чтобы агент отвечал на вопросы по вашим документам?
Добавьте Vector Store Tool
Настройте Vector Store (Pinecone, Qdrant или In-Memory)
Загрузите документы через Document Loader
Агент будет искать релевантную информацию
{ "name": "AI Assistant Tutorial", "nodes": [ { "parameters": {}, "id": "chat-trigger", "name": "Chat Trigger", "type": "@n8n/n8n-nodes-langchain.chatTrigger", "position": [250, 300] }, { "parameters": { "options": { "systemMessage": "Ты — дружелюбный ассистент на русском языке.\n\nТвои возможности:\n- Отвечать на вопросы\n- Выполнять математические вычисления\n- Сообщать погоду в любом городе\n\nВсегда отвечай на русском языке." } }, "id": "ai-agent", "name": "AI Agent", "type": "@n8n/n8n-nodes-langchain.agent", "position": [500, 300] }, { "parameters": { "model": "gpt-4o-mini" }, "id": "openai-chat", "name": "OpenAI Chat Model", "type": "@n8n/n8n-nodes-langchain.lmChatOpenAi", "position": [500, 500] }, { "parameters": {}, "id": "calculator", "name": "Calculator", "type": "@n8n/n8n-nodes-langchain.toolCalculator", "position": [700, 500] }, { "parameters": { "contextWindowLength": 10 }, "id": "memory", "name": "Window Buffer Memory", "type": "@n8n/n8n-nodes-langchain.memoryBufferWindow", "position": [300, 500] } ], "connections": { "Chat Trigger": { "main": [[{"node": "AI Agent", "type": "main", "index": 0}]] }, "OpenAI Chat Model": { "ai_languageModel": [[{"node": "AI Agent", "type": "ai_languageModel", "index": 0}]] }, "Calculator": { "ai_tool": [[{"node": "AI Agent", "type": "ai_tool", "index": 0}]] }, "Window Buffer Memory": { "ai_memory": [[{"node": "AI Agent", "type": "ai_memory", "index": 0}]] } }}Добавить MCP
Подключите внешние инструменты через MCP
Настроить RAG
Обучите агента на ваших документах через RAG
Изучить модели
Сравните LLM модели для вашего use case
Troubleshooting
Решение частых проблем