7 bài học về các node, agent, bộ nhớ, RAG và những mô hình sản xuất. Giờ đây, tất cả sẽ được kết hợp lại. Trong dự án tổng kết này, bạn sẽ xây dựng một trợ lý AI duy nhất kết hợp mọi kỹ thuật từ khóa học - và bạn sẽ kết nối nó với Claude Desktop thông qua MCP để các công cụ AI khác có thể sử dụng quy trình làm việc n8n của bạn.
Dự án tổng kết
Bạn sẽ xây dựng AI Operations Assistant - một chatbot có thể:
Trả lời các câu hỏi từ cơ sở kiến thức của công ty bạn (RAG từ bài học 6)
Được gọi từ Claude Desktop hoặc các công cụ AI khác thông qua MCP
✅ Kiểm tra nhanh: Trợ lý của bạn cần trả lời cả các câu hỏi về chính sách nội bộ và những câu hỏi về dữ liệu thị trường theo thời gian thực. Hai công cụ nào giúp điều này trở nên khả thi?
Câu trả lời: Công cụ Vector Store dành cho các chính sách nội bộ - nó tìm kiếm những tài liệu nội bộ của công ty bạn. Và SerpAPI dành cho dữ liệu thị trường thời gian thực - nó tìm kiếm trên web. Prompt hệ thống sẽ cho nhân viên biết nên sử dụng công cụ nào cho loại câu hỏi nào.
Đây là loại quy trình làm việc thay thế vai trò của một nhân viên vận hành cấp dưới - không phải vì nó thay thế người đó, mà vì nó xử lý các nhiệm vụ tra cứu/trả lời/chuyển tiếp lặp đi lặp lại chiếm hết thời gian làm việc của họ.
Tổng quan về kiến trúc
Đây là cấu trúc quy trình làm việc hoàn chỉnh:
Chat Trigger
↓
AI Agent (GPT-4o)
├── Công cụ: Supabase Vector Store (tài liệu công ty)
├── Công cụ: SerpAPI (tìm kiếm web)
├── Công cụ: Code Tool (tính toán)
├── Công cụ: HTTP Request (API nội bộ)
├── Bộ nhớ: PostgreSQL Chat Memory
└── Thông báo lỗi → Cảnh báo Slack + Phản hồi dự phòng
Một Chat Trigger. Một AI agent ở trung tâm. 4 công cụ cho các khả năng khác nhau. Bộ nhớ liên tục. Xử lý lỗi trên mọi node bên ngoài.
Xây dựng dự án tổng kết
Bước 1: Thiết lập nền tảng
Tạo một quy trình làm việc mới có tên "AI Operations Assistant"
Thêm một node Chat Trigger - điều này tạo ra giao diện trò chuyện
Thêm một node AI Agent và kết nối nó với Chat Trigger
Gắn mô hình trò chuyện OpenAI → gpt-4o (bạn cần khả năng suy luận mạnh mẽ cho các quyết định đa công cụ)
Bước 2: Kết nối các công cụ của bạn
Gắn 4 công cụ vào AI agent:
Công cụ 1: Kho lưu trữ vectơ (RAG)
Thêm một node con Vector Store Tool trỏ đến kho lưu trữ vectơ Supabase của bạn từ bài học 6. Điều này cho phép agent truy cập vào cơ sở kiến thức của công ty bạn.
Công cụ 2: Tìm kiếm trên web
Thêm một công cụ SerpAPI để có thông tin web theo thời gian thực. Agent sử dụng công cụ này khi cơ sở kiến thức không có câu trả lời.
Công cụ 3: Thực thi code
Thêm một Code Tool có hỗ trợ JavaScript. Agent có thể viết và chạy code để tính toán, định dạng dữ liệu hoặc xử lý.
Công cụ 4: Yêu cầu HTTP
Thêm HTTP Request Tool. Cấu hình nó với các endpoint API nội bộ của bạn (hoặc API công khai để thực hành). Agent có thể gọi API để kiểm tra trạng thái, truy xuất dữ liệu trực tiếp hoặc kích hoạt các hành động.
Bước 3: Thêm bộ nhớ lưu trữ
Kết nối bộ nhớ trò chuyện PostgreSQL với AI Agent:
Kết nối: phiên bản PostgreSQL của bạn
ID phiên: {{ $json.sessionId }} từ Chat Trigger
Điều này load lịch sử cuộc trò chuyện để agent ghi nhớ các cuộc trao đổi trước đó
Bước 4: Viết prompt hệ thống
Đây là phần quan trọng nhất - nó điều phối mọi thứ:
Bạn là AI Operations Assistant cho nhóm. Bạn có quyền truy cập vào:
1. **Company Knowledge Base** (Vector Store): Tài liệu nội bộ, chính sách, quy trình
→ Sử dụng cho: câu hỏi về sản phẩm, tra cứu chính sách, quy trình nội bộ
→ Luôn kiểm tra ở đây TRƯỚC tiên đối với các câu hỏi nội bộ
2. **Web Search** (SerpAPI): Thông tin Internet theo thời gian thực
→ Sử dụng cho: tin tức ngành, dữ liệu đối thủ cạnh tranh, thông tin bên ngoài
→ Chỉ sử dụng khi cơ sở kiến thức không có câu trả lời
3. **Code Tool**: Môi trường thực thi JavaScript
→ Sử dụng cho: tính toán, định dạng dữ liệu, chuyển đổi
→ Trình bày các bước tính toán
4. **HTTP Request**: Truy cập API nội bộ
→ Sử dụng cho: kiểm tra trạng thái hệ thống trực tiếp, truy xuất dữ liệu theo thời gian thực
Quy tắc:
- Đối với lời chào hỏi đơn giản và cuộc trò chuyện xã giao, hãy trả lời trực tiếp mà không sử dụng công cụ
- Luôn trích dẫn nguồn: "[Knowledge Base]" hoặc "[Web: URL]"
- Nếu bạn không tìm thấy thông tin đáng tin cậy, hãy nói rõ điều đó - đừng bao giờ đoán mò
- Giữ câu trả lời ngắn gọn (dưới 200 từ) trừ khi được yêu cầu chi tiết hơn
- Hãy nhớ bối cảnh từ phần trước của cuộc trò chuyện
Bước 5: Thêm chức năng xử lý lỗi
Đối với mỗi node công cụ bên ngoài:
Bật Retry on Fail (3 lần thử lại, lùi thời gian theo cấp số nhân)
Cấu hình Error Output để chuyển hướng đến node Set với thông báo dự phòng: "Tôi đang gặp sự cố khi truy cập tài nguyên đó ngay bây giờ. Hãy để tôi thử giúp bạn với những gì tôi có, hoặc vui lòng thử lại sau một lát".
Thiết lập Error Workflow toàn cục (từ bài học 7) để gửi cảnh báo Slack khi bất kỳ thao tác thực thi nào thất bại.
Bước 6: Kiểm tra toàn bộ hệ thống
Chạy các kịch bản kiểm thử này thông qua cuộc trò chuyện:
Test
Bạn đang xác minh điều gì?
"Chính sách hoàn tiền của chúng tôi là gì?"
Truy xuất RAG từ kho vector
"Giá Bitcoin hiện tại là bao nhiêu?"
Công cụ tìm kiếm web
"Tính lãi kép số tiền 10.000 USD với lãi suất 5% trong 3 năm"
Code Tool
"Lúc nãy chúng ta đã nói về chuyện gì nhỉ?"
Tính liên tục của bộ nhớ
Đặt câu hỏi, đóng cuộc trò chuyện, mở lại, hỏi thêm câu hỏi tiếp theo
Bộ nhớ giữa các phiên
Hãy ngắt kết nối Internet và đặt câu hỏi trên web
Xử lý lỗi + phương án dự phòng
Mẹo bổ sung: Kết nối MCP
Model Context Protocol (MCP) cho phép bạn hiển thị các quy trình làm việc n8n của mình dưới dạng những công cụ mà các trợ lý AI khác có thể gọi. Điều này có nghĩa là, ví dụ, Claude Desktop có thể sử dụng cơ sở kiến thức của Operations Assistant mà không cần bạn sao chép-dán bất cứ thứ gì.
n8n với vai trò là MCP Server (hiển thị các quy trình làm việc của bạn):
Thêm MCP Server Trigger vào một quy trình làm việc mới
Xác định tên và mô tả công cụ (ví dụ: "company_knowledge_base")
Kết nối nó với Q&A Chain với kho lưu trữ vector của bạn
Cấu hình cài đặt MCP của Claude Desktop để trỏ đến phiên bản n8n của bạn
MCP đang phát triển nhanh chóng. Tính đến tháng 3 năm 2026, n8n hỗ trợ giao thức truyền tải HTTP Streamable. Vui lòng kiểm tra tài liệu của n8n để biết hướng dẫn thiết lập MCP mới nhất, vì các chi tiết cụ thể thường xuyên thay đổi.
Bước tiếp theo
Bạn đã hoàn thành các bài học. Dưới đây là cách để tiếp tục phát triển:
Tự động hóa quy trình làm việc thực tế của bạn - Bắt đầu với tác vụ bạn thực hiện thường xuyên nhất. Phân loại email, tạo báo cáo, tra cứu dữ liệu - hãy chọn một và xây dựng nó.
Khám phá thư viện template - n8n có hơn 8.000 template cộng đồng, bao gồm hơn 5.800 quy trình làm việc dành riêng cho AI. Lọc theo "AI" tại n8n.io/workflows.
Tham gia cộng đồng - Hơn 200.000 thành viên trên diễn đàn cộng đồng n8n. Đăng tải quy trình làm việc của bạn, nhận phản hồi, học hỏi từ người khác.
Mở rộng quy mô - Khi một phiên bản duy nhất không đủ, hãy khám phá chế độ hàng đợi đa worker, quản lý bí mật bên ngoài và CI/CD để triển khai quy trình làm việc.
Khoảng cách giữa "Tôi sử dụng chatbot AI" và "Tôi xây dựng tự động hóa AI" nhỏ hơn bạn nghĩ. Bạn vừa vượt qua nó rồi đấy!
Những điểm chính cần ghi nhớ
Node AI Agent là trung tâm của các quy trình làm việc phức tạp - nó điều phối những công cụ, bộ nhớ và khả năng suy luận trong một node duy nhất
Một prompt hệ thống tốt sẽ cho agent biết khi nào nên sử dụng từng công cụ, cách xử lý xung đột và định dạng đầu ra nào cần sử dụng
Xử lý lỗi là bắt buộc - logic thử lại, đầu ra lỗi và cảnh báo là sự khác biệt giữa một nguyên mẫu và một sản phẩm
MCP cho phép bạn hiển thị các quy trình làm việc của n8n dưới dạng công cụ cho những trợ lý AI khác - và sử dụng các công cụ MCP bên ngoài bên trong những agent của bạn
Hãy bắt đầu đơn giản, kiểm tra kỹ lưỡng và chỉ thêm độ phức tạp khi phương pháp đơn giản không đủ
Câu 1:
Quy trình làm việc cuối cùng của bạn đã hoàn tất. Trước khi kích hoạt nó cho người dùng thực, điều quan trọng nhất cần xác minh là gì?
GIẢI THÍCH:
Một quy trình làm việc không có xử lý lỗi sẽ thất bại âm thầm lần đầu tiên API gặp sự cố. Trước khi đưa vào hoạt động chính thức: Hãy bật tính năng Retry on fail cho tất cả các cuộc gọi API bên ngoài, cấu hình đầu ra lỗi trên các node AI với những thông báo dự phòng thân thiện với người dùng và thiết lập quy trình xử lý lỗi toàn cầu cho các cảnh báo. Một quy trình sản xuất chưa hoàn thiện cho đến khi nó xử lý lỗi một cách khéo léo.
Câu 2:
Trợ lý AI của bạn có 5 công cụ được kết nối. Người dùng gửi một lời chào đơn giản ('Hi, how are you?'). Agent nên làm gì?
GIẢI THÍCH:
Một agent tìm kiếm trên web để trả lời 'Hi' là đang lãng phí thời gian và token. Một prompt hệ thống tốt bao gồm các hướng dẫn như: 'Đối với những lời chào đơn giản và cuộc trò chuyện xã giao, hãy phản hồi trực tiếp mà không cần sử dụng bất kỳ công cụ nào'. Điều này giúp phản hồi nhanh chóng, tiết kiệm và tự nhiên. Việc gọi công cụ chỉ nên xảy ra khi người dùng hỏi điều gì đó yêu cầu dữ liệu bên ngoài.
Câu 3:
Bạn đang thiết kế trợ lý AI. Node n8n nào nên là trung tâm của quy trình làm việc?
GIẢI THÍCH:
AI Agent là lựa chọn đúng đắn vì trợ lý AI cần kết hợp nhiều khả năng: sử dụng công cụ (tìm kiếm trên web, thực thi code), bộ nhớ (PostgreSQL), truy xuất tài liệu (lưu trữ vector như một công cụ) và ra quyết định. Basic LLM Chain không thể sử dụng công cụ. Q&A Chain chỉ xử lý việc truy xuất. Chỉ có AI Agent mới kết nối mọi thứ lại với nhau bằng vòng lặp suy luận ReAct của nó.
Theo Nghị định 147/2024/ND-CP, bạn cần xác thực tài khoản trước khi sử dụng tính năng này. Chúng tôi sẽ gửi mã xác thực qua SMS hoặc Zalo tới số điện thoại mà bạn nhập dưới đây: