Chào mừng các bạn đến với thế giới "phù thủy" của lập trình! Bạn đã sẵn sàng "nâng cấp" khả năng code của mình lên một tầm cao mới với sự trợ giúp của AI chưa? Trong bài viết này, chúng ta sẽ cùng nhau khám phá một bộ đôi "siêu phẩm" giúp việc phát triển phần mềm có AI hỗ trợ trở nên dễ dàng và mạnh mẽ hơn bao giờ hết: đó chính là **Gemini CLI** kết hợp với **Docker MCP Toolkit**. Tưởng tượng xem, không cần IDE cồng kềnh, không cần cấu hình phức tạp, bạn vẫn có thể biến terminal của mình thành một "trung tâm điều khiển AI" cực đỉnh! Nghe hấp dẫn đúng không? Cùng tôi "nhảy" vào tìm hiểu ngay thôi! Đầu tiên, phải kể đến **Gemini CLI** – "trợ lý AI" đến từ Google, một tay chơi mã nguồn mở cực kỳ xịn sò, đưa sức mạnh của Gemini 2.5 Pro thẳng vào terminal của bạn. Thôi rồi cái thời phải chuyển tab qua lại giữa trình duyệt và cửa sổ code nữa nhé! Gemini CLI mang lại những lợi ích không tưởng: * Hòa mình vào terminal: Tích hợp trực tiếp vào quy trình làm việc của bạn, không cần rời khỏi màn hình đen huyền bí! * "Bộ nhớ" siêu khủng: Với cửa sổ ngữ cảnh lên đến 1 triệu token, nó có thể "ngấu nghiến" cả những codebase đồ sộ nhất mà không sợ "não cá vàng". * Hỗ trợ công cụ "xịn": Nhờ có Model Context Protocol (MCP), Gemini CLI có thể tương tác với hàng loạt công cụ phát triển khác. Cứ như có cả một đội quân hậu cần vậy! * "Chơi" miễn phí: Cung cấp gói miễn phí với giới hạn sử dụng cực kỳ "hào phóng". Ngại gì không thử? * Thực thi code và quản lý file "thần tốc": Làm việc trực tiếp với code và file của bạn theo thời gian thực. Đúng chuẩn "làm đến đâu, kiểm tra đến đó"! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://dev-to-uploads.s3.amazonaws.com/uploads/articles/ijij2ylz22baghy7jflw.png' alt='Giao diện Gemini CLI'> Tiếp theo là **Docker MCP Toolkit** – "phù thủy" biến cách các AI agents tương tác với công cụ phát triển trở nên dễ dàng hơn bao giờ hết! Thay vì phải loay hoay cấu hình từng server MCP một cách thủ công (nghe thôi đã thấy đau đầu rồi!), bạn sẽ có ngay: * Hơn 100+ server MCP: Một kho tàng server được cấu hình sẵn, đủ mọi thể loại trong "danh mục" cho bạn tha hồ lựa chọn! * Cài đặt công cụ chỉ với một cú click: Đúng vậy, "một cú click" thôi là xong, không cần đợi chờ mỏi mòn. * Môi trường chạy an toàn, "đóng hộp": Mọi thứ được gói gọn trong container, đảm bảo an toàn và không gây xung đột. * Kiến trúc Gateway "thân thiện": Giúp việc kết nối từ client trở nên siêu đơn giản. * Quản lý tài khoản "tự động": Tích hợp OAuth và quản lý thông tin đăng nhập, khỏi lo quên mật khẩu hay rắc rối xác thực. <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://dev-to-uploads.s3.amazonaws.com/uploads/articles/m7k1gr69u2xcuwdc1p6p.png' alt='Cài đặt Docker Desktop và kích hoạt MCP Toolkit'> Vậy tại sao cặp đôi "hoàn hảo" Gemini CLI và Docker MCP Toolkit lại được tôi hết lời ca ngợi như vậy? Đơn giản vì nó mang lại những lợi thế "độc quyền" mà bạn khó lòng tìm thấy ở nơi khác, biến nó thành lựa chọn lý tưởng cho mọi quy trình phát triển hiện đại: * Về hiệu suất (Performance Benefits): Khởi động "chớp nhoáng"; Truy cập hệ thống "tẹt ga"; Tiết kiệm bộ nhớ. * Về sự linh hoạt (Flexibility Advantages): Thích ứng mọi terminal; Nói không với xung đột; Di động mọi nơi; Độc lập cập nhật. * Về hiệu quả làm việc (Workflow Efficiency): Giao diện "tất cả trong một"; Chuyển đổi ngữ cảnh "mượt mà"; Thực thi lệnh trực tiếp; Hòa nhập tự nhiên. Ok, bây giờ là phần mà ai cũng mong chờ: **Hướng dẫn cài đặt "siêu tốc"**! Đừng lo, tôi sẽ chia sẻ từng bước một, dễ như ăn kẹo! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/setup_guide_icon.png' alt='Hướng dẫn cài đặt từng bước'> **Đầu tiên, chuẩn bị "hành trang" (Prerequisites):** 1. **Cài đặt Docker Desktop:** Nếu bạn chưa có, hãy tải và cài đặt Docker Desktop ngay nhé. Đây là "cửa ngõ" để chúng ta mở khóa sức mạnh của MCP Toolkit. 2. **Kích hoạt Docker MCP Toolkit:** Mở Docker Desktop lên, vào phần cài đặt và tìm mục MCP Toolkit để bật nó. 3. **Kích hoạt ít nhất 1 MCP Server:** Trong MCP Toolkit, bạn cần bật ít nhất một server. Ví dụ như Docker, GitHub, Firecrawl, Kubernetes, hay Slack. Cái này giống như bạn chọn công cụ mà AI sẽ được phép "chọc ghẹo" và làm việc cùng vậy. <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://dev-to-uploads.s3.amazonaws.com/uploads/articles/g0ucjrflkuwwectzds9k.png' alt='Kích hoạt MCP Servers trong Docker Desktop'> 4. **"Đồ nghề" cần có:** Node.js (phiên bản 18 trở lên); Tài khoản Google; Hiểu biết sơ bộ về GitHub gemini/gemini-cli. **Bước 2: Cài đặt Gemini CLI – Đơn giản như đang giỡn!** Mở terminal lên và gõ lệnh sau: `npm install -g @google/gemini-cli` <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/npm_install_gemini.png' alt='Lệnh cài đặt Gemini CLI qua npm'> **Bước 3: Khởi động và Xác thực – Điểm cuối cùng!** Sau khi cài đặt xong, chỉ cần gõ lệnh "thần chú" này để khởi động Gemini và thực hiện xác thực: `gemini` Nó sẽ dẫn bạn đến trang đăng nhập Google để cấp quyền. Xong xuôi là bạn đã sẵn sàng "hô biến" rồi đó! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://dev-to-uploads.s3.amazonaws.com/uploads/articles/ijij2ylz22baghy7jflw.png' alt='Giao diện Gemini CLI sau khi xác thực'> Vậy là xong! Giờ thì bạn đã có một "trợ lý AI" siêu cấp ngay trong terminal của mình rồi. Hãy bắt đầu khám phá và biến những ý tưởng code phức tạp thành hiện thực một cách dễ dàng hơn bao giờ hết nhé!
Bạn có đang "nghiện" thử nghiệm các tác nhân AI (AI agents) dùng nền tảng MCP không? Nếu có, chắc hẳn bạn đã gặp phải một vấn đề đau đầu: làm sao để quản lý, kiểm soát được mấy "bé" AI này khi chúng "tự do" truy cập và sử dụng các công cụ bên ngoài? Cứ như một đứa trẻ được giao chìa khóa nhà mà không có người lớn trông nom vậy, chúng có thể làm mọi thứ mà bạn không hề hay biết! Đừng lo lắng nữa! Đây chính là lý do vì sao đội ngũ chúng mình đã "khai sinh" ra MCPX – một "cánh cổng" mã nguồn mở cực kỳ thông minh. <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/mcpx_gateway.png' alt='Minh họa cổng kết nối MCPX'> MCPX sẽ giúp bạn "nhìn rõ" mọi hành động của tác nhân AI, đặt ra những "rào chắn an toàn" và "phân quyền" một cách rõ ràng khi chúng sử dụng các công cụ qua MCP. Dù bạn chỉ đang vọc vạch thử nghiệm tại chỗ hay đang xây dựng một hệ thống phức tạp hơn, MCPX đều trao quyền kiểm soát tối đa cho bạn, đảm bảo các tác nhân AI tương tác với hệ sinh thái công cụ của bạn theo đúng ý bạn muốn! Tìm hiểu thêm tại: <a href="https://truyentranh.letranglan.top/api/v1/proxy?url=https://github.com/TheLunarCompany/lunar/tree/main/mcpx">MCPX trên GitHub</a> 🧱 **Vì Sao Chúng Mình Xây Dựng MCPX?** Thực tế, rất nhiều đội nhóm đang tận dụng MCP để các tác nhân AI có thể "gọi" và sử dụng vô tư các công cụ như Slack, GitHub, Gmail hay thậm chí là các API nội bộ "siêu bí mật". Nghe có vẻ tiện lợi, nhưng hậu quả tiềm ẩn thì rõ mồn một: * Mấy tác nhân AI có thể "lỡ tay" truy cập vào những công cụ mà chúng đáng lẽ không được phép đụng vào (ví dụ: gửi mail quan trọng, xóa code trên GitHub). Nghe thôi đã thấy rợn người rồi! * Chẳng có cách nào để bạn nhóm các hành động nhạy cảm lại hay "đặt cổng" kiểm soát cho chúng cả. * Không có hệ thống theo dõi hay ghi lại xem "bé" AI đã dùng công cụ nào, dùng khi nào, dùng bao nhiêu lần. Cứ như đi chợ mà không ghi sổ vậy! * Thiếu hẳn các chính sách quản lý việc lạm dụng hoặc vượt quá quyền hạn. AI nó cứ làm theo lệnh, nhưng không có giới hạn thì dễ thành "phá làng phá xóm" lắm! Tình trạng thiếu kiểm soát này còn được chính OWASP nhắc đến trong danh mục <a href="https://truyentranh.letranglan.top/api/v1/proxy?url=https://owasp.org/www-project-top-10-for-large-language-model-applications/">LLM07 – Excessive Agency</a> (Quyền hạn quá mức), nơi các tác nhân AI có thể làm nhiều hơn những gì chúng nên làm, đôi khi là vô tình, nhưng hậu quả thì khôn lường! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/uncontrolled_ai_agent.png' alt='Tác nhân AI vượt quá quyền hạn'> MCPX xuất hiện như một vị cứu tinh! Nó cung cấp cho các đội nhóm một cánh cổng đơn giản nhưng siêu an toàn để kết nối tác nhân AI với các công cụ – với khả năng kiểm soát truy cập và theo dõi mọi thứ được tích hợp sẵn! 🔐 **Kiểm Soát Truy Cập Đã Có Sẵn!** Mới đây, chúng mình vừa cho ra mắt một tính năng cực kỳ xịn sò: **Kiểm soát truy cập (Access Controls)**! Tính năng này cho phép bạn nhóm và định nghĩa quyền hạn truy cập các công cụ, xuyên suốt các dịch vụ khác nhau. Tưởng tượng xem, giờ bạn có thể tạo ra các nhóm công cụ như thế này: ``` toolGroups: - name: "writes" services: slack: - "post_message" - "post_reaction" gmail: - "send_email" - "send_attachment" github: "*" # cho phép tất cả các công cụ từ GitHub - name: "reads" services: slack: - "read_messages" - "read_comments" gmail: - "read_email" - "read_attachment" - name: "admin" services: slack: - "create_channel" - "delete_channel" ``` <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/access_control_diagram.png' alt='Sơ đồ kiểm soát truy cập tác nhân AI'> Và từ đó, bạn có thể dễ dàng gán các mô hình LLM, tác nhân AI hoặc người dùng cụ thể vào một hoặc nhiều nhóm này. Điều này mang lại cho bạn khả năng kiểm soát cực kỳ chi tiết và linh hoạt về việc công cụ nào được phép dùng, và dùng khi nào. Thật bá đạo phải không? Tìm hiểu thêm về tính năng này tại: <a href="https://truyentranh.letranglan.top/api/v1/proxy?url=https://www.lunar.dev/post/mcp-gateway-access-controls-defining-permissions-for-llm-agents">Thiết lập Kiểm soát Truy cập cho Tác nhân LLM</a> 🧪 **Bắt Đầu Từ Nhỏ, Mở Rộng Khi Trưởng Thành** Một điểm cộng nữa là MCPX siêu nhẹ và dễ dàng chạy ngay trên máy tính cá nhân của bạn (thử nghiệm cục bộ). Nhưng đừng lo, khi "đế chế AI" của bạn phát triển lớn mạnh hơn, bạn hoàn toàn có thể triển khai MCPX vào môi trường sản xuất, tích hợp với các công cụ giám sát (observability) và áp dụng thêm vô vàn chính sách phức tạp hơn. Cứ như một hạt giống nhỏ bạn gieo, rồi nó sẽ nảy mầm và trở thành một cây cổ thụ khổng lồ vậy! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/scale_up_illustration.png' alt='Mở rộng hệ thống từ nhỏ đến lớn'> Chúng mình đã chia sẻ chi tiết về hành trình này tại đây: <a href="https://truyentranh.letranglan.top/api/v1/proxy?url=https://www.lunar.dev/post/mcpx-from-local-experimentation-to-production-grade-infrastructure">Từ Thử nghiệm Cục bộ đến Hạ tầng Cấp sản xuất</a> 🛠️ **Thử Ngay Hoặc Đóng Góp Cùng Chúng Mình!** Còn chần chờ gì nữa? Hãy thử ngay MCPX hoặc đóng góp cho dự án của chúng mình nhé! * **Mã nguồn trên GitHub:** <a href="https://truyentranh.letranglan.top/api/v1/proxy?url=https://github.com/TheLunarCompany/lunar/tree/main/mcpx">Link GitHub MCPX</a> * **Tài liệu chi tiết:** <a href="https://truyentranh.letranglan.top/api/v1/proxy?url=https://docs.lunar.dev">Đọc tài liệu</a> * **Cộng đồng:** Tham gia Discord của chúng mình (link có trong repo GitHub nhé). Chúng mình luôn học hỏi và phát triển cùng cộng đồng, nên rất mong nhận được ý kiến đóng góp hoặc ý tưởng mới lạ từ bạn. Nếu bạn đang sử dụng MCP hoặc đơn giản là muốn khám phá cách đưa các tác nhân AI đến gần hơn với hệ thống của mình một cách an toàn và hiệu quả, thì MCPX chắc chắn là một lớp bảo vệ bạn rất đáng để thử đó!
Bạn muốn tự xây dựng phòng thí nghiệm AI cá nhân? Khám phá cách biến chiếc laptop của bạn thành trung tâm AI mạnh mẽ với các công cụ mã nguồn mở, không cần tín chỉ hay chi phí đắt đỏ. Học hỏi thực tế và sáng tạo không giới hạn!
Bạn ơi, bạn có thấy không? Mình cũng thấy. Cả thế giới công nghệ đều đang mắt tròn mắt dẹt! Mới hôm nào chúng ta còn trầm trồ về mấy con chatbot viết thơ, thì giờ đây, ta lại ngỡ ngàng trước những hệ thống AI có thể tự động đặt vé máy bay, sửa lỗi code, hay thậm chí là xây dựng cả kế hoạch marketing mà chẳng cần ai nhúng tay.Những dự án đình đám như Auto-GPT, BabyAGI, và hàng loạt công cụ tương tự không tự dưng mà xuất hiện đâu nhé! Chúng là bước nhảy vọt logic tiếp theo trong thế giới AI: sự trỗi dậy của AI Agent.Vậy, chính xác thì AI Agent là gì? Tại sao bây giờ nó lại bùng nổ, và cái 'MCP Server' đóng vai trò 'bộ não' của nó là gì? Cùng mình bóc tách từng lớp một nhé!🤔 AI Agent là gì, thực sự?AI Agent không chỉ là một chatbot thông thường đâu. Chatbot thì chỉ là một đối tác trò chuyện thôi. Còn AI Agent, nó là một thực thể tự hành, có khả năng tự mình hành động để đạt được một mục tiêu nhất định.Cứ tưởng tượng AI Agent như một lập trình viên tập sự siêu giỏi, siêu nhanh vậy đó! Bạn không cần phải chỉ dẫn từng ly từng tí họ phải gõ cái gì. Thay vào đó, bạn chỉ cần giao một nhiệm vụ cấp cao, ví dụ như:"Ê, tìm giúp tôi 5 công cụ thay thế Stripe mã nguồn mở tốt nhất, phân tích hoạt động GitHub của chúng, rồi viết một bản tóm tắt cho tôi nhé."Một AI Agent sẽ tự động chia nhỏ nhiệm vụ này ra. Nó có bốn thành phần chính, cứ như là một cơ thể hoàn chỉnh vậy:🎯 Mục tiêu (Goal): Đây là mục tiêu lớn mà nó cần hoàn thành.🧠 Bộ não lý luận (Reasoning Engine): Đây chính là "bộ não" của agent, thường là một Mô hình Ngôn ngữ Lớn (LLM) mạnh mẽ như GPT-4 hay Claude. Nó sẽ quan sát tình hình hiện tại, suy nghĩ và quyết định bước đi hợp lý tiếp theo.🛠️ Công cụ (Tools): Đây là "đôi tay" của agent. Chúng là các hàm hoặc API mà agent có thể gọi để tương tác với thế giới bên ngoài. Ví dụ, một công cụ web_search để tìm kiếm trên mạng, một công cụ file_system để đọc/ghi tệp, hay một công cụ terminal để chạy lệnh.💾 Trí nhớ (Memory): Khả năng ghi nhớ các hành động, quan sát và phản hồi trong quá khứ. Điều này cực kỳ quan trọng để agent học hỏi và tránh bị "lặp vòng" vô ích.Agent hoạt động theo một vòng lặp liên tục: suy nghĩ, hành động, quan sát, rồi lại lặp lại – cho đến khi hoàn thành mục tiêu.🔥 Tại sao Agent lại bùng nổ mạnh mẽ bây giờ? Một "cơn bão hoàn hảo" đã hình thành!Khái niệm agent không phải là mới mẻ gì đâu, nhưng chúng ta vừa chạm tới một "điểm bùng phát" công nghệ. Bốn yếu tố then chốt đã tạo nên một "cơn bão hoàn hảo" cho sự bùng nổ của agent:1. Sức mạnh suy luận đỉnh cao của các LLM hiện đại: Đây chính là yếu tố "đinh" nhất! Các mô hình trước đây giỏi về ngôn ngữ, nhưng GPT-4 và các "đồng nghiệp" của nó lại cực kỳ xuất sắc trong việc suy luận và lập kế hoạch. Bạn có thể giao cho chúng một mục tiêu phức tạp, một bộ công cụ sẵn có, và chúng có thể tạo ra một kế hoạch từng bước rõ ràng, mạch lạc. Đây chính là "bộ não" còn thiếu bấy lâu nay! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/LLM_brainpower.png' alt='Sức mạnh suy luận của LLM hiện đại'>2. Mọi thứ đều "API hóa": Agent cần phải làm mọi thứ! Ngày nay, hầu như mọi dịch vụ đều có API. Muốn gửi email? Có API. Đặt phòng khách sạn? API. Truy vấn cơ sở dữ liệu? Cũng API nốt! Hệ sinh thái API phong phú này cung cấp "đôi tay" để agent thao túng thế giới kỹ thuật số. <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/API_ecosystem.png' alt='Mọi thứ đều API hóa'>3. Sự trỗi dậy của Cơ sở dữ liệu Vector: Làm sao một agent có thể nhớ những gì nó học ở bước 2 khi đã đến bước 42? Lưu trữ văn bản thô trong cơ sở dữ liệu thì kém hiệu quả lắm. Cơ sở dữ liệu Vector (như Pinecone, Weaviate, Chroma) cho phép agent lưu trữ thông tin dựa trên ý nghĩa ngữ nghĩa của nó. Điều này giúp chúng có một "trí nhớ dài hạn" hiệu quả, để có thể nhớ lại ngữ cảnh liên quan từ các hành động trong quá khứ. <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/vector_database_memory.png' alt='Cơ sở dữ liệu Vector và trí nhớ AI'>4. Các framework mã nguồn mở (LangChain & LlamaIndex): Các framework như LangChain đã làm thay rất nhiều công việc nặng nhọc. Chúng cung cấp "hệ thống ống nước" để kết nối LLM, công cụ và bộ nhớ lại với nhau. Thay vì phải tự xây dựng toàn bộ vòng lặp agent từ đầu, giờ đây các nhà phát triển có thể sử dụng các thư viện này để lắp ráp các agent mạnh mẽ chỉ trong vài dòng code, biến việc tạo agent trở nên dễ dàng hơn bao giờ hết! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/langchain_llamamaindex.png' alt='Framework mã nguồn mở LangChain và LlamaIndex'>🤖 "MCP Server": Chương trình điều khiển tổng thể!Điều này đưa chúng ta đến với "trái tim" của hệ thống. Bạn có thể nghe người ta gọi bộ điều phối của một AI agent là "MCP Server.""MCP Server" không phải là một thuật ngữ chính thức trong ngành đâu nhé. Nó là một cái tên mang tính khái niệm, và nếu bạn là fan phim khoa học viễn tưởng, đây chính là một sự "nháy mắt" trực tiếp đến Chương trình Điều khiển Tổng thể (Master Control Program) trong bộ phim TRON – một AI quyền năng quản lý toàn bộ hệ thống. Quả là một cái tên phù hợp!MCP Server chính là quá trình trung tâm chạy vòng lặp chính của agent. Nó là "nhạc trưởng" kết nối bộ não, các công cụ và bộ nhớ lại với nhau.Vậy, MCP Server làm gì ư?Quản lý Trạng thái: Nó nắm giữ trạng thái hiện tại của agent: mục tiêu cuối cùng, các tác vụ đã hoàn thành, và kết quả của các hành động trong quá khứ.Điều phối LLM: Nó lấy trạng thái hiện tại và định dạng thành một prompt (câu lệnh) cho LLM. Đây là một bước cực kỳ quan trọng. Prompt thường trông giống thế này:"Bạn là một trợ lý hữu ích. Mục tiêu của bạn là: [MỤC_TIÊU] Bạn có quyền truy cập vào các công cụ sau: [DANH_SÁCH_CÔNG_CỤ] Đây là lịch sử công việc của bạn cho đến nay: [LỊCH_SỬ_HÀNH_ĐỘNG_VÀ_QUAN_SÁT] Dựa vào đây, suy nghĩ và hành động tiếp theo của bạn là gì? Hãy phản hồi dưới dạng JSON: {"thought": "...", "action": "tool_name", "args": {...}}"Điều phối Công cụ: LLM sẽ phản hồi bằng một đối tượng JSON, ví dụ: {"thought": "Tôi cần tìm kiếm các đối thủ cạnh tranh.", "action": "web_search", "args": {"query": "Stripe alternatives"}}. MCP Server sẽ phân tích cái này và gọi hàm web_search() thực tế với các đối số được cung cấp.Quản lý Trí nhớ: Sau khi một công cụ được sử dụng, MCP Server sẽ lấy kết quả (ví dụ: danh sách kết quả tìm kiếm) và lưu nó vào bộ nhớ của agent (thường là cơ sở dữ liệu vector) để tham chiếu trong tương lai.Vòng lặp Thực thi (The Execution Loop): Server lặp lại quá trình này – gửi prompt cho LLM, điều phối một công cụ, quan sát kết quả – cho đến khi LLM phản hồi bằng một hành động "kết thúc" đặc biệt.Để bạn dễ hình dung, đây là các bước đơn giản mà MCP Server đang thực hiện:1. Chuẩn bị prompt: Tạo ra câu lệnh gửi đến "bộ não" LLM, tổng hợp mục tiêu, thông tin trong trí nhớ và các công cụ sẵn có.2. Nhận phản hồi: Hỏi LLM xem bước tiếp theo nên là gì (ví dụ: {"action": "web_search", "args": ...}).3. Thực thi hành động: Dựa vào phản hồi, kích hoạt công cụ phù hợp với các đối số tương ứng. Đây là lúc agent "hành động" thật sự!4. Lưu kết quả: Ghi lại hành động vừa rồi và kết quả quan sát được vào trí nhớ.5. Kiểm tra hoàn thành: Nếu LLM báo "xong việc" thì dừng, nếu không thì quay lại bước 1 và tiếp tục! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/MCP_Server_diagram.png' alt='Sơ đồ hoạt động của MCP Server'>Tất cả kết nối với nhau như thế nào?Vậy đấy, sự bùng nổ của AI Agent đang diễn ra là vì các LLM mạnh mẽ (bộ não) giờ đây có thể sử dụng một hệ sinh thái API khổng lồ (các công cụ) và Cơ sở dữ liệu Vector (bộ nhớ). MCP Server là tên gọi khái niệm cho bộ điều phối trung tâm chạy vòng lặp của agent, kết nối tất cả các mảnh ghép này lại với nhau để đạt được một mục tiêu.Chúng ta đang ở giai đoạn rất sơ khai của mô hình mới mẻ này. Mặc dù các agent hiện tại có thể còn "mong manh" và tốn kém khi chạy, nhưng chúng đang chỉ ra một tương lai nơi chúng ta có thể tự động hóa các quy trình làm việc kỹ thuật số cực kỳ phức tạp.Bạn nghĩ sao về điều này? Loại AI agent nào làm bạn hào hứng nhất khi xây dựng hoặc nhìn thấy trong thực tế? Hãy chia sẻ ý kiến của bạn ở phần bình luận nhé! 👇 <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/AI_Agent_Future.png' alt='Tương lai của AI Agent'>
Tìm hiểu về Model Context Protocol (MCP) – tiêu chuẩn mới giúp AI Agent tương tác với các công cụ thực tế như database và GitHub. Khám phá cách .NET trở thành nền tảng lý tưởng để xây dựng các ứng dụng AI thông minh, an toàn và hiệu quả, mở ra kỷ nguyên mới cho lập trình viên.
Bạn đã sẵn sàng khám phá một thế giới mới của Trí tuệ Nhân tạo chưa? Trong khi nhiều người còn đang mải mê "prompt engineering" hay chạy theo plugin GPT mới nhất, tôi đã chọn một con đường khác thú vị hơn nhiều. Tôi bắt đầu thu thập và kết nối các công cụ AI mã nguồn mở để tự xây dựng "Phòng Thí Nghiệm AI Cá Nhân" của riêng mình. Nghe có vẻ "pro" lắm đúng không? Nhưng tin tôi đi, bạn chỉ cần một chiếc laptop, một chút tò mò, và vài chục repo GitHub là đủ! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/personal_ai_lab_concept.png' alt='Mô hình phòng thí nghiệm AI cá nhân'> Vậy, rốt cuộc thì cái "Phòng Thí Nghiệm AI Cá Nhân" này là cái quái gì? Đơn giản mà nói, đó là "sân chơi" riêng của bạn, nơi bạn có thể tha hồ vọc vạch: Thử nghiệm các mô hình ngôn ngữ lớn (LLM) và các mô hình AI khác. Tự tay xây dựng những trợ lý AI hay tác nhân AI "tí hon" của riêng mình. Lên ý tưởng và thử nghiệm ngay lập tức mà không cần phụ thuộc vào các API bên ngoài. Kiểm tra và so sánh các công cụ AI tự host (tự chạy trên máy bạn). Hãy tưởng tượng nó như: Một phiên bản thu nhỏ của OpenAI, nhưng "cây nhà lá vườn" 100%, được ghép lại từ GitHub và Docker! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/mini_openai_diy.png' alt='OpenAI phiên bản tự chế với GitHub và Docker'> Bạn biết đấy, hầu hết các lập trình viên chúng ta thường chỉ tương tác với AI qua: Các sân chơi online (OpenAI Playground, Claude). Hugging Face Spaces. Hay các notebook Colab có sẵn. Nhưng những thứ đó thì sao? Hạn chế tùy chỉnh: Muốn làm gì đó khác biệt? Khó lắm! Bị đóng hộp: Mọi thứ chạy trong "sandbox," tách biệt hoàn toàn khỏi hệ thống của bạn. Tốn kém: Chạy nhiều là "cháy ví" ngay! Còn khi bạn có phòng lab của riêng mình thì sao? Bạn sẽ có: Toàn quyền kiểm soát: Tùy chỉnh mô hình, cài đặt, tích hợp theo ý muốn. Phát triển kỹ năng đỉnh cao: Tự tay trải nghiệm cách hoạt động của suy luận (inference), tinh chỉnh (fine-tuning), phân tách token (tokenization), hay cơ chế truy xuất thông tin (retrieval) – kiến thức thực chiến chứ không phải lý thuyết suông! Quyền riêng tư tuyệt đối: Chạy LLM ngay trên máy, không lo dữ liệu bị gửi đi đâu cả. Sáng tạo không giới hạn: Tự xây dựng những công cụ AI độc đáo mà người khác còn chưa nghĩ ra! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/benefits_ai_lab.png' alt='Lợi ích của việc xây dựng AI Lab cá nhân'> Đây là dàn "trợ thủ" đắc lực trong phòng lab hiện tại của tôi, tất cả đều từ GitHub: llama.cpp: Để chạy các mô hình LLM đã được lượng tử hóa (quantized LLM) ngay tại máy của bạn. Cứ như có một ChatGPT riêng vậy! text-generation-webui: Giao diện siêu dễ dùng để bạn tha hồ thử nghiệm các mô hình LLM. LangChain: "Phù thủy" giúp bạn xây dựng các chuỗi logic, tác nhân thông minh và hệ thống AI có bộ nhớ. Haystack: Nâng tầm khả năng truy xuất thông tin, đặc biệt cho các hệ thống tạo sinh nâng cao (RAG). PrivateGPT: Hỏi đáp tài liệu PDF cục bộ của bạn một cách riêng tư, không lo lộ bí mật công ty. Bloop: Tìm kiếm code bằng ngôn ngữ tự nhiên ngay trong kho code của bạn. Ngầu chưa? FastAPI: Biến công cụ AI của bạn thành một API để người khác (hoặc chính bạn) có thể dễ dàng sử dụng qua web. Docker: Giúp mọi thứ gọn gàng, ngăn nắp, không bị "bừa bộn" trong hệ thống máy tính của bạn. Ollama: Trình quản lý mô hình siêu đơn giản, giúp bạn tải và chạy LLM trong nháy mắt. Bonus "phù phép": Tôi còn tự tay huấn luyện một pipeline RAG nhỏ xíu bằng chính ghi chú cá nhân của mình, kết hợp với cơ sở dữ liệu vector Chroma. Giờ thì mấy cái ghi chú của tôi còn biết... tự nói chuyện lại với tôi nữa chứ! Đỉnh của chóp! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/rag_pipeline_example.png' alt='Ví dụ về RAG pipeline'> Trong cuộc sống hàng ngày, tôi tận dụng phòng lab này như thế nào ư? Đơn giản thôi: Tự động tóm tắt: Biên bản cuộc họp dài dòng? Đã có Whisper + LLM cục bộ lo! Trò chuyện với ghi chú: Biến những ghi chú Markdown của mình thành một "bộ não thứ hai" để dễ dàng hỏi đáp. Kiểm tra hiệu năng: Chạy benchmark so sánh các LLM lượng tử hóa (q4 vs q8) xem ai "ngon" hơn. Hỏi đáp tài liệu: Đống tài liệu nghiên cứu trong thư mục tải xuống giờ có thể hỏi đáp như một cuốn bách khoa toàn thư. Tạo mẫu nhanh: Nhanh chóng thử nghiệm các công cụ AI trước khi "đẩy" lên đám mây. <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/daily_ai_lab_use.png' alt='Ứng dụng AI Lab vào cuộc sống hàng ngày'> Bạn đã thấy hào hứng chưa? Giờ thì bắt tay vào xây dựng "phòng thí nghiệm" của riêng mình thôi, từng bước một nhé! 1. Bắt đầu nhỏ thôi: Đặt ra một mục tiêu đơn giản, ví dụ: "Tôi muốn chạy một LLM cục bộ." Clone llama.cpp từ GitHub. Tải một mô hình lượng tử hóa từ Hugging Face (nhớ chọn bản gguf nhé!). Chạy nó. Thế là xong! Chúc mừng, bạn giờ đã là một "nhà điều hành LLM cục bộ" rồi đó! 2. Thêm giao diện người dùng (UI): Thử text-generation-webui hoặc Open WebUI để tương tác với các mô hình bằng giao diện đồ họa. Cứ như có một ChatGPT riêng tại nhà! 3. Thêm tài liệu và khả năng truy xuất: Sử dụng Chroma hoặc Weaviate kết hợp với LangChain để "cho ăn" tài liệu riêng của bạn. Giờ thì AI của bạn có thể "đọc hiểu" mọi thứ bạn muốn! 4. Tự phục vụ API: Dùng FastAPI để biến công cụ AI của bạn thành một API trên web, giống như một "GPT API cá nhân" vậy đó. Nghe pro không? 5. Mở rộng và mô-đun hóa: Thêm vào các công cụ khác như: Whisper.cpp: Chuyển giọng nói thành văn bản ngay trên máy. GPT4All: Trình quản lý LLM offline đa năng. AutoGPTQ: Tối ưu hóa suy luận cho phần cứng của bạn. Giờ thì bạn đã có một trung tâm điều khiển AI cực xịn, tất cả đều từ GitHub! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/build_ai_lab_steps.png' alt='Các bước xây dựng AI Lab'> Thật ra, tôi đã học được kha khá kỹ năng "tình cờ" trong quá trình này đấy: Phân tách token (Tokenization): Các kiểu như BPE, SentencePiece... Nghe khó mà hóa ra dễ! Vector embeddings và tìm kiếm tương đồng: Cách mà AI hiểu được ý nghĩa của từ ngữ và tìm kiếm thông tin liên quan. Lượng tử hóa mô hình (Model quantization): Và tại sao Q4_0 lại khác Q8 – kiến thức này giúp bạn chạy AI mượt hơn trên máy yếu. Mạng Docker: Kết nối các "hộp" Docker lại với nhau. Prompt engineering... phiên bản thực tế: Không chỉ là gõ lệnh, mà là "nói chuyện" với AI sao cho nó hiểu bạn muốn gì. Cách biến một cái "CLI wrapper" trông lởm khởm thành một công cụ xịn sò. Và cái hay nhất là: Tôi chẳng tốn một xu nào để học những thứ này cả! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/accidental_ai_skills.png' alt='Kỹ năng AI học được'> Điều khiến tôi bất ngờ nhất ư? Các mô hình LLM mã nguồn mở "ngon" hơn bạn nghĩ nhiều. Bạn có thể chạy một trợ lý trò chuyện chỉ với 3 dòng lệnh Bash. Các pipeline RAG không hề đáng sợ như những bài blog vẫn "dọa" đâu. Bạn không cần GPU "khủng" (nhưng có thì càng tốt!). Và đặc biệt, học AI sẽ vui hơn rất nhiều khi bạn dám... "phá banh" nó ra! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/ai_surprises.png' alt='Những điều bất ngờ về AI'> Tương lai của các lập trình viên sẽ không chỉ dừng lại ở việc gọi API của OpenAI đâu. Họ sẽ tự chạy, tinh chỉnh và kết nối các mô hình mã nguồn mở lại với nhau. GitHub không còn chỉ là nơi để lưu trữ code nữa. Nó là "trường đại học", "hộp công cụ" và "sân chơi" của AI hiện đại. Nếu bạn muốn thực sự hiểu AI, đừng chỉ "thuê" nó. Hãy bắt tay vào tự xây dựng đi! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/future_of_devs_ai.png' alt='Tương lai của lập trình viên AI'> Dăm ba chuyện vui của dân "làm lab" AI: "Để tôi clone một repo cái đã..." (Và sau đó là tải về 8GB dữ liệu mô hình). Tôi, khi phải khởi động 5 container Docker chỉ để sửa một cái lỗi nhỏ xíu. Cài đặt 16 thư viện chỉ để test một bộ phân tách token. Cảm giác như Iron Man khi AI của mình phản hồi đúng ý. Nhận ra đã cả tháng rồi mình không đụng đến Google Colab. Lỡ tay chạy một con LLM 8GB trên cái máy 4GB RAM. Hối hận không kịp! Trò chuyện với chính những ghi chú của mình như thể đang sống trong năm 2035. <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/ai_dev_humor.png' alt='Hài hước lập trình AI'> Tóm lại là: Bạn hoàn toàn có thể tự xây dựng "phòng thí nghiệm AI" của riêng mình bằng các công cụ GitHub miễn phí. Cách này giúp bạn học được nhiều hơn mọi khóa học hay tutorial cộng lại. Bạn sẽ tích lũy được các kỹ năng thực tế về AI/ML, DevOps, và backend. Nó vui, hơi lộn xộn một chút, nhưng là của riêng bạn 100%! Đây chính là cách tốt nhất để học hỏi và đổi mới trong lĩnh vực AI ngày nay. <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/learn_ai_by_building.png' alt='Học AI bằng cách tự xây dựng'>
Này bạn ơi! Bạn đã biết đến <a href="https://dev-resources.site/">Dev Resources</a> chưa? Đây là kho báu miễn phí với hơn 1000 công cụ và hướng dẫn "xịn sò" dành riêng cho dân dev đó. Mà này, bạn có thấy dạo này ai cũng nhao nhao nói về 'prompt engineering' hay 'plugin GPT' không? Trong lúc mọi người bận rộn với mấy vụ đó, tôi lại chọn một lối đi khác, thú vị hơn nhiều! Tôi bắt đầu 'gom góp' và 'kết nối' các công cụ AI mã nguồn mở để xây dựng một cái gọi là 'Phòng thí nghiệm AI cá nhân' (Personal AI Lab) của riêng mình. Nghe "hàn lâm" vậy thôi chứ qua quá trình này, tôi không chỉ học lý thuyết suông về AI đâu nhé. Tôi thực sự "sống" với nó, trải nghiệm từng chút một! Tôi không chỉ chạy mấy cái notebook có sẵn, mà còn tự tay xây dựng cả một 'đường ống' (pipeline) hoàn chỉnh. Tôi chẳng những không chỉ huấn luyện mỗi mô hình, mà còn tạo ra những 'trợ lý' (agent) và hệ thống AI nhỏ gọn của riêng mình nữa. Mà biết gì không? Bạn cũng hoàn toàn có thể làm được điều đó đấy! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/DevResourcesIntro.png' alt='Dev Resources và hành trình xây AI Lab cá nhân'> Vậy rốt cuộc cái 'Phòng thí nghiệm AI cá nhân' này là cái gì vậy? Đừng lo, nó không phải là nơi đặt mấy cỗ máy siêu phức tạp trong phim khoa học viễn tưởng đâu! Đơn giản mà nói, đây chính là 'sân chơi' riêng của bạn, nơi bạn có thể:<ul><li>Thỏa sức thử nghiệm với các mô hình AI và LLM (như ChatGPT bản 'tự làm').</li><li>Tự tay xây dựng các 'trợ lý AI' hay 'đặc vụ AI' tí hon theo ý mình.</li><li>Thử nghiệm các ý tưởng mới mà không cần "xin phép" hay trả phí cho các API bên ngoài.</li><li>Kiểm tra và so sánh các công cụ AI tự host, xem cái nào "ngon" hơn.</li></ul>Tưởng tượng thế này: nó giống hệt một phiên bản OpenAI thu nhỏ của riêng bạn, nhưng được xây dựng hoàn toàn từ những dự án mã nguồn mở trên GitHub và gói gọn trong Docker! Nghe 'phê' chưa? <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/PersonalAILabConcept.png' alt='Phòng thí nghiệm AI cá nhân - Sân chơi của riêng bạn'> Ủa, vậy tại sao mình phải tự xây cái "lab" này chi cho mệt trong khi đã có đầy đủ Playground của OpenAI, Claude hay mấy cái Notebook Colab tiện lợi rồi? Hay đó là câu hỏi mà nhiều bạn sẽ đặt ra. Nhưng này, mấy cái đó tuy tiện nhưng cũng có vài 'hạt sạn' đó nha:<ul><li>**Hạn chế tùy chỉnh:** Muốn làm gì đó khác biệt? Khó lắm! Chúng ta bị 'nhốt' trong khuôn khổ của họ rồi.</li><li>**Bị cách ly:** Code của bạn và hệ thống của bạn cứ như bị 'nhốt' trong cái hộp cát, khó mà kết nối trực tiếp với nhau.</li><li>**Tốn kém:** Dùng nhiều là tốn tiền, đó là quy luật bất di bất dịch mà!</li></ul>Nhưng với cái "lab" của riêng bạn thì sao? Một bầu trời lợi ích hiện ra trước mắt:<ul><li>**Toàn quyền kiểm soát:** Bạn muốn tùy chỉnh mô hình, cài đặt, tích hợp đủ thứ ư? Tùy bạn hết!</li><li>**Phát triển kỹ năng đỉnh cao:** Bạn sẽ hiểu sâu sắc cách mà inference (suy luận), fine-tuning (tinh chỉnh), tokenization (phân tách từ), hay retrieval (truy xuất thông tin) thực sự hoạt động. Đây là kiến thức thực chiến chứ không phải chỉ là "chấm.api()" đâu nhé!</li><li>**Bảo mật thông tin:** Chạy LLM ngay trên máy của mình mà không lo dữ liệu bị gửi lung tung lên API bên thứ ba. Riêng tư tuyệt đối!</li><li>**Sáng tạo không giới hạn:** Tự tay tạo ra những công cụ AI độc đáo mà người khác chưa từng nghĩ tới. Nghe có phải là một lập trình viên 'thế hệ mới' không?</li></ul><img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/ControlVsCloud.png' alt='So sánh kiểm soát và chi phí giữa AI Lab và dịch vụ đám mây'> Vậy "cơ ngơi" của cái lab AI cá nhân này gồm những "món" gì? Toàn là hàng "xịn sò" từ GitHub về không đó nha!<ul><li>**llama.cpp:** "Trái tim" của lab, giúp bạn chạy các mô hình LLM đã được lượng tử hóa (quantized LLM) ngay trên máy tính của mình mà không cần "siêu máy tính" đâu!</li><li>**text-generation-webui:** Giao diện siêu dễ dùng để bạn tha hồ "nghịch" và kiểm tra các mô hình AI. Cứ như có một "sân chơi" đồ họa vậy.</li><li>**LangChain:** "Bộ não" để bạn xây dựng các chuỗi logic, tạo ra các "trợ lý" AI thông minh hơn, có cả khả năng ghi nhớ nữa!</li><li>**Haystack:** Nâng tầm khả năng truy xuất thông tin, biến những câu hỏi của bạn thành câu trả lời siêu thông minh (RAG - Retrieval-Augmented Generation).</li><li>**PrivateGPT:** Cần hỏi đáp về các file PDF riêng tư trên máy bạn? PrivateGPT chính là giải pháp, không lo lộ dữ liệu ra ngoài đâu nhé.</li><li>**Bloop:** Một công cụ tìm kiếm "thần thánh" cho phép bạn tìm kiếm code của mình bằng ngôn ngữ tự nhiên. Kiểu như "Tìm cho tôi hàm xử lý giỏ hàng" là nó ra liền!</li><li>**FastAPI:** Muốn biến công cụ AI của bạn thành một API để người khác (hoặc chính bạn) có thể truy cập qua web? FastAPI sẽ giúp bạn "phơi bày" nó ra internet một cách dễ dàng.</li><li>**Docker:** Ông trùm "dọn dẹp"! Giúp bạn đóng gói mọi thứ gọn gàng, không sợ "đống lộn xộn" của các thư viện và phiên bản gây xung đột.</li><li>**Ollama:** Quản lý mô hình AI giờ đây "dễ như ăn kẹo" với Ollama. Tải, chạy, quản lý mô hình... tất cả chỉ với vài lệnh đơn giản.</li></ul>À mà có một "món quà" nhỏ tôi tự hào lắm: Tôi đã tự tay "huấn luyện" một pipeline RAG siêu mini bằng chính các ghi chú cá nhân của mình, kết hợp với cơ sở dữ liệu vector Chroma. Giờ thì mấy cái ghi chú của tôi còn biết "nói chuyện" lại nữa chứ! Nghe ảo diệu không? <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/OpenSourceAIToolsCollage.png' alt='Tổng hợp các công cụ AI mã nguồn mở cho Personal AI Lab'> Vậy cái "lab" này được tôi dùng vào việc gì hàng ngày? Nghe đây này, nó "ngon" hơn bạn tưởng đó:<ul><li>**Tự động tóm tắt cuộc họp:** Sau mỗi cuộc họp, tôi dùng Whisper (mô hình chuyển giọng nói thành văn bản) kết hợp với LLM trên máy cục bộ để tóm tắt các ghi chú. Tiết kiệm thời gian cực kỳ!</li><li>**Trò chuyện với ghi chú:** Mấy cái ghi chú Markdown của tôi giờ đây giống như một "bộ não thứ hai" vậy. Tôi có thể hỏi chúng bất cứ điều gì và nhận được câu trả lời thông minh.</li><li>**Đánh giá hiệu năng LLM:** Muốn biết LLM phiên bản q4 hay q8 hoạt động tốt hơn? Cái lab này giúp tôi chạy thử nghiệm và so sánh hiệu suất ngon lành.</li><li>**Hỏi đáp với tài liệu nghiên cứu:** Mấy file báo cáo, tài liệu nghiên cứu "khô khan" trong thư mục tải về giờ cũng biết trả lời câu hỏi của tôi rồi. Cứ như có một trợ lý đọc sách vậy đó!</li><li>**Tạo mẫu AI nhanh chóng:** Trước khi "đẩy" một công cụ AI nào đó lên đám mây, tôi có thể nhanh chóng tạo mẫu và thử nghiệm ngay tại lab của mình. Tiết kiệm khối tiền cloud luôn!</li></ul><img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/AILabDailyUse.png' alt='Cách sử dụng AI Lab cá nhân hàng ngày'> Thế làm sao để bạn có thể tự xây cho mình một cái "lab" như vậy? Đừng lo lắng, tôi sẽ hướng dẫn bạn từng bước một, dễ như ăn kẹo! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/BuildAILabSteps.png' alt='Hướng dẫn từng bước xây dựng AI Lab cá nhân'> <ol><li>**Khởi đầu "siêu nhỏ"**: Đừng tham lam, hãy chọn một mục tiêu thôi. Ví dụ: "Tôi muốn chạy một mô hình LLM ngay trên máy tính của mình."<ul><li>**Bước 1: Tải "não bộ"**: Clone dự án <a href="https://github.com/ggerganov/llama.cpp">llama.cpp</a> từ GitHub về máy. Đây là nền tảng để chạy LLM cục bộ đó.</li><li>**Bước 2: Tìm "trí tuệ"**: Lên Hugging Face kiếm một mô hình đã được lượng tử hóa (quantized model) và tải về.</li><li>**Bước 3: Chạy và "BÙM!"**: Chạy nó lên! Và thế là bạn đã trở thành một "nhà điều hành LLM cục bộ" rồi. Ngầu chưa?</li></ul></li><li>**Thêm "giao diện" cho dễ dùng**: Bây giờ, để tương tác với mô hình dễ dàng hơn, bạn có thể thử <a href="https://github.com/oobabooga/text-generation-webui">text-generation-webui</a> hoặc <a href="https://github.com/open-webui/open-webui">Open WebUI</a>. Mấy cái này có giao diện đồ họa đẹp mắt, giúp bạn "chơi đùa" với AI mà không cần gõ lệnh khô khan nữa.</li><li>**Cho "lab" đọc tài liệu**: Muốn AI của bạn thông minh hơn, biết nhiều hơn? Hãy dùng <a href="https://github.com/chroma-core/chroma">Chroma</a> hoặc <a href="https://github.com/weaviate/weaviate">Weaviate</a> (là các cơ sở dữ liệu vector) kết hợp với <a href="https://github.com/langchain-ai/langchain">LangChain</a> để "nuôi" cho cái lab của bạn những tài liệu mà nó cần "đọc". Càng đọc nhiều, AI càng "bá đạo" đó!</li><li>**Tạo API "cây nhà lá vườn"**: Bạn muốn biến công cụ AI của mình thành một API cá nhân, giống như một phiên bản GPT của riêng bạn để có thể truy cập từ web? <a href="https://github.com/tiangolo/fastapi">FastAPI</a> chính là cứu tinh! Nó giúp bạn "mở cửa" cái lab của mình ra thế giới bên ngoài một cách dễ dàng.</li><li>**Biến thành "siêu lab" đa năng**: Giờ thì thêm mấy công cụ "ảo diệu" này vào nữa là lab của bạn thành một trung tâm điều khiển AI "xịn sò" luôn:<ul><li>**Whisper.cpp:** Chuyển giọng nói thành văn bản ngay trên máy.</li><li>**GPT4All:** Trình quản lý LLM offline, tha hồ cài đặt và thử nghiệm.</li><li>**AutoGPTQ:** Tối ưu hóa hiệu năng suy luận cho phần cứng của bạn.</li></ul>Và thế là, bạn đã có một trung tâm điều khiển AI hoạt động hết công suất, tất cả đều từ GitHub – hoàn toàn miễn phí và tự chủ!</li></ol> À mà này, trong lúc "nghịch" cái lab AI này, tôi còn "vô tình" học được kha khá các kỹ năng "đắt giá" mà không tốn một xu nào luôn:<ul><li>**Tokenization:** Hiểu sâu về cách văn bản được "xẻ nhỏ" thành các token (BPE, SentencePiece) để AI xử lý.</li><li>**Vector embeddings và tìm kiếm tương tự:** Cách mà AI hiểu được ý nghĩa của từ ngữ và tìm kiếm những thứ giống nhau. Nghe hay ho đúng không?</li><li>**Lượng tử hóa mô hình (Model quantization):** Và tại sao việc chọn Q4_0 hay Q8 lại quan trọng đến vậy. Đây là kỹ thuật giúp chạy LLM trên phần cứng "yếu hơn" đó.</li><li>**Docker networking:** Cách các "hộp" Docker nói chuyện với nhau, và sao cho chúng không "cãi lộn".</li><li>**Prompt engineering... phiên bản "thực chiến":** Không phải chỉ là gõ vài câu lệnh trên ChatGPT đâu, mà là cách bạn "lèo lái" AI làm đúng ý mình.</li><li>**Biến một công cụ CLI "cà tàng" thành "phép thuật":** Cảm giác tự tay "phù phép" cho mấy dòng lệnh khô khan trở nên dễ dùng thật là "đã"!</li></ul>Mà tất cả những kỹ năng này, tôi học được hoàn toàn miễn phí đó nha! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/AccidentalSkills.png' alt='Các kỹ năng tự học được khi xây dựng AI Lab'> Điều gì làm tôi "té ghế" nhất khi xây cái lab này?<ul><li>**LLM mã nguồn mở "đỉnh" hơn tưởng tượng:** Thật sự, mấy mô hình mã nguồn mở "ngon" hơn bạn nghĩ nhiều đó, không thua kém gì các "ông lớn" đâu.</li><li>**Chỉ 3 dòng Bash để chạy trợ lý chat:** Nghe không thể tin nổi phải không? Chỉ với vài dòng lệnh Bash là bạn đã có thể chạy một trợ lý chat của riêng mình rồi!</li><li>**RAG pipeline không "khủng khiếp" như lời đồn:** Mấy bài blog hay làm quá lên chứ thực ra RAG pipeline không hề đáng sợ chút nào, nó còn rất thú vị nữa là đằng khác.</li><li>**Không cần GPU "khủng":** Đúng là có GPU thì "phê" hơn, nhưng bạn không cần phải có một chiếc card đồ họa siêu đắt tiền mới có thể bắt đầu đâu nhé!</li><li>**AI sẽ vui hơn khi bạn "phá" nó:** Thật đó, cứ thử "phá banh" mấy cái mô hình, rồi tìm cách sửa lại xem, bạn sẽ học được nhiều điều bất ngờ lắm!</li></ul><img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/AILabSurprises.png' alt='Những điều bất ngờ khi xây dựng AI Lab'> Tương lai của dân Dev sẽ là "Lab", chứ không chỉ là dùng mỗi API đâu! Thế hệ lập trình viên tiếp theo sẽ không chỉ đơn thuần là "gọi" API của OpenAI hay các dịch vụ khác nữa đâu. Họ sẽ tự tay chạy, tinh chỉnh và "xâu chuỗi" các mô hình mã nguồn mở lại với nhau. GitHub từ giờ không chỉ là nơi lưu trữ code nữa. Nó sẽ trở thành một "trường đại học", một "hộp công cụ" và một "sân chơi" khổng lồ cho AI hiện đại. Nếu bạn thực sự muốn hiểu về AI, đừng chỉ thuê nó. Hãy bắt đầu tự xây dựng nó đi! <img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/FutureDevsAILab.png' alt='Tương lai của lập trình viên: AI Lab cá nhân'> Và đây là vài "mẩu chuyện cười" trong "Phòng thí nghiệm AI" của riêng tôi, có lẽ bạn cũng sẽ thấy mình trong đó:<ul><li>"Để mình clone một cái repo cái nha!" (và rồi tải về 8GB mô hình nặng trịch).</li><li>Mình đây, khởi động cả 5 container Docker chỉ để debug một lỗi cỏn con.</li><li>Cài đặt cả 16 thư viện chỉ để test một cái tokenizer.</li><li>Cảm giác như Iron Man khi AI trả lời đúng ý mình.</li><li>Bỗng dưng nhận ra đã mấy tháng rồi mình chẳng thèm dùng Google Colab.</li><li>Lỡ tay chạy cái LLM 8GB trên cái máy chỉ có 4GB RAM. Hối hận không kịp!</li><li>Đang "huyên thuyên" với mấy cái ghi chú cá nhân như thể đang ở năm 2035 vậy.</li></ul><img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/DevHumorAI.png' alt='Những câu chuyện dở khóc dở cười của dân dev với AI Lab'> Tóm lại là:<ul><li>Bạn hoàn toàn có thể tự xây dựng "phòng thí nghiệm AI" của riêng mình chỉ với các công cụ miễn phí trên GitHub.</li><li>Nó sẽ dạy bạn nhiều điều hơn bất kỳ khóa học hay hướng dẫn nào.</li><li>Bạn sẽ có được các kỹ năng thực chiến về AI/ML, DevOps và backend.</li><li>Vừa vui, vừa "hỗn loạn" một chút, nhưng quan trọng nhất là nó 100% là của bạn!</li><li>Đây chính là cách tốt nhất để học hỏi và sáng tạo trong lĩnh vực AI ngày nay.</li></ul><img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/TldrRocket.png' alt='Tóm tắt về lợi ích của AI Lab cá nhân'> Bạn có thấy mình cứ mãi xây dựng sản phẩm chỉ để "câu like" mà chưa kiếm được tiền không? Tôi cũng từng như vậy. Thế nên, tôi đã bắt tay vào tạo ra những công cụ và bộ kit kỹ thuật số đơn giản, nhưng lại thực sự giúp tôi kiếm tiền – mà chẳng cần có lượng người theo dõi khủng, code "siêu nhân" hay phải "cày cuốc" không ngừng nghỉ. **Mở khóa Các Gói Premium Dành Cho Dev Muốn Tự Do!** Đây chính là những "lối tắt" giúp bạn tự thân vận động và biến đam mê thành thu nhập:<ul><li>🌍 **Tôi xây một website đơn giản cho doanh nghiệp địa phương và kiếm được hơn $500** – Không cần kỹ năng thiết kế, chỉ cần giải quyết một vấn đề thực tế.</li><li>🚀 **Ra mắt SaaS trong 7 ngày – không cần code, không cần khán giả** – Có thể hơi "loạn" lúc đầu nhưng nó hoạt động đấy!</li><li>🔌 **Dùng API công cộng để xây công cụ nhỏ mà người ta trả $997 để mua** – Tận dụng những gì đã có sẵn và biến chúng thành thứ hữu ích.</li><li>📦 **Kiếm $300 trong 3 ngày từ một "kho tài nguyên" đơn giản** – Chỉ là tổng hợp các liên kết và công cụ, vậy thôi.</li><li>📈 **Đưa một trang web địa phương lên top mà không cần viết một bài blog nào** – SEO không hề khó nếu bạn biết cách làm khác biệt.</li></ul>**Quick Kits (Mang về một sản phẩm thực sự hoạt động cho bạn!)** Đây là những thành quả cá nhân được biến thành các bộ kit "cắm là chạy" – những hướng dẫn ngắn gọn, súc tích:<ul><li>⚡ **$1K trong một tuần chỉ dùng API mà tôi chẳng tự xây** – Copy-paste logic, trau chuốt thêm, xuất bản.</li><li>🔥 **Bộ setup dev $0 của tôi giờ kiếm hơn $97 mỗi ngày** – Mất nhiều năm để xây dựng. Giờ thì nó cứ thế "chạy êm" ở chế độ nền.</li><li>💼 **Bộ kit khởi nghiệp SaaS này tự bán giá $499** – Hóa ra, mọi người rất thích được bỏ qua công đoạn thiết lập "khổ sở".</li><li>📚 **Tôi biến các bài báo học thuật thành sản phẩm thực tế** – Tất cả chỉ là "vàng chôn giấu" nếu bạn biết cách tìm.</li><li>💡 **Portfolio dev của tôi trở thành một sản phẩm $297** – Tôi chỉ kể câu chuyện của mình và bán những tài sản tôi tạo ra trong quá trình đó.</li></ul>👉 **Duyệt tất cả công cụ và bộ kit micro-business tại đây:** <a href="https://0x7bshop.gumroad.com">0x7bshop.gumroad.com</a> 👉 **Duyệt tất cả các bản thiết kế tại đây:** <a href="https://payhip.com/0x7BDollarShop">payhip.com/0x7BDollarShop</a>
Các AI Agent đang thay đổi cách chúng ta tương tác với API. Bài viết này khám phá những thách thức và cơ hội, đồng thời cung cấp hướng dẫn về cách thiết kế API cho tương lai tự động hóa, bao gồm schema, xử lý lỗi thông minh và giao thức MCP.
Khám phá Retrieval-Augmented Generation (RAG) – công nghệ AI đột phá kết hợp tìm kiếm dữ liệu thời gian thực và tạo nội dung thông minh. Tìm hiểu cách RAG giúp doanh nghiệp tăng hiệu quả, tự động hóa và đưa ra quyết định chính xác trong mọi lĩnh vực.
Tìm hiểu về Giao thức Agent2Agent (A2A) của Google - "ngôn ngữ chung" giúp các AI Agent giao tiếp, hợp tác và phá vỡ rào cản dữ liệu trong doanh nghiệp. Khám phá nguyên lý kỹ thuật, ứng dụng và tác động cách mạng của A2A.
Hướng dẫn cài đặt và kết nối Model Context Protocol (MCP) filesystem server với Copilot trong VS Code để AI hiểu rõ hơn về các file và thư mục cục bộ của bạn, nâng cao hiệu suất làm việc.
Khám phá cách tích hợp AI vào quy trình kiểm thử của bạn với Model Context Protocol (MCP) và hệ sinh thái Atlassian. Hướng dẫn chi tiết từ A-Z giúp bạn tạo trường hợp kiểm thử tự động, phát hiện lỗi biên và tối ưu hóa quy trình kiểm thử hiệu quả.
Khám phá cách Jesse, nhà phát triển Portal One, giải quyết thách thức lớn nhất khi xây dựng AI Agent: giúp chúng thực hiện các nhiệm vụ đa bước đáng tin cậy. Tìm hiểu về Model Context Protocol (MCP) động và những bài học xương máu để tối ưu hóa hiệu suất của AI.
Khám phá cách tích hợp mạnh mẽ AI vào ứng dụng Flutter với mcp_llm và mcp_client. Bài viết này hướng dẫn chi tiết cách AI có thể truy cập các công cụ và tài nguyên bên ngoài để thực hiện các tác vụ đời thực, biến ứng dụng của bạn thành trợ lý thông minh đa năng.
Bạn muốn tự tay 'chơi đùa' với AI mà không cần credit cloud hay bằng cấp? Bài viết này sẽ hướng dẫn bạn cách xây dựng một "Phòng Thí Nghiệm AI Cá Nhân" từ các công cụ mã nguồn mở miễn phí trên GitHub, giúp bạn nâng cao kỹ năng AI thực chiến một cách thú vị và hiệu quả!
Bắt đầu hành trình xây dựng trợ lý AI với Node.js! Khám phá 14 khái niệm cốt lõi như Agent, Model, Ollama, LangChain, RAG, Docker... một cách dễ hiểu và thú vị. Dành cho các JavaScript developers muốn chinh phục AI.
Tìm hiểu về mcp-rb, SDK Ruby cho Model Context Protocol (MCP) giúp các AI Agent giao tiếp nhất quán với thế giới bên ngoài. Khám phá cách Ruby đơn giản hóa việc định nghĩa Tools và Resources, so sánh với TypeScript và xem các ví dụ thực tế.
Khám phá Model Context Protocol (MCP) – giao thức đột phá giúp LLM như ChatGPT kết nối và làm việc với mọi công cụ mà không cần lập trình lại code, giải phóng nhà phát triển khỏi gánh nặng tích hợp phức tạp.
Chào bạn! Bạn có bao giờ nằm mơ giữa ban ngày, ước gì GitHub Copilot có thể tự động 'phù phép' ra các bài kiểm tra end-to-end (E2E) cho ứng dụng web của mình mà chẳng cần bạn phải 'nhét' cả kho code vào cho nó nghiên cứu không? Nghe có vẻ 'ảo tung chảo' đúng không? Vì vốn dĩ, Copilot 'ngây thơ' làm sao mà tự mở trình duyệt, lướt web hay 'đọc vị' được giao diện người dùng để viết test chuẩn xác? Nó thiếu hẳn cái 'bối cảnh' cần thiết mà!\n\nNhưng mà khoan đã, đừng vội thất vọng! Mọi thứ đã xoay chuyển 180 độ với sự xuất hiện của **Playwright MCP (Model Context Protocol)**! Bí kíp 'thần thánh' ở đây chính là một "giao thức" cực kỳ đặc biệt, một cây cầu ma thuật 'bắc ngang' nối liền Copilot 'thông minh' của chúng ta với thế giới trình duyệt thực!\n\n<img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/gK1N6L7.png' alt='Mối liên kết giữa Copilot và Playwright MCP'>\n\n**MCP** – gọi tắt là 'người trợ lý siêu đẳng' của Copilot trong thế giới web! Nó chính là đôi mắt tinh tường, đôi tai thính nhạy, và cả đôi tay khéo léo của Copilot đó! Nhờ có MCP, Copilot có thể 'xuyên không' vào trình duyệt, tự mình mở trang web, 'múa máy' tương tác với mọi thứ trên giao diện, và thậm chí còn chụp lại những "khoảnh khắc" của trang nữa. Điều này đã 'khai mở' một "siêu năng lực" hoàn toàn mới: Copilot giờ đây có thể tự động 'cho ra lò' các bài kiểm tra Playwright chỉ bằng những chỉ dẫn bằng ngôn ngữ tự nhiên của bạn. Tuyệt vời hơn nữa là bạn chẳng cần phải có mã nguồn của ứng dụng trong tay! Nghe cứ như phim viễn tưởng ấy nhỉ?\n\nTrong bài viết 'bí kíp' này, chúng ta sẽ cùng nhau 'mổ xẻ' xem Copilot, nhờ có 'bàn tay' trợ giúp của Playwright MCP, đã "lột xác" như thế nào để có thể tạo, chạy và xác thực các bài kiểm tra E2E đỉnh cao. Tất cả chỉ cần bạn "thì thầm" vào tai nó muốn làm gì bằng tiếng Việt (hay tiếng Anh tùy thích), mà chẳng cần "động chạm" một ngón tay nào vào mã nguồn đâu nhé!\n\n**🧠 Tại sao không dùng mỗi Copilot thôi cho rồi?** Bạn biết đấy, GitHub Copilot 'siêu nhân' mạnh mẽ là thế, nhưng nó thường chỉ phát huy tối đa "công lực" khi được 'tiếp cận' với mã nguồn của bạn. Nếu bạn chỉ muốn 'chọc ghẹo' một ứng dụng web trên trình duyệt và cần tạo test, thì Copilot sẽ "ngớ người ra" vì nó không có đủ "bối cảnh" để hành động. Cứ như một đầu bếp tài ba nhưng lại 'bí' nguyên liệu vậy đó!\n\n<img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/u1D4PzO.png' alt='Copilot một mình thì hơi 'bí'>\n\nVà đó chính là lúc **Model Context Protocol (MCP)** 'ra tay giải cứu'! MCP đã ban cho Copilot 'siêu năng lực' tương tác với trình duyệt thông qua một giao diện thời gian thực. Nó có thể 'thu gom' dữ liệu ngữ cảnh cực kỳ phong phú, giống như việc 'đọc' các "bản đồ" ARIA (Accessible Rich Internet Applications), và thực hiện các hành động trên giao diện người dùng. Tuyệt vời hơn là những hành động đó sau này có thể 'biến hóa' thành các bài kiểm tra Playwright "chạy ngon ơ" mà bạn không cần phải nhúng tay vào!\n\n**🛠️ Thiết lập 'mệnh lệnh' cho Copilot**\n\nĐể bắt đầu, chúng ta sẽ 'phác thảo' một "lời nhắc" tạo test 'độc quyền' bên trong một file có tên `.github/prompts/generate.prompt.md`. File này sẽ đóng vai trò là "huấn luyện viên" cá nhân, giúp Copilot "lột xác" thành một "chuyên gia tạo test" thực thụ, và nó sẽ 'tận dụng' tất cả các công cụ mạnh mẽ thông qua "đặc vụ" MCP của chúng ta.\n\nĐây là những "lời vàng ý ngọc" chúng ta sẽ "thì thầm" vào tai Copilot (như một lời dặn dò bí mật vậy):\n\n* Bạn là một "phù thủy tạo test" Playwright tài ba.\n* Nhiệm vụ của bạn là 'biến' một kịch bản thành bài kiểm tra Playwright 'xịn sò'.\n* ĐẶC BIỆT LƯU Ý: Tuyệt đối KHÔNG được 'phóng tác' mã test chỉ dựa trên kịch bản "suông" đâu nhé! Hãy 'hành động'!\n* Hãy thực hiện từng bước MỘT bằng cách sử dụng các công cụ "siêu đẳng" mà Playwright MCP cung cấp cho bạn.\n* CHỈ SAU KHI tất cả các bước đã hoàn thành 'xuất sắc', bạn mới được 'nhả' ra một bài kiểm tra Playwright TypeScript sử dụng `@playwright/test` dựa trên toàn bộ 'nhật ký' tương tác.\n* 'Cất giữ' file test đã tạo vào thư mục `tests` cho gọn gàng.\n* Và cuối cùng, hãy 'thực chiến' bằng cách chạy file test đó. Nếu 'thất bại', hãy 'làm lại' cho đến khi test chạy "ngon lành cành đào" (PASS) thì thôi!\n\nĐây là một ví dụ về "mệnh lệnh" đơn giản, chỉ cần 'mô tả' bằng ngôn ngữ tự nhiên là đủ:\n\n"Tạo một bài kiểm tra Playwright cho kịch bản sau:\n1. Đi đến trang web: `https://debs-obrien.github.io/playwright-movies-app`\n2. Tìm kiếm phim 'Garfield'\n3. Xác nhận phim đó có mặt trong danh sách kết quả"\n\nTừ khoảnh khắc này, Copilot và MCP sẽ "tiếp quản" toàn bộ, và việc của bạn chỉ là "ung dung" 'ngồi mát ăn bát vàng'!\n\n<img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/o2K8l7I.png' alt='Cài đặt lệnh cho Copilot để tạo test Playwright'>\n\n**🌐 Từ tương tác trình duyệt đến mã test: Hành trình 'biến hình' thần kỳ!**\n\nNgay khi bạn "ra lệnh" trong Copilot Chat (ví dụ này dùng 'bộ não' Cloud 3.5 Sonnet), MCP sẽ "phù phép" mở ra một phiên trình duyệt mới toanh và bắt đầu "hành động" theo từng bước một, như một 'nghệ sĩ' vậy đó:\n\n<img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/1G2R4nU.png' alt='Quá trình tạo test từ tương tác trình duyệt'>\n\n**Bạn có để ý những điểm 'đỉnh cao' sau không?**\n\n* Nó 'vọt' ngay đến URL mà bạn cung cấp, nhờ vào 'trợ lực' từ máy chủ Playwright MCP.\n* Ban đầu nó hơi "ngập ngừng" một chút khi định vị trường tìm kiếm, nhưng không sao! Nó đã nhanh trí dùng một "ảnh chụp nhanh" của trang để "soi" kỹ DOM (Document Object Model) và tìm ra 'lời giải'.\n* Và 'rẹt' một cái, nó đã xác định đúng ô input, gõ "Garfield" vào, và tiếp tục 'hành trình'.\n* Cuối cùng, một bài kiểm tra Playwright "ngon lành cành đào" đã tự động 'ra đời', dựa trên toàn bộ lịch sử tương tác 'đáng yêu' đó.\n\nMCP thực sự là "đôi mắt thần" cung cấp cho Copilot "cái nhìn" sâu sắc về mọi ngóc ngách của trang, cứ như một "hệ thống thị giác" siêu việt cho "bộ não" LLM của bạn vậy!\n\n**✅ Xác thực bài kiểm tra: Chạy thử xem sao!**\n\nÀ mà này, vì "lời nhắc" của chúng ta đã 'ra lệnh' luôn cả việc xác thực test, nên Copilot sẽ 'nghênh ngang' "cầm" bài test nó vừa 'vẽ' ra và chạy thử ngay! Và bạn đoán xem kết quả là gì? Chính xác! **PASS!** ✅ Thật sự "hết nước chấm"!\n\n<img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/uGzX9d8.png' alt='Bài test được tạo tự động và chạy thành công'>\n\n```typescript\nimport { test, expect } from '@playwright/test';\n\ntest('Movie search - Search for a movie by title', async ({ page }) => {\n // Điều hướng đến ứng dụng phim - bước đầu tiên của mọi cuộc phiêu lưu!\n await page.goto('https://debs-obrien.github.io/playwright-movies-app');\n\n // Click vào nút tìm kiếm để kích hoạt ô input thần kỳ\n await page.getByRole('search').click();\n\n // Gõ 'Garfield' vào ô tìm kiếm và nhấn Enter - 'ảo thuật' bắt đầu!\n await page.getByRole('textbox', { name: 'Search Input' }).fill('Garfield');\n await page.getByRole('textbox', { name: 'Search Input' }).press('Enter');\n\n // Xác minh rằng 'The Garfield Movie' đã 'lộ diện' trong kết quả tìm kiếm - nhiệm vụ hoàn thành!\n await expect(page.getByRole('heading', { name: 'The Garfield Movie', level: 2 })).toBeVisible();\n});\n```\n\n**🔁 Tiếp theo là gì? Bạn sẽ làm chủ cuộc chơi!**\n\nTừ đây, bạn hoàn toàn có thể "làm chủ" mọi thứ, 'muốn gì được nấy':\n\n* Bạn cứ việc "ngâm cứu" lại hoặc "chỉnh sửa" bài kiểm tra nếu thấy cần thiết.\n* Sử dụng GitHub MCP để 'tạo ra' một pull request 'thần tốc'.\n* Và 'sáp nhập' nó vào bộ test 'khủng' của bạn.\n\nBạn thấy đó, tất cả những điều 'vi diệu' này đều diễn ra mà chẳng hề "đòi hỏi" bạn phải có quyền 'xâm nhập' vào mã nguồn. Quá tiện lợi, đúng không nào? Cứ như có "siêu năng lực" vậy!\n\n<img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/Xk94Y9E.png' alt='Các bước tiếp theo sau khi test được tạo'>\n\n**💡 Tại sao điều này lại 'trọng đại' đến vậy?**\n\nQuy trình làm việc 'thông minh' này thực sự là một "chiến thắng vang dội" cho rất nhiều đối tượng, đặc biệt là:\n\n* **Các 'thám tử' kiểm thử QA (QA testers) trong môi trường "black-box"**: Những người phải 'kiểm tra' ứng dụng mà không hề 'đụng' được vào mã nguồn bên trong.\n* **Các 'đội quân' agency kiểm tra website bên ngoài hoặc website của khách hàng**: Khi bạn 'bất lực' vì không có quyền truy cập code của đối tác.\n* **Các ngành công nghiệp có quy định 'khắt khe' với quyền truy cập mã nguồn bị hạn chế**: 'Cứu cánh' trong những trường hợp 'ngặt nghèo'.\n* **Các nhà phát triển muốn 'tăng tốc' việc tạo test bằng ngôn ngữ tự nhiên**: Tiết kiệm thời gian và 'công sức' đáng kể!\n\n<img src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://i.imgur.com/kS94Y9E.png' alt='Lợi ích của Playwright MCP và Copilot trong kiểm thử'>\n\n**🎬 Xem 'ngôi sao' trình diễn!**\n\nBạn muốn 'mãn nhãn' tận mắt chứng kiến demo "full HD" không? 'Bật' ngay video YouTube này lên và 'đắm chìm' vào sự dễ dàng 'không tưởng' khi tạo ra các bài kiểm tra Playwright cực kỳ đáng tin cậy với bộ ba 'quyền lực': Playwright, MCP và Copilot:\n\n<video controls src='https://truyentranh.letranglan.top/api/v1/proxy?url=https://www.youtube.com/embed/5U2sL6s_u_8'></video>\n\n**🎉 Lời kết 'chất như nước cất'**\n\nSự kết hợp 'đỉnh cao' giữa Playwright, Copilot và Model Context Protocol (MCP) đã 'khai phá' một "cấp độ mới" hoàn toàn của tự động hóa thông minh. 'Súng đã lên nòng' rồi, đừng chần chừ gì nữa, hãy tự mình 'chinh phục' ngay thế giới kiểm thử này đi thôi! Chúc bạn kiểm thử thật "xả láng" và "vui vẻ"!
Bạn đã sẵn sàng cho kỷ nguyên AI Agent thay đổi hoàn toàn cách chúng ta tương tác với API chưa? Khám phá những chiến lược tối ưu hóa API, từ việc chuẩn hóa JSON Schema, xử lý lỗi thông minh đến áp dụng Model Context Protocol (MCP), giúp doanh nghiệp bạn nắm bắt cơ hội trong thế giới tự động hóa.