Tóm Tắt
Toàn Cảnh Về Sự Kiện Và Bước Chuyển Mình Của Hệ Sinh Thái Công Nghệ Việt Nam
Vào thứ Bảy, ngày 19 tháng 04 năm 2025, hệ sinh thái công nghệ tại khu vực phía Nam đã chứng kiến một cột mốc mang tính bước ngoặt với sự kiện "Build with AI Ho Chi Minh City 2025". Được tổ chức bởi cộng đồng Google Developer Groups Ho Chi Minh City (GDG HCMC), dưới sự bảo trợ chính của Google for Developers và sự đồng hành của nhà bảo trợ pháp lý Marvy Group, sự kiện đã khép lại thành công rực rỡ, thiết lập một tiêu chuẩn mới cho các hội thảo kỹ thuật chuyên sâu tại Việt Nam.
Diễn ra tại Ramana Saigon Hotel, quy mô của sự kiện không chỉ được đo lường bởi sự hiện diện của hơn 250 người tham dự—bao gồm các lập trình viên, kỹ sư dữ liệu, các chuyên gia được Google công nhận (Google Developer Experts - GDE), và các nhân sự cấp cao trong lĩnh vực trí tuệ nhân tạo (AI)—mà còn bởi chiều sâu và sự phức tạp của các công nghệ được trình diễn. Sự kiện này đóng vai trò như một lăng kính sắc nét, phản chiếu sự chuyển dịch từ tư duy ứng dụng AI thụ động sang khả năng chủ động kiến trúc, tùy biến và làm chủ các mô hình ngôn ngữ lớn (LLM) thông qua các nền tảng cốt lõi như Gemini, Gemma, Vertex AI và NotebookLM.
Việc quy tụ một đội ngũ diễn giả là những chuyên gia đầu ngành đang công tác tại các tập đoàn và tổ chức hàng đầu—từ Google Châu Á - Thái Bình Dương, Momo, Obello, Innoflow cho đến AIMET đã mang đến một khối lượng tri thức đồ sộ, giải quyết trực tiếp các bài toán hóc búa nhất mà các doanh nghiệp công nghệ đang phải đối mặt.
Hơn thế nữa, sự kiện còn phản ánh một định hướng chiến lược rõ ràng: biến Việt Nam không chỉ là một thị trường tiêu thụ các sản phẩm AI, mà còn là một trung tâm nghiên cứu, phát triển và xuất khẩu các giải pháp công nghệ thông minh.
Những khoảnh khắc đáng nhớ và những trải nghiệm bổ ích tại sự kiện, thông qua các phiên chia sẻ lý thuyết kết hợp với thực hành mã nguồn trực tiếp (CodeLab), đã củng cố niềm tin của GDG HCMC rằng các kỹ sư trẻ tại Thành phố Hồ Chí Minh đã được trang bị những công cụ và tư duy cần thiết để kiến tạo nên những sản phẩm AI có khả năng cạnh tranh trên trường quốc tế.
| Thuộc Tính | Thông Tin Chi Tiết |
| Tên Sự Kiện | Build with AI Ho Chi Minh City 2025 |
| Đơn Vị Tổ Chức | Google Developer Groups Ho Chi Minh City (GDG HCMC) |
| Đơn Vị Bảo Trợ | Google for Developers (Bảo trợ chính), Marvy Group (Bảo trợ pháp lý) |
| Thời Gian & Địa Điểm | 12:30 - 17:30, 19/04/2025 tại Ramana Saigon Hotel, Quận 3, TP.HCM |
| Quy Mô Tham Dự | > 250 lập trình viên, Googlers, GDEs, Chuyên gia AI |
| Công Nghệ Trọng Tâm | Gemini 2.0/2.5, Gemma 3, Vertex AI, NotebookLM, RAG, Multi-Agent Systems |
Động Lực Vĩ Mô Và Tầm Nhìn Chiến Lược Của Google Tại Việt Nam
Phân tích sâu hơn về bối cảnh diễn ra sự kiện, bài phát biểu khai mạc (Welcome Speech) của ông Marc Woo – Managing Director, phụ trách thị trường Việt Nam thuộc Google Châu Á - Thái Bình Dương – đã cung cấp một khung lý thuyết vĩ mô quan trọng để hiểu rõ tại sao Google lại đầu tư mạnh mẽ vào cộng đồng nhà phát triển tại Việt Nam.
Dữ liệu từ các báo cáo kinh tế số mới nhất chỉ ra rằng nền kinh tế kỹ thuật số của Việt Nam đang duy trì tốc độ tăng trưởng hai con số, với tổng giá trị hàng hóa (GMV) dự kiến đạt 36 tỷ USD trong năm 2024 và duy trì tỷ lệ tăng trưởng kép hàng năm ở mức 16%. Tuy nhiên, động lực tăng trưởng trong thập kỷ tới sẽ không chỉ dựa vào thương mại điện tử hay du lịch trực tuyến, mà sẽ được dẫn dắt bởi trí tuệ nhân tạo.
Các mô hình kinh tế lượng dự báo AI có tiềm năng tạo ra giá trị kinh tế khổng lồ, đóng góp lên tới 1,89 triệu tỷ VNĐ (tương đương khoảng 79,3 tỷ USD), chiếm gần 12% GDP của Việt Nam vào năm 2030.
Trong tham luận của mình, thông qua lăng kính của quá trình phát triển AI qua 8 thập kỷ, sự thay đổi sâu sắc nhất được nhấn mạnh nằm ở phương thức con người làm việc trong 10 đến 20 năm tới. Làn sóng AI hiện tại mang đến ba tác động nền tảng đối với xã hội và doanh nghiệp: cải thiện năng suất lao động đột phá, nâng tầm trải nghiệm khách hàng và thúc đẩy khả năng cá nhân hóa ở quy mô siêu lớn.
Dữ liệu thực nghiệm được đưa ra cho thấy một bức tranh tối ưu hóa quy trình đáng kinh ngạc: hiện tại, khoảng 62% nhân viên văn phòng đang tiêu tốn trung bình 30 phút mỗi ngày chỉ cho các tác vụ tìm kiếm giải pháp và thông tin trên không gian mạng.
Khi đưa AI vào giải quyết bài toán này, đặc biệt là trong lĩnh vực công nghệ phần mềm, hiệu quả thu được mang tính bước ngoặt. Lấy ví dụ ở một doanh nghiệp quy mô lớn sở hữu khoảng 2.000 lập trình viên; nếu mỗi kỹ sư được trang bị AI để tự động hóa việc viết mã (auto-coding), gợi ý thuật toán, và rà soát lỗi (code review), họ có thể tiết kiệm ít nhất 1 giờ làm việc mỗi ngày.
Thời gian thặng dư khổng lồ này cho phép các kỹ sư chuyển hướng từ các tác vụ gõ phím cơ học sang tư duy kiến trúc hệ thống và sáng tạo giải pháp chiến lược.
Không dừng lại ở việc tối ưu hóa nội bộ, tác động của AI còn lan tỏa mạnh mẽ sang các lĩnh vực như tiếp thị và bán hàng. Các hệ thống như Google Ads đã bắt đầu tích hợp AI tạo sinh (GenAI) để không chỉ viết lại văn bản quảng cáo mà còn tự động sinh ra các tài nguyên hình ảnh, video dựa trên ngữ cảnh và nhu cầu vi mô của từng tập khách hàng riêng biệt. Việt Nam đang đứng ở một "ngã tư đường" của cuộc cách mạng này, và sự tiếp nhận của thị trường là cực kỳ khả quan.
Số liệu cho thấy số lượng các công ty khởi nghiệp trong lĩnh vực AI tại Việt Nam đã tăng hơn 4,5 lần kể từ năm 2021, đưa quốc gia này trở thành một trung tâm khởi nghiệp AI năng động hàng đầu khu vực.
Để duy trì quỹ đạo tăng trưởng này, bài toán nhân lực là yếu tố tiên quyết. Tỷ lệ dân số trẻ chiếm khoảng 20% với nền tảng kỹ năng công nghệ thông tin tốt là một lợi thế cạnh tranh cốt lõi của Việt Nam.
Nhận thức được điều này, Google đã triển khai các chiến lược cam kết dài hạn, bao gồm việc cung cấp 60.000 học bổng đào tạo kỹ năng số chuyên sâu, bao quát các lĩnh vực từ Phân tích dữ liệu, Thiết kế UX đến AI Essentials.
Đồng thời, các sáng kiến ươm tạo như AI Bootcamp và Solution Lab đã trực tiếp đào tạo hàng trăm đại diện từ các startup nội địa, giúp họ nắm bắt các công cụ đám mây và AI tạo sinh mới nhất để giải quyết các vấn đề bản địa.
Cùng với vị thế là một "cường quốc ứng dụng" (app powerhouse) toàn cầu với hơn 6 tỷ lượt tải xuống ứng dụng, đóng góp vào nền kinh tế xuất khẩu kỹ thuật số trị giá 82 triệu USD, Việt Nam hoàn toàn có cơ sở vững chắc để dịch chuyển lên nấc thang cao hơn trong chuỗi giá trị công nghệ toàn cầu.
Giải Mã Kỷ Nguyên Suy Luận Đa Phương Thức Với Gemini 2.5
Bước vào các phiên chuyên môn, trọng tâm đầu tiên của sự kiện được đặt vào kiến trúc của thế hệ mô hình ngôn ngữ lớn mới nhất từ Google. Phiên trình bày "Exploring Gemini 2.5 model family" do chị Fon Liwprasert – Data Team Lead tại AIMET.tech – dẫn dắt, đã cung cấp một phân tích kỹ thuật sâu sắc về những bước tiến vượt bậc của dòng mô hình này.
Gemini 2.5 không chỉ đơn thuần là một bản cập nhật thông số, mà nó đại diện cho một sự thay đổi mô thức trong cách các mô hình AI xử lý tư duy phản biện và khả năng lập trình.
Trong bối cảnh phát triển ứng dụng AI thực tế, các kỹ sư thường phải đối mặt với một sự đánh đổi kinh điển: giữa tốc độ phản hồi (latency) và độ sâu của suy luận (reasoning depth).
Gemini 2.5 giải quyết bài toán này thông qua việc phân mảnh cấu trúc thành các phiên bản tối ưu hóa khác nhau, tiêu biểu là phiên bản Flash và Pro. Đáng chú ý nhất, sự ra mắt của phiên bản Gemini 2.5 Flash Preview đã mang đến một kiến trúc được tối ưu hóa nghiêm ngặt cho tốc độ và hiệu quả chi phí, nhưng lại sở hữu hiệu suất vượt trội trong các tác vụ lập trình và các bài toán suy luận phức tạp vốn trước đây chỉ dành cho các mô hình có tham số lớn hơn rất nhiều.
Một trong những khái niệm mang tính đột phá được giới thiệu trong phiên này là cơ chế "thinking budgets" (ngân sách suy luận) và "thought summaries" (tóm tắt luồng suy luận). Khái niệm ngân sách suy luận trao cho các nhà phát triển quyền kiểm soát chưa từng có đối với tài nguyên máy tính. Thay vì để mô hình xử lý một cách hộp đen (black-box), kỹ sư có thể lập trình trước một giới hạn về số lượng token hoặc chu kỳ tính toán mà mô hình được phép sử dụng để "tư duy" trước khi đưa ra câu trả lời cuối cùng.
Đối với một truy vấn tra cứu thông tin đơn giản, ngân sách này có thể được thắt chặt để giảm độ trễ xuống mức mili-giây. Ngược lại, đối với một bài toán gỡ lỗi mã nguồn (debugging) phức tạp hoặc phân tích dữ liệu đa chiều, ngân sách có thể được mở rộng, cho phép mô hình tạo ra các chuỗi tư duy ẩn (hidden chain-of-thought) để đánh giá nhiều giả thuyết khác nhau trước khi kết luận.
Tính minh bạch cũng được tăng cường tối đa thông qua các bản tóm tắt luồng suy luận, giúp kỹ sư công nghệ có thể kiểm toán (audit) quá trình ra quyết định của AI, từ đó dễ dàng xác định vị trí phát sinh lỗi logic trong quá trình tinh chỉnh hệ thống. Sự kết hợp giữa tốc độ của bản Flash và khả năng quản lý ngân sách suy luận thông minh định hình lại cách các doanh nghiệp Việt Nam xây dựng các ứng dụng AI quy mô lớn với chi phí vận hành tối ưu nhất.
Dân Chủ Hóa AI Và Bài Toán Chủ Quyền Dữ Liệu Với Gemma 3
Nếu Gemini 2.5 đại diện cho sức mạnh của AI dựa trên nền tảng điện toán đám mây khổng lồ, thì Gemma 3 lại là lời giải cho bài toán điện toán biên (edge computing) và chủ quyền dữ liệu (data sovereignty). Phiên chia sẻ "Enhancing Entertainment Chatbot Search with Gemma 3" do anh Thạch Lê – Lead AI Engineer tại siêu ứng dụng Momo – trình bày, đã mang đến một góc nhìn thực tiễn về việc ứng dụng các mô hình mở (open models) trong môi trường doanh nghiệp tài chính và tiêu dùng phức tạp.
Hệ sinh thái Gemmaverse đã chứng kiến sự phát triển bùng nổ với hơn 100 triệu lượt tải xuống và 60.000 biến thể được cộng đồng tạo ra, khẳng định cam kết của Google trong việc làm cho công nghệ AI trở nên dễ tiếp cận. Gemma 3, phiên bản mới nhất, là một tập hợp các mô hình mở với kiến trúc gọn nhẹ, được xây dựng trên cùng một nền tảng nghiên cứu và công nghệ cốt lõi với Gemini 2.0.
Việc phân loại Gemma 3 thành các dải kích thước tham số khác nhau (1B, 4B, 12B và 27B) mang ý nghĩa thiết thực cho cấu trúc hạ tầng; nó cho phép các kỹ sư linh hoạt lựa chọn mức độ sức mạnh tương ứng với phần cứng sẵn có, từ điện thoại di động, máy tính xách tay cá nhân cho đến các máy trạm chuyên dụng.
Khía cạnh kỹ thuật đột phá nhất của Gemma 3, như được phân tích trong phiên thảo luận, là khả năng mang lại hiệu suất đỉnh cao (state-of-the-art performance) ngay trên môi trường chỉ sử dụng một vi xử lý tăng tốc duy nhất (single-accelerator model).
Cụ thể, các phiên bản của Gemma 3 đã thể hiện năng lực vượt trội so với các mô hình khổng lồ khác như Llama3-405B hay DeepSeek-V3 trong các bài kiểm tra đánh giá ưu tiên của con người (human preference evaluations) trên hệ thống LMArena. Điều này có nghĩa là các doanh nghiệp Việt Nam có thể vận hành các hệ thống AI nội bộ có độ phức tạp cao chỉ với một card đồ họa NVIDIA H100 duy nhất, giảm thiểu đáng kể chi phí đầu tư hạ tầng máy chủ.
Đối với một siêu ứng dụng tích hợp thanh toán như Momo, việc xử lý dữ liệu người dùng đòi hỏi mức độ bảo mật và tuân thủ các quy định về dữ liệu cực kỳ khắt khe. Việc sử dụng các API đám mây công cộng đôi khi vấp phải các rào cản về an toàn thông tin. Việc triển khai Gemma 3 theo hình thức cục bộ (on-premises) giải quyết triệt để bài toán này, đảm bảo dữ liệu tìm kiếm giải trí của người dùng không bao giờ rời khỏi máy chủ nội bộ.
Hơn nữa, việc tăng cường cửa sổ ngữ cảnh (context window) lên tới 128k token cho phép chatbot giải trí của Momo có khả năng phân tích toàn bộ lịch sử tương tác dài hạn của người dùng, hoặc truy xuất qua các cuốn cẩm nang nội dung khổng lồ chỉ trong một lần xử lý duy nhất.
Cùng với khả năng hỗ trợ nguyên bản (out-of-the-box) hơn 35 ngôn ngữ và huấn luyện trước trên 140 ngôn ngữ, Gemma 3 chứng tỏ khả năng nắm bắt hoàn hảo các sắc thái ngôn ngữ tiếng Việt, từ đó cá nhân hóa các đề xuất giải trí một cách tinh vi nhất.
| Đặc Tính Kỹ Thuật | Dòng Mô Hình Gemini 2.5 | Dòng Mô Hình Gemma 3 |
| Bản Chất Cấp Phép | Độc quyền, Truy cập qua Cloud API | Mô hình mở (Open weights) |
| Kích Thước Cốt Lõi | Flash (tối ưu tốc độ), Pro (tối ưu suy luận) | 1B, 4B, 12B, 27B tham số |
| Tính Năng Cơ Chế | Ngân sách suy luận, Tóm tắt luồng suy nghĩ | Đa phương thức văn bản & thị giác |
| Cửa Sổ Ngữ Cảnh | Siêu lớn (Lên đến hàng triệu token) | 128k token |
| Triển Khai Phần Cứng | Cụm máy chủ Google Cloud TPU/GPU | Tối ưu hóa cho Single-Accelerator (VD: 1 GPU H100) |
| Ứng Dụng Tiêu Biểu | Đa tác tử, Xử lý dữ liệu quy mô toàn cầu | Xử lý biên (Edge), Chủ quyền dữ liệu nội bộ |
An Toàn Hệ Thống Trong Kỷ Nguyên Tác Tử (Agentic Era) Với Gemini 2.0
Song song với các bài chia sẻ lý thuyết, giá trị cốt lõi của "Build with AI HCMC 2025" nằm ở các phiên thực hành mã nguồn trực tiếp. Phiên CodeLab đầu tiên với chủ đề "Search tool with Gemini 2.0" được hướng dẫn bởi chị Linh Nguyễn – Head of AI tại startup Obello (Thung lũng Silicon) và tự hào là nữ chuyên gia GDE về AI/ML đầu tiên của Việt Nam.
Sự nghiệp của chị Linh Nguyễn là một trường hợp nghiên cứu điển hình về sự xuất sắc trong kỹ thuật: với bằng Thạc sĩ Trí tuệ Nhân tạo từ Đại học Quốc gia Singapore (NUS), hơn 14 năm kinh nghiệm chuyên sâu trong lĩnh vực Xử lý Ngôn ngữ Tự nhiên (NLP), và những công trình nghiên cứu được trích dẫn rộng rãi về hệ thống hội thoại thấu cảm (empathetic dialogue systems), chị đại diện cho năng lực nghiên cứu thuật toán chuyên sâu đang dần hình thành tại Việt Nam.
Việc Google công nhận chuyên môn của chị trong các lĩnh vực cốt lõi như LLMs, MLOps, và hệ thống AI có khả năng mở rộng (scalable AI systems) khẳng định chất lượng nguồn nhân lực công nghệ cấp cao của khu vực.
Trong phiên CodeLab, học viên đã được hướng dẫn xây dựng một công cụ tìm kiếm thông minh từ con số 0, khai thác sức mạnh của Gemini 2.0. Tuy nhiên, thay vì chỉ hướng dẫn cách gọi API đơn giản, phiên thực hành đã đi sâu vào một mô thức hoàn toàn mới: Kỷ nguyên Tác tử (Agentic Era). Sự khác biệt cơ bản giữa một mô hình ngôn ngữ truyền thống và một "AI Agent" (tác tử AI) nằm ở khả năng tương tác với môi trường.
Trong khi mô hình truyền thống chỉ sinh ra văn bản dựa trên xác suất chuỗi từ, thì một tác tử AI sử dụng Gemini 2.0 có khả năng nhận diện ý định của người dùng, tự động phân rã truy vấn thành các bước logic, và kích hoạt các công cụ (tools) hoặc gọi hàm (function calling) để tìm kiếm thông tin thời gian thực từ cơ sở dữ liệu bên ngoài trước khi tổng hợp thành câu trả lời cuối cùng.
Việc trao quyền tự chủ cho các hệ thống AI này kéo theo một thách thức khổng lồ về mặt an toàn và bảo mật hệ thống. Kiến thức chuyên môn của chuyên gia Linh Nguyễn, đặc biệt là trong các hoạt động cộng đồng liên quan đến bảo mật kiến trúc AI, đã làm sáng tỏ khái niệm "hàng rào bảo vệ" (safety guardrails).
Khi một công cụ tìm kiếm AI Agent tiếp nhận đầu vào trực tiếp từ người dùng cuối, nó đối mặt với rủi ro bị thao túng thông qua các kỹ thuật tiêm nhiễm câu lệnh (prompt injection) hoặc các chiến thuật "vượt ngục" (jailbreaking) nhằm ép hệ thống thực thi các lệnh độc hại hoặc tiết lộ dữ liệu nhạy cảm. Để hiện thực hóa khái niệm "chống đạn" (bulletproof) cho kiến trúc AI, việc ứng dụng các bộ công cụ phát triển như Google AI Defense SDK (ADK) là bắt buộc.
Hệ thống ADK cung cấp các lớp bảo mật tiêu chuẩn công nghiệp, hoạt động như một hệ thống kiểm duyệt trung gian, tự động đánh giá và trung hòa các luồng dữ liệu đầu vào và đầu ra mang tính rủi ro trước khi chúng kịp tương tác với mô hình lõi. Việc nắm vững cơ chế phòng thủ này đảm bảo rằng các kỹ sư có thể tự tin triển khai các hệ thống tác tử vào môi trường sản xuất kinh doanh mà không thỏa hiệp về độ tin cậy.
NotebookLM: Cách xây dựng ứng dụng AI dựa trên nội dung của bạn
Tiếp nối chương trình, anh Đức Võ – CEO của Innoflow và là một Google Developer Expert trong lĩnh vực Workspace – đã mang đến một góc nhìn quản trị tri thức vô cùng độc đáo thông qua phiên chia sẻ: "NotebookLM: How to Build AI Applications Grounded in Your Content". Nền tảng NotebookLM, một trong những sản phẩm mang tính biểu tượng của Google, đã trải qua một quá trình tiến hóa ngoạn mục trong năm 2025. Vượt xa khỏi định vị ban đầu là một công cụ ghi chú thông minh, nó đã trở thành một "động cơ nội dung AI" (AI content engine) toàn diện, tích hợp xuyên suốt các quy trình nghiên cứu, thiết kế, sáng tạo và xuất bản vào chung một không gian làm việc hợp nhất.
Dưới góc độ khoa học máy tính, nền tảng này là minh chứng sống động nhất cho kỹ thuật "Grounding" (Neo dữ liệu) thông qua kiến trúc RAG (Retrieval-Augmented Generation). Một điểm yếu cố hữu của các mô hình sinh ngữ cảnh là hiện tượng "ảo giác" (hallucinations), nơi hệ thống có thể tạo ra các câu trả lời cực kỳ lưu loát nhưng sai lệch hoàn toàn về mặt sự thật do suy diễn quá mức từ trọng số (weights) được huấn luyện. NotebookLM vô hiệu hóa nhược điểm này bằng cách từ chối việc dựa hoàn toàn vào kiến thức thế giới (world knowledge) của mô hình. Thay vào đó, nó ép buộc mô hình ngôn ngữ phải giới hạn vùng không gian suy luận và trích xuất dữ kiện trực tiếp từ một tập hợp các tài liệu nguồn cụ thể do chính người dùng hoặc doanh nghiệp cung cấp (như tài liệu nội bộ PDF, báo cáo Word, đường dẫn web, hay thậm chí là video YouTube).
Quá trình "grounding" này biến các kho dữ liệu hỗn độn, phi cấu trúc của doanh nghiệp thành những đồ thị tri thức (knowledge graphs) tinh vi. Chuyên gia Đức Võ đã chỉ ra những chiến lược thực tiễn để biến các năng lực cốt lõi này thành các đại lý AI (AI Agents) cho doanh nghiệp trên hạ tầng Google Cloud. Thay vì phải tốn kém nguồn lực và hàng tháng trời để tinh chỉnh (fine-tune) lại một mô hình học sâu, các kỹ sư có thể tận dụng cấu trúc bộ nhớ của Vertex AI. Trong môi trường phát triển cục bộ hoặc tạo nguyên mẫu nhanh (prototyping), các dịch vụ lưu trữ trong bộ nhớ (in-memory services) có thể được sử dụng để duy trì cuộc hội thoại ngắn hạn. Tuy nhiên, khi hệ thống được mở rộng để phục vụ khách hàng thực tế, việc tích hợp dịch vụ Vertex Memory Bank Service cho phép các tác tử AI duy trì một hệ thống "trí nhớ tiến hóa" (evolving memories), ghi nhớ các ngữ cảnh phức tạp trong quá trình tương tác dài hạn với người dùng mà không bị mất dữ liệu khi khởi động lại (restart). Khả năng xây dựng các tác tử AI có trí nhớ này trực tiếp giúp doanh nghiệp tự động hóa các khâu chăm sóc khách hàng, nghiên cứu thị trường, và giảm thiểu chi phí vận hành ở quy mô lớn.
Kiến Trúc Đa Tác Tử (Multi-Agent Systems) Và Đường Ống Nghiên Cứu Sâu (Deep Research Pipelines)
Đỉnh cao của sự phức tạp kỹ thuật tại sự kiện hội tụ trong phiên CodeLab cuối cùng: "Architecting Deep Research Pipelines with Multi-Agent Systems and Gemini 2.0", được dẫn dắt bởi anh Hiếu Ngô – Senior AI Engineer tại Momo. Phiên làm việc này đã đưa các nhà phát triển vượt qua ranh giới của các ứng dụng AI đơn lẻ (single-agent applications), tiến vào lĩnh vực điều phối đa mô hình (multi-agent orchestration) – biên giới cuối cùng của trí tuệ nhân tạo hiện đại.
Khi các bài toán phân tích dữ liệu và nghiên cứu thông tin trở nên quá lớn, vượt qua giới hạn của cửa sổ ngữ cảnh (context window) hoặc khả năng tập trung của một mô hình duy nhất, giải pháp kiến trúc tất yếu là chia để trị. Một hệ thống đa tác tử (Multi-Agent System) hoạt động tương tự như một cấu trúc phòng ban trong một tập đoàn: mỗi tác tử (agent) được cấp một vai trò cụ thể, một tập hợp các công cụ riêng biệt và một tính cách (persona) định trước. Trong khuôn khổ của một "đường ống nghiên cứu sâu" (deep research pipeline), quy trình được tự động hóa hoàn toàn thông qua sự giao tiếp giữa các thực thể AI độc lập.
Cấu trúc điển hình được phân tích bao gồm ba vai trò cốt lõi. Đầu tiên, tác tử Nghiên cứu (Researcher Agent) được giao nhiệm vụ phân tích một từ khóa cấp cao, tự động sinh ra các chuỗi truy vấn tìm kiếm, và sử dụng API web để cào (scrape) và thu thập các tệp dữ liệu thô từ internet hoặc các nguồn cơ sở dữ liệu nội bộ. Dữ liệu thô này sau đó được chuyển giao cho tác tử Phân tích (Analyst Agent), một thực thể được cấp sức mạnh suy luận sâu (như Gemini 2.5 Pro) để nhận diện các mẫu xu hướng (pattern recognition), kết nối các điểm dữ liệu rời rạc và loại bỏ các thông tin nhiễu.
Cuối cùng, tác tử Đánh giá (Reviewer/Editor Agent) tiếp nhận bản nháp tổng hợp, đối chiếu nó với các tiêu chuẩn chất lượng đã được thiết lập (thông qua cơ chế auto-raters), yêu cầu tác tử nghiên cứu tìm kiếm thêm dữ liệu nếu phát hiện các lỗ hổng logic, và sau đó định dạng lại kết quả cuối cùng trước khi xuất bản. Việc hướng dẫn các lập trình viên làm thế nào để lập trình các luồng giao tiếp trạng thái (stateful communication flows) giữa các tác tử, cách duy trì một bộ nhớ làm việc chung (shared working memory) mà không xảy ra xung đột thông tin, đã trang bị cho họ kỹ năng xây dựng các công cụ nghiên cứu tự động hóa có thể thay thế hàng chục giờ lao động thủ công của con người.
Nền Tảng Hạ Tầng Vertex AI Và Trải Nghiệm Lập Trình Viên
Tất cả các kiến trúc tinh vi từ Gemma, Gemini đến hệ thống đa tác tử đều đòi hỏi một hạ tầng điện toán đám mây cực kỳ mạnh mẽ, và Vertex AI chính là xương sống đó. Các hoạt động trong sự kiện đã làm nổi bật vai trò của Vertex AI như một nền tảng phát triển AI hợp nhất, phá vỡ ranh giới truyền thống giữa bộ phận khoa học dữ liệu (Data Science) và bộ phận kỹ thuật phần mềm (Software Engineering). Với việc cung cấp quyền truy cập vào hơn 200 mô hình nền tảng đa dạng—từ các mô hình thế hệ thứ nhất (first-party) như Gemini, Imagen 4, Chirp cho đến các mô hình mã nguồn mở (third-party) như Llama 3.2 và Claude trong Model Garden—nền tảng này tạo ra một sự linh hoạt vô song cho các kiến trúc sư phần mềm.
Điểm nhấn quan trọng về mặt trải nghiệm lập trình viên (Developer Experience) là sự ra đời của các công cụ tự động hóa chu trình sinh mã. Thông qua Vertex AI Studio và Agent Builder, quy trình phát triển ứng dụng đã được rút gọn đáng kể. Các nhà phát triển có thể thiết kế logic cốt lõi thông qua các câu lệnh (prompts), sử dụng các bộ đánh giá tự động (custom auto-raters thông qua lệnh /Evaluate) để liên tục kiểm tra tính khách quan và chất lượng của chuỗi lệnh.
Một khi logic được xác thực, công cụ sinh mã một chạm (one-click code generation) sẽ ngay lập tức dịch chuyển các khối lệnh trừu tượng này thành các đoạn mã nguồn ngôn ngữ lập trình hoàn chỉnh, sẵn sàng cho việc tải xuống hoặc triển khai tích hợp trực tiếp với các kho lưu trữ như GitHub.
Sự tối ưu hóa quy trình từ lúc thai nghén ý tưởng đến khi tạo ra nguyên mẫu hoạt động (time-to-prototype) chính là yếu tố then chốt giúp các kỹ sư tại CodeLab có thể hoàn thiện các sản phẩm tìm kiếm AI tinh vi chỉ trong vòng vài giờ đồng hồ.
Nền tảng hạ tầng tính toán đứng phía sau, được hỗ trợ bởi các bộ xử lý Tensor (TPUs) thế hệ thứ 7, kết hợp với các thư viện tối ưu hóa toán học học sâu như JAX và XLA, đảm bảo rằng mọi mô hình có thể được suy luận và tinh chỉnh với độ trễ tối thiểu.
Hệ Sinh Thái Cộng Đồng Và Sự Giao Thoa Đa Ngành Trong Phát Triển AI
Đề cập đến sự thành công của sự kiện "Build with AI Ho Chi Minh City 2025", một yếu tố không thể không nhắc đến là cấu trúc hỗ trợ cộng đồng thông qua đội ngũ Facilitators (Điều phối viên). Với đội ngũ gồm 9 chuyên gia có nền tảng học thuật và thực tiễn phong phú, sự kiện đã chứng minh rằng lĩnh vực trí tuệ nhân tạo không còn là một sân chơi đóng kín của các nhà toán học hay kỹ sư thuật toán thuần túy. Sự phân bổ chuyên môn của đội ngũ điều phối viên là một hình ảnh thu nhỏ của sự giao thoa đa ngành trong ngành công nghiệp hiện đại:
Sự hiện diện của các kỹ sư nghiên cứu thuật toán chuyên sâu như anh Lộc Nguyễn (Applied Scientist tại NVIDIA Vietnam), anh Khang Võ (AI/DS Research Assistant tại URA HCMUT-VNU) và anh Long Đặng (MSc Candidate tại HCMUS) đảm bảo chiều sâu học thuật và tính chính xác về mặt toán học của các khối mô hình học máy.
Góc nhìn về kiến trúc và triển khai phần mềm quy mô lớn được mang đến bởi các kỹ sư như anh Tuấn Nguyễn (Software Engineer tại FPT Software) và anh Kiệt Phạm (Software Engineer tại MONA.Host), giúp định hướng cách tích hợp các mô hình vào các hệ thống máy chủ hiện hữu.
Năng lực phân tích và ứng dụng dữ liệu kinh doanh được dẫn dắt bởi chị Hạnh Bùi (Senior Business Intelligence tại Yes4All) và chị Quỳnh Nhi (Data Scientist tại Bosch), kết nối các đầu ra thuật toán trừu tượng với các chỉ số kinh doanh thực tiễn.
Cuối cùng, khía cạnh sản phẩm hóa và khởi nghiệp công nghệ được định hướng bởi các nhà sáng lập như anh Lê Văn Phú (CEO tại LPTech Asia) và anh Quang Trường (Co-Founder tại Maaver).
| Phân Nhóm Chuyên Môn | Các Chuyên Gia Điều Phối (Facilitators) | Tác Động Trong Hệ Sinh Thái |
| Nghiên Cứu Học Thuật & Khoa Học Cốt Lõi | Lộc Nguyễn (NVIDIA), Khang Võ (HCMUT), Long Đặng (HCMUS) | Tối ưu hóa thuật toán, lý thuyết học sâu, cơ sở toán học AI. |
| Kiến Trúc Kỹ Thuật Phần Mềm | Tuấn Nguyễn (FPT), Kiệt Phạm (MONA.Host) | Tích hợp hệ thống, thiết kế API, vận hành MLOps. |
| Khoa Học Dữ Liệu & Phân Tích Kinh Doanh | Hạnh Bùi (Yes4All), Quỳnh Nhi (Bosch) | Quản trị dữ liệu, phân tích chỉ số kinh doanh, trực quan hóa. |
| Khởi Nghiệp & Phát Triển Sản Phẩm | Lê Văn Phú (LPTech Asia), Quang Trường (Maaver) | Sản phẩm hóa công nghệ, chiến lược kinh doanh, định hình Startups. |
Chính cấu trúc đa chiều này đã tạo ra một môi trường thực hành vượt ra khỏi các giới hạn hàn lâm đơn thuần. Thông qua các hoạt động phá băng (icebreakers), kết nối mạng lưới (networking), và gỡ lỗi trực tiếp (live debugging), cộng đồng lập trình viên tham dự đã được trao đổi trực tiếp, cọ xát và học hỏi cách giải quyết một vấn đề từ nhiều hệ quy chiếu khác nhau.
Việc tiếp xúc với sự đa dạng góc nhìn này giúp các lập trình viên trẻ tại Thành phố Hồ Chí Minh thu hẹp khoảng cách giữa lý thuyết được học trên giảng đường và những thực tiễn khốc liệt trong môi trường sản xuất công nghệ (production environment).
GDG HCMC, thông qua việc điều phối một cách nhịp nhàng khối lượng tri thức từ các Googler, GDE và chuyên gia địa phương, đã thể hiện vai trò xuất sắc như một cầu nối, kiến tạo một bầu không khí sôi động và biến nhiệt huyết với trí tuệ nhân tạo thành những mã nguồn có thể thực thi được
Tổng Hợp Đánh Giá Và Tầm Nhìn Chiến Lược
Nhìn nhận một cách toàn diện, "Build with AI Ho Chi Minh City 2025" vượt xa ý nghĩa của một sự kiện công bố công nghệ thường niên. Qua những phân tích chi tiết về mặt kỹ thuật và chiến lược kinh tế, sự kiện là một cột mốc xác nhận sự chuyển mình của ngành công nghiệp phần mềm Việt Nam. Những kiến thức và trải nghiệm được trao đổi xung quanh Gemini 2.5 với năng lực phân bổ ngân sách suy luận thông minh, cấu trúc mô hình mở tối ưu sức mạnh điện toán đơn lẻ của Gemma 3, hay các kiến trúc Đa tác tử siêu phức tạp dựa trên nền tảng Vertex AI và NotebookLM, đã cấu trúc nên một hệ quy chiếu mới cho cộng đồng nhà phát triển
Việc Google đầu tư sâu rộng vào hệ sinh thái đào tạo thông qua các quỹ học bổng khổng lồ và các chương trình ươm tạo hạt giống AI, kết hợp với các dự báo kinh tế vĩ mô về tác động trị giá gần 80 tỷ USD của AI vào GDP nội địa, chứng minh rằng công nghệ không còn là một biến số độc lập mà đã trở thành động lực chính của sự sống còn kinh tế quốc gia.
Quỹ đạo phát triển phía trước đòi hỏi các tổ chức và kỹ sư công nghệ Việt Nam phải tiếp tục duy trì tinh thần đổi mới sáng tạo, chuyển dịch mạnh mẽ hơn nữa từ việc tiêu thụ API của bên thứ ba sang việc tự chủ xây dựng các đại lý AI (AI Agents) có kiến trúc an toàn, tuân thủ nguyên tắc chủ quyền dữ liệu và đáp ứng chính xác nhu cầu vi mô của thị trường bản địa.
Với nền tảng kiến thức và mạng lưới kết nối mạnh mẽ đã được bồi đắp qua những sự kiện như "Build with AI 2025", cộng đồng công nghệ Thành phố Hồ Chí Minh đang đứng trước một cơ hội lịch sử để dẫn dắt làn sóng đổi mới sáng tạo toàn cầu, tái định hình tương lai của kỹ thuật số không chỉ ở cấp độ quốc gia mà còn mở rộng tầm ảnh hưởng trên toàn khu vực.















