Nvidia & OpenAI: Hai "Ông Kẹ" Của Hạ Tầng AI – Liệu "Ngai Vàng" Có Vững Chãi Mãi?
Lê Lân
0
Hạ Tầng AI Sau Giai Đoạn Tăng Trưởng Theo Quy Luật Scaling
Mở Đầu
Trong bối cảnh hàng loạt startup hạ tầng AI mới liên tiếp xuất hiện, Nvidia và OpenAI vẫn nắm giữ phần lớn giá trị trên toàn bộ chuỗi hạ tầng AI.
Tốc độ tăng trưởng ấn tượng của Nvidia với doanh thu từ trung tâm dữ liệu tăng tới 427% theo năm, cùng biên lợi nhuận EBITDA vượt 60% thể hiện nhu cầu mạnh mẽ cho GPU — yếu tố cốt lõi trong huấn luyện các mô hình AI. Trong khi đó, OpenAI cũng ghi nhận quy mô doanh thu mở rộng nhanh chóng, từ 1.6 tỷ USD lên 3.4 tỷ USD chỉ trong khoảng thời gian ngắn.
Điều gì đã giúp hai "ông lớn" này chiếm lĩnh thị trường và tương lai của ngành hạ tầng AI sẽ ra sao khi những quy luật tăng trưởng hứng khởi này dần bộc lộ giới hạn? Bài viết dưới đây sẽ phân tích chi tiết các "quy luật scaling" của AI, nguyên nhân khiến chúng có thể sớm "vỡ trận", đồng thời đề cập đến khả năng xuất hiện các loại hình hạ tầng mới khi AI bước vào giai đoạn tối ưu thay vì tăng trưởng thuần túy.
Sự Yêu Thích Quy Luật Scaling Của Nvidia Và OpenAI
Quy Luật Scaling Là Gì?
Quy luật scaling chỉ ra rằng, hiệu suất mô hình ngôn ngữ cải thiện một cách có thể đoán trước và mượt mà khi ta tăng quy mô của ba yếu tố:
Kích thước mô hình
Lượng dữ liệu huấn luyện
Khối lượng tính toán
“Các mô hình ngôn ngữ lớn hơn thường hoạt động tốt hơn và hiệu quả hơn về mặt sử dụng mẫu dữ liệu” — Scaling Laws of Neural Language Models (2020)
Ảnh Hưởng Đến Nvidia Và OpenAI
Nvidia đóng vai trò cung cấp một trong ba "nguyên liệu chính" — GPU — thiết yếu cho việc huấn luyện. Khi các mô hình ngày càng lớn, yêu cầu GPU cũng tăng theo, giúp Nvidia thu về doanh thu khổng lồ.
OpenAI khác biệt trong việc kết hợp và vận hành đồng thời ba yếu tố này, tập trung xây dựng các mô hình nền tảng có hiệu suất vượt trội, thu hút khách hàng từ việc cải tiến về chất lượng mô hình.
Chiến lược "bán nguyên liệu" hoặc "điều phối nguyên liệu" chính là cách hiệu quả nhất để tận dụng quy luật scaling cho tăng trưởng doanh thu.
Tại Sao Quy Luật Scaling Có Thể Bị Phá Vỡ?
Giới Hạn Trong Việc Cải Thiện Mô Hình
Quy luật hiện chỉ chứng minh sự giảm perplexity — tức khả năng dự đoán từ tiếp theo — không phải là khả năng "xuất hiện" các kỹ năng mới (emergent abilities).
Sự xuất hiện các năng lực mới khó dự báo và không chỉ tăng theo quy luật chỉ số hay tốc độ.
Giới Hạn Về Dữ Liệu Đào Tạo
Ước tính hiện có khoảng 300 nghìn tỷ token dữ liệu tiếng Việt công khai chất lượng cao.
Mô hình như Llama-3 đã được huấn luyện trên bộ 15 nghìn tỷ token.
Với tốc độ tăng dataset 2.8 lần mỗi năm, trong chưa đầy 5 năm, nhu cầu dữ liệu huấn luyện sẽ vượt quá 100 lần lượng hiện tại.
Giới Hạn Phần Cứng
Bộ nhớ và băng thông GPU có thể không tăng kịp yêu cầu cho các mô hình ngày càng lớn.
Việc xây dựng trung tâm dữ liệu quy mô khổng lồ gặp phải nhiều thách thức như chuỗi cung ứng, tiêu thụ năng lượng và mạng lưới.
Một số tập đoàn lớn như Meta phải hủy hoặc hoãn kế hoạch xây dựng trung tâm dữ liệu vì lo ngại công nghệ đã lỗi thời trước khi hoàn thành.
Quy luật scaling không phải là vô hạn, các giới hạn về dữ liệu và phần cứng có thể khiến nó "vỡ trận".
Tương Lai Hạ Tầng AI: Giai Đoạn Hậu Scaling
1. Các Mô Hình Nhỏ (Small Models)
“Tại sao bạn phải mang gánh nặng phục vụ một mô hình khổng lồ khi chỉ xử lý một tác vụ cụ thể?” — Naveen Rao, CEO MosaicML
Ưu điểm cho các môi trường có tài nguyên hạn chế, thiết bị cầm tay, IoT.
Tiết kiệm chi phí inference và giảm độ trễ phản hồi.
Các kỹ thuật như quantization và distillation giúp thu nhỏ mô hình lớn nhưng vẫn đảm bảo hiệu năng.
2. Tinh Chỉnh Mô Hình (Fine-tuning)
Fine-tuning từng bị xem là tốn kém, khó tiếp cận.
Các kỹ thuật mới như LoRA, prefix tuning giúp hạ thấp rào cản.
Các công ty như Predibase, Smol đang làm đơn giản hóa quá trình fine-tuning cho các nhóm phát triển sản phẩm.
3. Hệ Thống Đa Mô Hình (Multi-Model Systems)
Phân chia câu hỏi phức tạp thành các tác vụ nhỏ, mỗi tác vụ do một mô hình chuyên biệt xử lý.
Công ty như Martian, NotDiamond phát triển mô hình routing, còn Fireworks xây dựng hệ thống AI tổng hợp cho phép các nhà phát triển gọi API hiệu quả.
Arcee, Sakana thậm chí tập trung vào kỹ thuật hợp nhất nhiều mô hình nhỏ để tạo ra mô hình đa năng hơn.
4. Quản Lý Dữ Liệu (Data Curation)
Khi nguồn dữ liệu khan hiếm, chất lượng dữ liệu trở nên quan trọng hơn số lượng.
Các công ty như Scale AI được chú ý với dịch vụ gán nhãn và chú thích dữ liệu.
Cleanlab, Datology giúp phân tích giá trị từng tập dữ liệu, phát hiện chỗ trống hoặc dư thừa.
Dữ liệu tổng hợp (synthetic data) phối hợp với các mục tiêu mô hình chuyên biệt ngày càng phổ biến, đặc biệt trong các ngành như y tế và tài chính.
Kết Luận
AI scaling laws đã tạo nên “đường băng” cho Nvidia và OpenAI trong giai đoạn bùng nổ vừa rồi, tuy nhiên sự chững lại sắp tới của mô hình kích thước lớn sẽ mở ra kỷ nguyên mới cho lĩnh vực hạ tầng AI. Thay vì tập trung tăng quy mô, thị trường sẽ ưu tiên các giải pháp tối ưu hiệu suất, giảm chi phí và sáng tạo về kiến trúc mô hình.
Các nhóm startup có thể tận dụng cơ hội ngay lúc này là những công ty phát triển các giải pháp:
Mô hình nhỏ gọn dành cho thiết bị biên
Nâng cao khả năng tinh chỉnh mô hình theo nhiệm vụ cụ thể
Xây dựng các hệ thống đa mô hình thông minh hơn
Tập trung vào chất lượng và kiểm soát dữ liệu
Nếu bạn đang quan tâm xây dựng hạ tầng AI trong "thế giới hậu scaling", đây là thời điểm để tiên phong và tạo khác biệt.
Tham Khảo
Nandu, "Infrastructure After AI Scaling", SubstackNovember 1, 2023
Kaplan et al., "Scaling Laws for Neural Language Models", ArXiv (2020)
OpenAI Quarterly Reports 2023-2024
Epoch.ai dataset estimation report
Industry insights, Meta Infrastructure Planning 2023
Numerous startup websites: MosaicML, Scale AI, Predibase, etc.