Bước Đi Đột Phá Của Uber Cùng AWS
Mới đây, Amazon chính thức công bố Uber đang mở rộng hợp đồng dịch vụ đám mây AWS để vận hành nhiều hơn các tính năng chia sẻ chuyến xe trên nền tảng chip của Amazon. Cụ thể, Uber sẽ tăng cường sử dụng AWS Graviton (dòng CPU máy chủ cấu trúc ARM tiết kiệm năng lượng) và bắt đầu thử nghiệm Trainium3 - dòng chip AI của AWS được thiết kế để cạnh tranh trực tiếp với các sản phẩm từ Nvidia.
Động thái này không chỉ là lời thách thức dài hạn đối với đế chế Nvidia, mà còn là một đòn giáng trực diện của Amazon nhắm vào các đối thủ đám mây sừng sỏ là Google Cloud và Oracle.
Cú "Quay Xe" Ngoạn Mục Của Uber
Về mặt lịch sử, Uber từng tự vận hành các trung tâm dữ liệu khổng lồ của riêng mình. Tuy nhiên, vào năm 2023, gã khổng lồ gọi xe này đã gây tiếng vang lớn khi ký các hợp đồng điện toán đám mây nhiều năm, trị giá hàng tỷ USD với Oracle và Google. Mục tiêu cốt lõi khi đó là di dời phần lớn cơ sở hạ tầng CNTT khỏi các trung tâm dữ liệu nội bộ lên hai nền tảng đám mây này.
Thậm chí đến tháng 12 năm ngoái, Uber vẫn công khai tái khẳng định mục tiêu đó trên blog của mình: "Vào tháng 2 năm 2023, Uber bắt đầu chuyển đổi từ trung tâm dữ liệu tại chỗ lên đám mây sử dụng OCI (Oracle) và Google Cloud Platform, giải quyết thách thức kép: dịch chuyển khối lượng công việc khổng lồ và đưa các phiên bản điện toán chạy chip ARM vào môi trường vốn bị thống trị bởi kiến trúc x86."
Điểm thú vị là trong bài viết đó, Uber đặc biệt nhấn mạnh việc sử dụng chip ARM do Ampere sản xuất trên nền tảng đám mây của Oracle. Và đây chính là lúc bối cảnh trở nên phức tạp.
Bức Tranh Đan Chéo Khốc Liệt Tại Thung Lũng Silicon
Nếu bạn muốn hiểu sự đan xen lợi ích và các mối quan hệ phức tạp tại Thung lũng Silicon, hãy nhìn vào lịch sử của Ampere.
Ampere được thành lập bởi cựu nhân sự cấp cao của Intel - Renee James. Sau khi không được thăng chức CEO tại Intel, bà đã tận dụng mọi mối quan hệ, bao gồm cả quyền lực tại quỹ đầu tư Carlyle và vị trí trong hội đồng quản trị Oracle, để huy động vốn khởi nghiệp. Oracle từng sở hữu khoảng 1/3 cổ phần của Ampere, và James đã phải từ bỏ tư cách giám đốc độc lập của Oracle vì khoản đầu tư này.
Đến tháng 12 vừa qua, đối thủ lớn của Ampere là SoftBank đã thâu tóm công ty này. Oracle bán lại cổ phần của mình và thu về khoản lợi nhuận trước thuế khổng lồ lên tới 2,7 tỷ USD. Renee James cũng rời hội đồng quản trị Oracle vào cuối năm 2024 và không còn làm việc tại Ampere.
Hiện tại, Oracle đang ráo riết huy động vốn để xây dựng các trung tâm dữ liệu khổng lồ cho OpenAI và Stargate. Tỷ phú Larry Ellison cho biết Oracle bán Ampere vì tin rằng việc tự thiết kế chip nội bộ không còn là lợi thế cạnh tranh. Họ chuyển hướng sang việc mua chip có sẵn và đã ký những thỏa thuận khổng lồ với Nvidia.
Đáng chú ý, Oracle, SoftBank và Nvidia cũng nằm trong "vòng tròn quỹ đạo" các giao dịch chéo của OpenAI, nhằm tài trợ cho quá trình xây dựng trung tâm dữ liệu khổng lồ của nhà phát triển mô hình AI này.
Lợi Thế Độc Tôn Từ Chip AI Tự Phát Triển Của Amazon
Giữa bối cảnh các đối thủ đang loay hoay với bài toán phần cứng, AWS bất ngờ tung tin họ đã giành được hợp đồng lớn hơn từ chính khách hàng "ngôi sao" của Oracle là Uber. Lý do vô cùng đơn giản: AWS có chip tự thiết kế với hiệu năng và chi phí vượt trội.
Với quyết định này, Uber gia nhập hàng ngũ các "ông lớn" công nghệ như Apple, OpenAI và Anthropic. Trong bối cảnh chạy đua khốc liệt, các công ty AI đang liên tục tối ưu hóa nguồn lực, tiêu biểu như thỏa thuận hạ tầng AI giữa Anthropic và Google mới đây. Việc Uber và nhiều gã khổng lồ tăng cường sử dụng AWS nhờ sức hút của chip AI nội bộ cho thấy chiến lược phần cứng của Amazon đang đi đúng hướng. Vào tháng 12, CEO Amazon Andy Jassy tiết lộ mảng chip Trainium đã trở thành một đơn vị kinh doanh mang về hàng tỷ đô la.
Bài Học Về Tối Ưu Đám Mây Cho Doanh Nghiệp Việt
Từ thương vụ của Uber, các doanh nghiệp công nghệ tại Việt Nam có thể rút ra những bài học quan trọng về chiến lược tối ưu hóa hạ tầng đám mây:
- Chiến lược Multi-cloud linh hoạt: Dù đã có hợp đồng nền tảng với Google và Oracle, Uber vẫn sẵn sàng tận dụng AWS cho các tác vụ đặc thù để tối ưu chi phí và hiệu suất.
- Chuyển dịch sang kiến trúc ARM: Thay vì sử dụng chip x86 truyền thống tốn kém, việc đưa các ứng dụng lên máy chủ chạy chip kiến trúc ARM (như AWS Graviton) có thể tiết kiệm từ 20% đến 40% chi phí vận hành.
- Lựa chọn phần cứng AI thông minh: Không phải lúc nào cũng cần đến GPU Nvidia đắt đỏ. Đối với quá trình huấn luyện và chạy suy luận AI (inference), các dòng chip chuyên dụng như Trainium của AWS hoàn toàn có thể mang lại hiệu suất đáng gờm với chi phí dễ chịu hơn rất nhiều.