DriveNets vừa giới thiệu các cải tiến đáng kể cho nền tảng Network Cloud-AI, tích hợp khả năng đa vị trí và đa người dùng, cho phép các cụm GPU phân tán hoạt động hiệu quả ở khoảng cách lên tới 80km, đồng thời giải quyết các thách thức về nguồn điện.
Trong bối cảnh trí tuệ nhân tạo (AI) đang trở thành động lực chính cho các mạng hiệu suất cao, việc kết nối các GPU không còn giống như kết nối CPU truyền thống. DriveNets, một công ty khởi nghiệp từ năm 2015, đã khẳng định vị thế của mình trong lĩnh vực mạng fabric và hiện đang phục vụ các nhà cung cấp lớn như AT&T, Comcast, Telefonica và Orange.
Chúng tôi đang thảo luận với nhiều khách hàng về việc xây dựng một cụm duy nhất phân tán trên nhiều vị trí để giải quyết các vấn đề về điện năng.
Không giống như các mạng trung tâm dữ liệu truyền thống sử dụng kiến trúc Clos Ethernet, DriveNets áp dụng một kiến trúc fabric phân tán với giao thức dạng cell. Theo Dudy Cohen, Phó Giám đốc Tiếp thị Sản phẩm của DriveNets, các gói dữ liệu vào từ NIC sẽ được cắt thành các ô kích thước đồng đều, phân tán trên toàn bộ fabric và sau đó được tái tạo ở đầu ra.
Điều này đảm bảo các liên kết fabric giữa các thiết bị đầu cuối (top of rack) và spine được cân bằng tải hoàn hảo mà không cần cơ chế hashing. Nhờ đó, DriveNets có thể kiểm soát tắc nghẽn bên trong fabric mà không cần sự hỗ trợ từ các thành phần bên ngoài như Nvidia BlueField DPUs.
Kiến trúc fabric dạng cell giúp tối ưu hiệu suất mạng AI của DriveNets.
Tính năng đa vị trí của DriveNets cho phép các tổ chức vượt qua hạn chế về nguồn điện tại một trung tâm dữ liệu duy nhất bằng cách phân tán các cụm GPU trên nhiều địa điểm, với khoảng cách lên tới 80km. Đây không phải là cơ chế dự phòng mà là một cụm duy nhất hoạt động trên hai vị trí, tận dụng các lưới điện khác nhau.
Về mặt vật lý, các kết nối giữa các vị trí thường sử dụng sợi quang tối (dark fiber) hoặc công nghệ DWDM, với tốc độ kết nối lên tới 3.2 terabit mỗi giây thông qua các bó bốn kênh 800 gigabit Ethernet.
Nếu bạn sử dụng Kubernetes, việc duy trì chất lượng dịch vụ cho từng workload hoặc tenant là rất quan trọng, ngay cả khi có hàng xóm ồn ào.
Đối với các nhà cung cấp dịch vụ GPU-as-a-Service hoặc doanh nghiệp chạy nhiều workload AI trên Kubernetes, DriveNets đã cải tiến khả năng cách ly lưu lượng. Điều này đảm bảo rằng không có hàng xóm ồn ào nào ảnh hưởng đến các workload hoặc tenant khác, ngay cả khi chúng cùng chạy trên một cụm hạ tầng.
Công nghệ fabric dạng cell đóng vai trò quan trọng trong việc cung cấp sự cách ly cần thiết, giúp duy trì hiệu suất ổn định cho các container Kubernetes khác nhau.
DriveNets không chỉ xây dựng mạng cho các workload AI mà còn tích hợp AI vào chính sản phẩm và hoạt động nội bộ của mình. Công ty đã phát triển các khả năng AI cho hệ thống quản lý và điều phối mạng, với mô hình AI được huấn luyện trên khối lượng lớn log mạng để hỗ trợ phân tích nguyên nhân gốc rễ.
Bên cạnh đó, DriveNets cũng đầu tư mạnh vào các công cụ AI để hỗ trợ phát triển sản phẩm trên mọi phòng ban, tối ưu hóa quy trình nội bộ.
Với những cải tiến này, DriveNets không chỉ đáp ứng nhu cầu hiện tại của các hyperscaler, neocloud và doanh nghiệp mà còn định hình tương lai của mạng AI. Sự kết hợp giữa công nghệ fabric tiên tiến và khả năng đa vị trí, đa người dùng giúp công ty giải quyết các thách thức lớn nhất trong việc triển khai AI quy mô lớn.
DriveNets đang khẳng định vai trò tiên phong trong việc vừa xây dựng mạng cho AI, vừa ứng dụng AI để nâng cao hiệu quả mạng lưới.
Sự nâng cấp của nền tảng Network Cloud-AI từ DriveNets đánh dấu một bước tiến quan trọng trong lĩnh vực mạng AI, với các tính năng đa vị trí và đa người dùng giúp giải quyết hiệu quả các thách thức về nguồn điện và hiệu suất. Đây là giải pháp lý tưởng cho các doanh nghiệp và nhà cung cấp dịch vụ đang tìm cách tối ưu hóa cụm GPU phân tán.
Hãy theo dõi Wi-Mesh để cập nhật thêm nhiều tin tức công nghệ mới nhất và các giải pháp mạng tiên tiến như của DriveNets. Công nghệ mạng AI đang định hình tương lai, và chúng tôi sẽ luôn đồng hành cùng bạn trên hành trình đó!