sơ khai AWS và NVIDIA công bố quan hệ đối tác chiến lược mới - Unite.AI
Kết nối với chúng tôi

Thông báo

AWS và NVIDIA công bố quan hệ đối tác chiến lược mới

Được phát hành

 on

Trong một thông báo đáng chú ý tại AWS re:Invent, Amazon Web Services (AWS) và NVIDIA đã tiết lộ sự mở rộng lớn trong hoạt động hợp tác chiến lược của họ, thiết lập một chuẩn mực mới trong lĩnh vực AI tổng hợp. Sự hợp tác này thể hiện một thời điểm quan trọng trong lĩnh vực này, kết hợp cơ sở hạ tầng đám mây mạnh mẽ của AWS với các công nghệ AI tiên tiến của NVIDIA. Khi AWS trở thành nhà cung cấp đám mây đầu tiên tích hợp Siêu chip GH200 Grace Hopper tiên tiến của NVIDIA, liên minh này hứa hẹn sẽ mở ra những khả năng chưa từng có trong đổi mới AI.

Cốt lõi của sự hợp tác này là tầm nhìn chung nhằm thúc đẩy AI tạo ra những tầm cao mới. Bằng cách tận dụng các hệ thống nhiều nút, GPU, CPU và phần mềm AI phức tạp thế hệ tiếp theo của NVIDIA, cùng với khả năng ảo hóa nâng cao của Hệ thống Nitro, kết nối Bộ chuyển đổi vải đàn hồi (EFA) của AWS và khả năng mở rộng UltraCluster, mối quan hệ hợp tác này được thiết lập để cách mạng hóa cách thức hoạt động của các ứng dụng AI tổng hợp được phát triển, đào tạo và triển khai.

Ý nghĩa của sự hợp tác này vượt ra ngoài sự tích hợp công nghệ đơn thuần. Nó biểu thị cam kết chung của hai gã khổng lồ trong ngành nhằm thúc đẩy AI sáng tạo, cung cấp cho khách hàng và nhà phát triển quyền truy cập như nhau vào các tài nguyên và cơ sở hạ tầng hiện đại.

Siêu chip NVIDIA GH200 Grace Hopper trên AWS

Sự hợp tác giữa AWS và NVIDIA đã dẫn đến một cột mốc công nghệ quan trọng: sự ra mắt Siêu chip GH200 Grace Hopper của NVIDIA trên nền tảng AWS. Động thái này giúp AWS trở thành nhà cung cấp đám mây tiên phong cung cấp các siêu chip tiên tiến này, đánh dấu một bước tiến quan trọng trong lĩnh vực điện toán đám mây và công nghệ AI.

Siêu chip NVIDIA GH200 Grace Hopper là một bước tiến nhảy vọt về sức mạnh và hiệu quả tính toán. Chúng được thiết kế với công nghệ NVLink đa nút mới, cho phép chúng kết nối và hoạt động trên nhiều nút một cách liền mạch. Khả năng này có thể thay đổi cuộc chơi, đặc biệt là trong bối cảnh các nhiệm vụ học máy và AI quy mô lớn. Nó cho phép nền tảng đa nút GH200 NVL32 mở rộng quy mô lên tới hàng nghìn siêu chip, mang lại hiệu năng ở cấp độ siêu máy tính. Khả năng mở rộng như vậy rất quan trọng đối với các nhiệm vụ AI phức tạp, bao gồm đào tạo các mô hình AI phức tạp và xử lý khối lượng dữ liệu lớn với tốc độ và hiệu quả chưa từng có.

Lưu trữ đám mây NVIDIA DGX trên AWS

Một khía cạnh quan trọng khác của quan hệ đối tác AWS-NVIDIA là sự tích hợp của Đám mây NVIDIA DGX trên AWS. Dịch vụ đào tạo AI này thể hiện một bước tiến đáng kể trong lĩnh vực đào tạo mô hình AI. Dịch vụ này được xây dựng dựa trên sức mạnh của GH200 NVL32, được thiết kế đặc biệt để đào tạo nhanh chóng về AI tổng hợp và các mô hình ngôn ngữ lớn.

Đám mây DGX trên AWS mang lại một số lợi ích. Nó cho phép chạy các mô hình ngôn ngữ mở rộng vượt quá 1 nghìn tỷ tham số, một kỳ tích mà trước đây rất khó đạt được. Năng lực này rất quan trọng để phát triển các mô hình AI tinh vi, chính xác và nhận biết ngữ cảnh hơn. Hơn nữa, việc tích hợp với AWS cho phép trải nghiệm đào tạo AI liền mạch và có khả năng mở rộng hơn, giúp nhiều người dùng và ngành có thể tiếp cận nó hơn.

Dự án Ceiba: Xây dựng siêu máy tính

Có lẽ khía cạnh tham vọng nhất của sự hợp tác AWS-NVIDIA là Dự án Ceiba. Dự án này nhằm mục đích tạo ra siêu máy tính AI hỗ trợ GPU nhanh nhất thế giới, có 16,384 Siêu chip NVIDIA GH200. Khả năng xử lý dự kiến ​​của siêu máy tính này đạt mức đáng kinh ngạc là 65 exaflop, khiến nó trở thành một gã khổng lồ trong thế giới AI.

Mục tiêu của Dự án Ceiba rất đa dạng. Nó dự kiến ​​sẽ tác động đáng kể đến nhiều lĩnh vực AI khác nhau, bao gồm đồ họa và mô phỏng, sinh học kỹ thuật số, robot, xe tự hành và dự đoán khí hậu. Siêu máy tính sẽ cho phép các nhà nghiên cứu và nhà phát triển vượt qua ranh giới của những gì có thể có trong AI, đẩy nhanh những tiến bộ trong các lĩnh vực này với tốc độ chưa từng có. Dự án Ceiba không chỉ đại diện cho một kỳ quan công nghệ mà còn là chất xúc tác cho những đổi mới về AI trong tương lai, có khả năng dẫn đến những đột phá có thể định hình lại sự hiểu biết và ứng dụng của chúng ta về trí tuệ nhân tạo.

Kỷ nguyên mới trong đổi mới AI

Sự hợp tác mở rộng giữa Amazon Web Services (AWS) và NVIDIA đánh dấu sự khởi đầu một kỷ nguyên mới trong đổi mới AI. Bằng cách giới thiệu Siêu chip NVIDIA GH200 Grace Hopper trên AWS, lưu trữ Đám mây NVIDIA DGX và bắt tay vào Dự án Ceiba đầy tham vọng, hai gã khổng lồ công nghệ này không chỉ vượt qua các ranh giới của AI sáng tạo mà còn thiết lập các tiêu chuẩn mới cho điện toán đám mây và cơ sở hạ tầng AI .

Sự hợp tác này không chỉ là một liên minh công nghệ đơn thuần; nó thể hiện cam kết đối với tương lai của AI. Việc tích hợp các công nghệ AI tiên tiến của NVIDIA với cơ sở hạ tầng đám mây mạnh mẽ của AWS sẵn sàng đẩy nhanh quá trình phát triển, đào tạo và triển khai AI trong nhiều ngành khác nhau. Từ việc tăng cường các mô hình ngôn ngữ lớn đến thúc đẩy nghiên cứu trong các lĩnh vực như sinh học kỹ thuật số và khoa học khí hậu, các ứng dụng tiềm năng và ý nghĩa của sự hợp tác này là rất lớn và mang tính biến đổi.

Alex McFarland là một nhà báo và nhà văn về AI đang khám phá những phát triển mới nhất về trí tuệ nhân tạo. Anh ấy đã cộng tác với nhiều công ty khởi nghiệp và ấn phẩm về AI trên toàn thế giới.