Connect with us

Cuộc đấu tranh cho quyền sở hữu Trí tuệ nhân tạo – Tại sao Trung tâm dữ liệu quan trọng hơn bao giờ hết

Lãnh đạo tư tưởng

Cuộc đấu tranh cho quyền sở hữu Trí tuệ nhân tạo – Tại sao Trung tâm dữ liệu quan trọng hơn bao giờ hết

mm

Một vài năm trước, trung tâm dữ liệu dường như là thứ thuần túy kỹ thuật và vô hình – cơ sở hạ tầng ẩn sâu trong backend, hiếm khi được thảo luận ngoài vòng chuyên môn. Nhưng sự tăng trưởng mạnh mẽ của Trí tuệ nhân tạo đã hoàn toàn thay đổi bức tranh đó. Ngày nay, trung tâm dữ liệu đã trở thành “giếng dầu” mới của nền kinh tế số: một tài sản chiến lược mà xung quanh đó, hàng tỷ đô la đầu tư, chính sách chính phủ và chiến lược doanh nghiệp đang được xây dựng.

Tin tức gần đây xác nhận điều này. Anthropic đã công bố việc xây dựng trung tâm dữ liệu của riêng họ tại Mỹ, với chi phí 50 tỷ đô la, một con số tương đương với ngân sách của các dự án năng lượng lớn. Gần như đồng thời, X.AI và Nvidia đã tiết lộ một dự án chung tại Ả Rập Xê Út, một trong những trung tâm dữ liệu lớn nhất trong khu vực.

Tại sao chủ đề trung tâm dữ liệu đã trở nên toàn cầu như vậy? Tại sao các diễn viên chính đang rời bỏ mô hình đám mây thuần túy và đầu tư hàng chục tỷ đô la vào khả năng của riêng họ? Và sự thay đổi này ảnh hưởng đến kiến trúc Trí tuệ nhân tạo, hệ thống năng lượng, địa chính trị và sự trỗi dậy của các mô hình thay thế, từ Bắc Cực đến trung tâm dữ liệu dựa trên không gian như thế nào?

Đây là những gì mà cột bên dưới khám phá.

Sự bùng nổ toàn cầu của sự quan tâm đến việc sở hữu trung tâm dữ liệu

Khi tiêu thụ tài nguyên tính toán được đo bằng triệu đô la mỗi năm, việc thuê máy chủ đám mây thực sự là tiết kiệm chi phí hơn: các doanh nghiệp không cần xây dựng và duy trì tòa nhà, trả tiền điện và làm mát, mua thiết bị hoặc nâng cấp thường xuyên. Nhưng khi chi phí đạt đến hàng chục tỷ đô la, logic thay đổi.

Tại thời điểm đó, việc xây dựng trung tâm dữ liệu của riêng mình trở nên tiết kiệm chi phí hơn: các công ty thuê kỹ sư, mua thiết bị và tối ưu hóa cơ sở hạ tầng cho nhu cầu cụ thể của họ. Công ty ngừng trả quá nhiều cho lợi nhuận của nhà cung cấp đám mây và có quyền kiểm soát nhiều hơn về chi phí và hiệu quả của tính toán.

Đây là lý do tại sao xu hướng xây dựng trung tâm dữ liệu riêng là phù hợp nhất với những gã khổng lồ như OpenAI hoặc Anthropic, những công ty có nhu cầu lớn đến mức đám mây không còn được chứng minh về mặt kinh tế.

Đồng thời, điều quan trọng là phải hiểu rằng khái niệm “trung tâm dữ liệu” là đa lớp. Đối với một số công ty, nó chủ yếu là cơ sở lưu trữ dữ liệu, đĩa, cơ sở dữ liệu và thông tin người dùng. Đối với những người khác, nó cũng là một trung tâm tính toán: máy chủ chạy các mô hình như GPT, Claude hoặc LLaMA, đồng thời lưu trữ dữ liệu và thực hiện các hoạt động phức tạp. Về cơ bản, ngày nay, một trung tâm dữ liệu là một “kho” công nghệ khổng lồ chứa hàng nghìn máy tính chuyên dụng.

Và nhu cầu về khả năng Trí tuệ nhân tạo càng cao, “kho” này càng trở nên chiến lược và được tranh luận, đó là lý do tại sao trung tâm dữ liệu hiện được thảo luận không chỉ bởi các kỹ sư, mà còn bởi các nhà đầu tư, nhà hoạch định chính sách và các giám đốc điều hành hàng đầu.

Điều gì quan trọng hơn trong việc xây dựng trung tâm dữ liệu Trí tuệ nhân tạo: tốc độ hay chất lượng?

Trên thực tế, neither tốc độ xây dựng nor “chất lượng” chính thức của một trung tâm dữ liệu là yếu tố chính. Các công ty lớn đầu tư vào cơ sở hạ tầng của riêng họ để giảm chi phí và có quyền kiểm soát tối đa đối với tính toán.

Chất lượng của các mô hình bản thân gây quan tâm cho các diễn viên hàng đầu ít hơn nhiều so với người ta tưởng. Lý do rất đơn giản: khoảng cách chất lượng giữa các nhà lãnh đạo thị trường là tối thiểu. Điều này rất giống với ngành công nghiệp ô tô: Volkswagen, Toyota, Honda – tất cả đều khác nhau, nhưng không ai có thể kéo xa enough để độc quyền thị trường. Mỗi người duy trì thị phần ổn định của mình.

Thị trường Trí tuệ nhân tạo tuân theo một logic tương tự. Người dùng tiên tiến đã sử dụng nhiều mô hình đồng thời: một cho lập trình, một cho tạo văn bản, một cho phân tích hoặc tìm kiếm. Khách hàng doanh nghiệp cũng làm như vậy. Ví dụ, dịch vụ như Grammarly không có mô hình của riêng họ. Họ mua token từ nhiều nhà cung cấp, Anthropic, OpenAI, Meta. Khi một yêu cầu đến, hệ thống tự động chọn nhà cung cấp: người đang rẻ hơn, nhanh hơn hoặc chính xác hơn. Nếu văn bản là tiếng Anh – nó đi đến GPT; nếu tiếng Hindi – đến Claude; nếu LLaMA hiện có tỷ lệ thấp nhất – nó đi đến đó. Đây về cơ bản là một mô hình phân phối tải theo kiểu trao đổi chứng khoán.

Trong các cuộc trò chuyện với khách hàng doanh nghiệp của Keymakr, tôi ngày càng thấy xu hướng tương tự: các công ty lớn đã từ lâu bỏ đi cách tiếp cận “một mô hình – một nhà cung cấp”. Họ xây dựng đường ống đa mô hình nơi yêu cầu được định tuyến giữa các hệ thống Trí tuệ nhân tạo khác nhau tùy thuộc vào chi phí, độ trễ hoặc đặc điểm ngôn ngữ. Tuy nhiên, kiến trúc này đặt ra nhu cầu cao hơn nhiều về dữ liệu, cụ thể là sự sạch sẽ, chú thích, xác thực và nhất quán của nó. Trong ý nghĩa này, cơ sở hạ tầng dữ liệu trở nên chiến lược như chính trung tâm dữ liệu: không có đầu vào chất lượng cao, một hệ thống đa mô hình đơn giản không hoạt động.

Cuối cùng, trong kiến trúc này, chất lượng mô hình chỉ là một trong nhiều tham số. Khóa là duy trì tốc độ, khả năng mở rộng và khả năng xử lý tải tính toán lớn. Và chính xác đây là những gì mang lại giá trị chiến lược cho trung tâm dữ liệu riêng: chúng cho phép các công ty kiểm soát chi phí, thông lượng và độ ổn định, trong khi có ít tác động đến chất lượng mô hình cuối cùng.

Nói cách khác, ngày nay, các công ty xây dựng trung tâm dữ liệu không phải để tốc độ hoặc chất lượng hoàn hảo, mà để kinh tế và kiểm soát.

Địa lý của dữ liệu

Bằng “kiểm soát”, tôi có nghĩa là địa lý của dữ liệu. Nếu một công ty làm việc với các cơ quan chính phủ, luật thường cấm dữ liệu rời khỏi quốc gia. Các ứng dụng chính phủ và bán quân sự sử dụng tích cực Trí tuệ nhân tạo trong tình báo, đơn vị CNTT quốc phòng và dịch vụ đô thị. Nhưng không thể cho các hệ thống này truy cập vào một mô hình nếu trung tâm dữ liệu được đặt ở một khu vực có thẩm quyền không chắc chắn hoặc không đáng tin cậy. Đó là lý do tại sao các chính phủ yêu cầu khả năng tính toán phải được đặt vật lý trong nước.

Các công ty lớn hiểu điều này hoàn hảo. Nếu họ muốn tham gia vào các cuộc đấu thầu của chính phủ, ký hợp đồng hoặc xử lý dữ liệu nhạy cảm, họ cần cơ sở hạ tầng trong các khu vực cụ thể và khả năng đảm bảo tuân thủ các tiêu chuẩn bảo mật. Ràng buộc địa lý này cũng ảnh hưởng đáng kể đến một yếu tố quan trọng khác trong việc xây dựng và vận hành trung tâm dữ liệu – năng lượng.

Trung tâm dữ liệu Trí tuệ nhân tạo tiêu thụ một lượng điện năng khổng lồ, cả để chạy máy chủ và làm mát chúng. Làm mát thường có chi phí cao hơn tính toán bản thân. Điều này tạo ra những hạn chế nghiêm ngặt. Ở một số khu vực, trung tâm dữ liệu bị giới hạn ở mức rút một lượng điện nhất định từ lưới; ở những khu vực khác, phát thải nhiệt vào môi trường được quy định nghiêm ngặt. Việc vượt quá giới hạn sẽ dẫn đến phạt và nâng cấp kỹ thuật tốn kém.

Hơn nữa, điện được mua chủ yếu từ các công ty năng lượng thuộc sở hữu nhà nước, có cấu trúc giá riêng. Bạn không thể đơn giản “mua bao nhiêu tùy ý”. Ví dụ, lên đến một ngưỡng nhất định, giá là một mức; trên nó, một mức khác. Nếu một trung tâm dữ liệu rút nhiều điện hơn cho phép trong thời gian cao điểm, nó sẽ tự động bị phạt. Vì lý do này, các công ty lớn thường tìm thấy nó kinh tế hơn khi xây dựng trung tâm dữ liệu của riêng họ gần nhà máy điện của riêng họ.

Điều này tự nhiên dẫn đến ý tưởng phát triển sản xuất điện riêng, như trang trại năng lượng mặt trời, nhà máy khí đốt hoặc các trạm thủy điện nhỏ. Nhưng tất cả các giải pháp này đều có những hạn chế. Các nhà máy khí đốt và than đá tạo ra khí thải. Thủy điện thay đổi hệ sinh thái sông. Năng lượng hạt nhân là sạch nhất về khí thải, nhưng chỉ các chính phủ mới có thể xây dựng các nhà máy hạt nhân.

Và chính tại thời điểm này, các khái niệm mới bắt đầu xuất hiện…

Giải pháp thay thế

Lựa chọn rõ ràng nhất là di dời trung tâm dữ liệu đến các khu vực có khí hậu lạnh tự nhiên, chẳng hạn như miền bắc Canada, các lãnh thổ phía bắc của Scandinavia hoặc các khu vực xa xôi của Bắc Cực. Ở đó, thiên nhiên tự giải quyết vấn đề làm mát, giảm đáng kể chi phí hoạt động.

Bước tiếp theo là “trung tâm dữ liệu dưới nước”. Tính toán diễn ra dưới nước, với môi trường biển lạnh cung cấp làm mát tự nhiên. Nhưng cách tiếp cận này cũng có những nhược điểm. Các nhà bảo vệ môi trường đã đưa ra những lo ngại. Ví dụ, gần Iceland phía nam, nơi dòng Gulf Stream đi qua, một số người đã đề xuất rằng việc triển khai lớn các trung tâm dữ liệu dưới nước có thể ảnh hưởng đến các quá trình khí hậu địa phương, thậm chí có thể thay đổi hành vi của dòng hải lưu. Các quan sát ban đầu về những sai lệch như vậy đã được ghi nhận.

Cũng có những lựa chọn tương lai hơn. Gần đây, tôi đã thảo luận về khái niệm trung tâm dữ liệu dựa trên không gian với các đồng nghiệp. Ý tưởng về việc phóng cơ sở hạ tầng tính toán vào quỹ đạo đã tồn tại từ lâu; tuy nhiên, công nghệ đã đưa nó đến ngưỡng khả thi về mặt kỹ thuật, với một nền tảng kỹ thuật sẵn sàng.

Tại sao không gian dường như hấp dẫn? Nó ngay lập tức giải quyết hai hạn chế chính: làm mát và điện. Nhiệt độ trong không gian gần Trái đất rất thấp, làm cho sự khuếch tán nhiệt gần như miễn phí. Điện cũng không phải là vấn đề: các tấm pin mặt trời khổng lồ có thể được triển khai, giống như các kính viễn vọng không gian triển khai gương của chúng. Trong không gian, không có bụi, không có thời tiết, không có che khuất. Các tấm pin cung cấp năng lượng ổn định suốt cả ngày với bảo trì gần như không cần thiết.

Truyền thông với Trái đất là một thách thức kỹ thuật riêng, nhưng nó hoàn toàn có thể giải quyết được. Một cách tiếp cận là sử dụng hệ thống vệ tinh như Starlink, nhưng với các kênh rộng hơn nhiều. Liên kết vô tuyến có thể, trên nguyên tắc, xử lý các khối lượng này, và liên kết quang, kênh dựa trên ánh sáng với băng thông khổng lồ, có thể được sử dụng nếu cần. Các kỹ sư chắc chắn sẽ tìm ra giải pháp ở đây.

Tổng thể, cơ sở hạ tầng không gian là một nhánh phát triển trong tương lai, nhưng việc thảo luận về nó không còn giống như khoa học viễn tưởng, đặc biệt là khi nhu cầu về tính toán đang tăng nhanh hơn nhiều so với khả năng mới trên Trái đất.

Đáng chú ý là tin tức gần đây nhất: Google đã công bố dự án Suncatcher, nhằm tạo ra trung tâm dữ liệu Trí tuệ nhân tạo trên quỹ đạo. Theo kế hoạch, các vệ tinh được trang bị chip TPU sẽ được cung cấp năng lượng bởi năng lượng mặt trời và truyền dữ liệu qua kênh quang. Google tuyên bố rằng giải pháp này có thể cung cấp hiệu suất sản xuất năng lượng cao hơn tới tám lần so với các hệ thống trên đất liền. Các mẫu vệ tinh đầu tiên được lên kế hoạch phóng vào năm 2027.

Tác động của quy định

Khi nói đến các quy định ảnh hưởng đến trung tâm dữ liệu, tác động môi trường của chúng và liệu các khuôn khổ pháp lý có thể “đẩy” thị trường này vào không gian hoặc dưới nước hay không, câu hỏi vẫn còn mở.

Mỗi quốc gia hành động khác nhau, thực hiện các quy định theo kế hoạch dài hạn của mình. Không có bí mật rằng châu Âu, ví dụ, có các quy tắc nghiêm ngặt hơn, điều này làm chậm sự phát triển của Trí tuệ nhân tạo. Mỹ, ngược lại, có cách tiếp cận thực dụng hơn: luật thường được viết để cho phép đổi mới và tăng trưởng tiếp tục. Một đội ngũ vận động công nghệ mạnh mẽ ở California, quê nhà của các công ty như Nvidia, Apple, Microsoft và Meta, làm cho việc cấm hoàn toàn Trí tuệ nhân tạo không thể xảy ra. Điều đó có nghĩa là công nghệ sẽ tiếp tục tiến về phía trước.

Chúng ta sống trong một thời đại mà “suy nghĩ ngoài hộp” được khuyến khích cả ở Tây và Á, và các ví dụ về Elon Musk và Steve Jobs tiếp tục truyền cảm hứng cho các dự án tham vọng. Vì vậy, có lẽ tính toán trong không gian là bước tiếp theo hợp lý sau tất cả.

Michael Abramov là người sáng lập & CEO của Introspector, mang lại hơn 15+ năm kinh nghiệm về kỹ thuật phần mềm và hệ thống trí tuệ nhân tạo tầm nhìn máy tính để xây dựng các công cụ gắn nhãn cấp doanh nghiệp.

Michael bắt đầu sự nghiệp của mình với tư cách là một kỹ sư phần mềm và trưởng bộ phận N&D, xây dựng các hệ thống dữ liệu có khả năng mở rộng và quản lý các đội kỹ thuật đa chức năng. Cho đến năm 2025, ông đã từng là CEO của Keymakr, một công ty dịch vụ gắn nhãn dữ liệu, nơi ông đã tiên phong trong các công việc vòng lặp con người, hệ thống QA tiên tiến và công cụ tùy chỉnh để hỗ trợ các nhu cầu dữ liệu tầm nhìn máy tính và tự chủ quy mô lớn.

Ông nắm giữ bằng Cử nhân Khoa học Máy tính và có nền tảng về kỹ thuật và nghệ thuật sáng tạo, mang lại một ống kính đa ngành để giải quyết các vấn đề khó khăn. Michael sống tại điểm giao nhau của đổi mới công nghệ, lãnh đạo sản phẩm chiến lược và tác động thế giới thực, thúc đẩy tiền phong của các hệ thống tự động và tự động hóa thông minh.