Connect with us

사상 리더

AI의 대계산: 왜 인프라스트럭처가 가장 중요할까

mm
A professional technician in a modern data center inspecting a server rack with a tablet, showing a contrast between older server cabinets and new, high-density AI infrastructure.

AI는 우리의 일생에서 가장 결정적인 기술이며, 비즈니스 풍경을 다시 그릴 주요 전환점에 접근하고 있습니다.

채택은 급증하고 있으며, 78%의 기업들이 2025년에 AI를 배치하고 있으며, 2030년까지 1.81조 달러의 시장 예측이 있습니다. 그러나 이러한 성장 뒤에는 더 어려운 진실이 있습니다. 많은 기업들이 AI를 실제로, 확장 가능하며 유형의 결과로 번역하는 데 어려움을 겪고 있습니다. 많은 기업들이 운영 변경이 없이 AI를 채택하고 있기 때문에, 이는 명백해지고 있습니다.

동시에 AI를 지원하는 인프라스트럭처는 필요한 성장 속도를 따라가지 못하고 있습니다. 조직과 모델은 여전히 사용 가능한 GPU 컴퓨팅에 의해 제한되고 있으며, 사용 가능한 데이터 센터 용량은 전 세계적으로 기록적인 저수준에 있습니다. 새로운 AI 용량은 전력 가용성, 빌드 타임라인 및 노동력 부족에 의해 제한됩니다.

이것이 AI의 대계산입니다. 필요한 속도로 AI를 구축하고 채택하는 것과 보수적인 레거시 모델에 의해 제한되는 것 사이의 간극입니다. 2035년까지, 이 간극이 오늘날의 회사 중 절반을 청구할 수 있습니다. 경주는 진행 중입니다. 적응하거나 죽음입니다.

AI의 약속을 실현하는 것

수년간의 헤드라인을 잡는, 다기가와트 발표之后, 조직은终于 이번 년에 마크-투-마켓 진실 테스트에 직면할 것입니다.誰が真正으로 실현하고 누구가 단지 대화에 참여하기 위해 헤드라인과 프레스 릴리스에 의존하는지.

나레이티브와 실행 사이의 차이는 더 명백해질 것입니다. 특히 AI ROI가 오늘날 실제 보드룸焦点이 되는 상황에서. 승자는 GPU 공급, 전력, 자본 및 탄력적인 공급 사슬을 모두 함께 가져올 수 있는 조직이 될 것입니다. 그리고 운영과 수익, 마케팅이 아닌 것으로 이를 증명할 것입니다.誰가 실현할 수 있는지에 따라 빠르게 가속화되고, 신뢰할 수 있는 장기적인 리더로 나타날 것입니다. 창의적인 발표에 고정된 사람들은 뒤처질 것입니다. 그리고 두 사람 사이의 간극은 계속 커질 것입니다.

제한 요인

컴퓨팅의 규칙은 근본적으로 변경되었습니다. 2019년 이후, AI 모델을 지원하는 컴퓨팅 파워는 약 10개월마다 두 배로 증가했습니다. Gen AI의 도래는 성장을 가속화했으며, 하드웨어 라이프사이클은 압축되었으며, NVIDIA의 극단적인 공동 설계는 더 빠르게 진행될 것입니다. 그러나 대부분의 데이터 센터는 여전히 레거시 워크로드를 위해 설계되었으며, 현대적인 GPU 컴퓨팅의 전력 밀도, 냉각 요구 및 트래픽 패턴을 지원하지 않습니다.

전통적인 접근 방식은 AI 주도적인 변화에 따라가지 못할 것입니다. 레거시 환경에서 AI 워크로드를 실행하려고 하는 것은 급속하게 개선되는 포뮬러 1 엔진을 패밀리 카에 연결하는 것과 같습니다. 차체는 성능과 변경을 처리하기 위해 설계되지 않았습니다. 그리고 전통적으로 구축된 데이터 센터가 온라인으로 전환되면, 하드웨어는 이미 설계 매개변수 너머로 진화했습니다.

전체 산업에서, 전통적인 인프라스트럭처에 수십억 달러를 투자한 상황에서, 이는 불편한 현실을 창조합니다. либо 재건 비용을 흡수하거나, 오래된 칩이 여전히 가치 있는지 희망하거나, 처음부터 변경하는 AI를 설계한 사람들보다 지속적으로 뒤처지는 것입니다. 중요하게는, 리트로핏팅은 어렵습니다. 진행에는 목적을 위한 인프라스트럭처가 필요합니다. 즉, 직접 칩으로의 액체 냉각, 고대역폭 네트워킹 및 재설계된 전력 시스템이 필요합니다.

상시 변경을 위한 구축

이 문제의 해결책은 완전히 새로운 인프라스트럭처 접근 방식을 필요로 합니다. 이미 모멘텀이 있는 접근 방식입니다. 산업은 유연한 표준 단위로 전환하고 있으며, 요구 사항이 발전함에 따라 섹션별로 배치, 업그레이드 및 대체할 수 있습니다. 특정 시점을 최적화하기 위해 고정된 시설을 구축하는 대신, 운영자는 점진적으로 용량을 배치하고, 칩 아키텍처 및 전력 요구 사항이 변경됨에 따라 더 높은 밀도 세그먼트를 추가하고 있습니다.

이 더 유연한 접근 방식은 이제 몇 개월 안에 GPU 최적화된 용량을 제공할 수 있습니다. 오프사이트 제조 및 표준 구성 요소를 사용하면 시스템을 제어된 환경에서 구축 및 테스트할 수 있으며, 배포를 가속화하고,现场 복잡성 및 필요한 숙련된 노동력을 줄일 수 있습니다. 중요하게는, 업그레이드는 사이트의 나머지 부분이 작동하는 동안 수행할 수 있으며, 폐기된 섹션은 수리 및 재배치될 수 있으며, 수명을 연장하고,浪費를 줄이고, 수익을 최대화할 수 있습니다.

적응성은 전통적인 데이터 센터 라이프사이클보다 성능 요구 사항이 더 빠르게 발전하는 환경에서 매우 중요합니다. 유연성은 이제 전통적인剛性보다 정의하는 요구 사항입니다.

대계산은 이미 여기 있습니다

AI의 대계산은 더 이상 미래의 시나리오가 아닙니다. 그것은 실제로 진행되고 있습니다. 지속적인 변경으로 설계된 데이터 센터와 레거시 가정을 제한하는 데이터 센터 사이의 분리는 이미 보이고, 이는 가속화될 것입니다. 이는 단순히 기술 주기가 아닙니다. 이는 인프라스트럭처가 어떻게 구상되고, 재정되며, 제공되는지의 구조적인 재설정입니다. 적응성, 전체 스택을 일치시키고, 속도에 따라 실행하는 조직이 다음 10년을 정의할 것입니다. 나머지는 단순히 뒤처지는 것이 아닙니다. 그들은 관련성이 없게 될 것입니다.

Harqs Singh, InfraPartners의 최고 기술 책임자이자 공동 창립자는 회사에서 고급 오프사이트 제조를 사용하여 구축된 AI 데이터 센터 개발을 이끌고 있습니다. 이전에 BlackRock의 기술 및 데이터 및 AI의 COO였던 Harqs는 글로벌 플랫폼 전반에 걸쳐 디지털 인프라, AI 및 지속 가능성에 대한 깊은 전문 지식을 가지고 있습니다. 다양한 부문의 경험은 그의 접근 방식을 풍부하게 하고 혁신적인 비즈니스 모델 및 산업 변화를 촉진합니다.

Harqs는 부문 전반에 걸쳐 혁신을 주도하는 것으로 인정받고 있으며 Data Center Maturity Model과 같은 산업 최고 사례 및 표준을 형성하고 구축하는 데 적극적인 역할을 했습니다.