Connect with us

Alex Yeh, GMI Cloud의 설립자 및 CEO – 인터뷰 시리즈

인터뷰

Alex Yeh, GMI Cloud의 설립자 및 CEO – 인터뷰 시리즈

mm

Alex Yeh는 GMI Cloud의 설립자이자 CEO로, 디지털 인프라 벤처기업입니다. GMI Cloud의 목표는 누구나 쉽게 AI를 배포할 수 있도록 하며, 통합 하드웨어와 소프트웨어 솔루션을 통해 비즈니스에서 AI를 구축, 배포, 확장하는 방식을 단순화하는 것입니다.

당신이 GMI Cloud를 시작하게 된 계기는 무엇이며, ваш 배경이 회사 구축에 어떻게 영향을 미쳤나요?

GMI Cloud는 2021년에 설립되어 첫 두 해 동안 데이터 센터를 구축하고 운영하여 비트코인 컴퓨팅 노드를 제공하는 데 주력했습니다. 이 기간 동안 아칸소와 텍사스에 세 개의 데이터 센터를 설립했습니다.

작년 6월, 투자자와 클라이언트로부터 GPU 컴퓨팅 파워에 대한 강한 수요를 감지했습니다. 한 달 내에 AI 클라우드 인프라로 전환하기로 결정했습니다. AI의 빠른 개발과 새로운 비즈니스 기회는 예측이나 설명이 어려울 수 있습니다. GMI Cloud는 필수 인프라를 제공함으로써 AI의 흥미로운 기회와 함께 가깝게 유지하려고 합니다.

GMI Cloud 이전에,私は 벤처 캐피탈 회사에서 파트너로 일했습니다. 새로운 산업과 정기적으로 접촉했습니다.私は 인공 지능을 21세기最新의 “골드 러시”로 본다. GPU와 AI 서버는 현대의 “프로스펙터”를 위한 “픽 액스”로, 클라우드 회사에서 GPU 컴퓨팅 파워 렌탈을 위한 급성장을 촉진합니다.

GMI Cloud의 AI 인프라를 단순화하는 미션에 대해告诉해 주시고, 왜이러한焦点이 오늘날의 시장에서 중요하나요?

AI 인프라를 단순화하는 것은 현재의 복잡성과 단편화로 인해 비즈니스에서 AI의 잠재력을 활용하는 데 제한과 비효율성을 초래할 수 있습니다. 오늘날의 AI 설정은 데이터 전처리, 모델 훈련, 배포, 확장 등 여러 단계가 포함되어 있으며, 이러한 단계를 효과적으로 관리하기 위해 상당한 시간, 전문 기술, 리소스가 필요합니다. 많은 회사에서 AI 인프라의 최적의 레이어를 식별하는 데 몇 주나 몇 개월이 걸릴 수 있으며, 이는 사용자 경험과 생산성에 영향을 미칩니다.

  1. 배포 가속: 단순화된 인프라는 AI 솔루션의 더 빠른 개발과 배포를 가능하게 하여 회사들이 시장의 변화하는需求에 대응하고 경쟁력을 유지할 수 있습니다.
  2. 비용 절감 및 리소스 감소: 특수 하드웨어와 커스텀 통합의 필요성을 최소화함으로써, AI를 더 접근하기 쉽고, 특히 중소기업에게 비용 효율적인 솔루션을 제공할 수 있습니다.
  3. 확장 가능성: 잘 통합된 인프라는 효율적인 리소스 관리를 가능하게 하며, 이는 애플리케이션을 확장하는 데 필수적입니다. 이는 AI 솔루션이 더 큰 규모에서 강력하고 반응성이 유지되도록 합니다.
  4. 접근성 개선: 단순화된 인프라는 더 많은 조직이 전문 기술 없이 AI를 채택할 수 있도록 하여, 혁신을 촉진하고 더 많은 산업에서 가치를 창출합니다.
  5. 신속한 혁신 지원: AI 기술이 발전함에 따라, 더 복잡하지 않은 인프라는 새로운 도구, 모델, 방법을 통합하기 쉽게 만들어 조직이 민첩하게 유지하고 신속하게 혁신할 수 있도록 합니다.

GMI Cloud의 AI 인프라를 단순화하는 미션은 기업과 스타트업이 AI의 이점을 완전히 실현하는 데 필수적이며, 모든 규모의 조직에서 AI를 접근하기 쉽고, 비용 효율적이고, 확장 가능하게 만드는 것을 목표로 합니다.

최근에 8200만 달러의 시리즈 A 자금을 확보했습니다. 이 새로운 자본은 어떻게 사용되며, 무엇이 즉각적인 확장 목표인가요?

GMI Cloud는 자금을 사용하여 콜로라도에 새로운 데이터 센터를 개설하고, 주로 H200 GPU를投资하여 대규모 GPU 클러스터를 구축할 계획입니다. GMI Cloud는 또한 클라우드 네이티브 리소스 관리 플랫폼인 Cluster Engine을 개발 중이며, 이는 고급 하드웨어와无缝하게 통합됩니다. 이 플랫폼은 가상화, 컨테이너화, 오케스트레이션에 대한無與倫比의 기능을 제공합니다.

GMI Cloud는 경쟁사보다 2배 빠른 GPU 액세스를 제공합니다. 무엇이 이러한 고유한 접근이나 기술을 가능하게 하나요?

GMI Cloud의 고유한 접근 방식의 핵심은 NVIDIA의 NCP를 활용하여 GMI Cloud가 GPU 및 기타 최첨단 리소스에 대한 우선적인 액세스를 제공하는 것입니다. 제조업체로부터의 직접 조달과 강력한 자금 조달 옵션의 조합은 비용 효율성과 매우 안전한 공급망을 보장합니다.

NVIDIA H100 GPU가 5개의 글로벌 위치에서 사용 가능합니다. 이 인프라는 미국과 아시아의 AI 고객의 요구 사항을 어떻게 지원하나요?

GMI Cloud는 다수의 국가와 지역을 서비스하는 글로벌 존재를 전략적으로 확립했습니다. 이는 대만, 미국, 태국을 포함한 세계 전역의 IDC(Internet Data Center) 네트워크를 통해 이루어집니다. 현재 GMI Cloud는 수천개의 NVIDIA Hopper 기반 GPU 카드를 운영하며, 다음 6개월 동안 자원을 급격하게 확장할 계획입니다. 지리적 분포는 저지연의 서비스를 제공하며, 데이터 전송 효율성을 최적화하고, 전 세계적으로 AI 운영을 확장하는 기업에 대한 강력한 인프라 지원을 제공합니다.

또한 GMI Cloud의 글로벌 능력은 지역별로 다양한 시장 요구와 규제 요구를 이해하고 충족할 수 있도록 합니다. 이는 각 지역의 고유한 요구에 맞춘 맞춤형 솔루션을 제공합니다. 컴퓨팅 리소스의 증가하는 풀은 AI 컴퓨팅 파워에 대한 증가하는 수요를 해결하며, 클라이언트에게 모델 훈련을 가속화하고, 정확도를 향상하며, 다양한 AI 프로젝트에서 모델 성능을 개선하기 위한 충분한 계산 능력을 제공합니다.

AI 네이티브 클라우드 서비스의 리더로서, 기술을 앞으로 나아가기 위해どのような 트렌드나 고객 요구에 집중하고 있나요?

GPU에서 애플리케이션까지, GMI Cloud는 고객을 위한 지능형 변화를 추구하며, AI 기술 개발의 요구를 충족합니다.

하드웨어 아키텍처:

  • 물리적 클러스터 아키텍처: 1250 H100과 같은 인스턴스는 GPU 랙, 리프 랙, 스파인 랙을 포함하며, 서버와 네트워크 장비의 최적화된 구성으로 고성능 컴퓨팅 파워를 제공합니다.
  • 네트워크 토폴로지 구조: 효율적인 IB 패브릭과 이더넷 패브릭으로 설계되어 데이터 전송과 통신을 원활하게 합니다.

소프트웨어 및 서비스:

  • 클러스터 엔진: 자체 개발 엔진을 사용하여 베어 메탈, Kubernetes/컨테이너, HPC Slurm와 같은 리소스를 관리하여 사용자와 관리자에게 최적의 리소스 할당을 가능하게 합니다.
  • 프리미엄 클라우드 플랫폼: CLUSTER ENGINE은 리소스 스케줄링을 최적화하는 독점적인 클라우드 관리 시스템으로, 유연하고 효율적인 클러스터 관리 솔루션을 제공합니다.

추론 엔진 로드맵:

  1. 지속적인 컴퓨팅, 높은 SLA 보장.
  2. 분수 시간 사용을 위한 시간 공유.
  3. 스팟 인스턴스.

컨설팅 및 맞춤형 서비스:: 컨설팅, 데이터 보고, 컨테이너화, 모델 훈련 추천, 맞춤형 MLOps 플랫폼과 같은 맞춤형 서비스를 제공합니다.

강력한 보안 및 모니터링 기능:: 역할 기반 액세스 제어(RBAC), 사용자 그룹 관리, 실시간 모니터링, 기록 추적, 알림을 포함합니다.

당신의 의견으로, 향후 몇 년 동안 AI 인프라의 가장 큰 도전과 기회는 무엇인가요?

도전:

  1. 확장성 및 비용: 모델이 더 복잡해짐에 따라, 확장성과 비용 효율성을 유지하는 것이 특히 중소기업에게 도전이 될 수 있습니다.
  2. 에너지 및 지속 가능성: 높은 에너지 소비는 AI 채택이 증가함에 따라 더 환경적으로 친화적인 솔루션을 요구합니다.
  3. 보안 및 개인 정보: 공유 인프라에서 데이터 보호는 보안과 규제 준수를 발전시켜야 합니다.
  4. 상호 운용성: AI 스택의 단편화된 도구는 무결한 배포와 통합을 복잡하게 만듭니다. 이는 실제로 AI를 배포하는 것을 복잡하게 만듭니다. 우리는 이제 개발 시간을 2배로 줄이고, AI 프로젝트의 헤드카운트를 3배로 줄일 수 있습니다.

기회:

  1. 에지 AI 성장: 데이터 소스 근처에서 AI 처리는 대기 시간을 줄이고 대역폭을 보존합니다.
  2. 자동화된 MLOps: 운영의 간소화는 배포의 복잡성을 줄여 기업이 애플리케이션에 집중할 수 있도록 합니다.
  3. 에너지 효율적인 하드웨어: 혁신은 접근성을 개선하고 환경적 영향을 줄일 수 있습니다.
  4. 하이브리드 클라우드: 클라우드와 온프레미스 환경 모두에서 작동하는 인프라는 기업의 유연성을 위해 적합합니다.
  5. AI 기반 관리: 인프라를 최적화하기 위한 AI의 사용은 다운타임을 줄이고 효율성을 높입니다.

GMI Cloud의 장기적인 비전에 대해 알려주세요. AI와 AGI의 발전에 있어 GMI Cloud가 어떤 역할을 할 것이라고 생각하나요?

인터넷의 AI를 구축하고 싶습니다. 미래를 위한 인프라를 구축하고 싶습니다.

누구나 AI 애플리케이션을 구축할 수 있는 플랫폼을 만들고 싶습니다. 스퀘어스페이스나 위克斯와 같은 플랫폼이지만, AI를 위한 것입니다.

향후 몇 년 동안, AI는 특히 생성 AI 사용 사례와 함께 상당한 성장을 보일 것입니다. 더 많은 산업이 이러한 기술을 채택하여 창의성을 향상시키고, 프로세스를 자동화하며, 의사 결정 최적화를 위해 노력할 것입니다. 추론은 이러한 미래에서 핵심적인 역할을 하여 실시간 AI 애플리케이션이 효율적으로 복잡한 작업을 처리할 수 있도록 합니다. 비즈니스 간(B2B) 사용 사례가 지배적일 것으로 예상되며, 기업은 생산성을 높이고, 운영을 간소화하며, 새로운 가치를 창출하기 위해 AI를 활용하는 데 집중할 것입니다. GMI Cloud의 장기적인 비전은 이러한 추세와 일치하며, 기업이 조직 전체에서 AI의 생산성과 영향을 최대화하는 데 필요한 고급 인프라를 제공하는 것을 목표로 합니다.

콜로라도의 새로운 데이터 센터와 함께 운영을 확장하면서, 향후 1년 동안 어떤 전략적 목표나 里程碑를 달성하려고 하나요?

콜로라도의 새로운 데이터 센터와 함께 운영을 확장하면서, 향후 1년 동안 여러 전략적 목표와 里程碑를 달성하려고 합니다. 미국은 AI와 AI 컴퓨팅의 가장 큰 시장으로, 이 지역에서 강한 존재를 확립하는 것이 중요합니다. 콜로라도의 전략적인 위치, 기술 생태계, 그리고 비즈니스 친화적인 환경은 고객 기반을 더 잘 서비스하고 서비스 오퍼링을 향상할 수 있도록 합니다.

고급 AI 인프라를 채택하려는 회사나 스타트업에게 어떤 조언을 드리나요?

AI 기반 혁신에 중점을 둔 스타트업에게, 최우선 순위는 제품을 구축하고 개선하는 것입니다. 인프라 관리에宝貴한 시간을 소비하지 마십시오. 신뢰할 수 있는 기술 제공업체와 파트너십을 맺어, 안정적이고 확장 가능한 GPU 솔루션을 제공하십시오. 신뢰할 수 있는 제공업체가 아닌 경우, 하얀 레이블의 대안을 사용하지 마십시오. 안정성과 신속한 배포가 중요합니다. 초기 단계에서 속도는 종종 스타트업이 기존 기업과 경쟁하는 唯一의 모습니다. 유연한 클라우드 기반 옵션을 선택하고, 보안 및 규정 준수를 포기하지 마십시오. 이렇게 함으로써, 스타트업은 무리없이 통합하고, 빠르게 반복하며, 리소스를 실제로 중요한 것에 집중할 수 있습니다 – 시장에서 두드러지는 제품을 제공하는 것입니다.

멋진 인터뷰 감사합니다. 더 많은 정보를 원하는 독자는 GMI Cloud를 방문하시기 바랍니다.

앙투안은 Unite.AI의 비전있는 리더이자 공동 창립자로서, AI와 로봇공학의 미래를 형성하고 촉진하는 데 대한 불변의 열정에 의해 추동됩니다. 연쇄적인 기업가로서, 그는 AI가 사회에 대한 전기와 같은 파괴력을 가질 것이라고 믿으며, 종종 파괴적인 기술과 AGI의 잠재력에 대해 열광합니다.

作为 futurist, 그는 이러한 혁신이 우리의 세계를 어떻게 형성할지 탐구하는 데 전념하고 있습니다. 또한, 그는 Securities.io의 창립자로서, 미래를 재정의하고 전체 부문을 재형성하는 최첨단 기술에 투자하는 플랫폼입니다.