Connect with us

Piotr Tomasik, TensorWave의 공동 창립자 및 사장 – 인터뷰 시리즈

인터뷰

Piotr Tomasik, TensorWave의 공동 창립자 및 사장 – 인터뷰 시리즈

mm

Piotr Tomasik, TensorWave의 공동 창립자 및 사장은 2십년 이상의 경험을 가진 베테랑 기술 기업가이자 AI 인프라 실행 책임자로, AI, SaaS, 클라우드 컴퓨팅, 핀테크, 크리에이터 경제를 아우르는 다양한 분야에서 활동했습니다. 2023년 TensorWave를 공동 창립하기 전에, 그는 Influential이라는 AI 기반 인플루언서 마케팅 플랫폼을 공동 창립하여 Publicis에 약 5억 달러에 매각되기 전에 CTO로 재직했습니다.

전문 경력 동안, 토마식은 Lets Rolo, On Guard Data, ActiveSide를 포함한 여러 회사를 공동 창립하거나 이끌었으며, CARD.com과 Marker Trax에서 고위 기술 직책을 맡았습니다. 운영 역할 외에도, 그는 1864 펀드의 일반 파트너이자 StartUp Vegas의 공동 창립자로, 라스베이거스 스타트업 생태계와 新興 기술 인재를 적극적으로 지원합니다. UNLV 컴퓨터 과학 졸업생이자 공인 기술 리더인 토마식은 TensorWave를 빠르게 성장하는 AI 컴퓨팅 인프라 회사로 пози션을 잡아, AMD 가속기를 사용하는 대규모 GPU 클라우드 플랫폼에 중점을 두고 있습니다.

TensorWave는 AMD GPU를 사용하는 고성능 클라우드 컴퓨팅을 제공하는 AI 인프라 회사로, 더 폐쇄적인 AI 생태계에 대한 대안으로 자리 잡고 있습니다. 2023년에 설립되어 라스베이거스에 본사를 둔 이 회사는 고성능 AI 모델을 훈련하고 배포하기 위한 대규모 GPU 클러스터를 구축하며, 성능, 유연성, 비용 효율성에 중점을 두고 있습니다. 개방형 하드웨어와 소프트웨어 생태계를 활용하여, TensorWave는 기업, 연구자, 개발자에게 강력한 AI 컴퓨팅 리소스에 대한 접근성을 확대하여, 전통적인 벤더 잠금 없이 확장 가능한 AI 워크로드를 가능하게 합니다.

Nvidia가 대부분의 GPU 시장을 지배하고 있습니다. 왜 AMD에 전적으로 투자하기로 결정했으며, 이 선택이 TensorWave와 고객에게 어떤 이점을 제공합니까?

ChatGPT 출시 이후, AI에 대한 수요가 급증했습니다. GPU가 빠르게 매각되었고, NVIDIA는 거의 유일한 옵션이었으며, 비용을 감당할 수 있는 경우에만 사용할 수 있었습니다. 이 부족은 대체재에 대한巨大的 관심을 불러일으켰습니다. 이제 초기 호재를 지나면서, NVIDIA의 지배를 도전하는 접근 가능한, 비용 효율적이고 사용하기 쉬운 솔루션을 제공할 수 있는 기회가 있습니다.

스타트업으로서, 우리는 항상 강력한焦点과 목적을 가진 비즈니스 결정을 내렸습니다. đó가 우리가 NVIDIA와 실험하지 않은 이유이며, AMD에서 우리의 능력을 계속 구축한 이유입니다. 우리 회사의 다음 단계는 이러한 집중된 능력으로 누구나 AI와 관련하여 의미 있는 일을 할 수 있도록 하는 것입니다. AMD는 실제 제조 규모, 개방형 소프트웨어 태도, 현대적인 AI를 위한 메모리 우선 로드맵을 가진 신뢰할 수 있는 대안입니다.

TensorWave의 AI 인프라 접근 방식은 전통적인 GPU 클라우드 제공업체와 어떻게 다릅니까?

우리의 차별화는 간단합니다. 우리는 규모에서 AMD 전용 클라우드이며, AI 컴퓨팅에서 선택을 회복하고, NVIDIA의 지배를 깨뜨리고, 접근성을 민주화하는 것을 목표로 합니다. 하지만 그것은 또한 우리의 에토스와 진정한 대안을 시장에 제공하는 데 대한 우리의 헌신입니다. 첫째로, 우리는 예외적인 AMD 기반 인프라를 제공하고자 합니다. 그 다음으로, 우리는 Models-as-a-Service, AI-as-a-Service와 같은 최상위 서비스를 확장하여 모든 것을 더 간단하게 만들 것입니다.

AMD 전용 클라우드로서, 우리는 AMD에서부터 소프트웨어 경험을 구축했습니다. 이 집중은 우리가 실리콘, 네트워킹, 소프트웨어를 끝에서 끝까지 최적화하여, 팀이 필요할 때 확장할 수 있도록 합니다.

AMD와의 전략적 파트너십은 TensorWave의 성장과 차별화에 어떤 역할을 하나요?

그것은 기초적입니다. AMD는 TensorWave에 투자했으며, MI300X Instinct 출시에 우리를 초대했으며, 하드웨어, 소프트웨어 활성화, 생태계 성장에 대한 긴밀한 협력을 계속하고 있습니다. AMD 전용 클라우드라는 것은 우리가 각 Instinct 세대에서 빠르게 이동할 수 있으며, 우리 시장 내에서 대안을 제공하는 살아있는 연구소 역할을 할 수 있다는 것을 의미합니다. 우리의 AMD 전용 차별화는 우리가 AI 인프라 시장에서 달성할 수 없는 속도로 협력할 수 있도록 허용했습니다. 그들의 파트너십은 우리가 간격을 빠르게 닫고, 새로운 GPU에서 먼저 출하하며, 규모에서 실제 성능을 게시할 수 있도록 합니다.

GPU 접근은 여전히 AI 팀에게 주요 병목 현象입니다. TensorWave는 이 도전을 어떻게 해결하고 있나요?

우리는 먼저 공급 독립성을 통해 이 병목 현상을 해결합니다. AMD를 구축함으로써, 우리는 다른 칩 제조업체의 공급 제약의 최악을 피하고, 가용성을 고객에게 전달합니다. AMD를 통한 공급 독립성은 우리의 고객이 다른 사람과 같은 대기열에 갇히지 않도록 합니다.

AI 인프라 생태계의 격차는 많은 플레이어가 유사한 솔루션을 구축하고 있기 때문에 발생하며, 이는 중복으로 인해 발생합니다. 이는 시장 전반에서 무엇이 발생하고 있는지에 대한 인식 부족에서 종종 발생합니다. 이러한 격차를 닫는 첫 번째 단계는 누가 무엇을 하고 있으며, 협력할 기회가 있는지, 경쟁이 혁신을 어떻게 驅動하는지, 그리고 궁극적으로 생태계가 어떻게 전체적으로 개선될 수 있는지 이해하는 것입니다. AI 인프라 시장에서 고유한 격차는 전력입니다. GPU가 사용 가능하더라도, 많은 AI 애플리케이션을 지원하기에는 충분한 에너지가 없습니다. 이러한 자원 도전을 해결하는 것이 지속 가능한 성장과 혁신을 가능하게 하는 우리의 열쇠입니다.

직접 액체 냉각 및 UEC 준비 네트워킹(Universal Ethernet Consortium)이 성능과 비용 효율성을 어떻게 향상시킵니까?

직접 액체 냉각과 UEC 준비 네트워킹은 현대적인 AI 클라우드를 규모에서 경제적으로 실행 가능한 것으로 만드는 데 중심입니다. 이러한 두 가지 모두가 우리가 TensorWave를 설계한 방식의 핵심입니다.

직접 액체 냉각에 관하여: 최신 가속기 세대, AMD의 MI355X와 MI455X는 효율적으로 처리할 수 있는 열 범위를 가지고 있습니다. 우리는 1400W+의 TDP를 가진 GPU에 대해 이야기합니다. 직접 액체 냉각은 콜드 플레이트 또는浸漬 설계를 통해 열원을 제거하여, 우리의 고객에게 세 가지 일을 합니다. 첫째, 그것은 현저하게 더 높은 랙 밀도를 가능하게 합니다. 120-300kW+를 랙당 30에서 40kW 대신, 이는 발판을 압축하고 메가와트당 부동산 및 전력 배포 비용을 절감합니다. 둘째, 그것은 PUE를 1.1로 끌어올립니다. 1.4에서 1.5까지의 이전 공기 냉각 시설과 비교하여, 우리의 규모에서 이는 연간 수십억 달러의 공용 비용 절감을 의미합니다. 셋째, 그리고 종종 과소평가되는 것은, 직접 액체 냉각은 실리콘을 더 낮고, 더 안정적인 접합 온도로 유지하여, 긴 훈련 실행 중에 지속적인 클록 속도를 유지하고 하드웨어의 유용한 수명을 연장합니다. 마지막 지점은 6년 자산을 보증할 때 매우 중요합니다.

UEC에 관하여: AMD가 공동 설립하여 2025년에 1.0에 도달한 Ultra Ethernet Consortium 사양은 실제로 중요하게 여겨지는 지표에서 InfiniBand와 일치하거나 초과하는 개방형, 상인 실리콘 패브릭을 제공합니다. 분산 훈련에서 집합체에 대한 꼬리 지연, 경쟁下的 효과적인 대역폭, 10만 개의 GPU 임계값을 넘어서 확장 동작. 비용 이야기는 구조적입니다. 이더넷에는 가격에 대한 경쟁을 하는 절반의 dozen의 신뢰할 수 있는 상인 실리콘 공급업체가 있습니다. 대안과 비교하여, 이는 단일 소스입니다. 100MW 사이트의 경우, UEC 준비 네트워킹을 선택하는 것은 일반적으로 9자리 CAPEX 결정입니다. 또한, 우리의 네트워크 엔지니어는 이미 이더넷을 알고 있습니다.

이러한 선택은 우리가 이전 클라우드보다 더 나은 훈련 경제를 제공할 수 있도록 합니다. 고객은 더 높은 효과적인 FLOPs당 달러, 큰 작업에서 더 예측 가능한 단계 시간, 그리고 모델이 확장됨에 따라 명확한 런웨이를 볼 수 있습니다.对于 우리에게, 그것은 더 방어 가능한 비용 구조와 진정한 경쟁률을 제공하는 카드의 유연성을 의미합니다.

고객이 TensorWave를 사용하여 대규모 AI 모델을 훈련하는 예를 공유할 수 있나요?

TensorWave 고객은 GPU 부족, 벤더 잠금, 또는 비용 폭주 없이 고성능 AI 컴퓨팅을 필요로 합니다. TensorWave는 독점적인 AMD 클라우드를 제공합니다. 개방형, 메모리 최적화, 그리고 프로덕션 준비가 되어 있습니다. 이는 팀에게 확장 가능한 AI 인프라를 제공하여, 접근성이 뛰어나고, 유연하며, 비용 효율적입니다.

예를 들어, Modular는 TensorWave의 AMD GPU 인프라에서 MAX 추론 스택을 실행하기로 선택했습니다. TensorWave는 대규모 AI 추론을 위한 훨씬 더 나은 비용-성능 경제를 제공하기 때문입니다. Modular의 MAX를 TensorWave의 AMD 컴퓨팅에서 실행하면, 다른 GPU 스택과 비교하여 토큰당 70% 더 낮은 비용, 57% 더 빠른 처리량, 그리고 전체 비용이 줄어듭니다.

Nvidia의 지속적인 지배력에서, 도전자로서 TensorWave에게 가장 큰 기회는 어디에 있나요?

AI 컴퓨팅 공간에서 몇몇 주요 플레이어가 지배하고 있는 상황에서, 가장 큰 도전은 시장에 빠르게 도달하는 것, 최신 기술을 제공하는 것, 그리고 예외적인 지원을 제공하는 것입니다. 하이퍼스케일러는 종종 다양한 옵션을 제공하지만, 고객이 필요한 집중력이나 개인화된 지침을 제공하는 데 어려움을 겪습니다. NVIDIA의 지배를 깨기 위해, TensorWave는 우리의 강점에 집중하고, 최선의 기술을 제공하기 위해 협력하며, 고객이 대안을 갖도록 보장합니다.

NVIDIA의 AI 인프라 지배를 도전하는 두 가지 가장 큰 기회는 개방형 생태계와 메모리입니다. 개방형 생태계는 모든 계층(하드웨어, 인터커넥트, 소프트웨어)에서 잠금을 제거합니다. 또한, 메모리는 네트워크 최적화된 훈련/추론과 함께 비용 곡선을 뒤집습니다.

5년 후, AI 인프라의 미래와 TensorWave의 역할을 어떻게 상상하나요?

수년 동안, AI 인프라의 목표는 좋게 만들기, 안정적으로 만들기, 사용하기 쉽게 만들기였습니다. 다음 단계는 그 위에 제공할 수 있는 관리 서비스, AI-as-a-Service, 고객이 더 쉽게 배포하고 확장할 수 있도록 도와주는 모든 것입니다.

우리는 주요한 변환의 시작에 있습니다. AI 기술은 계속 발전하고, AMD와 같은 대안이越来越 신뢰할 수 있게 됩니다. 이러한 일이 발생함에 따라, 고객은 그것들을 대규모로 배포하는 데更加 편안해질 것입니다. 그리고 전체 생태계는 열리고 성장할 것입니다.

이 훌륭한 인터뷰에 감사드립니다. 이 혁신적인 AI 인프라 회사에 대해 더 배우고 싶은 사람들은 TensorWave를 방문해야 합니다.

앙투안은 Unite.AI의 비전있는 리더이자 공동 창립자로서, AI와 로봇공학의 미래를 형성하고 촉진하는 데 대한 불변의 열정에 의해 추동됩니다. 연쇄적인 기업가로서, 그는 AI가 사회에 대한 전기와 같은 파괴력을 가질 것이라고 믿으며, 종종 파괴적인 기술과 AGI의 잠재력에 대해 열광합니다.

作为 futurist, 그는 이러한 혁신이 우리의 세계를 어떻게 형성할지 탐구하는 데 전념하고 있습니다. 또한, 그는 Securities.io의 창립자로서, 미래를 재정의하고 전체 부문을 재형성하는 최첨단 기술에 투자하는 플랫폼입니다.