Connect with us

Piotr Tomasik, TensorWaveの共同創設者兼社長 – インタビュー・シリーズ

インタビュー

Piotr Tomasik, TensorWaveの共同創設者兼社長 – インタビュー・シリーズ

mm

Piotr Tomasik, TensorWaveの共同創設者兼社長は、AI、SaaS、クラウドコンピューティング、フィンテック、クリエイター経済を含む分野で20年以上の経験を持つベテランのテクノロジー起業家およびAIインフラストラクチャのエグゼクティブです。2023年にTensorWaveを共同創設する前に、彼はInfluentialを共同創設しました。Influentialは、AIを活用したインフルエンサー・マーケティング・プラットフォームで、Publicisによって約5億ドルで買収されました。ここで彼はCTOを務め、その後アドバイザーの役割に移りました。

彼のキャリアを通じて、TomasikはLets Rolo、On Guard Data、ActiveSideを含む会社を創設または率いてきました。また、CARD.comとMarker Traxではシニア・テクノロジー・ポジションを占めていました。運営役割に加えて、1864 Fundのジェネラル・パートナーであり、StartUp Vegasの共同創設者でもあります。ここで彼はラスベガスのスタートアップ・エコシステムと新興テクノロジー・タレントを積極的に支援しています。UNLVのコンピューター・サイエンスの卒業生であり、認知されたテクノロジー・リーダーであるTomasikは、TensorWaveを、AMDアクセラレータを搭載した大規模GPUクラウド・プラットフォームに焦点を当てた、急成長しているAIコンピュート・インフラストラクチャ・会社として位置付けられるようになりました。

TensorWaveは、AMD GPUを搭載した高性能クラウド・コンピューティングを提供するAIインフラストラクチャ・会社で、より閉鎖的なAIエコシステムの代替として位置付けられています。2023年に創設され、ラスベガスに本社を置くこの会社は、先進的なAIモデルをトレーニングおよびデプロイするために最適化された大規模GPUクラスターを構築しています。ここではパフォーマンス、柔軟性、コスト効率に重点を置いています。オープンなハードウェアおよびソフトウェア・エコシステムを活用することで、TensorWaveは、企業、研究者、開発者に対して、従来のベンダー・ロックインの制約なしにスケーラブルなAIワークロードを可能にする、強力なAIコンピュート・リソースへのアクセスを拡大することを目指しています。

NvidiaがほとんどのGPU市場を支配している中で、AMDに全てを賭けることを決めた理由と、その選択がTensorWaveとその顧客に与える利点は何ですか?

ChatGPTの発売に伴い、AIの需要が急増しました。GPUはすぐに売り切れ、NVIDIAはほとんどの場合、入手可能な唯一の選択肢でした。また、そのコストも高かったです。その不足は、代替ソリューションに対する大きな関心を引き起こしました。初期の熱狂が過ぎ去った今、NVIDIAの支配を、利用しやすく、コスト効率の良い、そしてアクセス性の高いソリューションで挑戦する実際的な機会があります。

スタートアップとして、私たちは常にビジネス上の決定を、強い焦点と目的を持って行ってきました。那は私たちがNvidiaを試験的に使用していない理由であり、AMD上で私たちの能力を構築し続けてきた理由です。私たちの会社の次の段階は、AIで何か意味のあることを行えるように、誰でも簡単に参加できるように、私たちの集中した能力に重点を置くことです。AMDは、実際的な製造スケール、オープンなソフトウェアの姿勢、モダンなAIのためのメモリ・ファースト・ロードマップを持つ、信頼できる代替手段です。

TensorWaveのAIインフラストラクチャへのアプローチは、従来のGPUクラウド・プロバイダーとはどのように異なりますか?

私たちの違いは簡単です。私たちは、AIコンピュートに選択肢をもたらすことを目指し、NVIDIAの支配を打ち破り、AIへのアクセスを民主化することを目指す、唯一のAMD専用クラウドです。しかし、それは私たちのエートスと、真の代替手段を市場にもたらすという私たちのコミットメントについても言えることです。第一に、私たちは、優れたAMDベースのインフラストラクチャを提供したいと思っています。その上に、私たちは、モデルのサービス、AIのサービスなど、トップレベルのサービスを展開していきます。すべてを簡単にすることを目指しています。

AMD専用クラウドとして、私たちは、AMD専用のソフトウェア・エクスペリエンスを最初から構築しています。この焦点により、私たちは、シリコン、ネットワーク、ソフトウェアをエンドツーエンドで最適化できます。つまり、チームが必要なときにスケールできることを保証できます。

AMDとの戦略的パートナーシップは、TensorWaveの成長と差別化にどのような役割を果たしていますか?

それは基盤的なものです。AMDはTensorWaveに投資し、MI300X Instinctの発売に私たちを招待し、ハードウェア、ソフトウェアの有効化、エコシステムの成長について密接に協力しています。AMD専用クラウドであるということは、私たちが各Instinct世代で迅速に動けることを意味し、私たちの市場内で代替手段を提供する、実証可能なラボとして機能できることを意味します。私たちのAMD専用の違いは、私たちがAIインフラストラクチャ市場で達成できるペースで動けることを可能にしました。彼らのパートナーシップにより、私たちはギャップを迅速に埋め、最新のGPUで最初にシップし、実際のパフォーマンスをスケールで公開できます。

GPUへのアクセスは、AIチームにとって大きなボトルネックのままです。TensorWaveはこの課題にどのように対処していますか?

私たちは、サプライ・インデペンデンスを通じて、このボトルネックに取り組んでいます。AMDを構築することで、私たちは他のチップ・メーカーのサプライ・制約の最悪の部分を避け、利用可能性を顧客に提供します。AMDを通じたサプライ・インデペンデンスにより、私たちの顧客は、他の人と同じキューで待たされることはありません。

AIインフラストラクチャ・エコシステムには、多くのプレーヤーが同様のソリューションを構築しているため、重複が生じています。これは、市場全体で何が起こっているかについての認識不足から生じます。ギャップを閉じる第一歩は、誰が何をしているか、どこに協力の機会があるか、競争がイノベーションをどのように推進できるか、そして最終的にエコシステムが全体的にどのように改善できるかを理解することです。AIインフラストラクチャ・マーケットには、電力というユニークなギャップがあります。GPUが利用可能であっても、AIアプリケーションの増加数をサポートするのに十分なエネルギーがないことがよくあります。これらのリソース・チャレンジを解決することは、持続可能な成長とイノベーションを可能にするための私たちの鍵です。

ダイレクト・リキッド・クーリングやUEC準拠ネットワーキング(ユニバーサル・イーサネット・コンソーシアム)などの機能は、パフォーマンスとコスト効率をどのように向上させますか?

ダイレクト・リキッド・クーリングとUEC準拠ネットワーキングは、モダンなAIクラウドをスケールで経済的に実行可能にするために、中央的なものです。

DLCについて:最新のアクセラレータ・世代、AMDのMI355XとMI455Xは、空気だけでは効率的に処理できない熱エンベロープで動作します。私たちは、1つのGPUあたり1400W以上のTDPについて話しています。DLCは、コールド・プレートまたは浸没設計を通じて熱源で熱を除去し、3つのことを実現します。第一に、顧客は、40kWではなく120~300kWのラック密度を実現できます。これにより、フットプリントとメガワットあたりのリアル・エステートとパワーの配布コストが削減されます。第二に、PUEを1.1に向け、1.4~1.5のレガシーの空気冷却施設と比較して、年間のユーティリティ・コストを数千万ドル削減します。第三に、そしてしばしば見落とされるのは、シリコンを低い、より安定したジャンクション・テンペラチャーで保持し、長いトレーニング・ラン中の持続的なクロック・レートを維持し、ハードウェアの有効期間を延長します。その最後の点は、6年間の資産を裏付けている場合に、非常に重要になります。

UECについて:AMDが共同創設し、2025年に1.0に達したUltra Ethernet Consortiumの仕様は、私たちに、実際に重要なメトリクスでInfiniBandと同等以上のオープンな、メーカー・シリコン・ファブリックを提供します。コレクティブでのテール・ラテンシ、コンテンション下での有効帯域幅、10万を超えるGPUのしきい値を超えたスケーリング・ビヘイビアについてです。コストの話は構造的なものです。イーサネットには、価格で競合する半ダースの信頼できるメーカー・シリコン・ベンダーがいます。これは、プレミアムがよく知られている単一ソースの代替手段とは対照的です。100MWのサイトの場合、UEC準拠ネットワーキングを選択することは、通常、9桁のCAPEXの決定であり、運用上の利点は複合して、私たちのネットワーク・エンジニアはすでにイーサネットを知っているためです。

これらの選択肢を組み合わせることで、私たちは、レガシーのクラウドよりも優れたトレーニング・エコノミクスを提供できます。顧客は、1ドルあたりの有効FLOPSが高く、の大規模ジョブでのステップ・タイムがより予測可能で、モデルのスケールに合わせて明確なランウェイを得ることができます。私たちにとって、これらは、より防御可能なコスト構造と、真正に競争力のあるレート・カードを提供するための柔軟性を意味します。

TensorWaveを使用して大規模なAIモデルをトレーニングする顧客の例を共有できますか?

TensorWaveの顧客は、GPUの不足、ベンダー・ロックイン、またはコストの増加なしに、高性能のAIコンピュートが必要です。TensorWaveは、オープンで、メモリ最適化された、プロダクション・レディの、唯一のAMDクラウドを提供します。これにより、チームは、アクセス性、柔軟性、コスト効率の高い、スケーラブルなAIインフラストラクチャを得ることができます。

例えば、Modularは、TensorWaveのAMD GPUインフラストラクチャ上でMAXインフェレンス・スタックを実行することを選択しました。TensorWaveは、大規模なAIインフェレンスのための、他のGPUスタックよりも優れたコスト・パフォーマンス・エコノミクスを提供します。ModularのMAXをTensorWaveのAMDコンピュートで実行することで、彼らは、1百万トークンあたりのコストを70%削減し、スループットを57%高速化し、他のGPUスタックよりも全体的なコストを削減できます。

NVIDIAの継続的な支配のなかで、TensorWaveのような挑戦者にとって最大の機会はどこにありますか?

AIコンピュート・スペースが数人の大きなプレーヤーによって支配されている場合、最大の課題は、市場への到達のスピード、最新のテクノロジーの提供、そして優れたサポートの提供です。ハイパースケーラーは幅広い選択肢を提供しますが、顧客が必要とする焦点やパーソナライズされたガイダンスを提供するのに苦労することがよくあります。NVIDIAのAIインフラストラクチャの支配を打ち破るために、TensorWaveは、私たちの強みに焦点を当て、最良のテクノロジーを提供するために協力し、顧客が代替の選択肢を持っていることを確認します。

NVIDIAのAIインフラストラクチャの支配に対する2つの最大の機会は、オープンなエコシステムとメモリです。オープンなエコシステムは、ハードウェア、インターコネクト、ソフトウェアのすべてのレイヤーでロックインを排除します。さらに、メモリは、ネットワーク最適化されたトレーニング/インフェレンスと組み合わせて、コスト曲線を逆転します。

5年先を見て、AIインフラストラクチャの未来とTensorWaveの役割をどのように見ていますか?

これまでの目標は、AIインフラストラクチャを良いものにし、安定したものにし、使いやすいものにすることでした。次の段階は、それの上に何を提供できるかということです。マネージド・サービス、AI-as-a-Serviceなど、顧客がより簡単に展開してスケールできるように支援するものです。

私たちは、大きな変革の始まりにあります。AIテクノロジーは進化を続け、AMDのような代替手段は、より実用的なものになりつつあります。そうなるにつれて、顧客はそれらを大規模に展開することにより自信を持つようになり、エコシステム全体が開かれ、成長するようになります。

素晴らしいインタビュー、感謝します。TensorWaveについてもっと知りたい人は、TensorWaveを訪問してください。

アントワーヌは、Unite.AIの創設パートナーであり、ビジョナリーなリーダーです。彼は、AIとロボティクスの未来を形作り、推進するという、揺るぎない情熱に突き動かされています。シリアルエントレプレナーである彼は、AIは電気と同じように社会に大きな変革をもたらすと信じており、破壊的な技術やAGIの潜在能力について熱く語ることがよくあります。

As a futurist、彼は、これらのイノベーションが私たちの世界をどのように形作るかを探求することに尽力しています。さらに、彼は、Securities.ioの創設者であり、未来を再定義し、全セクターを再構築する最先端技術への投資に焦点を当てたプラットフォームです。