Connect with us

דאריק הורטון, COO של TensorWave – סדרת ראיונות

Interviste

דאריק הורטון, COO של TensorWave – סדרת ראיונות

mm

דאריק הורטון, COO של TensorWave, הוא מנהל בכיר ויזם עם ניסיון עמוק בתשתיות AI, ענן, ומערכות חומרה מתקדמות. עם רקע הכולל ארכיטקטורת מרכז נתונים, טכנולוגיות סמיקונדוקטורים, וחישוב עם ביצועים גבוהים, הוא מילא תפקיד מרכזי בהקנה של פלטפורמות AI הבאות. לפני תפקידו ב-TensorWave, הורטון עבד על יוזמות הנדסיות מתקדמות, כולל מחקר על איחוד גרעיני ב-Lockheed Martin’s Skunk Works ותרם לפרויקטים של נאס”א בפיזיקת פלזמה ואסטרופיזיקה. הקריירה שלו משקפת מוקד עקבי על פתרון אתגרים טכניים מורכבים וגדולים, ותרגומם לפתרונות תשתית מעשיים עבור טכנולוגיות חדשניות.

TensorWave היא חברת תשתיות AI, המתמקדת במתן שירותי ענן עם ביצועים גבוהים, המונעים על ידי AMD GPUs, ומעמידה את עצמה כחלופה לסביבות AI סגורות יותר. החברה הוקמה ב-2023, וממוקמת בלאס וגאס, בונה קלאסטרים גדולים של GPU, המותאמים לאימון ופריסה של מודלים AI מתקדמים, עם דגש על ביצועים, גמישות, ויעילות עלות. באמצעות ניצול תשתיות חומרה ותוכנה פתוחות, TensorWave מטרתה להרחיב את הגישה למשאבי AI חזקים עבור חברות, חוקרים, ומפתחים, תוך איפשור עומסי עבודה AI מסוגלים, ללא הגבלות של נעילת ספק.

נווידיה שולטת ברוב שוק ה-GPU—מדוע החליטתם להיכנס ל-AMD, ומהן היתרונות של בחירה זו עבור TensorWave ולקוחותיה?

לאחר השקת ChatGPT, הביקוש ל-AI זינק. GPUs נרכשו במהירות, ו-NVIDIA הייתה בעצם האפשרות היחידה, אם היה אפשר לקבל אותה, ואם היה אפשר להרשות לעצמם את העלות. המחסור הזה עורר עניין רב בחלופות. עכשיו, לאחר ההיסטריה הראשונית, יש הזדמנות אמיתית לאתגר את הדומיננטיות של NVIDIA עם פתרונות שהם נגישים, יעילים וקלים לשימוש.

כסטארט-אפ, החלטות עסקיות שלנו תמיד היו עם מוקד חזק ומטרה. זה הסיבה שלא ניסינו NVIDIA, והמשכנו לבנות את היכולות שלנו על AMD. השלב הבא של החברה שלנו הוא להיכנס ליכולות הממוקדות שלנו, כך שכולם יוכלו לקפוץ פנימה ולעשות משהו משמעותי עם AI. AMD היא חלופה אמינה, עם ייצור בקנה מידה גדול, עמדה פתוחה של תוכנה, ודרך מערכת ל-AI מודרני.

כיצד גישת TensorWave לתשתיות AI שונה מספקי ענן GPU מסורתיים?

הבדלנו הוא פשוט: אנו הענן היחיד של AMD בקנה מידה, היוצאים להחזיר בחירה בחישוב AI, לשבור את הדומיננטיות של NVIDIA, ולדמוקרטיזציה של גישה. אבל זה גם על האתוס והמחויבות שלנו להביא חלופה אמיתית לשוק. ראשית ועיקר, אנו רוצים לספק תשתית AMD יוצאת דופן בקנה מידה. משם, נרחיב לשירותים מדרגה ראשונה על גבי זה – Models-as-a-Service, AI-as-a-Service, ולהפוך הכל לפשוט יותר.

כענן AMD בלעדי, יש לנו ניסיון תוכנה שנבנה במיוחד עבור AMD מיום ראשון. המוקד הזה מאפשר לנו לאופטימיזציה של סיליקון, רשת, ותוכנה מקצה לקצה, ולוודא שצוותים יכולים להתרחב כאשר הם צריכים.

מהו התפקיד של השותפות האסטרטגית עם AMD בצמיחה ובהבדלה של TensorWave?

זה מהותי. AMD השקיעה ב-TensorWave, הזמינה אותנו לשקת MI300X Instinct, ואנו ממשיכים לשתף פעולה בצמוד על חומרה, אפשרות תוכנה, וצמיחת אקוסיסטם. להיות ענן AMD בלעדי, אנו יכולים לנוע במהירות עם כל דור Instinct, ולשמש כמעבדה חיה שמספקת, בקנה מידה, חלופות בתוך השוק שלנו. הבדלנו ה-AMD בלעדי איפשר לנו לעבוד בקצב שאינו משיג בשוק תשתיות AI. שותפותם מאפשרת לנו לסגור פערים במהירות, לשלוח ראשונים על GPUs חדשים, ולפרסם ביצועים אמיתיים בקנה מידה.

גישה ל-GPU נשארת מחסום עיקרי עבור צוותי AI—כיצד TensorWave פותרת אתגר זה?

אנו פותרים את המחסומים האלה ראשית דרך עצמאות אספקה: על ידי בנייה על AMD, אנו מימנים את המגבלות הגרועות ביותר של יצרני פחות, ומעבירים זמינות ללקוחות. עצמאות אספקה דרך AMD מוודאת שלקוחותינו לא תקעו באותה תור שכולם.

פערים באקוסיסטם תשתיות AI קיימים מכיוון שהרבה שחקנים בונים פתרונות דומים, יוצרים הרבה חפיפה. זה לעיתים קרובות נובע ממחסור במודעות על מה שקורה ברחבי השוק. הצעד הראשון לסגירת הפערים הוא הבנה מי עושה מה, היכן ישנן הזדמנויות לשיתוף פעולה, היכן תחרות יכולה להניע חדשנות, ולבסוף, כיצד האקוסיסטם יכול לשפר כולו. אחד הפערים הייחודיים בשוק תשתיות AI הוא כוח; אפילו אם GPUs זמינים, לעיתים קרובות אין מספיק אנרגיה כדי לתמוך במספר הגדל של יישומי AI. פתרון אתגרי משאבים אלה הוא המפתח שלנו לאפשר צמיחה ברת קיימא וחדשנות בשנים הבאות.

כיצד מאפיינים כמו קירור נוזלי ישיר ורשת UEC (Universal Ethernet Consortium) משפרים ביצועים ויעילות עלות?

קירור נוזלי ישיר ורשת UEC מהווים יסוד למה שהופך ענן AI מודרני לבר-קיימא בקנה מידה, ושניהם מרכזיים לכיצד תכננו את TensorWave.

ב-DLC: דורות המאיצים החדשים, AMD’s MI355X ו-MI455X, פועלים במעטפת תרמית שאוויר פשוט לא יכול להתמודד איתה בצורה יעילה. מדובר ב-1400W+ TDP לכל GPU. קירור נוזלי ישיר מ

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

ديريك هورتون، الرئيس التنفيذي للعمليات في TensorWave – سلسلة المقابلات

mm

ديريك هورتون، الرئيس التنفيذي للعمليات في TensorWave، هو مدير تنفيذي وتكنولوجي ومؤسس مع خبرة عميقة في بنية البنية التحتية للذكاء الاصطناعي والحوسبة السحابية والأنظمة الأجهزة المتقدمة. مع خلفية تشمل هندسة مركز البيانات وتكنولوجيا أشباه الموصلات والحوسبة عالية الأداء، لعب دورًا مركزيًا في توسيع منصات الحوسبة الاصطناعية الجديدة. قبل توليه منصب القيادة في TensorWave، عمل هورتون على مبادرات هندسية متقدمة بما في ذلك أبحاث الاندماج النووي في مختبرات لوكهيد مارتن سكونك ووركس وساهم في مشاريع فيزياء البلازما والفيزياء الفلكية الممولة من ناسا. يعكس مساره المهني تركيزًا متسقًا على حل التحديات الفنية الكبيرة والمعقدة وترجمتها إلى حلول بنية تحتية عمليّة للتقنيات الناشئة.

TensorWave هي شركة بنية تحتية للذكاء الاصطناعي تركز على تقديم حوسبة سحابية عالية الأداء مدعومة bởi معالجات الرسومات من AMD، وتوضع نفسها كبديل للنظم الإيكولوجية الاصطناعية الأكثر إغلاقًا. تأسست في عام 2023 ومقرها لاس فيغاس، تبني الشركة مجموعات كبيرة من معالجات الرسومات مُحسّنة لتدريب ونشر نماذج الذكاء الاصطناعي المتقدمة، مع التركيز على الأداء والمرونة والكفاءة التكلفة. من خلال الاستفادة من النظم البيئية المفتوحة للبرمجيات والأجهزة، تهدف TensorWave إلى توسيع نطاق الوصول إلى الموارد الحسابية القوية للذكاء الاصطناعي للشركات والباحثين والمطورين، وتمكين الحملات الحسابية القابلة للتطوير دون قيود الإغلاق التрадиوية للموردين.

تسيطر Nvidia على معظم سوق معالجات الرسومات – لماذا قررت أن تذهب إلى AMD بالكامل، وما هي المزايا التي توفرها هذه الخيار لشركة TensorWave و عملائها؟

بعد إطلاق ChatGPT، ارتفعت الطلب على الذكاء الاصطناعي بشكل كبير. تم الحصول على معالجات الرسومات بسرعة، و كانت Nvidia تقريبًا الخيار الوحيد إذا كنت تستطيع الحصول عليه على الإطلاق، و إذا كنت تستطيع تحمل التكلفة. أدى هذا النقص إلى اهتمام كبير بالبديلات. الآن بعد أن انتهى الهياج الأولي، هناك فرصة حقيقية لتحدي سيطرة Nvidia مع حلول يمكن الوصول إليها و كفاءة التكلفة و سهلة الاستخدام.

كما أننا كشركة ناشئة، لقد اتخذنا دائمًا قرارات الأعمال بتركيز قوي و غرض. هذا هو السبب في أننا لم نجرِب Nvidia، و استمرنا في بناء قدراتنا على AMD. المرحلة القادمة من شركتنا هي حول التأكيد على هذه القدرات المركزة حتى يتمكن أي شخص من القفز و القيام بشيء ذي معنى مع الذكاء الاصطناعي. AMD هو بديل معقول مع تصنيع حقيقي و موقف برمجيات مفتوح و خارطة طريق ذاكرة أولية للذكاء الاصطناعي الحديث.

كيف تختلف نهج TensorWave في بنية تحتية الذكاء الاصطناعي عن مقدمي خدمات السحابة التقليدية لمعالجات الرسومات؟

تتميزنا ببساطة: نحن السحابة الحصرية لشركة AMD في النطاق، و نسعى إلى استعادة الاختيار في حساب الذكاء الاصطناعي و كسر سيطرة Nvidia و تمكين الوصول. لكنها أيضًا حول أخلاقنا و التزامنا بتقديم بديل حقيقي إلى السوق. أولاً و أهم شيء، نريد تقديم بنية تحتية استثنائية dựa على AMD في النطاق. من هناك، سنوسع إلى خدمات من الدرجة الأولى على أعلاها – نماذج كخدمة، الذكاء الاصطناعي كخدمة، و جعل كل شيء أبسط.

كما أننا لسنا سحابة AMD فقط، لدينا خبرة برمجية مبنية خصيصًا لشركة AMD من اليوم الأول. يسمح لنا هذا التركيز بتحسين السيليكون و الشبكات و البرمجيات من النهاية إلى النهاية، و يضمن أن الفرق يمكنها التوسع عند الحاجة.

ما هو دور الشراكة الاستراتيجية مع AMD في نمو TensorWave و تمييزها؟

هو أساسي. استثمرت AMD في TensorWave، و دعانا إلى إطلاق Instinct MI300X، و نستمر في التعاون بشكل وثيق على التمكين البرمجي و نمو النظام البيئي. كوننا سحابة AMD فقط، يمكننا التحرك بسرعة مع كل جيل من Instinct، و نعمل كمختبر حي يوفر، في النطاق، بديلًا في سوقنا. تمكّننا تمييز AMD الحصري من العمل بسرعة لا تتوافق مع سوق بنية تحتية الذكاء الاصطناعي. تسمح لنا شراكة AMD بملء الفجوات بسرعة، و إطلاق أولًا على معالجات الرسومات الجديدة، و نشر الأداء الحقيقي في النطاق.

ما هي الطريقة التي تتعامل بها TensorWave مع تحدي وصول معالجات الرسومات للفرق التي تعمل بالذكاء الاصطناعي؟

نحن نتعامل مع هذه العوائق أولاً من خلال الاستقلالية في التوريد: من خلال بناء على AMD، نتجنب أسوأ قيود تصنيع شركات الشريحة الأخرى، و nenpasserها إلى العملاء. تضمن الاستقلالية في التوريد من خلال AMD أن عملائنا لا يظلون عالقين في نفس الطابور مثل الجميع.

توجد فجوات في نظام بيئي بنية تحتية الذكاء الاصطناعي لأن العديد من اللاعبين يبنيون حلولًا مشابهة، مما يخلق الكثير من التداخل. غالبًا ما يأتي ذلك من عدم وجود意识 بما يحدث في جميع أنحاء السوق. الخطوة الأولى لملء هذه الفجوات هي فهم من يقوم بماذا، و حيث توجد فرص للتعاون، و حيث يمكن أن يدفع التنافس إلى الابتكار، و في النهاية، كيف يمكن أن يتحسن النظام البيئي ككل. واحدة من الفجوات الفريدة في سوق بنية تحتية الذكاء الاصطناعي هي الطاقة؛ حتى لو كانت معالجات الرسومات متاحة، غالبًا ما لا يوجد ما يكفي من الطاقة لدعم عدد متزايد من تطبيقات الذكاء الاصطناعي. حل هذه التحديات الموارد هو مفتاحنا لتمكين النمو المستدام و الابتكار في السنوات القادمة.

كيف تزيد الميزات مثل التبريد السائل المباشر و شبكات UEC (المنظمة العالمية للاتصالات السلكية) من الأداء و الكفاءة التكلفة؟

التبريد السائل المباشر و شبكات UEC هي أساسية لما يجعل سحابة الذكاء الاصطناعي الحديثة قابلة للتطبيق اقتصاديًا في النطاق، و كلاهما مركزي لتصميم TensorWave.

على التبريد السائل المباشر: أجيال معززات أحدث، مثل MI355X و MI455X من AMD، تعمل عند غلاف حراري لا يستطيع الهواء التعامل معه بفعالية. نتحدث عن 1400 واط أو أكثر من التوصيل الحراري لكل معالج رسومات. يزيل التبريد السائل المباشر الحرارة من المصدر عبر تصميم اللوحة الباردة أو الغمر، و الذي يفعل ثلاثة أشياء لعملائنا. أولاً، يسمح بزيادة كثافة الراك بدرجة كبيرة، 120-300 كيلو واط أو أكثر لكل رف، بدلاً من 30 إلى 40 كيلو واط، و الذي يضغط المساحة و يقلل من التكاليف لكل ميغاواط من التوزيع العقاري و التوزيع. ثانيًا، يدفع معدل الكفاءة الطاقية (PUE) نحو 1.1، مقابل 1.4 إلى 1.5 لمواقع التبريد بالهواء التقليدية؛ في نطاقنا، يترجم ذلك إلى عشرات الملايين من الدولارات في التوفير السنوي للخدمات. ثالثًا، و غالبًا ما يتم تجاهله، يحافظ التبريد السائل المباشر على السيليكون عند درجات حرارة منخفضة و مستقرة، و الذي يحافظ على معدلات الساعة المستدامة خلال تشغيل التدريب الطويل و يمدد العمر المفيد للأجهزة. يهم ذلك بشكل كبير عندما كنت تؤمن أصولًا لمدة ست سنوات.

على شبكات UEC: مواصفات المنظمة العالمية للاتصالات السلكية، التي ساعدت AMD في تأسيسها و التي وصلت إلى 1.0 في عام 2025، توفر لنا شبكة مفتوحة و مخصصة للبائع التي تتوافق مع أو تتجاوز InfiniBand في المعايير التي تهم حقًا لتدريب موزع. التأخير في التجميع، النطاق الفعال تحت التنافس، و سلوك التوسع بعد عتبة 100000 معالج رسومات. قصة التكلفة هي هيكلية. يوجد نصف دزينة من بائعين مخصصين لل硅 يتنافسون على السعر، مقابل بديل مصدر واحد يحمل متميزًا موثقًا. لموقع 100 ميغاواط، اختيار شبكات UEC على الشبكة المخصصة هو عادةً قرار رأس المال يصل إلى تسعة أرقام، و المنافع التشغيلية تتراكم لأن مهندسي الشبكة يعرفون بالفعل الإيثرنت.

بما أن هذه الخيارات تتيح لنا تقديم اقتصاديات تدريب أفضل من السحابات التقليدية. يرى العملاء فلاوبس فعالة أكثر لكل دولار، و أوقات خطوة أكثر قابلية للتنبؤ على الوظائف الكبيرة، و مسار واضح عند توسيع النماذج. بالنسبة لنا، يعني ذلك هيكل تكاليف أكثر دفاعًا و مرونة لتقديم بطاقات أسعار تنافسية حقيقية.

هل يمكنك مشاركة أمثلة عن كيفية استخدام العملاء TensorWave لتدريب نماذج الذكاء الاصطناعي الكبيرة؟

يحتاج عملاء TensorWave إلى حوسبة الذكاء الاصطناعي عالية الأداء دون نقص في معالجات الرسومات أو إغلاق البائع أو تكاليف هائجة. توفر TensorWave سحابة AMD الحصرية – مفتوحة و محسّنة للذاكرة و جاهزة للانتاج، و التي توفر للفرق بنية تحتية للذكاء الاصطناعي قابلة للتطوير و مرنة و كفاءة التكلفة.

على سبيل المثال، اختارت Modular تشغيل كومة الاستدلال MAX على بنية معالجات الرسومات AMD من TensorWave لأن TensorWave توفر اقتصاديات أداء تكلفة أفضل بكثير لاستدلال الذكاء الاصطناعي الكبير. من خلال تشغيل MAX من Modular على حوسبة AMD من TensorWave، يحققون تكلفة منخفضة تصل إلى 70٪ لكل مليون رمز، و سرعة انتقال أسرع بنسبة 57٪، و تكلفة أقل بشكل عام من مجموعات معالجات الرسومات الأخرى.

مع استمرار سيطرة Nvidia، أين ترى أكبر فرص للتحديات مثل TensorWave؟

في مساحة حساب الذكاء الاصطناعي التي تسيطر عليها عدة لاعبين كبيرين، أكبر التحديات هي تحقيق السرعة في السوق، و تقديم أحدث التكنولوجيا، و تقديم دعم استثنائي. غالبًا ما تقدم شركات التكنولوجيا الكبيرة مجموعة واسعة من الخيارات، لكنها تكافح لتقديم التركيز أو الإرشاد الشخصي الذي يحتاجه العملاء. لتحقيق الانطلاقة في هذا الفضاء المسيطر، تركز TensorWave على نقاط قوتنا، و نتعاون لتقديم أفضل تكنولوجيا ممكنة و نضمن أن العملاء لديهم خيارات بديلة.

أهم فرص للتحديات لسيطرة Nvidia على بنية تحتية الذكاء الاصطناعي هي في النظم البيئية المفتوحة و الذاكرة. النظم البيئية المفتوحة تمنع الإغلاق على كل مستوى (الأجهزة و الشبكات و البرمجيات). بالإضافة إلى ذلك، الذاكرة المترافقة مع الشبكات المثالية للتدريب / الاستدلال يقلب منحنى التكلفة.

متى نظرًا إلى خمس سنوات قادمة، كيف تتخيل مستقبل بنية تحتية الذكاء الاصطناعي و دور TensorWave فيه؟

لمدة من الوقت، كان الهدف في بنية تحتية الذكاء الاصطناعي هو جعلها جيدة و مستقرة و سهلة الاستخدام. المرحلة القادمة ستكون حول ما يمكن تقديمه على هذه القاعدة – خدمات مُدارة، و الذكاء الاصطناعي كخدمة، و أي شيء يساعد العملاء على النشر و التوسع بسهولة أكبر.

نحن في بداية تحول كبير. تقنيات الذكاء الاصطناعي لا تزال تتطور، و البديلات مثل AMD تصبح أكثر وضوحًا. مع حدوث ذلك، سيصبح العملاء أكثر راحة في النشر على نطاق واسع، و سيبدأ النظام البيئي ككل في الانفتاح و النمو.

شكرًا على المقابلة الرائعة، و من يرغب في معرفة المزيد عن هذه الشركة الرائدة في بنية تحتية الذكاء الاصطناعي يجب زيارة TensorWave.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, COO de TensorWave – Série d’entretiens

mm

Darrick Horton, COO de TensorWave, est un dirigeant et entrepreneur dans le domaine de la technologie, avec une expérience approfondie dans les infrastructures d’intelligence artificielle, le cloud computing et les systèmes matériels avancés. Avec une formation couvrant l’architecture des centres de données, les technologies de semi-conducteurs et l’informatique haute performance, il a joué un rôle central dans la mise à l’échelle des plates-formes de calcul d’intelligence artificielle de nouvelle génération. Avant son leadership chez TensorWave, Horton a travaillé sur des initiatives d’ingénierie avancées, notamment la recherche sur la fusion nucléaire chez Lockheed Martin’s Skunk Works, et a contribué à des projets de physique des plasmas et d’astrophysique financés par la NASA. Sa carrière reflète une concentration constante sur la résolution de défis techniques complexes et leur traduction en solutions d’infrastructure pratiques pour les technologies émergentes.

TensorWave est une entreprise d’infrastructure d’intelligence artificielle qui se concentre sur la fourniture de services de cloud computing haute performance alimentés par les GPU AMD, se positionnant comme une alternative aux écosystèmes d’intelligence artificielle plus fermés. Fondée en 2023 et basée à Las Vegas, l’entreprise construit des grappes de GPU à grande échelle optimisées pour la formation et le déploiement de modèles d’intelligence artificielle avancés, avec un accent sur les performances, la flexibilité et l’efficacité coût. En exploitant les écosystèmes de matériel et de logiciel ouverts, TensorWave vise à élargir l’accès aux ressources de calcul d’intelligence artificielle pour les entreprises, les chercheurs et les développeurs, permettant ainsi des charges de travail d’intelligence artificielle évolutives sans les contraintes de verrouillage traditionnel des fournisseurs.

Nvidia domine la majeure partie du marché des GPU – pourquoi avez-vous décidé de vous lancer à fond sur AMD, et quels avantages cette décision donne-t-elle à TensorWave et à ses clients ?

Après le lancement de ChatGPT, la demande d’intelligence artificielle a explosé. Les GPU ont été rapidement pris et Nvidia était pratiquement la seule option, si vous pouviez l’obtenir, et si vous pouviez vous permettre le coût. Cette pénurie a suscité un grand intérêt pour les alternatives. Maintenant que nous sommes passés au-delà de l’hype initial, il y a une véritable opportunité de remettre en question la domination de Nvidia avec des solutions accessibles, efficaces en termes de coût et faciles à utiliser.

En tant que startup, nous prenons toujours des décisions commerciales avec une forte concentration et un but. C’est pourquoi nous n’avons pas expérimenté avec Nvidia et que nous avons continué à développer nos capacités sur AMD. La prochaine phase de notre entreprise consiste à nous appuyer sur ces capacités ciblées afin que quiconque puisse se lancer et faire quelque chose de significatif avec l’intelligence artificielle. AMD est une alternative crédible avec une échelle de fabrication réelle, une posture de logiciel ouvert et une feuille de route de mémoire pour l’intelligence artificielle moderne.

Comment l’approche de TensorWave en matière d’infrastructure d’intelligence artificielle diffère-t-elle des fournisseurs de cloud de GPU traditionnels ?

Notre différenciation est simple : nous sommes le seul cloud exclusif AMD à grande échelle, qui vise à rétablir le choix dans le calcul d’intelligence artificielle, à briser la domination de Nvidia et à démocratiser l’accès. Mais cela concerne également notre éthos et notre engagement à apporter une véritable alternative sur le marché. Tout d’abord et avant tout, nous voulons fournir une infrastructure exceptionnelle basée sur AMD à grande échelle. À partir de là, nous allons étendre nos services de premier plan – Modèles en tant que service, Intelligence artificielle en tant que service, en rendant tout plus simple.

En tant que cloud exclusif AMD, nous avons une expérience logicielle spécifiquement conçue pour AMD dès le premier jour. Cette concentration nous permet d’optimiser le silicium, le réseau et le logiciel de bout en bout, en nous assurant que les équipes puissent évoluer lorsqu’elles en ont besoin.

Quel rôle joue votre partenariat stratégique avec AMD dans la croissance et la différenciation de TensorWave ?

C’est fondamental. AMD a investi dans TensorWave, nous a invités à la lancement de MI300X Instinct et nous continuons à collaborer étroitement sur le matériel, l’activation logicielle et la croissance de l’écosystème. Être un cloud exclusif AMD signifie que nous pouvons nous déplacer rapidement avec chaque génération d’Instinct, et servir de laboratoire vivant qui fournit, à grande échelle, des alternatives sur notre marché. Notre différenciation exclusive AMD nous a permis de travailler à un rythme qui n’est pas aussi réalisable sur le marché de l’infrastructure d’intelligence artificielle. Leur partenariat nous permet de combler les lacunes rapidement, d’expédier en premier les nouveaux GPU et de publier des performances réelles à grande échelle.

L’accès aux GPU reste un goulet d’étranglement majeur pour les équipes d’intelligence artificielle – comment TensorWave relève-t-il ce défi ?

Nous traitons ces goulets d’étranglement en premier lieu grâce à l’indépendance d’approvisionnement : en nous appuyant sur AMD, nous évitons les pires contraintes d’approvisionnement des autres fabricants de puces, et transmettons la disponibilité à nos clients.

Les lacunes dans l’écosystème de l’infrastructure d’intelligence artificielle existent parce que de nombreux acteurs construisent des solutions similaires, créant ainsi beaucoup de chevauchements. Cela provient souvent d’un manque de connaissance de ce qui se passe sur le marché. La première étape pour combler ces lacunes consiste à comprendre qui fait quoi, où il y a des opportunités de collaboration, où la concurrence peut stimuler l’innovation, et en fin de compte, comment l’écosystème peut s’améliorer dans son ensemble. Une lacune unique dans le marché de l’infrastructure d’intelligence artificielle est le pouvoir ; même si les GPU sont disponibles, il n’y a souvent pas assez d’énergie pour supporter le nombre croissant d’applications d’intelligence artificielle. Résoudre ces défis de ressources est la clé pour permettre une croissance et une innovation durables dans les années à venir.

Comment les fonctionnalités telles que le refroidissement liquide direct et la connectivité UEC (Universal Ethernet Consortium) améliorent-elles les performances et l’efficacité coût ?

Le refroidissement liquide direct et la connectivité UEC sont fondamentaux pour ce qui rend un cloud d’intelligence artificielle économiquement viable à grande échelle, et les deux sont centraux dans la façon dont nous avons conçu TensorWave.

Sur le DLC : les nouvelles générations d’accélérateurs, les MI355X et MI455X d’AMD, fonctionnent à des enveloppes thermiques que l’air ne peut pas gérer efficacement. Nous parlons de 1400W+ TDP par GPU. Le refroidissement liquide direct élimine la chaleur à la source via des conceptions de plaque froide ou d’immersion, ce qui fait trois choses pour nos clients. Premièrement, cela permet une densité de rack nettement plus élevée, 120-300kW+ par rack au lieu de 30 à 40kW, ce qui compressé l’empreinte et réduit les coûts de distribution de puissance et de réal estate par mégawatt. Deuxièmement, cela pousse le PUE vers 1,1, contre 1,4 à 1,5 pour les installations refroidies à l’air traditionnelles ; à notre échelle, cela se traduit par des dizaines de millions de dollars d’économies d’utilité annuelle. Troisièmement, et souvent sous-estimé, le DLC maintient le silicium à des températures de jonction plus basses et plus stables, ce qui préserve les taux d’horloge soutenus pendant les longues sessions de formation et prolonge la durée de vie utile du matériel. Ce dernier point est extrêmement important lorsque vous souscrivez un actif de six ans.

Sur l’UEC : la spécification Ultra Ethernet Consortium, qui a atteint 1,0 en 2025 et à laquelle AMD a contribué, nous donne un tissu de marchandises ouvert qui répond ou dépasse InfiniBand sur les métriques qui comptent vraiment pour la formation distribuée. La latence de queue, la bande passante efficace sous contention et le comportement d’évolutivité au-delà du seuil de 100 000 GPU. L’histoire des coûts est structurelle. L’Ethernet compte une demi-douzaine de fournisseurs de silicium marchand concurrents sur le prix, contre une alternative à source unique qui comporte un prime bien documenté. Pour un site de 100MW, choisir une connectivité UEC prête au lieu d’un tissu propriétaire est généralement une décision de CAPEX à neuf chiffres, et les avantages opérationnels s’accumulent car nos ingénieurs réseau connaissent déjà l’Ethernet.

Pris ensemble, ces choix nous permettent de fournir une meilleure économie de formation que les clouds traditionnels. Les clients voient des FLOPs effectifs plus élevés par dollar, des temps de pas plus prévisibles sur les grands travaux et une voie claire pour les modèles à l’échelle. Pour nous, cela signifie une structure de coûts plus défendable et la flexibilité d’offrir des tarifs de taux réellement concurrentiels.

Pouvez-vous partager des exemples de la façon dont les clients utilisent TensorWave pour former de grands modèles d’intelligence artificielle ?

Les clients de TensorWave ont besoin d’un calcul d’intelligence artificielle haute performance sans pénurie de GPU, de verrouillage de fournisseur ou de coûts déraisonnables. TensorWave fournit un cloud exclusif AMD – ouvert, optimisé pour la mémoire et prêt pour la production, ce qui donne aux équipes une infrastructure d’intelligence artificielle évolutives qui est accessible, flexible et efficace en termes de coût.

Par exemple, Modular a choisi d’exécuter sa pile d’inférence MAX sur l’infrastructure de GPU AMD de TensorWave car TensorWave offre une économie de coût et de performance nettement meilleure pour l’inférence d’intelligence artificielle à grande échelle. En exécutant la pile MAX de Modular sur le calcul AMD de TensorWave, ils atteignent jusqu’à 70 % de réduction du coût par million de jetons, 57 % de débit plus rapide et un coût global inférieur à celui des autres piles de GPU.

Avec la domination continue de Nvidia, où voyez-vous les plus grandes opportunités pour les challengers comme TensorWave ?

Dans un espace de calcul d’intelligence artificielle dominé par quelques grands acteurs, les plus grands défis sont d’atteindre la vitesse de mise sur le marché, de fournir la dernière technologie et d’offrir un soutien exceptionnel. Les hyperscalers offrent souvent une large gamme d’options, mais ont du mal à fournir la concentration ou les conseils personnalisés dont les clients ont besoin. Pour percer dans cet espace dominé, TensorWave se concentre sur ses forces, tout en collaborant pour fournir la meilleure technologie possible et en veillant à ce que les clients aient des options alternatives.

Les deux plus grandes opportunités pour les challengers de la domination de l’infrastructure d’intelligence artificielle de Nvidia sont les écosystèmes ouverts et la mémoire. Les écosystèmes ouverts éliminent le verrouillage à chaque couche (matériel, interconnecteur et logiciel). De plus, la mémoire associée à la formation et à l’inférence optimisée pour le réseau inverse la courbe de coût.

En regardant cinq ans à l’avance, comment imaginez-vous l’avenir de l’infrastructure d’intelligence artificielle et le rôle de TensorWave dans celui-ci ?

Pendant des années, l’objectif dans l’infrastructure d’intelligence artificielle était de la rendre bonne, stable et facile à utiliser. La prochaine phase consistera à fournir ce qui peut être livré au-dessus de cela – des services gérés, de l’intelligence artificielle en tant que service, tout ce qui aide les clients à déployer et à évoluer plus facilement.

Nous sommes au début d’une grande transformation. La technologie d’intelligence artificielle continue de progresser, et des alternatives comme AMD deviennent de plus en plus viables. À mesure que cela se produit, les clients deviendront plus à l’aise pour les déployer à grande échelle, et l’ensemble de l’écosystème commencera à s’ouvrir et à grandir.

Je vous remercie pour cette excellente interview, quiconque souhaitant en savoir plus sur cette entreprise innovante d’infrastructure d’intelligence artificielle devrait visiter TensorWave.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, COO de TensorWave – Serie de entrevistas

mm

Darrick Horton, COO de TensorWave, es un ejecutivo de tecnología y empresario con una profunda experiencia en infraestructura de inteligencia artificial, computación en la nube y sistemas de hardware avanzados. Con un historial que abarca la arquitectura de centros de datos, tecnologías de semiconductores y computación de alto rendimiento, ha desempeñado un papel central en la escalabilidad de plataformas de cómputo de inteligencia artificial de próxima generación. Antes de su liderazgo en TensorWave, Horton trabajó en iniciativas de ingeniería avanzada, incluida la investigación de fusión nuclear en Skunk Works de Lockheed Martin y contribuyó a proyectos de física de plasma y astrofísica financiados por la NASA. Su carrera refleja un enfoque constante en la resolución de desafíos técnicos complejos y a gran escala, y su traducción en soluciones de infraestructura prácticas para tecnologías emergentes.

TensorWave es una empresa de infraestructura de inteligencia artificial que se centra en ofrecer computación en la nube de alto rendimiento impulsada por GPUs de AMD, posicionándose como una alternativa a los ecosistemas de inteligencia artificial más cerrados. Fundada en 2023 y con sede en Las Vegas, la empresa construye clústeres de GPU a gran escala optimizados para el entrenamiento y la implementación de modelos de inteligencia artificial avanzados, con énfasis en el rendimiento, la flexibilidad y la eficiencia de costo. Al aprovechar los ecosistemas de hardware y software abiertos, TensorWave busca ampliar el acceso a recursos de cómputo de inteligencia artificial potentes para empresas, investigadores y desarrolladores, permitiendo cargas de trabajo de inteligencia artificial escalables sin las limitaciones del bloqueo de proveedores tradicional.

Nvidia domina la mayor parte del mercado de GPUs, ¿por qué decidiste ir a por AMD y qué ventajas ofrece esta elección a TensorWave y sus clientes?

Después del lanzamiento de ChatGPT, la demanda de inteligencia artificial se disparó. Las GPUs se agotaron rápidamente, y NVIDIA era básicamente la única opción si podías conseguirla y si podías manejar el costo. Esa escasez despertó un gran interés en las alternativas. Ahora que hemos superado el hype inicial, hay una oportunidad real de desafiar el dominio de Nvidia con soluciones que son accesibles, rentables y fáciles de usar.

Como startup, siempre hemos tomado decisiones comerciales con un fuerte enfoque y propósito. Es por eso que no hemos experimentado con Nvidia, y hemos seguido construyendo nuestras capacidades en AMD. La próxima fase de nuestra empresa se centra en aprovechar esas capacidades enfocadas para que cualquier persona pueda sumergirse y hacer algo significativo con la inteligencia artificial. AMD es una alternativa creíble con una escala de fabricación real, una postura de software abierta y una hoja de ruta de memoria para la inteligencia artificial moderna.

¿Cómo se diferencia el enfoque de TensorWave hacia la infraestructura de inteligencia artificial de los proveedores de nube de GPU tradicionales?

Nuestra diferenciación es sencilla: somos la única nube exclusiva de AMD a gran escala, que busca restaurar la elección en el cómputo de inteligencia artificial, romper el dominio de Nvidia y democratizar el acceso. Pero también se trata de nuestra ética y compromiso de traer una verdadera alternativa al mercado. En primer lugar, queremos ofrecer infraestructura excepcional basada en AMD a gran escala. A partir de ahí, expandiremos hacia servicios de primer nivel sobre ella: Modelos como servicio, Inteligencia artificial como servicio, haciendo que todo sea más sencillo.

Como una nube exclusiva de AMD, tenemos experiencia en software construida específicamente para AMD desde el primer día. Este enfoque nos permite optimizar el silicio, la red y el software de extremo a extremo, asegurando que los equipos puedan escalar cuando lo necesiten.

¿Cuál es el papel de la asociación estratégica con AMD en el crecimiento y la diferenciación de TensorWave?

Es fundamental. AMD invirtió en TensorWave, nos invitó al lanzamiento de MI300X Instinct y seguimos colaborando estrechamente en hardware, habilitación de software y crecimiento del ecosistema. Ser una nube exclusiva de AMD significa que podemos movernos rápidamente con cada generación de Instinct, y servir como un laboratorio en vivo que ofrece, a gran escala, alternativas dentro de nuestro mercado. Nuestra diferenciación exclusiva de AMD nos ha permitido trabajar a un ritmo que no es tan alcanzable en el mercado de infraestructura de inteligencia artificial. Su asociación nos permite cerrar brechas rápidamente, enviar primero los nuevos GPUs y publicar un rendimiento real a gran escala.

El acceso a las GPUs sigue siendo un cuello de botella importante para los equipos de inteligencia artificial, ¿cómo está abordando TensorWave este desafío?

Estamos abordando estos cuellos de botella primero a través de la independencia de suministro: al construir sobre AMD, evitamos las peores limitaciones de suministro de otros fabricantes de chips, y pasamos la disponibilidad a los clientes. La independencia de suministro a través de AMD asegura que nuestros clientes no queden atrapados esperando en la misma cola que todos los demás.

Existen brechas en el ecosistema de infraestructura de inteligencia artificial porque muchos jugadores están construyendo soluciones similares, creando mucho solapamiento. Eso a menudo proviene de una falta de conciencia sobre lo que está sucediendo en todo el mercado. El primer paso para cerrar esas brechas es entender quién está haciendo qué, dónde hay oportunidades de colaboración, dónde la competencia puede impulsar la innovación y, en última instancia, cómo el ecosistema puede mejorar en su conjunto. Una brecha única en el mercado de infraestructura de inteligencia artificial es la energía; incluso si las GPUs están disponibles, a menudo no hay suficiente energía para respaldar el creciente número de aplicaciones de inteligencia artificial. Resolver estos desafíos de recursos es nuestra clave para habilitar un crecimiento y una innovación sostenibles en los años venideros.

¿Cómo mejoran las características como la refrigeración líquida directa y la red UEC (Consorcio de Ethernet Universal) el rendimiento y la eficiencia de costo?

La refrigeración líquida directa y la red UEC son fundamentales para lo que hace que una nube de inteligencia artificial moderna sea viable económicamente a gran escala, y ambas son centrales en cómo hemos diseñado TensorWave.

Sobre DLC: las generaciones más recientes de aceleradores, AMD’s MI355X y MI455X, funcionan a envolturas térmicas que el aire simplemente no puede manejar de manera eficiente. Estamos hablando de 1400W+ de TDP por GPU. La refrigeración líquida directa elimina el calor en la fuente a través de diseños de placa fría o inmersión, lo que hace tres cosas para nuestros clientes. Primero, permite una densidad de rack sustancialmente mayor, 120-300kW+ por rack en lugar de 30 a 40kW, lo que comprime el pie de huella y reduce los costos de distribución de energía y espacio por megavatio. Segundo, impulsa el PUE hacia 1.1, versus 1.4 a 1.5 para las instalaciones de enfriamiento por aire heredadas; a nuestra escala, eso se traduce en decenas de millones de dólares en ahorros de servicios públicos anuales. Tercero, y a menudo subestimado, DLC mantiene el silicio a temperaturas de unión más bajas y más estables, lo que preserva las tasas de reloj sostenidas durante largas sesiones de entrenamiento y extiende la vida útil del hardware. Ese último punto es enormemente importante cuando se está garantizando un activo de seis años.

Sobre UEC: la especificación del Consorcio de Ethernet Universal, que AMD ayudó a fundar y que alcanzó la versión 1.0 en 2025, nos da una red de tejido abierto, de silicio mercantil que iguala o supera a InfiniBand en las métricas que realmente importan para el entrenamiento distribuido. La latencia de cola en colectivos, ancho de banda efectivo bajo contención y comportamiento de escalabilidad más allá del umbral de 100,000 GPUs. La historia de costos es estructural. Ethernet tiene una media docena de proveedores de silicio mercantil creíbles que compiten en precio, versus una alternativa de una sola fuente que lleva un premio bien documentado. Para un sitio de 100MW, elegir una red UEC en lugar de un tejido propietario es típicamente una decisión de CAPEX de nueve cifras, y las ventajas operativas se multiplican porque nuestros ingenieros de red ya conocen Ethernet.

Tomadas en conjunto, estas elecciones nos permiten ofrecer una mejor economía de entrenamiento que las nubes heredadas. Los clientes ven un mayor número de FLOPs efectivos por dólar, tiempos de paso más predecibles en trabajos grandes y una carrera clara a medida que los modelos escalan. Para nosotros, significan una estructura de costos más defensible y la flexibilidad para ofrecer tarifas competitivas de verdad.

¿Puedes compartir ejemplos de cómo los clientes están utilizando TensorWave para entrenar modelos de inteligencia artificial a gran escala?

Los clientes de TensorWave necesitan cómputo de inteligencia artificial de alto rendimiento sin escasez de GPUs, bloqueo de proveedores o costos descontrolados. TensorWave ofrece una nube exclusiva de AMD – abierta, optimizada para memoria y lista para producción –, lo que brinda a los equipos infraestructura de inteligencia artificial escalable que es accesible, flexible y rentable.

Por ejemplo, Modular eligió ejecutar su pila de inferencia MAX en la infraestructura de GPU de AMD de TensorWave porque TensorWave ofrece una economía de costos significativamente mejor para la inferencia de inteligencia artificial a gran escala. Al ejecutar el MAX de Modular en el cómputo de AMD de TensorWave, logran un ahorro de costo de hasta un 70% por millón de tokens, un 57% más rápido y un costo total menor que otras pilas de GPU.

Con el dominio continuo de Nvidia, ¿dónde ves las mayores oportunidades para los desafiantes como TensorWave?

En un espacio de cómputo de inteligencia artificial dominado por unos pocos jugadores importantes, los mayores desafíos son lograr la velocidad de comercialización, entregar la última tecnología y brindar un soporte excepcional. Los hiperescaladores a menudo ofrecen una amplia gama de opciones, pero luchan por brindar el enfoque o la orientación personalizada que los clientes necesitan. Para romper este espacio dominado, TensorWave se centra en nuestras fortalezas, al mismo tiempo que colabora para brindar la mejor tecnología posible y asegurar que los clientes tengan opciones alternativas.

Las dos mayores oportunidades para los desafiantes del dominio de la infraestructura de inteligencia artificial de Nvidia son en los ecosistemas abiertos y la memoria. Los ecosistemas abiertos eliminan el bloqueo en cada capa (hardware, interconexión y software). Además, la memoria asociada con la formación de redes optimizadas para el entrenamiento y la inferencia invierte la curva de costos.

Mirando hacia adelante cinco años, ¿cómo visualizas el futuro de la infraestructura de inteligencia artificial y el papel de TensorWave en ella?

Durante años, el objetivo en la infraestructura de inteligencia artificial fue hacer que fuera buena, estable y fácil de usar. La próxima fase será sobre lo que puedes ofrecer sobre eso – servicios administrados, Inteligencia artificial como servicio, cualquier cosa que ayude a los clientes a implementar y escalar más fácilmente.

Estamos al comienzo de una gran transformación. La tecnología de inteligencia artificial sigue avanzando, y las alternativas como AMD se vuelven más y más viables. A medida que sucede esto, los clientes se volverán más cómodos al implementarlas a gran escala, y todo el ecosistema comenzará a abrirse y crecer.

Gracias por la excelente entrevista, cualquier persona que desee aprender más sobre esta innovadora empresa de infraestructura de inteligencia artificial debe visitar TensorWave.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, COO of TensorWave – Interview Series

mm

Darrick Horton, COO of TensorWave, はテクノロジー企業のエグゼクティブおよび起業家であり、AIインフラストラクチャ、クラウドコンピューティング、および高度なハードウェアシステムに関する深い経験を持っています。データセンターのアーキテクチャ、半導体テクノロジー、および高性能コンピューティングを背景に、次世代のAIコンピュートプラットフォームの拡大に中央的な役割を果たしてきました。TensorWaveでのリーダーシップに先立って、Hortonはロックヘッド・マーティンのSkunk Worksでの核融合研究を含む先端エンジニアリング・イニシアチブに従事し、NASAが資金提供するプラズマ物理学および天体物理学プロジェクトに貢献しました。彼のキャリアは、複雑で大規模な技術的な課題を解決し、それらを新興テクノロジーの実用的なインフラストラクチャ・ソリューションに翻訳することに一貫した焦点を反映しています。

TensorWaveは、AMD GPUによって推進される高性能クラウドコンピューティングを提供するAIインフラストラクチャ企業であり、より閉じたAIエコシステムの代替として位置付けられています。2023年に設立され、ラスベガスに本拠を置くこの会社は、AIモデルをトレーニングおよびデプロイするために最適化された大規模なGPUクラスターを構築しており、パフォーマンス、柔軟性、およびコスト効率に重点を置いています。オープンなハードウェアおよびソフトウェアエコシステムを利用することで、TensorWaveは、企業、研究者、開発者に対して、従来のベンダーロックインの制約なしにスケーラブルなAIワークロードを可能にする、強力なAIコンピュートリソースへのアクセスを拡大することを目指しています。

NvidiaがほとんどのGPU市場を支配している中で、AMDに全力を注ぐことにした理由と、その選択がTensorWaveとその顧客にどのような利点をもたらすのか。

ChatGPTの発売により、AIの需要が急激に高まり、GPUがすぐに売り切れ、NVIDIAはほぼ唯一の選択肢でしたが、コストが高かったため、需要の急増により、NVIDIAの代替ソリューションへの関心が高まりました。現在、初期のブームが過ぎ去った今、コスト効率が良い、使いやすい、そしてアクセスしやすいソリューションでNVIDIAの支配を挑戦する実際的な機会があります。

スタートアップとして、我们は強い焦点と目的を持ってビジネス上の決定を下してきました。したがって、NVIDIAを試したことがなく、AMDの能力を構築し続けてきました。私たちの会社の次の段階は、AIで何か意味のあることを行うために、誰でも簡単に参加できるように、焦点を当てた能力に重点を置くことです。AMDは、実際的な製造スケール、オープンなソフトウェアの姿勢、およびモダンなAIのためのメモリ第一のロードマップを持つ、信頼できる代替手段です。

TensorWaveのAIインフラストラクチャへのアプローチは、従来のGPUクラウドプロバイダーとどう違うのか。

私たちの違いは簡単です。私たちは、スケールでの唯一のAMD専用クラウドであり、AIコンピュートにおける選択肢を回復し、NVIDIAの支配を打ち破り、AIへのアクセスを民主化することを目指しています。ただし、それは私たちのエートスと、真の代替手段を市場に提供するというコミットメントについても言えることです。まず第一に、優れたAMDベースのインフラストラクチャをスケールで提供したいと思います。その後、トップレベルのサービスを提供することを目指しています。モデルのサービス、AIのサービスなど、すべてを簡単にすることを目指しています。

AMD専用クラウドとして、我々は最初からAMD専用のソフトウェア経験を持っています。この焦点により、シリコン、ネットワーキング、およびソフトウェアをエンドツーエンドで最適化し、チームが必要に応じてスケールできるようにします。

TensorWaveの成長と差別化におけるAMDとの戦略的パートナーシップの役割は何ですか。

基盤的なものです。AMDはTensorWaveに投資し、MI300X Instinctの発売に私たちを招待し、ハードウェア、ソフトウェアの有効化、およびエコシステムの成長について密接に協力しています。AMD専用クラウドであることは、各Instinct世代で迅速に動作し、市場内の代替手段を提供する実験室として機能できることを意味します。私たちのAMD専用の違いは、AIインフラストラクチャ市場で達成できるものよりも速いペースで動作できるようにしました。彼らのパートナーシップにより、ギャップを迅速に埋め、最新のGPUで最初に出荷し、スケールでの実際のパフォーマンスを公開できます。

GPUへのアクセスは依然としてAIチームにとっての大きなボトルネックです。TensorWaveはこの課題に対処するために何をしていますか。

我々は、供給の独立性を通じてこれらのボトルネックに取り組んでいます。AMDを構築することで、他のチップメーカーの供給制約の最悪の影響を回避し、利用可能性を顧客に渡します。AMDを通じた供給の独立性により、顧客は他のすべての人が待っているのと同じキューに待たされることはありません。

AIインフラストラクチャエコシステムのギャップは、多くのプレーヤーが同様のソリューションを構築しているため、多くの重複が発生しているためです。那は、市場全体で何が起こっているかについての認識の欠如から生じます。ギャップを埋めるための第一歩は、誰が何をしているか、協力の機会がある場所、競争がイノベーションを推進できる場所、および最終的にエコシステムが全体としてどのように改善できるかを理解することです。AIインフラストラクチャ市場におけるユニークなギャップの1つは電力です。GPUが利用可能であっても、AIアプリケーションの増加をサポートするのに十分なエネルギーが往々にしてありません。これらのリソース課題を解決することは、将来の持続可能な成長とイノベーションを可能にするための私たちの鍵です。

ダイレクト液体冷却やUEC対応ネットワーキング(Universal Ethernet Consortium)などの機能は、パフォーマンスとコスト効率をどのように向上させるのか。

ダイレクト液体冷却とUEC対応ネットワーキングは、スケールでの現代のAIクラウドが経済的に実行可能になるためには基盤的なものであり、TensorWaveを設計する上で中央的な役割を果たしています。

ダイレクト液体冷却について:最新のアクセラレータ世代、AMDのMI355XおよびMI455Xは、空気だけでは効率的に処理できない熱エンベロープで動作します。私たちは、1400W+のTDPを1つあたりのGPUで話しています。ダイレクト液体冷却は、コールドプレートまたは浸没設計を介して熱源で熱を除去し、顧客に3つのことを実現します。第一に、顧客は実質的に高いラック密度を実現できます。30〜40kWではなく、120〜300kW+のラックあたり、フットプリントを圧縮し、メガワットあたりの不動産および電力配布コストを削減します。第二に、PUEを1.4〜1.5のレガシーエア冷却施設から1.1に近づけます。私たちのスケールでは、それは年間の公益事業コストで数千万ドルに相当します。第三に、そして往々にして見落とされるものですが、ダイレクト液体冷却は、長時間のトレーニング実行中に安定したクロックレートを維持するために、シリコンを低温で安定した温度に保持します。那は、6年間の資産を保証する上で非常に重要です。

UECについて:Ultra Ethernet Consortiumの仕様は、AMDが共同設立し、2025年に1.0に達したもので、実際に重要なメトリックでInfiniBandに匹敵する、またはそれを上回る、オープンなマーチャントシリコンファブリックを提供します。コレクティブのテールレイテンシ、コンテンション下での有効帯域幅、10万を超えるGPUのしきい値を過ぎた後のスケーリング動作についてです。コストの話は構造的なものです。イーサネットには、価格で競合する半ダースの信頼できるマーチャントシリコンベンダーがいます。一方、代替の単一ソースソリューションには、よく知られたプレミアムが付きます。100MWのサイトの場合、UEC対応ネットワーキングをプロプライエタリファブリックよりも選択することは、通常、9桁のCAPEX決定であり、運用上の利点は複合して積み上がります。私たちのネットワークエンジニアはすでにイーサネットを知っているからです。

これらの選択肢を組み合わせることで、我々はレガシークラウドよりも優れたトレーニングエコノミーを顧客に提供できます。顧客は、1ドルあたりの有効FLOPSが高く、 大規模ジョブのステップタイムがより予測可能であり、モデルがスケールするにつれて明確な実行可能なパスを確認できます。私たちにとって、それらはより防御可能なコスト構造と、真正に競争力のある料金カードを提供する柔軟性を意味します。

TensorWaveを使用して大規模なAIモデルをトレーニングする顧客の例を共有できますか。

TensorWaveの顧客は、GPUの不足、ベンダーロックイン、またはコストの暴走なしに、高性能AIコンピュートを必要とします。TensorWaveは、オープンで、メモリ最適化され、プロダクション対応の、独自のAMDクラウドを提供し、チームはアクセスしやすく、柔軟で、コスト効率の良いスケーラブルAIインフラストラクチャを提供します。

例えば、Modularは、TensorWaveのAMD GPUインフラストラクチャ上でMAX推論スタックを実行することを選択しました。なぜなら、TensorWaveは、大規模なAI推論のための優れたコストパフォーマンスエコノミーを提供するからです。ModularのMAXをTensorWaveのAMDコンピュートで実行することで、顧客は、他のGPUスタックよりも、1千万トークンあたりのコストが約70%低減され、スループットが57%高速化され、全体的なコストが削減されます。

NVIDIAが引き続き支配的な地位にある中で、TensorWaveのようなチャレンジャーにとって最大の機会はどこにあるのか。

AIコンピュートスペースが数少ない主要プレーヤーによって支配されている場合、最大の課題は、市場に迅速に参入し、最新のテクノロジーを提供し、優れたサポートを提供することです。ハイパースケーラーは幅広い選択肢を提供しますが、顧客が必要とする焦点や個別のガイダンスを提供するのに苦労しています。NVIDIAの支配的地位に挑戦するために、TensorWaveは強みに焦点を当て、最良のテクノロジーを提供するために協力し、顧客が代替の選択肢を持っていることを確認します。

NVIDIAのAIインフラストラクチャの支配に対するチャレンジャーの2つの最大の機会は、オープンエコシステムとメモリです。オープンエコシステムは、ハードウェア、インターコネクト、およびソフトウェアのすべてのレイヤーでロックインを排除します。さらに、メモリとネットワーク最適化トレーニング/推論は、コスト曲線を反転させます。

5年先を見通して、AIインフラストラクチャの将来とTensorWaveの役割をどのように見ていますか。

AIインフラストラクチャの目標は、長い間、それを良くし、安定させ、使いやすくすることでした。次の段階は、それの上に何を提供できるかについてです。管理サービス、AI-as-a-Serviceなど、顧客がより簡単に展開およびスケールできるようにするものです。

私たちは大きな変革の始まりにあります。AIテクノロジーは進化し続けており、AMDのような代替手段はより実行可能になってきています。そうすることで、顧客はそれらを大規模に展開することにより自信を持つようになり、エコシステム全体が開かれ成長し始めるでしょう。

素晴らしいインタビュー、詳細についてはTensorWaveを訪問してください。

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, COO von TensorWave – Interview-Reihe

mm

Darrick Horton, COO von TensorWave, ist ein Technologie-Executive und Unternehmer mit tiefgreifender Erfahrung in AI-Infrastruktur, Cloud-Computing und fortschrittlichen Hardware-Systemen. Mit einer Vergangenheit, die sich über Rechenzentrums-Architektur, Halbleitertechnologien und Hochleistungsrechnen erstreckt, hat er eine zentrale Rolle bei der Skalierung von Next-Generation-AI-Rechenplattformen gespielt. Vor seiner Führungsrolle bei TensorWave arbeitete Horton an fortschrittlichen Ingenieurinitiativen, einschließlich Kernfusionsforschung bei Lockheed Martins Skunk Works, und hat zu NASA-finanzierten Plasmaphysik- und Astrophysik-Projekten beigetragen. Seine Karriere spiegelt einen konstanten Fokus auf die Lösung komplexer, groß angelegter technischer Herausforderungen und deren Übersetzung in praktische Infrastrukturlösungen für aufstrebende Technologien wider.

TensorWave ist ein AI-Infrastruktur-Unternehmen, das sich auf die Bereitstellung von Hochleistungs-Cloud-Computing mit AMD-GPUs konzentriert und sich als Alternative zu geschlosseneren AI-Ökosystemen positioniert. Gegründet im Jahr 2023 und mit Hauptsitz in Las Vegas baut das Unternehmen große GPU-Cluster, die für das Training und die Bereitstellung von fortschrittlichen AI-Modellen optimiert sind, mit einem Schwerpunkt auf Leistung, Flexibilität und Kosteneffizienz. Durch die Nutzung offener Hardware- und Software-Ökosysteme zielt TensorWave darauf ab, den Zugang zu leistungsstarken AI-Rechenressourcen für Unternehmen, Forscher und Entwickler zu erweitern und skalierbare AI-Workloads ohne die Einschränkungen traditioneller Vendor-Lock-ins zu ermöglichen.

Nvidia dominiert den größten Teil des GPU-Marktes – warum haben Sie sich entschieden, voll auf AMD zu setzen, und welche Vorteile bringt diese Entscheidung TensorWave und seinen Kunden?

Nach dem Launch von ChatGPT ist die Nachfrage nach AI in die Höhe geschnellt. GPUs wurden schnell aufgesogen, und NVIDIA war praktisch die einzige Option, wenn man sie überhaupt bekommen konnte und wenn man den Preis bezahlen konnte. Dieser Mangel hat ein enormes Interesse an Alternativen geweckt. Jetzt, da wir die anfängliche Hysterie überwunden haben, gibt es eine echte Chance, Nvidias Dominanz mit Lösungen herauszufordern, die zugänglich, kosteneffizient und einfach zu verwenden sind.

Als Startup haben wir immer Geschäftsentscheidungen mit einem starken Fokus und Zweck getroffen. Deshalb haben wir nicht mit NVIDIA experimentiert und haben unsere Fähigkeiten auf AMD aufgebaut. Die nächste Phase unseres Unternehmens besteht darin, uns auf diese fokussierten Fähigkeiten zu konzentrieren, damit jeder etwas Bedeutungsvolles mit AI tun kann. AMD ist eine glaubwürdige Alternative mit echter Fertigungskapazität, einer offenen Software-Haltung und einem memory-first-Roadmap für moderne AI.

Wie unterscheidet sich TensorWaves Ansatz zur AI-Infrastruktur von traditionellen GPU-Cloud-Anbietern?

Unsere Differenzierung ist einfach: Wir sind die einzige AMD-exklusive Cloud im großen Maßstab, die darauf abzielt, die Wahl in der AI-Rechenleistung wiederherzustellen, Nvidias Dominanz zu brechen und den Zugang zu demokratisieren. Es geht aber auch um unsere Ethik und unser Engagement, eine wahre Alternative auf den Markt zu bringen. Zunächst einmal möchten wir außergewöhnliche AMD-basierte Infrastruktur im großen Maßstab bereitstellen. Von dort aus werden wir uns auf Top-Tier-Dienste auf dieser Infrastruktur ausdehnen – Models-as-a-Service, AI-as-a-Service, um alles einfacher zu machen.

Als AMD-exklusive Cloud haben wir Software-Erfahrung, die speziell für AMD von Anfang an entwickelt wurde. Diese Konzentration ermöglicht es uns, Silizium, Networking und Software von Ende zu Ende zu optimieren, um sicherzustellen, dass Teams skalieren können, wenn sie müssen.

Wie spielt die strategische Partnerschaft mit AMD bei TensorWaves Wachstum und Differenzierung eine Rolle?

Sie ist grundlegend. AMD hat in TensorWave investiert, uns zur MI300X-Instinct-Einführung eingeladen und wir arbeiten eng auf Hardware-, Software-Enablement- und Ökosystem-Wachstumsebene zusammen. Als AMD-exklusive Cloud können wir schnell mit jeder Instinct-Generation vorankommen und als lebendes Labor dienen, das im großen Maßstab Alternativen in unserem Markt bietet. Unsere AMD-exklusive Differenzierung hat es uns ermöglicht, mit einem Tempo zu arbeiten, das in dem AI-Infrastruktur-Markt nicht so erreichbar ist. Ihre Partnerschaft ermöglicht es uns, Lücken schnell zu schließen, als Erste auf neuen GPUs zu liefern und echte Leistung im großen Maßstab zu veröffentlichen.

Der Zugang zu GPUs bleibt ein großes Hindernis für AI-Teams – wie geht TensorWave dieses Problem an?

Wir gehen dieses Hindernis zunächst durch die Unabhängigkeit von der Versorgung an: Indem wir auf AMD aufbauen, vermeiden wir die schlimmsten Einschränkungen der Versorgung durch andere Hersteller von Chips und geben die Verfügbarkeit an unsere Kunden weiter.

Lücken im AI-Infrastruktur-Ökosystem existieren, weil so viele Spieler ähnliche Lösungen aufbauen, was zu viel Überlappung führt. Das kommt oft von einem Mangel an Bewusstsein darüber, was auf dem Markt passiert. Der erste Schritt, um diese Lücken zu schließen, besteht darin, zu verstehen, wer was tut, wo es Chancen für die Zusammenarbeit gibt, wo der Wettbewerb die Innovation vorantreiben kann und letztendlich, wie das Ökosystem als Ganzes verbessert werden kann. Eine einzigartige Lücke im AI-Infrastruktur-Markt ist die Energie: Selbst wenn GPUs verfügbar sind, gibt es oft nicht genug Energie, um die wachsende Anzahl von AI-Anwendungen zu unterstützen. Die Lösung dieser Ressourcen-Herausforderungen ist unser Schlüssel, um nachhaltiges Wachstum und Innovation in den kommenden Jahren zu ermöglichen.

Wie verbessern Funktionen wie direkte Flüssigkeitskühlung und UEC-fertige Netzwerke (Universal Ethernet Consortium) die Leistung und Kosteneffizienz?

Direkte Flüssigkeitskühlung und UEC-fertige Netzwerke sind grundlegend für das, was eine moderne AI-Cloud wirtschaftlich tragbar im großen Maßstab macht, und beide sind zentral für die Art und Weise, wie wir TensorWave entworfen haben.

Zur direkten Flüssigkeitskühlung: Die neuesten Beschleuniger-Generationen, AMDs MI355X und MI455X, laufen bei thermischen Grenzwerten, die Luft einfach nicht effizient bewältigen kann. Wir sprechen über 1400W+ TDP pro GPU. Direkte Flüssigkeitskühlung entfernt die Wärme an der Quelle über Kaltplatten oder Tauchdesigns, was drei Dinge für unsere Kunden tut. Erstens ermöglicht es eine wesentlich höhere Rack-Dichte, 120-300kW+ pro Rack anstelle von 30 bis 40kW, was den Fußabdruck komprimiert und die Kosten pro Megawatt für Grundstücke und Stromverteilung senkt. Zweitens treibt es den PUE auf 1,1 zu, im Vergleich zu 1,4 bis 1,5 für herkömmliche luftgekühlte Anlagen; bei unserem Maßstab entspricht das Zehnmillionen Dollar an jährlichen Nebenkosten. Drittens und oft unterbewertet, hält die direkte Flüssigkeitskühlung das Silizium bei niedrigeren, stabileren Verbindungs-Temperaturen, was die aufrechterhaltene Taktfrequenz während langer Trainingsläufe verlängert und die Lebensdauer der Hardware verlängert. Letzterer Punkt ist enorm wichtig, wenn man ein sechsjähriges Vermögen abschreibt.

Zum UEC: Die Ultra-Ethernet-Konsortium-Spezifikation, die AMD half zu gründen und die 2025 die Version 1.0 erreichte, gibt uns ein offenes, merchant-silicon-Fabric, das die Metriken, die für verteiltes Training wirklich zählen, erreicht oder übertrifft. Die Kosten-Geschichte ist strukturell. Ethernet hat ein halbes Dutzend glaubwürdiger Merchant-Silicon-Hersteller, die auf Preis konkurrieren, im Vergleich zu einer einzigen Quelle, die einen gut dokumentierten Aufpreis mit sich bringt. Für eine 100-MW-Anlage ist die Wahl von UEC-fertigem Networking anstelle von proprietärem Fabric typischerweise eine neunstellige CAPEX-Entscheidung, und die betrieblichen Vorteile kumulieren, weil unsere Netzwerk-Ingenieure bereits Ethernet kennen.

Zusammengenommen ermöglichen uns diese Entscheidungen, bessere Trainings-Ökonomie als herkömmliche Clouds zu liefern. Kunden sehen höhere effektive FLOPs pro Dollar, schnellere Schrittzeiten bei großen Jobs und eine klare Fahrspur, wenn Modelle skaliert werden. Für uns bedeuten sie eine defensivere Kostenstruktur und die Flexibilität, wirklich wettbewerbsfähige Tarife anzubieten.

Können Sie Beispiele dafür nennen, wie Kunden TensorWave nutzen, um große AI-Modelle zu trainieren?

TensorWave-Kunden benötigen Hochleistungs-AI-Rechenleistung ohne GPU-Engpässe, Vendor-Lock-in oder außer Kontrolle geratene Kosten. TensorWave bietet exklusive AMD-Cloud – offen, memory-optimiert und produktionsreif, was Teams skalierbare AI-Infrastruktur bietet, die zugänglich, flexibel und kosteneffizient ist.

Beispielsweise hat Modular sich entschieden, seinen MAX-Schlussfolgerungs-Stack auf TensorWaves AMD-GPU-Infrastruktur zu betreiben, da TensorWave wesentlich bessere Kosten-Leistungs-Ökonomie für große AI-Schlussfolgerungen bietet. Durch den Betrieb von Modulars MAX auf TensorWaves AMD-Rechenleistung erreichen sie bis zu 70% geringere Kosten pro Million Token, 57% schnellere Durchsatzrate und geringere Gesamtkosten als andere GPU-Stacks.

Wo sehen Sie mit Nvidias anhaltender Dominanz die größten Chancen für Herausforderer wie TensorWave?

In einem AI-Rechenraum, der von einigen großen Spielern dominiert wird, sind die größten Herausforderungen, die Geschwindigkeit auf den Markt zu erreichen, die neueste Technologie zu liefern und außergewöhnliche Unterstützung zu bieten. Hyperscaler bieten oft eine breite Palette von Optionen an, aber kämpfen darum, den Fokus oder die persönliche Führung zu bieten, die Kunden benötigen. Um durch diesen dominierten Raum zu brechen, konzentriert sich TensorWave auf unsere Stärken, während wir zusammenarbeiten, um die beste Technologie möglich zu machen und sicherzustellen, dass Kunden alternative Optionen haben.

Die beiden größten Chancen für Herausforderer von Nvidias AI-Infrastruktur-Dominanz liegen in offenen Ökosystemen und im Speicher. Offene Ökosysteme eliminieren die Einschränkung auf jeder Ebene (Hardware, Interconnect, Software). Zusätzlich kehrt der Speicher, kombiniert mit netzwerkoptimiertem Training/Schlussfolgerung, die Kosten-Kurve um.

Wie sehen Sie in fünf Jahren die Zukunft der AI-Infrastruktur und TensorWaves Rolle darin?

Für Jahre war das Ziel in der AI-Infrastruktur, sie gut zu machen, stabil zu machen und einfach zu bedienen. Die nächste Phase wird darum gehen, was man auf dieser Grundlage liefern kann – Managed Services, AI-as-a-Service, alles, was Kunden hilft, einfacher zu deployen und zu skalierten.

Wir stehen am Anfang einer großen Transformation. AI-Technologie macht weiterhin Fortschritte, und Alternativen wie AMD werden immer viabler. Wenn das passiert, werden Kunden immer mehr damit komfortabel, sie im großen Maßstab zu deployen, und das gesamte Ökosystem wird beginnen, sich zu öffnen und zu wachsen.

Vielen Dank für das großartige Interview, jeder, der mehr über dieses innovative AI-Infrastruktur-Unternehmen erfahren möchte, sollte TensorWave besuchen.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, TensorWave의 COO – 인터뷰 시리즈

mm

Darrick Horton, TensorWave의 COO는 AI 인프라, 클라우드 컴퓨팅, 고급 하드웨어 시스템에 대한 심오한 경험을 가진 기술 실행자이자 기업가입니다. 데이터 센터 아키텍처, 반도체 기술, 고성능 컴퓨팅을 아우르는 배경을 가지고 있으며, 그는 차세대 AI 컴퓨팅 플랫폼을 확장하는 데 중추적인 역할을 했습니다. TensorWave의 리더십에 앞서, Horton은 Lockheed Martin의 Skunk Works에서 핵융합 연구를 포함한 고급 엔지니어링 이니셔티브에서 일했으며 NASA가资助하는 플라즈마 물리학 및 천체 물리학 프로젝트에 기여했습니다. 그의 경력은 복잡한 대규모 기술적 도전을 해결하고 그것들을 새로운 기술을 위한 실용적인 인프라 솔루션으로 번역하는 일에 일관된 초점을 반영합니다.

TensorWave는 AMD GPU로 구동되는 고성능 클라우드 컴퓨팅을 제공하는 AI 인프라 회사로, 더 폐쇄적인 AI 생태계에 대한 대안으로 자리 잡고 있습니다. 2023년에 설립되어 라스베이거스에 본사를 둔 이 회사는 고급 AI 모델을 훈련하고 배포하기 위한 대규모 GPU 클러스터를 구축하며, 성능, 유연성, 비용 효율성에 중점을 두고 있습니다. 오픈 하드웨어 및 소프트웨어 생태계를 활용하여 TensorWave는 기업, 연구자, 개발자에게 강력한 AI 컴퓨팅 리소스에 대한 접근을 확대하여 전통적인 벤더 잠금을 제한하지 않고 확장 가능한 AI 워크로드를 가능하게 합니다.

Nvidia는 대부분의 GPU 시장을 지배하고 있습니다. 왜 AMD에 모든 것을 투자하기로 결정했으며, 이 선택은 TensorWave와その 고객에게 어떤 이점을 제공합니까?

ChatGPT가 출시된 후, AI에 대한 수요가 급격히 증가했습니다. GPU가 빠르게 매각되었으며, NVIDIA는 거의 유일한 옵션이었으며, 비용을 감당할 수 있었다면 말입니다. 그 부족은 대체재에 대한巨大的 관심을 불러일으켰습니다. 이제 초기의 열기가 지나간 후, NVIDIA의 지배를 도전하는 솔루션을 제공할 수 있는 실제 기회가 있습니다. 그 솔루션은 접근성이 용이하고, 비용 효율적이며, 사용하기 쉽습니다.

스타트업으로서, 우리는 항상 강력한 초점과 목적을 가진 비즈니스 결정을 내렸습니다. 그 이유로 우리는 NVIDIA를 실험하지 않았으며, AMD에서 우리의 능력을 계속 구축했습니다. 우리 회사의 다음 단계는 우리가 집중한 능력에 대해 더 나아가기 위한 것입니다. 그래서 누구든지 AI와 관련하여 의미 있는 것을 할 수 있습니다. AMD는 실제 제조 규모, 오픈 소프트웨어 포지션, 현대적인 AI를 위한 메모리 우선 로드맵을 가진 신뢰할 수 있는 대안입니다.

TensorWave의 AI 인프라 접근 방식은 전통적인 GPU 클라우드 공급자와 어떻게 다릅니까?

우리의 차별화는 간단합니다. 우리는 규모에서 AMD 전용 클라우드이며, AI 컴퓨팅에서 선택을 회복시키고, NVIDIA의 지배를 깨뜨리며, 접근성을 민주화하는 것을 목표로 합니다. 그러나 그것은 또한 우리의 에토스와 시장에真正한 대안을 제공하는 데 대한 우리의 헌신입니다. 먼저, 우리는 AMD 기반의 예외적인 인프라를 제공하고자 합니다. 그 다음으로, 우리는 Models-as-a-Service, AI-as-a-Service와 같은 최상위 서비스를 확장하여 모든 것을 더 간단하게 만듭니다.

AMD 전용 클라우드로서, 우리는 AMD를 위해 특별히 구축된 소프트웨어 경험을 가지고 있습니다. 이 초점은 우리가 실리콘, 네트워킹, 소프트웨어를 종단 간으로 최적화할 수 있도록 해주어, 팀이 필요할 때 확장할 수 있도록 합니다.

AMD와의 전략적 파트너십은 TensorWave의 성장과 차별화에 어떤 역할을 하나요?

그것은 기초적입니다. AMD는 TensorWave에 투자했으며, MI300X Instinct 출시에 우리를 초대했으며, 우리는 계속해서 하드웨어, 소프트웨어 활성화, 생태계 성장에 대해 긴밀하게 협력하고 있습니다. AMD 전용 클라우드라는 것은 우리가 각 Instinct 세대와 함께 빠르게 이동할 수 있으며, 우리 시장에서 대안을 제공하는 살아있는 연구실이 된다는 것을 의미합니다. 우리의 AMD 전용 차별화는 우리가 AI 인프라 시장에서 달성하기 어렵습니다. 그들의 파트너십은 우리가 간격을 빠르게 닫고, 새로운 GPU에서 먼저 출하하며, 규모에서 실제 성능을 게시할 수 있도록 합니다.

GPU 접근은 여전히 AI 팀을 위한 주요 병목 현象입니다. TensorWave는 이 도전을 어떻게 해결하고 있습니까?

우리는 먼저 공급 독립성을 통해 이 병목 현상을 해결합니다. AMD를 구축함으로써, 우리는 다른 칩 제조업체의 공급 제한의 최악을 피하고, 가용성을 고객에게 전달합니다. AMD를 통한 공급 독립성은 우리의 고객이 다른 사람과 같은 대기열에 갇히지 않도록 합니다.

AI 인프라 생태계의 격차는 많은 플레이어가 유사한 솔루션을 구축하고 있기 때문에 발생하며, 이는 많은 중복을 생성합니다. 이는 시장 전반에서 발생하는 일에 대한 인식 부족에서 종종 발생합니다. 격차를 닫는 첫 번째 단계는 누가 무엇을 하고, 협력의 기회가 어디에 있는지, 경쟁이 어떻게 혁신을 驅動할 수 있는지, 궁극적으로 생태계가 어떻게 전체적으로 개선될 수 있는지 이해하는 것입니다. AI 인프라 시장에서 고유한 격차 중 하나는 전력입니다. GPU가 사용 가능하더라도, 많은 AI 애플리케이션을 지원하기 위한 충분한 에너지가 없을 수 있습니다. 이러한 자원 도전을 해결하는 것이 지속 가능한 성장과 혁신을 가능하게 하는 우리의 핵심입니다.

직접 액체 냉각 및 UEC 준비 네트워킹(Universal Ethernet Consortium)이 성능과 비용 효율성을 어떻게 향상시킵니까?

직접 액체 냉각 및 UEC 준비 네트워킹은 현대적인 AI 클라우드를 경제적으로 실행 가능한 규모에서 필수적인 요소이며, 둘 다 TensorWave를 설계하는 데 중심이 됩니다.

직접 액체 냉각에 관하여:最新의 가속기 세대, AMD의 MI355X 및 MI455X는 효율적으로 처리할 수 있는 열 범위를 가지고 있지 않습니다. 우리는 1400W 이상의 TDP를 말하는 것입니다. 직접 액체 냉각은 콜드 플레이트 또는 잠수식 설계를 통해 원천에서 열을 제거하여, 고객에게 세 가지 일을 합니다. 첫째, 그것은 상당히 높은 랙 밀도를 가능하게 합니다. 120-300kW 이상의 랙당 대신 30에서 40kW로, 이는 발자국을 압축하고 메가와트당 부동산 및 전력 배포 비용을 절감합니다. 둘째, 그것은 PUE를 1.1로駆動합니다. 1.4에서 1.5까지의 레거시 공기 냉각 시설과 비교하여, 우리의 규모에서는 연간 수십억 달러의 공공 유틸리티 비용을 절감합니다. 셋째, 그리고 종종 과소평가되는 것은, 실리콘을 더 낮고, 더 안정적인 접합 온도에서 유지하여, 긴 훈련 실행 중에 지속적인 클록 속도를 유지하고, 하드웨어의 유용한 수명을 연장합니다. 그 마지막 점은 6년 자산을 보증할 때 엄청난 중요성을 갖습니다.

UEC에 관하여: AMD가 공동 설립하여 2025년에 1.0에 도달한 Ultra Ethernet Consortium 사양은 실제로 중요한 메트릭에서 InfiniBand을满足하거나 초과하는 오픈, 상업용 실리콘 패브릭을 제공합니다. 분산 훈련에서 집합체에 대한 꼬리 지연, 경쟁하에서 효과적인 대역폭, 10만 개 이상의 GPU 임계값을 넘어서는 확장 동작. 비용 이야기는 구조적입니다. 이더넷에는 실제로 중요한 메트릭에서 경쟁하는 가격에 대한 반도체를 제공하는 반도zen개의 신뢰할 수 있는 상업용 실리콘 벤더가 있습니다. 100MW 사이트의 경우, UEC 준비 네트워킹을 사용하여专有 패브릭을 선택하는 것은 일반적으로 9자리 CAPEX 결정이며, 작동적인 이점은 복합적으로 증가합니다. 우리의 네트워크 엔지니어는 이미 이더넷을 알고 있습니다.

이러한 선택을 함께하면, 우리는 레거시 클라우드보다 더 나은 훈련 경제를 제공할 수 있습니다. 고객은 더 높은 효과적인 FLOPs를 더 낮은 비용으로, 더 예측 가능한 대형 작업의 스텝 시간, 그리고 모델이 확장할 때 명확한 런웨이를 볼 수 있습니다.对于 우리에게, 그것은 더 방어 가능한 비용 구조와真正로 경쟁력 있는 요금 카드를 제공하는 유연성을 의미합니다.

고객이 TensorWave를 사용하여 대규모 AI 모델을 훈련하는 예를 공유할 수 있습니까?

TensorWave 고객은 GPU 부족, 벤더 잠금, 또는 비용 폭발 없이 고성능 AI 컴퓨팅을 필요로 합니다. TensorWave는 독점적인 AMD 클라우드를 제공합니다. 오픈, 메모리 최적화, 프로덕션 준비가 되어 있으며, 팀에게 확장 가능한 AI 인프라를 제공하여 접근성이 용이하고, 유연하며, 비용 효율적입니다.

예를 들어, Modular는 TensorWave의 AMD GPU 인프라에서 MAX 추론 스택을 실행하기로 선택했습니다. TensorWave는 대규모 AI 추론을 위한 비용-성능 경제를 크게 개선합니다. Modular의 MAX를 TensorWave의 AMD 컴퓨팅에서 실행하면, 다른 GPU 스택보다 토큰당 70% 낮은 비용, 57% 빠른 처리량, 그리고 전체 비용을 달성할 수 있습니다.

NVIDIA의 지속적인 지배력에서, 도전자로서 TensorWave에게 가장 큰 기회는 어디에 있습니까?

AI 컴퓨팅 공간에서 몇몇 주요 플레이어가 지배하고 있는 상황에서, 가장 큰 도전은 시장에 진입하는 속도, 최신 기술을 제공하는 것, 그리고 예외적인 지원을 제공하는 것입니다. 하이퍼스케일러는 종종 다양한 옵션을 제공하지만, 고객이 필요한 초점 또는 개인화된 지침을 제공하는 데 어려움을 겪습니다. NVIDIA의 지배를 깨기 위해, TensorWave는 우리의 강점에 초점을 맞추고, 최상의 기술을 제공하기 위해 협력하며, 고객이 대안을 가지고 있는지 확인합니다.

NVIDIA의 AI 인프라 지배를 도전하는 두 가지 가장 큰 기회는 오픈 생태계와 메모리입니다. 오픈 생태계는 모든 계층(하드웨어, 인터커넥트, 소프트웨어)에서 잠금을 제거합니다. 또한, 메모리와 네트워크 최적화된 훈련/추론은 비용 곡선을 뒤집습니다.

5년 후, AI 인프라의 미래와 TensorWave의 역할을 어떻게 상상합니까?

수년 동안, AI 인프라의 목표는 그것을 좋게 만들기, 안정적으로 만들기, 사용하기 쉽게 만들기였습니다. 다음 단계는 그것 위에 제공할 수 있는 관리 서비스, AI-as-a-Service, 고객이 더 쉽게 배포하고 확장할 수 있도록 도와주는 모든 것입니다.

우리는 주요한 변환의 시작에 있습니다. AI 기술은 계속 발전하고, AMD와 같은 대안은 더욱 신뢰할 수 있게 됩니다.那样하면, 고객은 그것들을 대규모로 배포하는 것에 더 편안해질 것입니다. 그리고 전체 생태계는 열리고 성장할 것입니다.

이 훌륭한 인터뷰에 감사드립니다. 이 혁신적인 AI 인프라 회사에 대해 더 알고 싶은 사람은 TensorWave를 방문해야 합니다.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, TensorWave’un COO’su – Röportaj Serisi

mm

Darrick Horton, TensorWave’un COO’su, yapay zeka altyapısında, bulut bilişimde ve gelişmiş donanım sistemlerinde derin deneyime sahip bir teknoloji yöneticisi ve girişimcidir. Veri merkezi mimarisi, yarı iletken teknolojileri ve yüksek performanslı hesaplama dahil olmak üzere geniş bir arka plana sahip olan Horton, nächsten nesil yapay zeka hesaplama platformlarının ölçeklendirilmesinde merkezi bir rol oynamıştır. TensorWave’deki liderliğinden önce Horton, Lockheed Martin’in Skunk Works’teki nükleer füzyon araştırması da dahil olmak üzere gelişmiş mühendislik girişimlerinde çalışmış ve NASA tarafından finanse edilen plazma fizik ve astrofizik projelerine katkıda bulunmuştur. Kariyeri, karmaşık, büyük ölçekli teknik zorlukları çözmeye ve bunları ortaya çıkan teknolojiler için pratik altyapı çözümlerine çevirmeye odaklanmayı sürekli olarak yansıtmaktadır.

TensorWave bir yapay zeka altyapısı şirketidir ve AMD GPU’ları tarafından güçlendirilen yüksek performanslı bulut bilişim sunmaya odaklanmıştır ve daha kapalı yapay zeka ekosistemlerine bir alternatif olarak konumlandırılmıştır. 2023 yılında kurulan ve Las Vegas’ta bulunan şirket, gelişmiş yapay zeka modellerini eğitmek ve dağıtmak için optimize edilmiş büyük ölçekli GPU kümeleri oluşturmaktadır ve performansa, esnekliğe ve maliyet etkinliğine odaklanmaktadır. Açık donanım ve yazılım ekosistemlerini kullanarak TensorWave, şirketlere, araştırmacılara ve geliştiricilere güçlü yapay zeka hesaplama kaynaklarına erişimi genişletmeyi, geleneksel satıcı kilidinin kısıtlamaları olmadan ölçeklenebilir yapay zeka iş yüklerini ermögilmeyi hedeflemektedir.

Nvidia, çoğu GPU pazarını domine ediyor – neden AMD’ye tümüyle odaklandınız ve bu seçim TensorWave ve müşterilerine neler kazandırıyor?

ChatGPT’nin piyasaya sürülmesinden sonra yapay zeka talebi skyrocketed. GPU’lar nhanh bir şekilde satın alındı ve NVIDIA基本 olarak tek seçenekti, eğer alınabiliyorsa ve maliyeti karşılanabiliyorsa. Bu kıtlık, alternatiflere karşı büyük bir ilgi uyandırdı. Şimdi ilk hype geçtikten sonra, Nvidia’nın hakimiyetini挑戰 etmek için erişilebilir, maliyet etkin ve kullanımı kolay çözümler sunma fırsatı vardır.

Bir startup olarak, toujours iş kararlarını güçlü bir odak ve amaç ile aldık. Bu nedenle, Nvidia ile denemeler yapmadık ve AMD üzerinde yeteneklerimizi geliştirmeye devam ettik. Şirketimizin sonraki aşaması, bu odaklanmış yeteneklere dayanarak herkesin yapay zeka ile anlamlı şeyler yapabilmesi hakkında olacak. AMD, gerçek üretim ölçeğine sahip, açık bir yazılım tutumuna sahip ve modern yapay zeka için bir bellek-öncelikli yol haritasına sahip bir alternatiftir.

TensorWave’un yapay zeka altyapısına yaklaşımı geleneksel GPU bulut sağlayıcılarından nasıl farklı?

Farkımız açık: AMD’ye özel, ölçekteki tek bulutuz, yapay zeka hesabında seçim sunmaya, Nvidia’nın hakimiyetini kırmaya ve erişimi demokratikleştirmeye çalışıyoruz. Ancak bu, aynı zamanda bizim etik ve pazarın gerçek bir alternatifine taahhütümüzle ilgilidir. İlk ve en wichtig, mükemmel AMD tabanlı altyapıyı sunmak istiyoruz. Oradan, en üst düzey hizmetleri sunmaya genişleteceğiz – Model-as-a-Service, AI-as-a-Service, her şeyi daha basit hale getireceğiz.

Tüm AMD bulutu olarak, AMD için özel olarak tasarlanmış bir yazılım deneyimine sahibiz. Bu odak, silikonu, ağları ve yazılımları uçtan uca optimize etmemize olanak tanır, böylece ekiplerin ihtiyaç duyduklarında ölçeklenmelerini sağlar.

AMD ile stratejik ortaklığınız TensorWave’un büyümesinde ve farklılaşmasında nasıl bir rol oynuyor?

Temeldir. AMD, TensorWave’a yatırım yaptı, bizi MI300X Instinct lansmanına davet etti ve donanım, yazılım etkinleştirme ve ekosistem büyümesi konularında yakın bir şekilde işbirliği yapmaya devam ediyoruz. Tüm AMD bulutu olmamız, her Instinct nesli ile hızlı bir şekilde hareket etmemize ve pazarımızdaki alternatifler olarak ölçekte bir laboratuvar görevi görmemize olanak tanır. AMD’ye özel farklılaşmamız, AI altyapısı pazarında daha hızlı bir şekilde çalışmamızı ve yeni GPU’lar için ilk olarak gemi yapmamızı sağlar. Their ortaklığı, boşlukları nhanh bir şekilde kapatmamıza, ölçekte gerçek performansı yayınlamamıza olanak tanır.

GPU erişimi hala AI ekipleri için büyük bir engel – TensorWave bu zorluğu nasıl ele alıyor?

Bu engelleri ilk olarak tedarik bağımsızlığı ile ele alıyoruz: AMD üzerine inşa ederek, diğer yonga üreticilerinin tedarik kısıtlamalarının en kötüsünden kaçınır ve müşterilerimize erişimi sağlarız. AMD aracılığıyla tedarik bağımsızlığı, müşterilerimizin herkesin aynı kuyruğunda beklemesine gerek kalmamasını sağlar.

Yapay zeka altyapısı ekosisteminde boşluklar, birçok oyuncunun benzer çözümler oluşturması ve bu nedenle birçok örtüşme yaratması nedeniyle oluşur. Bu genellikle pazarın neler olduğu konusunda bir farkındalık eksikliğinden kaynaklanmaktadır. Boşlukları kapatmanın ilk adımı, neler olduğunu, işbirliği fırsatlarının nerede olduğunu, rekabetin nerede inovasyonu sürdürebileceğini ve sonunda ekosistemin nasıl geliştirilebileceğini anlamaktır. Yapay zeka altyapısı pazarındaki benzersiz bir boşluk, güçtür; GPU’lar mevcut olsa bile, genellikle yapay zeka uygulamalarının artan sayısını desteklemek için yeterli enerji yoktur. Bu kaynak zorluklarını çözerek, önümüzdeki yıllarda sürdürülebilir büyüme ve inovasyonu ermögilmekteyiz.

Doğrudan sıvı soğutma ve UEC-ready ağ (Evrensel Ethernet Konsorsiyumu) gibi özellikler performansı ve maliyet etkinliğini nasıl geliştirir?

Doğrudan sıvı soğutma ve UEC-ready ağ, modern bir yapay zeka bulutunun ekonomik olarak uygulanabilir olmasını sağlayan temel özelliklerdir ve her ikisi de TensorWave’u nasıl tasarladığımızın merkezinde yer alır.

Doğrudan sıvı soğutma hakkında: en yeni hızlandırıcı nesilleri, AMD’nin MI355X ve MI455X, hava soğutmasının verimli bir şekilde ele alamayacağı termal zarflara sahiptir. 1400W+ TDP’ler başına GPU’dan bahsediyoruz. Doğrudan sıvı soğutma, soğuk plaka veya dalma tasarımları aracılığıyla kaynağından ısıyı entferir, bu da müşterilerimiz için üç şey yapar. İlk olarak, önemli ölçüde daha yüksek rafta yoğunluğuna olanak tanır, 120-300kW+ rafta yerine 30 ila 40kW, bu da ayak izini sıkıştırır ve megawatt başına gerçekçi ve güç dağıtım maliyetlerini azaltır. İkincisi, PUE’yu 1.1’e yaklaştırır, miras hava soğutmalı tesislerde 1.4 ila 1.5’e kıyasla; bizim ölçekte, bu, yılda on milyonlarca dolarlık fayda sağlar. Üçüncüsü, genellikle göz ardı edilen, silikonu daha düşük, daha稳 định birleşim sıcaklığında tutar, bu da uzun eğitim sürümleri sırasında sürekli saat hızlarını korur ve donanımın useful ömrünü uzatır. Bu son nokta, altı yıllık bir varlık için güvence altına aldığımızda enorm önem taşır.

UEC hakkında: Ultra Ethernet Konsorsiyumu standardı, AMD’nin kurucularından biri olduğu ve 2025 yılında 1.0’a ulaştığı, gerçekten önemli olan dağıtılmış eğitim için InfiniBand ile eşdeğer veya daha iyi olan bir açık, tüccar-silikon kumaşı sağlar. Maliyet hikayesi yapısal. Ethernet, fiyat konusunda yarışan altı tane güvenilir tüccar-silikon satıcısına sahiptir, tek kaynaklı bir alternatife kıyaslapremium. 100MW’lik bir site için, UEC-ready ağ ile özel bir kumaş arasında seçim yapmak genellikle bir九figure CAPEX kararıdır ve operasyonel avantajlar birikebilir, çünkü ağ mühendislerimiz zaten Ethernet’i biliyor.

Bu seçimler birlikte, müşterilerimize daha iyi eğitim ekonomisi sunmamızı sağlar. Müşteriler, daha yüksek etkili FLOPs/dolar, büyük işlerde daha öngörülebilir adım süreleri ve modellerin ölçeklenmesi için net bir yol görür. Bizim için, bunlar daha savunulabilir bir maliyet yapısı ve gerçekten rekabetçi oran kartlarını sunma esnekliği anlamına gelir.

Müşteriler TensorWave’u büyük ölçekli yapay zeka modellerini eğitmek için nasıl kullanıyor?

TensorWave müşterileri, GPU kıtlığı, satıcı kilidi veya kontrolsüz maliyetler olmadan yüksek performanslı yapay zeka hesaplama ihtiyacına sahiptir. TensorWave, özel AMD bulutu – açık, bellek optimize edilmiş ve üretim hazır – sunar, bu da ekiplerin erişilebilir, esnek ve maliyet etkin ölçeklenebilir yapay zeka altyapısına sahip olmasını sağlar.

Örneğin, Modular, TensorWave’un AMD GPU altyapısı üzerinde MAX çıkarım yığınını çalıştırmayı tercih etti, çünkü TensorWave, büyük ölçekli yapay zeka çıkarımı için önemli ölçüde daha iyi maliyet-etkinlik ekonomisi sunuyor. Modular’ın MAX’ı TensorWave’un AMD hesabında çalıştırması, diğer GPU yığınlarına kıyasla milyon token başına %70 daha düşük maliyet, %57 daha hızlı aktarım hızı ve daha düşük genel maliyet sağlar.

Nvidia’nın devam eden hakimiyeti ile, TensorWave gibi rakipler için en büyük fırsatlar nerede?

Yapay zeka hesabının hakim olduğu bir alanda, en büyük zorluklar, pazara girme hızı, en son teknolojinin sunulması ve olağanüstü destek sağlanmasıdır. Hyperscalers genellikle birçok seçenek sunar, ancak müşterilerin ihtiyaç duyduğu odak veya kişiselleştirilmiş rehberliği sunmakta zorlanırlar. Nvidia’nın hakimiyetini kırarak, TensorWave gücümüzü odaklıyoruz ve müşterilerimize en iyi teknolojiyi sunmak için işbirliği yapıyoruz.

Nvidia’nın yapay zeka altyapısı hakimiyetini挑戰 etmek için iki büyük fırsat, açık ekosistemler ve bellektir. Açık ekosistemler, her katmanda (donanım, ara bağlantı ve yazılım) kilidi ortadan kaldırır. Ayrıca, ağ optimize edilmiş eğitim/çıkarım ile bellek, maliyet eğrisini çevirir.

Beş yıl sonrasına bakıldığında, yapay zeka altyapısının geleceğini ve TensorWave’un bu gelecekteki rolünü nasıl görüyorsunuz?

Yıllarca, yapay zeka altyapısında iyi,稳定 ve kullanımı kolay olmasını sağlamak hedeflenmiştir. Sonraki aşama, bunun üzerine ne sunabileceğimiz hakkında olacak – yönetilen hizmetler, AI-as-a-Service, müşterilerin daha kolay bir şekilde dağıtabilmesi ve ölçeklenebilmesi için her şey.

Bir büyük dönüşümün başlangıcındayız. Yapay zeka teknolojisi sürekli olarak ilerlemekte ve AMD gibi alternatifler giderek daha viable hale gelmektedir. Bunun xảyacağı zaman, müşteriler bunları ölçekte dağıtmakta daha rahat hissedecekler ve tüm ekosistem açılacak ve büyüyecektir.

Harika bir röportaj için teşekkür ederiz, bu yenilikçi yapay zeka altyapısı şirketini öğrenmek isteyen herkes TensorWave ziyaret edebilir.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, COO da TensorWave – Série de Entrevistas

mm

Darrick Horton, COO da TensorWave, é um executivo de tecnologia e empreendedor com experiência profunda em infraestrutura de IA, computação em nuvem e sistemas de hardware avançados. Com um histórico que abrange arquitetura de centro de dados, tecnologias de semicondutores e computação de alto desempenho, ele desempenhou um papel central na escalada de plataformas de computação de IA de próxima geração. Antes de sua liderança na TensorWave, Horton trabalhou em iniciativas de engenharia avançada, incluindo pesquisas de fusão nuclear na Skunk Works da Lockheed Martin e contribuiu para projetos de física de plasma e astrofísica financiados pela NASA. Sua carreira reflete um foco consistente em resolver desafios técnicos complexos e de grande escala e traduzi-los em soluções de infraestrutura práticas para tecnologias emergentes.

TensorWave é uma empresa de infraestrutura de IA focada em fornecer computação em nuvem de alto desempenho alimentada por GPUs da AMD, posicionando-se como uma alternativa a ecossistemas de IA mais fechados. Fundada em 2023 e sediada em Las Vegas, a empresa constrói clusters de GPUs de grande escala otimizados para treinar e implantar modelos de IA avançados, com ênfase em desempenho, flexibilidade e eficiência de custo. Ao aproveitar ecossistemas de hardware e software abertos, a TensorWave visa ampliar o acesso a recursos de computação de IA poderosos para empresas, pesquisadores e desenvolvedores, permitindo cargas de trabalho de IA escaláveis sem as restrições de bloqueio de fornecedor tradicional.

Nvidia domina a maior parte do mercado de GPUs – por que você decidiu apostar tudo na AMD e quais vantagens essa escolha dá à TensorWave e aos seus clientes?

Após o lançamento do ChatGPT, a demanda por IA disparou. As GPUs foram rapidamente compradas e a Nvidia era basicamente a única opção, se você conseguisse obtê-la e se pudesse lidar com o custo. Essa escassez despertou um grande interesse em alternativas. Agora que passamos a hiperia inicial, há uma oportunidade real de desafiar a dominância da Nvidia com soluções acessíveis, eficientes em termos de custo e fáceis de usar.

Como uma startup, sempre tomamos decisões de negócios com um foco forte e um propósito. É por isso que não experimentamos com a Nvidia e continuamos construindo nossas capacidades na AMD. A próxima fase da nossa empresa é sobre aproveitar essas capacidades focadas para que qualquer pessoa possa entrar e fazer algo significativo com a IA. A AMD é uma alternativa credível com escala de fabricação real, uma postura de software aberto e uma estrada de memória para a IA moderna.

Como a abordagem da TensorWave para a infraestrutura de IA difere dos provedores de nuvem de GPU tradicionais?

Nossa diferença é direta: somos a única nuvem exclusiva da AMD em escala, buscando restaurar a escolha na computação de IA, quebrar a dominância da Nvidia e democratizar o acesso. Mas também é sobre nossa ética e compromisso em trazer uma alternativa real para o mercado. Em primeiro lugar e acima de tudo, queremos fornecer infraestrutura de classe mundial baseada na AMD em escala. A partir daí, expandiremos para serviços de nível superior sobre isso – Modelos como um Serviço, IA como um Serviço, tornando tudo mais simples.

Como uma nuvem exclusiva da AMD, temos experiência em software construída especificamente para a AMD desde o início. Esse foco nos permite otimizar o silício, a rede e o software de ponta a ponta, garantindo que as equipes possam escalar quando necessário.

Qual é o papel da parceria estratégica com a AMD no crescimento e na diferenciação da TensorWave?

É fundamental. A AMD investiu na TensorWave, nos convidou para o lançamento do MI300X Instinct e continuamos a colaborar estreitamente em hardware, habilitação de software e crescimento do ecossistema. Ser uma nuvem exclusiva da AMD significa que podemos nos mover rapidamente com cada geração do Instinct e servir como um laboratório vivo que fornece, em escala, alternativas dentro do nosso mercado. Nossa diferenciação exclusiva da AMD nos permitiu trabalhar a um ritmo que não é tão alcançável no mercado de infraestrutura de IA. A parceria da AMD nos permite fechar lacunas rapidamente, enviar primeiro os novos GPUs e publicar desempenho real em escala.

O acesso a GPUs permanece um grande gargalo para as equipes de IA – como a TensorWave está lidando com esse desafio?

Estamos lidando com esses gargalos primeiro por meio da independência de fornecimento: ao construir na AMD, evitamos as piores restrições de fornecimento de outros fabricantes de chips e passamos a disponibilidade para os clientes.

Existem lacunas no ecossistema de infraestrutura de IA porque muitos jogadores estão construindo soluções semelhantes, criando muita sobreposição. Isso muitas vezes vem de uma falta de conscientização sobre o que está acontecendo em todo o mercado. O primeiro passo para fechar essas lacunas é entender quem está fazendo o quê, onde existem oportunidades de colaboração, onde a competição pode impulsionar a inovação e, em última análise, como o ecossistema pode melhorar como um todo. Uma lacuna única no mercado de infraestrutura de IA é o poder; mesmo que as GPUs estejam disponíveis, muitas vezes não há energia suficiente para suportar o número crescente de aplicações de IA. Resolver esses desafios de recursos é a chave para permitir o crescimento sustentável e a inovação nos anos vindouros.

Como recursos como resfriamento líquido direto e rede pronta para UEC (Consórcio de Ethernet Universal) melhoram o desempenho e a eficiência de custo?

Resfriamento líquido direto e rede pronta para UEC são fundamentais para o que torna uma nuvem de IA economicamente viável em escala e ambos são centrais para como projetamos a TensorWave.

Sobre o DLC: as gerações mais recentes de aceleradores, como o MI355X e o MI455X da AMD, operam em envelopes térmicos que o ar simplesmente não pode lidar de forma eficiente. Estamos falando de TDPs de 1400W+ por GPU. O resfriamento líquido direto remove o calor na fonte por meio de designs de placa fria ou imersão, o que faz três coisas para os nossos clientes. Primeiro, permite uma densidade de rack substancialmente maior, 120-300kW+ por rack, em vez de 30 a 40kW, o que comprime o espaço e reduz os custos de distribuição de energia e real estate por megawatt. Segundo, impulsiona o PUE em direção a 1,1, em vez de 1,4 a 1,5 para instalações resfriadas a ar legadas; em nossa escala, isso se traduz em dezenas de milhões de dólares em economia de utilidades anuais. Terceiro, e frequentemente subestimado, o DLC mantém o silício em temperaturas mais baixas e estáveis, o que preserva as taxas de relógio sustentadas durante longas execuções de treinamento e estende a vida útil do hardware. Esse último ponto é enormemente importante quando você está garantindo um ativo de seis anos.

Sobre a UEC: o padrão do Consórcio de Ethernet Ultra, que a AMD ajudou a fundar e que alcançou a versão 1.0 em 2025, nos fornece uma rede de tecido aberta, de silício mercantil, que atende ou supera a InfiniBand nas métricas que realmente importam para o treinamento distribuído. A história de custo é estrutural. O Ethernet tem meia dúzia de fornecedores de silício mercantil credíveis competindo em preço, em vez de uma alternativa de única fonte que carrega um prêmio bem documentado. Para um local de 100MW, escolher uma rede pronta para a UEC em vez de um tecido proprietário é normalmente uma decisão de CAPEX de nove algarismos, e as vantagens operacionais se somam porque nossos engenheiros de rede já conhecem o Ethernet.

Tomados em conjunto, essas escolhas nos permitem entregar uma economia de treinamento melhor do que as nuvens legadas. Os clientes veem FLOPs eficazes por dólar mais altos, tempos de passo mais previsíveis em trabalhos grandes e uma via clara à medida que os modelos escalam. Para nós, significam uma estrutura de custo mais defensável e a flexibilidade de oferecer taxas de concorrência genuína.

Posso compartilhar exemplos de como os clientes estão utilizando a TensorWave para treinar modelos de IA de grande escala?

Os clientes da TensorWave precisam de computação de IA de alto desempenho sem escassez de GPUs, bloqueio de fornecedor ou custos descontrolados. A TensorWave fornece uma nuvem exclusiva da AMD – aberta, otimizada para memória e pronta para produção, o que fornece às equipes infraestrutura de IA escalável que é acessível, flexível e eficiente em termos de custo.

Por exemplo, a Modular optou por executar sua pilha de inferência MAX na infraestrutura de GPU da AMD da TensorWave porque a TensorWave fornece uma economia de custo-desempenho significativamente melhor para a inferência de IA de grande escala. Ao executar a pilha MAX da Modular na computação da AMD da TensorWave, eles alcançam até 70% de redução de custo por milhão de tokens, 57% de aumento de taxa de transferência e menos custo geral do que outras pilhas de GPU.

Com a continuação da dominância da Nvidia, onde você vê as maiores oportunidades para desafiantes como a TensorWave?

Em um espaço de computação de IA dominado por alguns grandes jogadores, os maiores desafios são alcançar a velocidade de mercado, entregar a tecnologia mais recente e fornecer suporte excepcional. Os hyperscalers frequentemente oferecem uma ampla gama de opções, mas lutam para fornecer o foco ou orientação personalizada que os clientes precisam. Para romper esse espaço dominado, a TensorWave se concentra em nossas forças, enquanto colabora para fornecer a melhor tecnologia possível e garantir que os clientes tenham opções alternativas.

As duas maiores oportunidades para desafiantes da dominância da Nvidia na infraestrutura de IA são nos ecossistemas abertos e na memória. Os ecossistemas abertos eliminam o bloqueio em cada camada (hardware, interconexão e software). Além disso, a memória em parceria com o treinamento/inferência otimizado para rede inverte a curva de custo.

Olhando cinco anos à frente, como você vê o futuro da infraestrutura de IA e o papel da TensorWave nela?

Por anos, o objetivo na infraestrutura de IA foi torná-la boa, estável e fácil de usar. A próxima fase será sobre o que você pode entregar em cima disso – serviços gerenciados, IA como um Serviço, qualquer coisa que ajude os clientes a implantar e escalar mais facilmente.

Estamos no início de uma grande transformação. A tecnologia de IA continua avançando e alternativas como a AMD estão se tornando cada vez mais viáveis. À medida que isso acontece, os clientes se tornarão mais confortáveis em implantá-las em escala e todo o ecossistema começará a se abrir e crescer.

Obrigado pela ótima entrevista, qualquer pessoa que queira aprender mais sobre essa empresa inovadora de infraestrutura de IA deve visitar TensorWave.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, COO компанії TensorWave – Серія інтерв’ю

mm

Darrick Horton, COO компанії TensorWave, є технологічним виконавцем та підприємцем з глибоким досвідом у сфері інфраструктури штучного інтелекту, обчислювальних систем у хмарі та передових апаратних систем. З тлом, що охоплює архітектуру центрів даних, напівпровідникові технології та високопродуктивні обчислювальні системи, він відіграв центральну роль у масштабуванні платформ обчислень наступного покоління штучного інтелекту. До свого керівництва в компанії TensorWave Horton працював над просунутими інженерними ініціативами, включаючи дослідження ядерного синтезу в компанії Lockheed Martin’s Skunk Works, та брав участь у проектах фізики плазми та астрофізики, фінансуваних НАСА. Його кар’єра характеризується постійним фокусом на вирішенні складних, великомасштабних технічних завдань та їх перетворенні у практичні інфраструктурні рішення для нових технологій.

TensorWave є компанією з інфраструктури штучного інтелекту, яка зосереджена на наданні високопродуктивних обчислювальних послуг у хмарі, заснованих на графічних процесорах компанії AMD, позиціонуючи себе як альтернативу більш закритим екосистемам штучного інтелекту. Заснована у 2023 році та розташована у Лас-Вегасі, компанія будує великомасштабні кластери графічних процесорів, оптимізовані для навчання та розгортання передових моделей штучного інтелекту, з акцентом на продуктивності, гнучкості та ефективності витрат. Використовуючи відкриті апаратні та програмні екосистеми, компанія TensorWave має на меті розширити доступ до потужних ресурсів обчислень штучного інтелекту для підприємств, дослідників та розробників, забезпечуючи масштабовані завдання штучного інтелекту без обмежень традиційної залежності від постачальника.

Nvidia домінує на більшості ринку графічних процесорів — чому ви вирішили повністю зайнятися AMD, і які переваги це дає компанії TensorWave та її клієнтам?

Після запуску ChatGPT попит на штучний інтелект стрімко зріс. Графічні процесори швидко розійшлися, і NVIDIA була майже єдиною варіантом, якщо ви могли його придбати, і якщо ви могли собі це дозволити. Ця нестача викликала величезний інтерес до альтернатив. Тепер, коли ми пройшли початковий етап гіпу, існує реальна можливість викликати домінанції NVIDIA з допомогою рішень, які є доступними, ефективними з точки зору витрат та легкими у використанні.

Як стартап, ми завжди приймали бізнес-рішення з сильним фокусом та метою. Саме тому ми не експериментували з NVIDIA, а продовжували розбудовувати свої можливості на основі AMD. Наступний етап нашої компанії полягає у тому, щоб ще більше зосередитися на цих можливостях, щоб кожен міг зайнятися чимось значимим у сфері штучного інтелекту. AMD є достойною альтернативою з реальною масштабованістю виробництва, відкритим програмним забезпеченням та планом першої пам’яті для сучасного штучного інтелекту.

Як підхід компанії TensorWave до інфраструктури штучного інтелекту відрізняється від традиційних постачальників хмарних графічних процесорів?

Наша диференціація проста: ми є єдиною хмарою, ексклюзивно заснованою на AMD, яка прагне відновити вибір у сфері обчислень штучного інтелекту, порушити домінанцію NVIDIA та демократизувати доступ. Але це також стосується нашої етики та зобов’язання щодо надання справжньої альтернативи ринку. Насамперед ми хочемо надати виняткову інфраструктуру, засновану на AMD, у масштабі. Відтоді ми розширимо свій спектр послуг на вершині цього – Моделі як сервіс, Штучний інтелект як сервіс, роблячи все простішим.

Як хмара, ексклюзивно заснована на AMD, ми маємо програмний досвід, спеціально розроблений для AMD з дня заснування. Цей фокус дозволяє нам оптимізувати кремній, мережу та програмне забезпечення від початку до кінця, забезпечуючи можливість командам масштабуватися, коли це потрібно.

Яка роль стратегічного партнерства з AMD відіграє у зростанні та диференціації компанії TensorWave?

Це фундаментально. AMD інвестувала у компанію TensorWave, запросила нас до участі у запуску MI300X Instinct, і ми продовжимо тісну співпрацю щодо апаратного забезпечення, програмної реалізації та росту екосистеми. Бути хмарою, ексклюзивно заснованою на AMD, означає, що ми можемо швидко рухатися з кожним поколінням Instinct, і служити живим лабораторним майданчиком, який пропонує, у масштабі, альтернативи на нашому ринку. Наша диференціація, заснована виключно на AMD, дозволила нам працювати з темпом, який не є такою ж досягнутою на ринку інфраструктури штучного інтелекту. Партнерство з AMD дозволяє нам швидко закрити прогалини, першими надати нові графічні процесори, і опублікувати реальну продуктивність у масштабі.

Доступ до графічних процесорів залишається однією з основних проблем для команд штучного інтелекту — як компанія TensorWave подолає цю проблему?

Ми подолаємо ці проблеми насамперед через незалежність постачання: будучи заснованими на AMD, ми уникнемо найбільшої частини обмежень постачання інших виробників мікрочипів, і передамо доступність нашим клієнтам.

Прогалини в екосистемі інфраструктури штучного інтелекту існують через те, що багато гравців будують подібні рішення, створюючи багато перекриття. Це часто відбувається через відсутність усвідомлення того, що відбувається на ринку. Перший крок до закриття цих прогалин полягає у розумінні того, хто робить що, де існують можливості для співпраці, де конкуренція може стимулювати інновації, і в кінцевому підсумку, як екосистема може покращитися в цілому. Однією з унікальних прогалин на ринку інфраструктури штучного інтелекту є потужність; навіть якщо графічні процесори доступні, часто немає достатньої кількості енергії для підтримки зростаючої кількості застосунків штучного інтелекту. Рішення цих проблем з ресурсами є нашим ключем до забезпечення сталого зростання та інновацій у майбутньому.

Як такі функції, як прямое охолодження рідиною та мережеві можливості UEC (Універсальний консорціум Ethernet), підвищують продуктивність та ефективність витрат?

Прямое охолодження рідиною та мережеві можливості UEC є фундаментальними для того, що робить хмару штучного інтелекту економічно життєздатною у масштабі, і обидва є центральними для того, як ми спроєктували компанію TensorWave.

Відносно прямого охолодження рідиною: новітні покоління прискорювачів, такі як MI355X та MI455X від компанії AMD, працюють у термічних оболонках, які повітря просто не може обробляти ефективно. Ми говоримо про 1400 Вт+ ТДП на графічний процесор. Прямое охолодження рідиною видаляє тепло у джерелі через холодну пластину або конструкцію занурення, що робить три речі для наших клієнтів. По-перше, це дозволяє суттєво підвищити щільність стелажів, 120-300 кВт+ на стелаж, замість 30 до 40 кВт, що стискає площу та скорочує витрати на оплату за мегават та розподілення енергії. По-друге, це сприяє зниженню коефіцієнта hiệu quả використання енергії (PUE) до 1,1, порівняно з 1,4 до 1,5 для традиційних повітряно-охолоджуваних об’єктів; на нашому рівні це перекладеться у десятки мільйонів доларів за рік за рахунок зниження витрат на комунальні послуги. По-третє, і часто недооцінюється, прямое охолодження рідиною тримає кремній при нижчих, більш стабільних температурах сполучення, що зберігає тривалі тактові частоти під час довгих тренувальних сесій та розширює термін корисного життя апаратного забезпечення. Останній пункт має величезне значення, коли ви фінансуєте шестирічний актив.

Відносно UEC: специфікація Універсального консорціуму Ethernet, яку компанія AMD допомогла заснувати та яка досягла версії 1.0 у 2025 році, надає нам відкриту, мерчантську мережеву тканину, яка відповідає або перевершує InfiniBand за метриками, які насправді мають значення для розподіленого навчання. Затримка на колективних операціях, ефективна смуга пропускання під час конфліктів та поведінка масштабування після порогу у 100 000 графічних процесорів. Історія витрат є структурною. Ethernet має півдюжини достойних мерчантських виробників силікону, які конкурують за ціну, порівняно з однозначною альтернативою, яка має добре задокументований преміум. Для об’єкта потужністю 100 МВт вибір мережі UEC замість пропрієтарної тканини зазвичай є дев’ятисильною капітальною витратою, а операційні переваги складуються, оскільки наші мережеві інженери вже знають Ethernet.

Взяті разом, ці рішення дозволяють нам надавати кращу економіку навчання, ніж традиційні хмари. Клієнти бачать вищу ефективну продуктивність на долар, більш передбачувані часи виконання великих завдань та чітку перспективу зростання моделей. Для нас це означає більш захищену структуру витрат та гнучкість для пропозиції дійсно конкурентоспроможних тарифних планів.

Чи можете ви поділитися прикладами того, як клієнти використовують компанію TensorWave для навчання великомасштабних моделей штучного інтелекту?

Клієнти компанії TensorWave потребують високопродуктивних обчислень штучного інтелекту без нестачі графічних процесорів, залежності від постачальника або неконтрольованих витрат. Компанія TensorWave пропонує ексклюзивну хмару AMD – відкриту, оптимізовану за пам’яттю та готову до виробництва, що надає командам масштабовані інфраструктурні ресурси штучного інтелекту, які є доступними, гнучкими та ефективними з точки зору витрат.

Наприклад, компанія Modular вирішила запустити свій стек інференції MAX на інфраструктурі графічних процесорів AMD компанії TensorWave, оскільки компанія TensorWave пропонує суттєво кращу економіку витрат для великомасштабної інференції штучного інтелекту. Запускаючи MAX компанії Modular на інфраструктурі обчислень AMD компанії TensorWave, вони досягають зниження витрат на мільйон токенів до 70%, збільшення пропускної здатності на 57% та загальних витрат менше, ніж у інших стеків графічних процесорів.

З огляду на тривалу домінанцію NVIDIA, де ви бачите найбільші можливості для конкурентів, таких як компанія TensorWave?

У сфері обчислень штучного інтелекту, яка домінується кількома великими гравцями, найбільшими викликами є досягнення швидкості виходу на ринок, надання останньої технології та забезпечення виняткової підтримки. Гіперскели часто пропонують широкий спектр варіантів, але борються з тим, щоб надати необхідний фокус або персоналізовану підтримку, якої потребують клієнти. Щоб прорватися через цю домінанцію, компанія TensorWave зосереджується на своїх сильних сторонах, співпрацюючи для надання найкращої технології та забезпечення того, щоб клієнти мали альтернативні варіанти.

Дві найбільші можливості для конкурентів домінанції NVIDIA у сфері інфраструктури штучного інтелекту лежать у відкритих екосистемах та пам’яті. Відкриті екосистеми ліквідують залежність на кожному рівні (апаратне забезпечення, інтерконект, програмне забезпечення). Крім того, пам’ять у поєднанні з мережевим тренуванням/інференцією перевертає криву витрат.

Оглядаючи перспективу п’яти років вперед, як ви бачите майбутнє інфраструктури штучного інтелекту та роль компанії TensorWave в ньому?

Тривалий час метою інфраструктури штучного інтелекту було зробити її доброю, стабільною та легкою у використанні. Наступний етап буде полягати у тому, що ви можете надати на вершині цього – керованих сервісів, штучного інтелекту як сервісу, всього, що допоможе клієнтам розгортати та масштабувати більш легко.

Ми находимося на початку великої трансформації. Технологія штучного інтелекту продовжує розвиватися, а альтернативи, такі як AMD, стають дедалі більш життєздатними. Коли це відбувається, клієнти стануть більш комфортними при розгортанні їх у масштабі, і вся екосистема починає відкриватися та розвиватися.

Дякуємо за велике інтерв’ю, кожен, хто бажає дізнатися більше про цю інноваційну компанію з інфраструктури штучного інтелекту, повинен відвідати TensorWave.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, COO of TensorWave – Interview Series

mm

Darrick Horton, COO of TensorWave, is a technology executive and entrepreneur with deep experience in AI infrastructure, cloud computing, and advanced hardware systems. With a background spanning data center architecture, semiconductor technologies, and high-performance computing, he has played a central role in scaling next-generation AI compute platforms. Prior to his leadership at TensorWave, Horton worked on advanced engineering initiatives including nuclear fusion research at Lockheed Martin’s Skunk Works and contributed to NASA-funded plasma physics and astrophysics projects. His career reflects a consistent focus on solving complex, large-scale technical challenges and translating them into practical infrastructure solutions for emerging technologies.

TensorWave is an AI infrastructure company focused on delivering high-performance cloud computing powered by AMD GPUs, positioning itself as an alternative to more closed AI ecosystems. Founded in 2023 and headquartered in Las Vegas, the company builds large-scale GPU clusters optimized for training and deploying advanced AI models, with an emphasis on performance, flexibility, and cost efficiency. By leveraging open hardware and software ecosystems, TensorWave aims to broaden access to powerful AI compute resources for enterprises, researchers, and developers, enabling scalable AI workloads without the constraints of traditional vendor lock-in.

Nvidia dominates most of the GPU market—why did you decide to go all-in on AMD, and what advantages does that choice give TensorWave and its customers?

Following the launch of ChatGPT, demand for AI skyrocketed. GPUs snapped up fast, and NVIDIA was basically the only option if you could get it at all, and if you could handle the cost. That shortage sparked a huge interest in alternatives. Now that we’re past the initial hype, there’s a real opportunity to challenge Nvidia’s dominance with solutions that are accessible, cost-effective, and easy to use.

As a startup, we’ve always made business decisions with a strong focus and purpose. That’s why we haven’t experimented with Nvidia, and we’ve continued building out our capabilities on AMD. The next phase of our company is about leaning into those focused capabilities so anyone can jump in and do something meaningful with AI. AMD is a credible alternative with real manufacturing scale, an open software posture, and a memory-first roadmap for modern AI.

How does TensorWave’s approach to AI infrastructure differ from traditional GPU cloud providers?

Our differentiation is straightforward: we’re the only AMD-exclusive cloud at scale, setting out to restore choice in AI compute, break Nvidia’s dominance, and democratize access. But it’s also about our ethos and commitment to bringing a true alternative to the market. First and foremost, we want to deliver exceptional AMD-based infrastructure at scale. From there, we’ll expand into top-tier services on top of it– Models-as-a-Service, AI-as-a-Service, making everything simpler.

As an all-AMD cloud, we have software experience built specifically for AMD from day one. This focus lets us optimize silicon, networking, and software end-to-end, ensuring that teams can scale when they need to.

What role does your strategic partnership with AMD play in TensorWave’s growth and differentiation?

It’s foundational. AMD invested in TensorWave, invited us into the MI300X Instinct launch, and we continue to collaborate tightly on hardware, software enablement, and ecosystem growth. Being an all-AMD cloud means we can move quickly with each Instinct generation, and serve as a living lab that provides, at scale, alternatives within our market. Our AMD-only differentiation has allowed us to work at a pace that is not as achievable in the AI infrastructure market. Their partnership lets us close gaps quickly, ship first on new GPUs, and publish real performance at scale.

GPU access remains a major bottleneck for AI teams—how is TensorWave tackling this challenge?

We are tackling these bottlenecks first through supply independence: by building on AMD, we avoid the worst of other chip manufacturers’ supply constraints, and pass on availability to customers. Supply independence through AMD makes sure our customers aren’t stuck waiting in the same queue as everyone else.

Gaps in the AI infrastructure ecosystem exist because so many players are building similar solutions, creating a lot of overlap. That often comes from a lack of awareness about what’s happening across the market. The first step to closing those gaps is understanding who’s doing what, where there are opportunities for collaboration, where competition can drive innovation, and ultimately, how the ecosystem can improve as a whole. One unique gap in the AI infrastructure market is power; even if GPUs are available, there often isn’t enough energy to support the growing number of AI applications. Solving these resource challenges are our key to enabling  sustainable growth and innovation in the years ahead.

How do features like direct liquid cooling and UEC-ready networking (Universal Ethernet Consortium) enhance performance and cost efficiency?

Direct liquid cooling and UEC-ready networking are foundational to what makes a modern AI cloud economically viable at scale, and both are central to how we’ve designed TensorWave.

On DLC: the newest accelerator generations, AMD’s MI355X and MI455X, run at thermal envelopes air simply can’t handle efficiently. We’re talking 1400W+ TDPs per GPU. Direct liquid cooling removes heat at the source via cold plate or immersion designs, which does three things for our customers. First, it enables substantially higher rack density, 120-300kW+ per rack instead of 30 to 40kW, which compresses the footprint and cuts per megawatt real estate and power distribution costs. Second, it drives PUE toward 1.1, versus 1.4 to 1.5 for legacy air-cooled facilities; at our scale, that translates to tens of millions of dollars in annual utility savings. Third, and often underappreciated, DLC holds silicon at lower, more stable junction temperatures, which preserves sustained clock rates during long training runs and extends the useful life of the hardware. That last point matters enormously when you’re underwriting a six-year asset.

On UEC: the Ultra Ethernet Consortium spec, which AMD helped found and which reached 1.0 in 2025, gives us an open, merchant-silicon fabric that meets or exceeds InfiniBand on the metrics that actually matter for distributed training. Tail latency on collectives, effective bandwidth under contention, and scaling behavior past the 100,000 GPU threshold. The cost story is structural. Ethernet has a half dozen credible merchant silicon vendors competing on price, versus a single-source alternative that carries a well-documented premium. For a 100MW site, choosing UEC-ready networking over proprietary fabric is typically a nine-figure CAPEX decision, and the operational advantages compound because our network engineers already know Ethernet.

Taken together, these choices let us deliver better training economics than legacy clouds. Customers see higher effective FLOPs per dollar, more predictable step times on large jobs, and a clear runway as models scale. For us, they mean a more defensible cost structure and the flexibility to offer genuinely competitive rate cards.

Can you share examples of how customers are leveraging TensorWave to train large-scale AI models?

TensorWave customers need high-performance AI compute without GPU scarcity, vendor lock-in, or runaway costs. TensorWave provides exclusive AMD cloud – open, memory-optimized, and production-ready, which gives teams scalable AI infrastructure that’s accessible, flexible, and cost-effective.

For Example, Modular chose to run its MAX inference stack on TensorWave’s AMD GPU infrastructure because TensorWave delivers significantly better cost‑performance economics for large‑scale AI inference. By running Modular’s MAX on TensorWave’s AMD compute, they achieve up to 70% lower cost per million tokens, 57% faster throughput, and less overall cost than other GPU stacks.

With Nvidia’s continued dominance, where do you see the biggest opportunities for challengers like TensorWave?

In an AI compute space that’s dominated by a few major players, the greatest challenges are achieving speed to market, delivering the latest technology, and providing exceptional support. Hyperscalers often offer a wide range of options, but struggle to provide the focus or personalized guidance customers need. To break through this dominated space, TensorWave focuses on our strengths, while collaborating to provide the best technology possible and ensuring customers have alternative options.

The two biggest opportunities for challengers of NVIDIA’s AI infrastructure dominance are in open ecosystems and memory. Open ecosystems eliminate lock-in at every layer (hardware, interconnect, and software). Additionally, memory partnered with network-optimized training/inference flips the cost curve.

Looking five years ahead, how do you envision the future of AI infrastructure and TensorWave’s role in it?

For years, the goal in AI infrastructure was to make it good, make it stable, and make it easy to use. The next phase will be about what you can deliver on top of that—managed services, AI-as-a-Service, anything that helps customers deploy and scale more easily.

We’re at the beginning of a major transformation. AI technology keeps advancing, and alternatives like AMD are becoming more and more viable. As that happens, customers will get more comfortable deploying them at scale, and the entire ecosystem will start to open up and grow.

Thank you for the great interview, anyone wanting to learn more about this innovative AI infrastructure company should visit TensorWave.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Даррик Хортон, COO TensorWave – Интервью-серия

mm

Даррик Хортон, COO TensorWave, является технологическим руководителем и предпринимателем с глубоким опытом в области инфраструктуры ИИ, облачных вычислений и передовых аппаратных систем. С опытом, охватывающим архитектуру центров обработки данных, полупроводниковые технологии и высокопроизводительные вычисления, он сыграл центральную роль в масштабировании платформ вычислений следующего поколения ИИ. До своего руководства в TensorWave Хортон работал над передовыми инженерными инициативами, включая исследования ядерного синтеза в Lockheed Martin’s Skunk Works, и внес вклад в проекты физики плазмы и астрофизики, финансируемые НАСА. Его карьера характеризуется постоянной направленностью на решение сложных, крупномасштабных технических задач и перевод их в практические решения инфраструктуры для новых технологий.

TensorWave – это компания по инфраструктуре ИИ, ориентированная на предоставление высокопроизводительных облачных вычислений, работающих на GPU AMD, позиционирующая себя как альтернатива более закрытым экосистемам ИИ. Основанная в 2023 году и имеющая штаб-квартиру в Лас-Вегасе, компания строит крупномасштабные кластеры GPU, оптимизированные для обучения и развертывания передовых моделей ИИ, с упором на производительность, гибкость и эффективность затрат. Используя открытые аппаратные и программные экосистемы, TensorWave стремится расширить доступ к мощным ресурсам вычислений ИИ для предприятий, исследователей и разработчиков, позволяя масштабировать рабочие нагрузки ИИ без ограничений традиционной привязки к поставщику.

Nvidia занимает большинство рынка GPU – почему вы решили полностью сосредоточиться на AMD, и какие преимущества дает этот выбор TensorWave и ее клиентам?

После запуска ChatGPT спрос на ИИ взлетел. GPU быстро раскупились, и NVIDIA была практически единственным вариантом, если его можно было получить вообще, и если вы могли позволить себе это. Этот дефицит вызвал огромный интерес к альтернативам. Теперь, когда мы прошли первоначальный ажиотаж, есть реальная возможность бросить вызов доминированию Nvidia с помощью решений, которые являются доступными, эффективными по затратам и простыми в использовании.

Как стартап, мы всегда принимали бизнес-решения с сильным фокусом и целью. Вот почему мы не экспериментировали с Nvidia и продолжали развивать наши возможности на базе AMD. Следующая фаза нашей компании заключается в том, чтобы использовать наши сосредоточенные возможности, чтобы любой мог приступить и сделать что-то значимое с помощью ИИ. AMD является достоверной альтернативой с реальным производственным масштабом, открытым программным положением и дорожной картой, ориентированной на память, для современного ИИ.

Как подход TensorWave к инфраструктуре ИИ отличается от традиционных провайдеров облачных GPU?

Наша дифференциация проста: мы являемся единственным облачным провайдером, эксклюзивно работающим с AMD в крупном масштабе, стремящимся восстановить выбор в вычислениях ИИ, нарушить доминирование Nvidia и демократизировать доступ. Но это также связано с нашей этикой и приверженностью привнести真正ую альтернативу на рынок. Прежде всего, мы хотим предоставить исключительную инфраструктуру на базе AMD в крупном масштабе. Оттуда мы расширимся на лучшие услуги на ее основе – Модели как услуга, ИИ как услуга, сделав все проще.

Как облачный провайдер, работающий исключительно с AMD, у нас есть программный опыт, построенный специально для AMD с первого дня. Этот фокус позволяет нам оптимизировать кремний, сеть и программное обеспечение от начала до конца, гарантируя, что команды могут масштабироваться, когда им это нужно.

Какую роль играет ваш стратегический партнерство с AMD в росте и дифференциации TensorWave?

Это фундаментально. AMD инвестировала в TensorWave, пригласила нас на запуск MI300X Instinct и мы продолжаем тесно сотрудничать в области аппаратного и программного обеспечения, а также роста экосистемы. Быть облачным провайдером, работающим исключительно с AMD, означает, что мы можем быстро двигаться с каждым поколением Instinct и служить живой лабораторией, предоставляющей, в крупном масштабе, альтернативы на нашем рынке. Наша дифференциация, основанная на AMD, позволила нам работать в темпе, который не так достижим на рынке инфраструктуры ИИ. Партнерство с AMD позволяет нам быстро закрывать пробелы, поставлять первыми новые GPU и публиковать реальную производительность в крупном масштабе.

Доступ к GPU остается основным препятствием для команд ИИ – как TensorWave решает эту проблему?

Мы решаем эти препятствия в первую очередь за счет независимости поставок: построив на базе AMD, мы избегаем худшего из ограничений поставок других производителей чипов и передаем доступность нашим клиентам. Независимость поставок через AMD гарантирует, что наши клиенты не застревают в очереди, как все остальные.

Пробелы в экосистеме инфраструктуры ИИ существуют, потому что так много игроков строят подобные решения, создавая много перекрытий. Это часто происходит из-за отсутствия осведомленности о том, что происходит на рынке. Первый шаг к закрытию этих пробелов – понимание, кто делает что, где есть возможности для сотрудничества, где конкуренция может стимулировать инновации, и в конечном итоге, как экосистема может улучшиться в целом. Одна уникальная пробел в рынке инфраструктуры ИИ – это энергия; даже если GPU доступны, часто нет достаточно энергии, чтобы поддержать растущее количество приложений ИИ. Решение этих проблем с ресурсами является нашим ключом к обеспечению устойчивого роста и инноваций в ближайшие годы.

Как такие функции, как прямое жидкостное охлаждение и сетевое подключение, готовое к UEC (Универсальному консорциуму Ethernet), повышают производительность и эффективность затрат?

Прямое жидкостное охлаждение и сетевое подключение, готовое к UEC, являются фундаментальными для того, что делает современное облачное решение ИИ экономически жизнеспособным в крупном масштабе, и оба являются центральными для того, как мы спроектировали TensorWave.

О DLC: новые поколения ускорителей, такие как AMD MI355X и MI455X, работают в термических оболочках, которые воздух просто не может эффективно обработать. Мы говорим о 1400 Вт+ ТДП на GPU. Прямое жидкостное охлаждение удаляет тепло из источника через холодную пластину или конструкцию погружения, что делает три вещи для наших клиентов. Во-первых, оно позволяет существенно увеличить плотность стойки, 120-300 кВт+ на стойку вместо 30-40 кВт, что сжимает площадь и снижает затраты на энергию и распределение электроэнергии на каждый мегаватт. Во-вторых, оно приближает PUE к 1,1, вместо 1,4-1,5 для устаревших воздушных систем охлаждения; на нашем масштабе это переводится в десятки миллионов долларов в год на экономии утилит. В-третьих, и часто недооценивается, DLC держит кремний при более низких и стабильных температурах соединения, что сохраняет устойчивые тактовые частоты во время длительных тренировочных запусков и продлевает срок службы оборудования. Эта последняя точка имеет огромное значение, когда вы подписываетесь на шестилетний актив.

О UEC: спецификация Ultra Ethernet Consortium, которая была основана AMD и достигла 1.0 в 2025 году, дает нам открытую, ориентированную на merchant-силikon сетевую ткань, которая соответствует или превышает InfiniBand по метрикам, которые действительно имеют значение для распределенного обучения. Задержка на коллективах, эффективная пропускная способность при контенции и масштабирующее поведение после порога 100 000 GPU. История затрат является структурной. Ethernet имеет полдюжины достоверных merchant-силikon поставщиков, конкурирующих по цене, вместо единственного источника, который несет хорошо документированную премию. Для объекта мощностью 100 МВт выбор сети, готовой к UEC, вместо проприетарной ткани, обычно является девятизначным решением CAPEX, и операционные преимущества складываются, поскольку наши сетевые инженеры уже знают Ethernet.

Вместе эти выборы позволяют нам предоставить лучшую экономику обучения, чем устаревшие облачные решения. Клиенты видят более высокие эффективные FLOPs на доллар, более предсказуемые времена шагов на крупных задачах и четкую перспективу масштабирования моделей. Для нас они означают более оборонительную структуру затрат и гибкость, чтобы предложить действительно конкурентные тарифные планы.

Можете ли вы поделиться примерами того, как клиенты используют TensorWave для обучения крупномасштабных моделей ИИ?

Клиенты TensorWave нуждаются в высокопроизводительных вычислениях ИИ без дефицита GPU, привязки к поставщику или неконтролируемых затрат. TensorWave предоставляет эксклюзивное облачное решение на базе AMD – открытое, оптимизированное для памяти и готовое к производству, что дает командам масштабируемую инфраструктуру ИИ, которая доступна, гибка и эффективна по затратам.

Например, Modular выбрала запуск своего стека MAX на инфраструктуре GPU AMD от TensorWave, потому что TensorWave обеспечивает значительно лучшую экономику затрат и производительности для крупномасштабного вывода ИИ. Запуская MAX на вычислительной базе AMD от TensorWave, они достигают до 70% более низкой стоимости на миллион токенов, 57% более быстрой пропускной способности и более низкой общей стоимости, чем другие стэки GPU.

С учетом продолжающегося доминирования Nvidia, где вы видите самые большие возможности для претендентов, таких как TensorWave?

В пространстве вычислений ИИ, доминируемом несколькими крупными игроками, самыми большими проблемами являются достижение скорости выхода на рынок, предоставление последних технологий и предоставление исключительной поддержки. Гиперскелеры часто предлагают широкий спектр вариантов, но борются с предоставлением фокуса или персонализированного руководства, которое нужны клиентам. Чтобы пробиться через это доминирующее пространство, TensorWave фокусируется на наших сильных сторонах, сотрудничая, чтобы предоставить лучшую технологию, и гарантируя, что клиенты имеют альтернативные варианты.

Две самые большие возможности для претендентов на доминирование Nvidia в инфраструктуре ИИ заключаются в открытых экосистемах и памяти. Открытые экосистемы исключают привязку на каждом уровне (аппаратное, сетевое и программное обеспечение). Кроме того, память в сочетании с сетью, оптимизированной для обучения/вывода, переворачивает кривую затрат.

Оглядываясь вперед на пять лет, как вы представляете себе будущее инфраструктуры ИИ и роль TensorWave в нем?

На протяжении многих лет целью в инфраструктуре ИИ было сделать ее хорошей, стабильной и простой в использовании. Следующая фаза будет заключаться в том, что можно предоставить поверх этого – управляемые услуги, ИИ как услугу, все, что помогает клиентам развертывать и масштабировать более легко.

Мы находимся на пороге крупной трансформации. Технология ИИ продолжает развиваться, и альтернативы, такие как AMD, становятся все более жизнеспособными. Когда это происходит, клиенты станут более комфортными, развертывая их в крупном масштабе, и вся экосистема начнет открываться и расти.

Спасибо за отличное интервью, все, кто хочет узнать больше об этой инновационной компании по инфраструктуре ИИ, должны посетить TensorWave.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, TensorWave 的 COO – 采访系列

mm

Darrick Horton, TensorWave 的 COO,是一位具有深厚经验的技术高管和企业家,专长于 AI 基础设施、云计算和高级硬件系统。凭借在数据中心架构、半导体技术和高性能计算方面的背景,他在扩展下一代 AI 计算平台方面发挥了核心作用。在加入 TensorWave 之前,Horton 曾参与过包括洛克希德·马丁的 Skunk Works 核聚变研究和 NASA 资助的等离子物理和天体物理项目在内的高级工程计划。他的职业生涯反映出一贯专注于解决复杂的大规模技术挑战,并将其转化为新兴技术的实际基础设施解决方案。

TensorWave 是一家专注于提供高性能云计算的 AI 基础设施公司,采用 AMD GPU,定位为更封闭的 AI 生态系统的替代品。该公司成立于 2023 年,总部位于拉斯维加斯,构建大规模的 GPU 集群,优化用于训练和部署高级 AI 模型,强调性能、灵活性和成本效率。通过利用开放的硬件和软件生态系统,TensorWave 致力于为企业、研究人员和开发人员提供强大的 AI 计算资源,实现可扩展的 AI 工作负载,而不受传统供应商锁定的限制。

Nvidia 主导了大部分 GPU 市场——您为什么决定全力以赴采用 AMD,它为 TensorWave 和其客户带来了什么优势?

在 ChatGPT 发布后,AI 的需求激增,GPU 被迅速抢购,而 NVIDIA 基本上是唯一的选择,如果您能够获得它,并且能够承担成本。这种短缺引发了人们对替代品的巨大兴趣。现在,初期的炒作已经过去,挑战 NVIDIA 的主导地位的机会已经出现,带来了可访问、成本有效和易于使用的解决方案。

作为一家初创公司,我们的商业决策一直专注于强烈的目的和方向。这就是为什么我们没有尝试使用 NVIDIA,而是继续在 AMD 上构建我们的能力。我们公司的下一个阶段是关于倾斜于这些专注的能力,这样任何人都可以跳入并以有意义的方式使用 AI。AMD 是一个可信的替代品,具有真正的制造规模、开放的软件态度和现代 AI 的内存优先路线图。

TensorWave 的 AI 基础设施方法与传统的 GPU 云提供商有何不同?

我们的区别很明显:我们是唯一一个大规模的 AMD 专属云,旨在恢复 AI 计算的选择,打破 NVIDIA 的主导地位,并民主化访问。但这也关乎我们的精神和致力于将真正的替代品带到市场。首先,我们希望在规模上提供卓越的基于 AMD 的基础设施。从那里,我们将扩展到顶级服务——模型即服务、AI 即服务,使一切变得更简单。

作为一个全 AMD 云,我们从第一天就拥有为 AMD 专门设计的软件经验。这种关注使我们能够从端到端优化硅、网络和软件,确保团队可以在需要时扩展。

您与 AMD 的战略合作伙伴关系在 TensorWave 的增长和区别中扮演着什么角色?

这是基础性的。AMD 投资了 TensorWave,并邀请我们加入 MI300X Instinct 发布,我们继续在硬件、软件使能和生态系统增长方面进行密切合作。作为一个全 AMD 云,这意味着我们可以随着每一代 Instinct 快速移动,并作为一个大规模的实验室,为我们的市场提供替代方案。我们的 AMD 只的区别使我们能够以其他人在 AI 基础设施市场中无法实现的速度工作。他们的合作伙伴关系使我们能够快速弥补差距,首先发布新 GPU,并在规模上发布真正的性能。

GPU 访问仍然是 AI 团队的主要瓶颈——TensorWave 如何解决这个挑战?

我们首先通过供应独立性来解决这些瓶颈:通过在 AMD 上构建,我们避免了其他芯片制造商的供应约束,并将可用性传递给客户。通过 AMD 的供应独立性,我们确保我们的客户不会被困在与其他人相同的队列中。

AI 基础设施生态系统中的差距是因为许多玩家正在构建类似的解决方案,导致了大量的重叠。这通常来自对市场发生的事情缺乏了解。解决这些资源挑战是我们实现可持续增长和创新的一把钥匙。

像直接液体冷却和 UEC 准备就绪的网络(通用以太网联盟)等功能如何提高性能和成本效率?

直接液体冷却和 UEC 准备就绪的网络是使现代 AI 云在规模上经济可行的基础,也是我们设计 TensorWave 的核心。

关于 DLC:最新的加速器世代,AMD 的 MI355X 和 MI455X,运行在热封闭中,空气无法高效地处理。我们谈论的是每个 GPU 1400W+ 的热功率。直接液体冷却通过冷板或浸没式设计从源头去除热量,这为我们的客户做了三件事。首先,它使得架子密度大大增加,120-300kW+ 每个架子,而不是 30 到 40kW,这压缩了占地面积并降低了每兆瓦的房地产和电力分配成本。第二,它推动 PUE 向 1.1,相比之下,传统的空气冷却设施为 1.4 到 1.5;在我们的规模上,这转化为每年数千万美元的公用事业节省。第三,也经常被低估,DLC 将硅保持在较低、更稳定的结温,这在长时间的训练运行中保持持续的时钟速率,并延长了硬件的使用寿命。当您为六年资产提供担保时,这一点至关重要。

关于 UEC:由 AMD 帮助创立并于 2025 年达到 1.0 的超级以太网联盟规范,为我们提供了一个开放的、商用硅的结构,它在实际上重要的分布式训练指标上满足或超过了 InfiniBand。尾部延迟、争用下的有效带宽以及过去 100,000 个 GPU 的缩放行为。成本故事是结构性的。以太网有六个可信的商用硅供应商在价格上竞争,而单一来源的替代品带有明显的溢价。对于 100MW 的站点,选择 UEC 准备就绪的网络而不是专有结构通常是一个九位数的 CAPEX 决策,而且操作优势会随着时间的推移而增加,因为我们的网络工程师已经知道以太网。

这些选择使我们能够比传统云提供更好的训练经济性。客户看到每美元更高的有效 FLOPs,较大的工作量上更可预测的步骤时间,以及随着模型扩展的明确跑道。对于我们来说,它们意味着更有防御性的成本结构和提供真正具有竞争力的费率卡的灵活性。

您能分享一些客户如何利用 TensorWave 来训练大规模 AI 模型的例子吗?

TensorWave 的客户需要高性能的 AI 计算,而不受 GPU 稀缺、供应商锁定或成本失控的限制。TensorWave 提供独有的 AMD 云——开放、内存优化和生产就绪,这为团队提供了可扩展的 AI 基础设施,具有可访问性、灵活性和成本效率。

例如,Modular 选择在 TensorWave 的 AMD GPU 基础设施上运行其 MAX 推理堆栈,因为 TensorWave 为大规模 AI 推理提供了显著更好的成本性能经济性。通过在 TensorWave 的 AMD 计算上运行 Modular 的 MAX,它们实现了每百万令牌成本降低了 70%,吞吐量提高了 57%,总成本低于其他 GPU 堆栈。

在 NVIDIA 继续主导的情况下,您认为挑战者如 TensorWave 的最大机会在哪里?

在 AI 计算空间中,由少数大玩家主导,最大挑战是实现上市速度、提供最新技术和提供卓越的支持。超大规模提供商通常提供广泛的选项,但难以提供客户所需的关注或个性化指导。为了突破这一主导地位,TensorWave 专注于我们的优势,同时与他人合作,以提供最好的技术,并确保客户有替代选择。

挑战 NVIDIA 的 AI 基础设施主导地位的两个最大机会在于开放的生态系统和内存。开放的生态系统消除了每个层次(硬件、互连和软件)的锁定。此外,内存与网络优化的训练/推理相结合,反转了成本曲线。

展望未来五年,您如何看待 AI 基础设施和 TensorWave 在其中的角色?

多年来,AI 基础设施的目标是使其变得良好、稳定和易于使用。下一个阶段将是关于在此基础上提供什么——托管服务、AI 即服务,任何可以帮助客户更轻松地部署和扩展的东西。

我们正处于一场重大转变的开始。AI 技术不断进步,像 AMD 这样的替代品变得越来越可行。随着这种情况的发生,客户将变得更加舒适地在规模上部署它们,整个生态系统将开始开放并增长。

感谢这次精彩的采访,任何想要了解更多关于这家创新 AI 基础设施公司的信息的人都可以访问 TensorWave

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, COO of TensorWave – Interview Serie

mm

Darrick Horton, COO of TensorWave, er en teknologiuddannelses- og iværksætter med dyb erfaring i AI-infrastruktur, cloud computing og avancerede hardware-systemer. Med en baggrund, der spænder over datacenterarkitektur, halvlederteknologier og high-performance computing, har han spillet en central rol i at skala næste generations AI-compute-platforme. Før sin ledelse i TensorWave, arbejdede Horton på avancerede ingeniørinitiativer, herunder kernefusionsforskning på Lockheed Martins Skunk Works og bidrog til NASA-finansierede plasmafysik- og astrofysikprojekter. Hans karriere afspejler en konsekvent fokus på at løse komplekse, storstilede tekniske udfordringer og oversætte dem til praktiske infrastrukturløsninger for fremtidige teknologier.

TensorWave er et AI-infrastrukturselskab, der fokuserer på at levere high-performance cloud computing drevet af AMD GPUs, og positionerer sig som en alternativ til mere lukkede AI-økosystemer. Stiftet i 2023 og med hovedsæde i Las Vegas, bygger selskabet store GPU-kluster, der er optimeret til træning og implementering af avancerede AI-modeller, med fokus på ydeevne, fleksibilitet og omkostningseffektivitet. Ved at udnytte åbne hardware- og software-økosystemer, sigter TensorWave på at udvide adgangen til kraftfulde AI-computeressourcer for virksomheder, forskere og udviklere, og muliggøre skalerbare AI-arbejdsbelastninger uden de begrænsninger, der er forbundet med traditionel vendor-låsning.

Nvidia dominerer det meste af GPU-markedet—hvorfor valgte du at satse alt på AMD, og hvad er fordelene ved dette valg for TensorWave og dens kunder?

Efter lanceringen af ChatGPT, steg efterspørgslen på AI, og GPUs blev hurtigt opkøbt, og NVIDIA var stort set den eneste mulighed, hvis man overhovedet kunne få det, og hvis man kunne klare omkostningerne. Denne mangel udløste en enorm interesse for alternativer. Nu, hvor vi er kommet ud over den første hype, er der en reel mulighed for at udfordre Nvidias dominans med løsninger, der er tilgængelige, omkostningseffektive og lette at bruge.

Som startup har vi altid truffet forretningsbeslutninger med en stærk fokus og formål. Det er derfor, vi ikke har eksperimenteret med Nvidia, og vi har fortsat med at bygge vores kapaciteter på AMD. Det næste skridt for vores selskab er at bygge videre på disse fokuserede kapaciteter, så alle kan komme i gang og gøre noget meningsfuldt med AI. AMD er en troværdig alternativ med reel produktionskapacitet, en åben software-holdning og en memory-first-vejviser for moderne AI.

Hvordan adskiller TensorWaves tilgang til AI-infrastruktur sig fra traditionelle GPU-cloud-leverandører?

Vores differentiering er ret enkel: vi er den eneste AMD-eksklusive cloud i stor målestok, som søger at genoprette valgmuligheder i AI-compute, bryde Nvidias dominans og demokratisere adgangen. Men det handler også om vores etos og vores engagement i at bringe en sand alternativ til markedet. Først og fremmest vil vi levere exceptionel AMD-baseret infrastruktur i stor målestok. Derefter vil vi udvide os til topklasse-tjenester oven på det – Models-as-a-Service, AI-as-a-Service, og gøre alt sammen mere enkelt.

Som en all-AMD-cloud har vi software-erfaring bygget specifikt til AMD fra dag én. Denne fokus giver os mulighed for at optimere silicium, netværk og software fra ende til anden, og sikre, at hold kan skala, når de har brug for det.

Hvad er rollen for jeres strategiske partnerskab med AMD i TensorWaves vækst og differentiering?

Det er grundlæggende. AMD har investeret i TensorWave, inviteret os til MI300X Instinct-lanceringen, og vi samarbejder tæt om hardware, software-aktivering og økosystem-vækst. At være en all-AMD-cloud betyder, at vi kan bevæge os hurtigt med hver Instinct-generation, og fungere som et levende laboratorium, der tilbyder alternative muligheder i vores marked. Vores AMD-eksklusive differentiering har givet os mulighed for at arbejde i en hastighed, der ikke er opnåelig i AI-infrastrukturmarkedet. Deres partnerskab giver os mulighed for at lukke huller hurtigt, skibe først på nye GPUs, og offentliggøre reel ydeevne i stor målestok.

Adgang til GPU forbliver en større flaskehals for AI-hold—hvordan tackler TensorWave denne udfordring?

Vi tackler disse flaskeshals først gennem forsyningsuafhængighed: ved at bygge på AMD, undgår vi den værste del af andre chipfabrikanternes forsyningsbegrænsninger, og giver kunderne adgang til det. Forsyningsuafhængighed gennem AMD sikrer, at vores kunder ikke bliver fastholdt i samme kø som alle andre.

Der er huller i AI-infrastruktur-økosystemet, fordi så mange spillere bygger lignende løsninger, og skaber en masse overlap. Det skyldes ofte en mangel på kendskab til, hvad der sker på markedet. Det første skridt til at lukke disse huller er at forstå, hvem der gør hvad, hvor der er muligheder for samarbejde, hvor konkurrence kan drive innovation, og hvordan økosystemet kan forbedres som helhed. Et unikt hul i AI-infrastrukturmarkedet er strøm; selv om GPU’er er tilgængelige, er der ofte ikke nok energi til at støtte den voksende mængde af AI-applikationer. At løse disse ressourceudfordringer er vores nøgle til at enable sustainabel vækst og innovation i årene fremover.

Hvordan forbedrer funktioner som direkte væskeafkøling og UEC-klar netværk (Universal Ethernet Consortium) ydeevne og omkostningseffektivitet?

Direkte væskeafkøling og UEC-klar netværk er grundlæggende for, hvad der gør en moderne AI-cloud økonomisk bæredygtig i stor målestok, og begge er centrale for, hvordan vi har designet TensorWave.

Om DLC: de nyeste accelerator-generationer, AMD’s MI355X og MI455X, kører ved termiske omgivelser, som luft simpelthen ikke kan håndtere effektivt. Vi taler om 1400W+ TDP per GPU. Direkte væskeafkøling fjerner varme ved kilden via cold plate eller immersion-design, som gør tre ting for vores kunder. Først giver det mulighed for væsentligt højere rack-tæthed, 120-300kW+ per rack i stedet for 30 til 40kW, som komprimerer fodaftrykket og reducerer omkostningerne pr. megawatt for ejendom og strømfordeling. Anden giver det mulighed for at drive PUE mod 1,1, i stedet for 1,4 til 1,5 for ældre luftafkølede faciliteter; på vores skala oversætter det til titals af millioner af dollars i årlige besparelser på utility-omkostninger. Tredje, og ofte underestimeret, holder DLC silicium ved lavere, mere stabile junction-temperaturer, som bevarer vedvarende urtaktsrater under lange træningsløb og forlænger den nyttige levetid af hardwaren. Det sidste punkt betyder enormt, når man er under ansvar for en seksårig aktiv.

Om UEC: Ultra Ethernet Consortium-specifikationen, som AMD hjalp med at grundlægge og som nåede 1,0 i 2025, giver os et åbent, merchant-silicon-fabrik, der møder eller overgår InfiniBand på de parametre, der virkelig betyder noget for distribueret træning. Tail-latency på collectives, effektiv båndbredde under konkurrence og skaleringsadfærd forbi 100.000 GPU-grænsen. Omkostningshistorien er strukturel. Ethernet har en halv snes troværdige merchant-silicon-vendorer, der konkurrerer på pris, i stedet for en enkelt-kilde-alternativ, der medfører en velkendt præmie. For et 100MW-websted er valget af UEC-klar netværk i stedet for et proprietært fabrik typisk en ni-cifret CAPEX-beslutning, og de operationelle fordele akkumulerer, fordi vores netværksingeniører allerede kender Ethernet.

Taget i betragtning giver disse valg os mulighed for at levere bedre træningsøkonomi end legacy-clouds. Kunder ser højere effektiv FLOPs pr. dollar, mere forudsigelige step-tider på store job, og en klar vej som modeller skalerer. For os betyder det en mere forsvarlig omkostningsstruktur og fleksibiliteten til at tilbyde virkelig konkurrencedygtige ratekort.

Kan du dele eksempler på, hvordan kunder udnytter TensorWave til at træne store AI-modeller?

TensorWave-kunder har brug for high-performance AI-compute uden GPU-mangel, vendor-låsning eller løbske omkostninger. TensorWave tilbyder en eksklusiv AMD-cloud – åben, memory-optimiseret og produktionsklar, som giver hold skalerbar AI-infrastruktur, der er tilgængelig, fleksibel og omkostningseffektiv.

For eksempel valgte Modular at køre sin MAX-inference-stack på TensorWaves AMD-GPU-infrastruktur, fordi TensorWave leverer betydeligt bedre omkostnings-ydeevne for storstilet AI-inference. Ved at køre Modulars MAX på TensorWaves AMD-compute opnår de op til 70% lavere omkostning pr. million tokens, 57% hurtigere gennemløb og lavere samlede omkostninger end andre GPU-stacks.

Med Nvidias fortsatte dominans, hvor ser du de største muligheder for udfordrere som TensorWave?

I et AI-compute-rum, der er domineret af få store spillere, er de største udfordringer at opnå hastighed på markedet, levere den seneste teknologi og give exceptionel support. Hyperscalere tilbyder ofte en bred vifte af muligheder, men kæmper med at give den fokus eller personlige vejledning, kunderne har brug for. For at bryde igennem dette dominerede rum fokuserer TensorWave på vores styrker, samtidig med at vi samarbejder om at give den bedste teknologi mulig og sikre, at kunderne har alternative muligheder.

De to største muligheder for udfordrere af Nvidias AI-infrastruktur-dominans er i åbne økosystemer og hukommelse. Åbne økosystemer eliminerer låsning på alle lag (hardware, interconnect og software). Desuden eliminerer hukommelse, kombineret med netværks-optimiseret træning/inference, omkostningskurven.

Med et femårs udsyn, hvordan forestiller du dig fremtiden for AI-infrastruktur og TensorWaves rolle i den?

I årevis har målet for AI-infrastruktur været at gøre det godt, stabil og let at bruge. Det næste skridt vil være at levere, hvad man kan bygge oven på det – managed services, AI-as-a-Service, hvad som helst, der hjælper kunder med at deployere og skala mere let.

Vi er ved begyndelsen af en stor transformation. AI-teknologi fortsætter med at avancere, og alternativer som AMD bliver mere og mere troværdige. Da det sker, vil kunderne blive mere komfortable med at deployere dem i stor målestok, og hele økosystemet vil begynde at åbne sig og vokse.

Tak for det gode interview, og enhver, der ønsker at lære mere om dette innovative AI-infrastrukturselskab, skal besøge TensorWave.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, COO av TensorWave – Intervju-serie

mm

Darrick Horton, COO av TensorWave, er en teknologi-eksekutiv og entreprenør med dypt erfaring innen AI-infrastruktur, skytjenester og avanserte hardware-systemer. Med en bakgrunn som spenner over datasenter-arkitektur, halvleder-teknologier og høy-ytelses databehandling, har han spilt en sentral rolle i å skalerer neste-generasjons AI-regneplattformer. Før hans ledelse i TensorWave, arbeidet Horton med avanserte ingeniør-initiativer, inkludert fusjonsforskning ved Lockheed Martins Skunk Works og bidro til NASA-finansierte plasma-fysikk- og astrofysikk-prosjekter. Hans karriere reflekterer en konsekvent fokus på å løse komplekse, stor-skala tekniske utfordringer og oversette dem til praktiske infrastruktur-løsninger for nye teknologier.

TensorWave er et AI-infrastruktur-selskap som fokuserer på å levere høy-ytelses skytjenester drevet av AMD-GPU-er, og stiller seg som en alternativ til mer lukkede AI-økosystemer. Grunnlagt i 2023 og med hovedkontor i Las Vegas, bygger selskapet store GPU-kluster som er optimert for å trenere og distribuere avanserte AI-modeller, med fokus på ytelse, fleksibilitet og kost-efektivitet. Ved å utnytte åpne hardware- og software-økosystemer, sikter TensorWave på å utvide tilgangen til kraftfulle AI-regne-resurser for bedrifter, forskere og utviklere, og muliggjøre skalerbare AI-arbeidsbelastninger uten begrensninger fra tradisjonell leverandør-lås.

Nvidia dominerer størsteparten av GPU-markedet—hvorfor bestemte du deg for å satse helt på AMD, og hva fordeler gir dette valget TensorWave og dens kunder?

Etter lanseringen av ChatGPT, økte etterspørselen etter AI kraftig. GPU-er ble snappet opp raskt, og NVIDIA var nesten den eneste muligheten hvis du kunne få tak i det, og hvis du kunne håndtere kostnadene. Denne mangelen utløste en enorm interesse for alternativer. Nå som vi er forbi den innledende hypen, er det en reel mulighet til å utfordre Nvidias dominans med løsninger som er tilgjengelige, kost-efektive og enkle å bruke.

Som et startup-selskap, har vi alltid tatt forretningsbeslutninger med en sterk fokus og formål. Derfor har vi ikke eksperimentert med Nvidia, og vi har fortsatt å bygge ut våre evner på AMD. Neste fase av vårt selskap handler om å satse på disse fokuserte evnene, slik at alle kan hoppe inn og gjøre noe meningsfullt med AI. AMD er et troverdig alternativ med reell produksjonsskala, en åpen software-holdning og en minne-først veikart for moderne AI.

Hvordan skiller TensorWaves tilnærming til AI-infrastruktur seg fra tradisjonelle GPU-skytjenesteleverandører?

Vår differensiering er rett frem: vi er den eneste AMD-eksklusive skyen i stor skala, som søker å gjenopprette valg i AI-regning, bryte Nvidias dominans og demokratisere tilgangen. Men det handler også om vår etos og forpliktelse til å bringe et sant alternativ til markedet. Først og fremst ønsker vi å levere unik AMD-basert infrastruktur i stor skala. Deretter vil vi utvide til topp-kvalitets tjenester på toppen av det – Modeller-som-en-tjeneste, AI-som-en-tjeneste, og gjøre alt enklere.

Som en all-AMD-sky, har vi software-erfaring bygget spesifikt for AMD fra dag én. Denne fokuset lar oss optimere silisium, nettverk og software fra ende til ende, og sikrer at team kan skalerer når de trenger det.

Hva rolle spiller din strategiske partnerskap med AMD i TensorWaves vekst og differensiering?

Det er grunnleggende. AMD investerte i TensorWave, inviterte oss til MI300X Instinct-lanseringen, og vi fortsetter å samarbeide tett på hardware, software-aktivering og økosystem-vækst. Å være en all-AMD-sky lar oss flytte raskt med hver Instinct-generasjon, og fungere som et levende laboratorium som tilbyr, i stor skala, alternativer innen vår marked. Vår AMD-eksklusive differensiering har gjort det mulig for oss å arbeide i en takt som ikke er like oppnåelig i AI-infrastruktur-markedet. Deres partnerskap lar oss lukke gap raskt, levere først på nye GPU-er, og publisere virkelig ytelse i stor skala.

GPU-tilgang er fortsatt en større flaskehals for AI-team—hvordan takler TensorWave denne utfordringen?

Vi takler disse flaskenhalser først og fremst gjennom forsyning-uavhengighet: ved å bygge på AMD, unngår vi den verste av andre chip-produsenters forsyningsbegrensninger, og overfører tilgjengeligheten til kundene våre.

Gap i AI-infrastruktur-økosystemet eksisterer fordi så mange spillere bygger lignende løsninger, og skaper mye overlap. Dette kommer ofte fra en mangel på kunnskap om hva som skjer over hele markedet. Det første steget til å lukke disse gapene er å forstå hvem som gjør hva, hvor det er muligheter for samarbeid, hvor konkurranse kan drive innovasjon, og til slutt, hvordan økosystemet kan forbedres som helhet. En unik gap i AI-infrastruktur-markedet er kraft; selv om GPU-er er tilgjengelige, er det ofte ikke nok energi til å støtte den voksende mengden AI-applikasjoner. Å løse disse ressurs-utfordringene er vår nøkkel til å muliggjøre bærekraftig vekst og innovasjon i årene som kommer.

Hvordan forbedrer egenskaper som direkte væskeavkjøling og UEC-klar nettverking (Universal Ethernet Consortium) ytelse og kost-efektivitet?

Direkte væskeavkjøling og UEC-klar nettverking er grunnleggende for hva som gjør en moderne AI-sky økonomisk bærekraftig i stor skala, og begge er sentrale for hvordan vi har designet TensorWave.

På DLC: de nyeste akselerator-generasjonene, AMDs MI355X og MI455X, kjører ved termiske omgivelser som luft enkelt ikke kan håndtere effektivt. Vi snakker om 1400W+ TDP per GPU. Direkte væskeavkjøling fjerner varme ved kilde via kalde plater eller neddykkings-design, som gjør tre ting for våre kunder. Først, det muliggjør vesentlig høyere rack-tetthet, 120-300kW+ per rack i stedet for 30 til 40kW, som komprimerer fotavtrykket og kutte per megawatt eiendom og strømfordelingskostnader. Andre, det driver PUE mot 1,1, i stedet for 1,4 til 1,5 for eldre luft-avkjølte anlegg; på vår skala, oversetter det til titall millioner dollar i årlige utility-besparelser. Tredje, og ofte underverdiert, DLC holder silisium ved lavere, mer stabile sammenføyningstemperaturer, som bevarer vedvarende klokke-rater under lange treningsløp og forlenger den nyttige livstiden til hardwaren. Den siste punkten betyr enormt når du underwriter en seks-års aksje.

På UEC: Ultra Ethernet Consortium-specifikasjonen, som AMD hjalp til å etablere og som nådde 1,0 i 2025, gir oss et åpent, merchant-silicon-stoff som møter eller overgår InfiniBand på målene som faktisk betyr noe for distribuert trening. Tail-latens på kollektiver, effektiv båndbredde under konflikt, og skalerings-atferd forbi 100 000 GPU-grensen. Kost-historien er strukturell. Ethernet har en halv dusin troverdige merchant-silicon-leverandører som konkurrerer på pris, i stedet for en enkelt-kilde-alternativ som bærer en vel-dokumentert premie. For et 100MW-anlegg, å velge UEC-klar nettverking i stedet for proprietær stoff er typisk en ni-sifret CAPEX-beslutning, og de operative fordelene akkumulerer fordi våre nettverksingeniører allerede kjenner Ethernet.

Tatt sammen, lar disse valgene oss levere bedre trenings-økonomi enn eldre skyer. Kunder ser høyere effektiv FLOPs per dollar, mer forutsigbare steg-tider på store jobber, og en klar løpebane når modeller skalerer. For oss betyr det en mer forsvarlig kost-struktur og fleksibiliteten til å tilby virkelig konkurranse-vennlige rate-kort.

Kan du dele eksempler på hvordan kunder utnytter TensorWave til å trenere store AI-modeller?

TensorWave-kunder trenger høy-ytelses AI-regning uten GPU-mangel, leverandør-lås eller løpske kostnader. TensorWave tilbyr eksklusiv AMD-sky – åpen, minne-optimert og produksjonsklar, som gir teamer skalerbar AI-infrastruktur som er tilgjengelig, fleksibel og kost-efektiv.

For eksempel valgte Modular å kjøre sin MAX-inferens-stakk på TensorWaves AMD-GPU-infrastruktur fordi TensorWave levere vesentlig bedre kost-ytelses-økonomi for stor-skala AI-inferens. Ved å kjøre Modulars MAX på TensorWaves AMD-regning, oppnår de opptil 70% lavere kost per million token, 57% raskere gjennomstrømming og lavere samlet kost enn andre GPU-stakker.

Med Nvidias fortsatt dominans, hvor ser du de største mulighetene for utfordrere som TensorWave?

I et AI-regne-rom som domineres av noen få store spillere, er de største utfordringene å oppnå hastighet til markedet, levere den siste teknologien og tilby unik støtte. Hyperscalere tilbyr ofte en rekke alternativer, men sliter med å tilby fokus eller personlig veiledning kundene trenger. For å bryte gjennom dette dominerte rommet, fokuserer TensorWave på våre styrker, samtidig som vi samarbeider for å tilby den beste teknologien mulig og sikre at kundene våre har alternative valg.

De to største mulighetene for utfordrere av Nvidias AI-infrastruktur-dominans er i åpne økosystemer og minne. Åpne økosystemer eliminerer lås på hver lag (hardware, kobling og software). I tillegg eliminerer minne, kombinert med nettverks-optimert trening/inferens, kost-kurve.

Ser du fem år fremover, hvordan forestiller du deg fremtiden for AI-infrastruktur og TensorWaves rolle i den?

I årevis har målet for AI-infrastruktur vært å gjøre det bra, stabilt og enkelt å bruke. Neste fasen vil handle om hva du kan levere på toppen av det – managed services, AI-som-en-tjeneste, hva som helst som hjelper kundene å deployere og skalerer mer enkelt.

Vi er i begynnelsen av en stor transformasjon. AI-teknologien fortsetter å utvikle seg, og alternativer som AMD blir mer og mer troverdige. Etterhvert som dette skjer, vil kundene bli mer komfortable med å deployere dem i stor skala, og hele økosystemet vil begynne å åpne seg og vokse.

Takk for det flotte intervjuet, alle som ønsker å lære mer om dette innovative AI-infrastruktur-selskapet bør besøke TensorWave.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, COO společnosti TensorWave – Interview Series

mm

Darrick Horton, COO společnosti TensorWave, je technologický manažer a podnikatel s hlubokými zkušenostmi v oblasti infrastruktury umělé inteligence, cloud computingu a pokročilých hardwarových systémů. S pozadím sahajícím od architektury datových center, polovodičových technologií a high-performance computingu sehrál ústřední roli při škálování platform pro výpočet umělé inteligence nové generace. Předtím, než se stal lídrem společnosti TensorWave, Horton pracoval na pokročilých inženýrských projektech, včetně výzkumu jaderné fúze ve společnosti Lockheed Martin’s Skunk Works, a přispěl do projektů financovaných NASA v oblasti plazmové fyziky a astrofyziky. Jeho kariéra odráží stálé zaměření na řešení složitých, velkých technických problémů a jejich překlad do praktických infrastrukturních řešení pro vznikající technologie.

TensorWave je společnost pro infrastrukturu umělé inteligence, která se zaměřuje na poskytování высокovýkonného cloud computingu s využitím GPU od AMD, a tím se позиcionuje jako alternativa k více uzavřeným ekosystémům umělé inteligence. Založena v roce 2023 a se sídlem v Las Vegas, společnost buduje velké klastry GPU optimalizované pro školení a nasazení pokročilých modelů umělé inteligence, s důrazem na výkon, flexibilitu a nákladovou efektivitu. Díky využívání otevřených hardwarových a softwarových ekosystémů si společnost TensorWave klade za cíl rozšířit přístup k výkonným zdrojům umělé inteligence pro podniky, výzkumníky a vývojáře, a umožnit tak škálovatelné úkoly umělé inteligence bez omezení tradiční závislosti na dodavateli.

Nvidia dominuje většinu trhu s GPU — proč jste se rozhodli vsadit vše na AMD, a jaké výhody tato volba přináší společnosti TensorWave a jejím zákazníkům?

Po spuštění ChatGPT vzrostla poptávka po umělé inteligenci. GPU se rychle rozprodala, a NVIDIA byla prakticky jedinou možností, pokud jste ji mohli získat, a pokud jste mohli zvládnout náklady. Tento nedostatek vyvolal obrovský zájem o alternativy. Nyní, když jsme za touto počáteční hysterií, existuje skutečná příležitost zpochybnit dominanci NVIDIA s řešeními, která jsou dostupná, nákladově efektivní a snadno použitelná.

Jako startup jsme vždy činili obchodní rozhodnutí s pevným zaměřením a účelem. Proto jsme neexperimentovali s NVIDIA, a pokračovali jsme v budování našich schopností na platformě AMD. Další fáze naší společnosti spočívá v tom, že se budeme soustředit na tyto zaměřené schopnosti, aby kdokoli mohl snadno něco udělat s umělou inteligencí. AMD je důvěryhodnou alternativou s reálnou výrobní kapacitou, otevřenou softwarovou pozicí a roadmapou pro moderní umělou inteligenci s důrazem na paměť.

Jak se přístup společnosti TensorWave k infrastruktuře umělé inteligence liší od tradičních poskytovatelů cloud computingu?

Naše odlišení je přímé: jsme jediným cloudem výhradně pro AMD v velkém měřítku, který se snaží obnovit volbu v oblasti výpočtu umělé inteligence, prolomit dominanci NVIDIA a demokratizovat přístup. Ale jde také o naši etiku a závazek přinést skutečnou alternativu na trh. Především chceme poskytovat výjimečnou infrastrukturu založenou na AMD v velkém měřítku. Odtud budeme expandovat do špičkových služeb postavených na této infrastruktuře — Modely jako služba, Umělá inteligence jako služba, a učinit vše jednodušší.

Jako cloud výhradně pro AMD máme softwarové zkušenosti vytvořené speciálně pro AMD od samého počátku. Tento zaměřený přístup nám umožňuje optimalizovat polovodiče, síť a software od konce do konce, zajišťující, že týmy mohou škálovat, když potřebují.

Jakou roli hraje vaše strategické partnerství s AMD ve růstu a odlišení společnosti TensorWave?

Je to zásadní. AMD investovala do společnosti TensorWave, pozvala nás do programu MI300X Instinct a pokračujeme v úzké spolupráci na hardwaru, softwarovém umožnění a růstu ekosystému. Jako cloud výhradně pro AMD můžeme pohybovat rychle s každou generací Instinct a sloužit jako živý laboratorní prostor, který poskytuje v našem trhu alternativy. Naše odlišení jako cloudu výhradně pro AMD nám umožnilo pracovat v tempu, které není tak dosažitelné na trhu s infrastrukturou umělé inteligence. Partnerství s AMD nám umožňuje rychle uzavírat mezery, dodávat jako první nové GPU a publikovat reálný výkon v velkém měřítku.

Přístup k GPU zůstává významnou překážkou pro týmy umělé inteligence — jak společnost TensorWave řeší tuto výzvu?

Řešíme tyto překážky nejprve prostřednictvím nezávislosti na dodávkách: stavěním na AMD, vyhýbáme se nejhorším omezením dodávek u jiných výrobců čipů, a předáváme dostupnost zákazníkům. Nezávislost na dodávkách prostřednictvím AMD zajišťuje, že naši zákazníci nejsou uvězněni v čekací frontě jako všichni ostatní.

Mezery v ekosystému infrastruktury umělé inteligence existují, protože tolik hráčů buduje podobná řešení, což vytváří mnoho překryvů. To často pramení z nedostatku povědomí o tom, co se děje na trhu. První krok k uzavření těchto mezer spočívá v pochopení, kdo dělá co, kde existují příležitosti pro spolupráci, kde může konkurence pohánět inovace, a nakonec, jak může ekosystém jako celek zlepšit. Jedinečná mezera na trhu s infrastrukturou umělé inteligence spočívá v oblasti energie; i když jsou GPU dostupné, často chybí dostatek energie na podporu rostoucího počtu aplikací umělé inteligence. Řešení těchto výzev zdrojů jsou našim klíčem k umožnění udržitelného růstu a inovací v budoucnu.

Jak funkce, jako je přímé kapalné chlazení a síťové připojení UEC (Universal Ethernet Consortium), zvyšují výkon a nákladovou efektivitu?

Přímé kapalné chlazení a síťové připojení UEC jsou zásadní pro to, co činí moderní cloud pro umělou inteligenci ekonomicky životaschopný v velkém měřítku, a obě tyto funkce jsou centrální pro to, jak jsme navrhli společnost TensorWave.

U DLC: nejnovější generace urychlovačů, AMD MI355X a MI455X, běží v tepelných obalech, které vzduch nemůže efektivně zpracovat. Mluvíme o 1400W+ TDP na GPU. Přímé kapalné chlazení odstraňuje teplo zdroje prostřednictvím chladicí desky nebo ponořením, což pro naše zákazníky dělá tři věci. První, umožňuje podstatně vyšší hustotu racků, 120-300kW+ na rack místo 30 až 40kW, což komprimuje stopu a snižuje náklady na nemovitosti a distribuci energie. Druhé, pohání PUE směrem k 1,1, oproti 1,4 až 1,5 pro tradiční zařízení chlazená vzduchem; v našem měřítku se to překládá do desítek milionů dolarů v ročních úsporách na utilitách. Třetí, a často podceňované, DLC udržuje polovodiče při nižších, stabilnějších teplotách spoje, což prodlužuje životnost hardwaru. Tento poslední bod má enormní význam, když podstupujete šestiletou investici do aktiv.

U UEC: specifikace Ultra Ethernet Consortium, které AMD pomohlo založit a které dosáhlo verze 1.0 v roce 2025, nám poskytuje otevřenou, merchant-siliconovou tkaninu, která splňuje nebo překonává InfiniBand v metrikách, které skutečně záleží pro distribuované školení. Latence na kolektivech, efektivní šířka pásma pod soutěží a škálovací chování za prahem 100 000 GPU. Příběh nákladů je strukturální. Ethernet má půl tuctu věrohodných merchant-siliconových dodavatelů, kteří soutěží o cenu, oproti jedinému zdroji, který nese dobře zdokumentovanou prémii. Pro lokalitu o velikosti 100MW je výběr síťového připojení UEC oproti proprietární tkanině typicky devítimístné rozhodnutí CAPEX, a provozní výhody se sčítají, protože naši síťoví inženýři již znají Ethernet.

Vzato вместе, tyto volby nám umožňují dodávat lepší ekonomiku školení než tradiční cloudy. Zákazníci vidí vyšší efektivní FLOPs na dolar, předvídatelnější časy kroků u velkých úloh a jasnou dráhu pro škálování modelů. Pro nás to znamená více obhajitelnou nákladovou strukturu a flexibilitu nabízet skutečně konkurenceschopné sazby.

Můžete sdílet příklady toho, jak zákazníci využívají společnost TensorWave k školení velkých modelů umělé inteligence?

Zákazníci společnosti TensorWave potřebují high-performance výpočetní prostředky pro umělou inteligenci bez nedostatku GPU, uzamčení u dodavatele nebo nekontrolovatelných nákladů. Společnost TensorWave poskytuje exkluzivní cloud pro AMD – otevřený, optimalizovaný pro paměť a připravený pro produkci, což poskytuje týmům škálovatelnou infrastrukturu umělé inteligence, která je dostupná, flexibilní a nákladově efektivní.

Například společnost Modular se rozhodla spustit svůj stack inferencí MAX na infrastruktuře GPU společnosti TensorWave, protože TensorWave nabízí podstatně lepší ekonomiku nákladů a výkonu pro large-scale inferenci umělé inteligence. Spuštěním MAX na výpočetním prostředí AMD společnosti TensorWave dosáhli až o 70 % nižších nákladů na milion tokenů, 57% rychlejší propustnosti a nižších celkových nákladů než u jiných GPU stacků.

S pokračující dominancí NVIDIA, kde vidíte největší příležitosti pro výzvy, jako je společnost TensorWave?

V prostoru výpočtu umělé inteligence, který dominují několik hlavních hráčů, největšími výzvami jsou dosažení rychlosti na trh, dodání nejnovější technologie a poskytnutí výjimečné podpory. Hyperscalery často nabízejí širokou škálu možností, ale bojují s poskytováním zaměření nebo personalizované rady, kterou zákazníci potřebují. Abychom prorazili tento dominovaný prostor, společnost TensorWave se soustředí na naše silné stránky, zatímco spolupracujeme na poskytování nejlepší možné technologie a zajišťujeme, aby zákazníci měli alternativní možnosti.

Dvě největší příležitosti pro výzvy dominance NVIDIA v oblasti infrastruktury umělé inteligence spočívají v otevřených ekosystémech a paměti. Otevřené ekosystémy eliminují uzamčení na každé úrovni (hardware, interconnect, software). Kromě toho paměť v kombinaci se sítí optimalizovanou pro školení/inferenci otočí křivku nákladů.

Pohledem pět let dopředu, jak si představujete budoucnost infrastruktury umělé inteligence a roli společnosti TensorWave v ní?

Po mnoho let byl cílem infrastruktury umělé inteligence udělat ji dobrou, stabilní a snadno použitelnou. Další fáze bude o tom, co můžete dodat na tomto základě — spravované služby, umělá inteligence jako služba, cokoliv, co pomáhá zákazníkům nasazovat a škálovat snadněji.

Nacházíme se na počátku velké transformace. Technologie umělé inteligence pokračuje ve vývoji, a alternativy, jako je AMD, se stávají stále více životaschopnými. Jak se to děje, zákazníci se budou cítit více pohodlně při nasazování těchto technologií v velkém měřítku, a celý ekosystém začne otevírat a růst.

Děkuji za skvělý rozhovor, kdokoli, kdo chce se更多 o této inovativní společnosti pro infrastrukturu umělé inteligence, by měl navštívit TensorWave.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, COO of TensorWave – Interview Series

mm

Darrick Horton, COO of TensorWave, adalah eksekutif teknologi dan wirausaha dengan pengalaman mendalam di infrastruktur AI, komputasi awan, dan sistem perangkat keras canggih. Dengan latar belakang yang mencakup arsitektur pusat data, teknologi semikonduktor, dan komputasi kinerja tinggi, ia telah memainkan peran sentral dalam menskala platform komputasi AI generasi berikutnya. Sebelum memimpin TensorWave, Horton bekerja pada inisiatif rekayasa canggih termasuk penelitian fusi nuklir di Lockheed Martin’s Skunk Works dan berkontribusi pada proyek fisika plasma dan astrofisika yang didanai NASA. Karirnya mencerminkan fokus konsisten pada memecahkan tantangan teknis kompleks dan besar, dan menerjemahkannya menjadi solusi infrastruktur praktis untuk teknologi yang muncul.

TensorWave adalah perusahaan infrastruktur AI yang fokus pada pengiriman komputasi awan kinerja tinggi yang ditenagai oleh GPU AMD, memposisikan diri sebagai alternatif dari ekosistem AI yang lebih tertutup. Didirikan pada tahun 2023 dan berkantor pusat di Las Vegas, perusahaan ini membangun klaster GPU skala besar yang dioptimalkan untuk pelatihan dan penerapan model AI canggih, dengan penekanan pada kinerja, fleksibilitas, dan efisiensi biaya. Dengan memanfaatkan ekosistem perangkat keras dan perangkat lunak yang terbuka, TensorWave bertujuan untuk memperluas akses ke sumber daya komputasi AI yang kuat untuk perusahaan, peneliti, dan pengembang, memungkinkan beban kerja AI yang dapat diskalakan tanpa keterbatasan vendor lock-in.

Nvidia mendominasi sebagian besar pasar GPU—mengapa Anda memutuskan untuk fokus pada AMD, dan apa kelebihan yang diberikan oleh pilihan ini kepada TensorWave dan pelanggannya?

Setelah peluncuran ChatGPT, permintaan AI melonjak. GPU cepat terjual, dan NVIDIA hampir menjadi satu-satunya pilihan jika Anda bisa mendapatkannya, dan jika Anda bisa menangani biayanya. Kekurangan itu memicu minat besar pada alternatif. Sekarang bahwa kita telah melewati histeria awal, ada kesempatan nyata untuk menantang dominasi Nvidia dengan solusi yang dapat diakses, efisien biaya, dan mudah digunakan.

Sebagai startup, kita selalu membuat keputusan bisnis dengan fokus yang kuat dan tujuan. Itulah mengapa kita tidak bereksperimen dengan Nvidia, dan kita terus membangun kemampuan kita di AMD. Fase berikutnya dari perusahaan kita adalah tentang memanfaatkan kemampuan yang terfokus ini sehingga siapa saja dapat melompat dan melakukan sesuatu yang bermakna dengan AI. AMD adalah alternatif yang kredibel dengan skala manufaktur nyata, postur perangkat lunak yang terbuka, dan peta jalan memori untuk AI modern.

Bagaimana pendekatan TensorWave terhadap infrastruktur AI berbeda dari penyedia cloud GPU tradisional?

Perbedaan kita adalah sederhana: kita adalah cloud AMD eksklusif skala besar, yang bertujuan untuk mengembalikan pilihan dalam komputasi AI, memecahkan dominasi Nvidia, dan mendemokratisasi akses. Tapi itu juga tentang etos dan komitmen kita untuk membawa alternatif yang sebenarnya ke pasar. Pertama dan terutama, kita ingin mengirimkan infrastruktur AMD yang luar biasa di skala besar. Dari sana, kita akan memperluas ke layanan teratas di atasnya– Model-as-a-Service, AI-as-a-Service, membuat semuanya lebih sederhana.

Sebagai cloud AMD eksklusif, kita memiliki pengalaman perangkat lunak yang dibangun khusus untuk AMD sejak hari pertama. Fokus ini memungkinkan kita untuk mengoptimalkan silikon, jaringan, dan perangkat lunak dari ujung ke ujung, memastikan bahwa tim dapat menskala ketika mereka membutuhkannya.

Apa peran kemitraan strategis dengan AMD dalam pertumbuhan dan diferensiasi TensorWave?

Ini adalah fondasi. AMD berinvestasi di TensorWave, mengundang kita ke peluncuran MI300X Instinct, dan kita terus berkolaborasi erat pada perangkat keras, pengaktifan perangkat lunak, dan pertumbuhan ekosistem. Sebagai cloud AMD eksklusif, kita dapat bergerak cepat dengan setiap generasi Instinct, dan berfungsi sebagai laboratorium hidup yang menyediakan, dalam skala besar, alternatif dalam pasar kita. Diferensiasi AMD-eksklusif kita telah memungkinkan kita untuk bekerja pada kecepatan yang tidak dapat dicapai di pasar infrastruktur AI. Kemitraan mereka memungkinkan kita untuk menutup kesenjangan dengan cepat, mengirimkan pertama pada GPU baru, dan menerbitkan kinerja nyata di skala besar.

Akses GPU masih menjadi bottleneck besar untuk tim AI—bagaimana TensorWave menangani tantangan ini?

Kita menangani bottleneck ini pertama melalui kemandirian pasokan: dengan membangun di atas AMD, kita menghindari keterbatasan pasokan yang parah dari produsen chip lain, dan meneruskan ketersediaan ke pelanggan. Kemandirian pasokan melalui AMD memastikan bahwa pelanggan kita tidak terjebak menunggu di antrean yang sama dengan orang lain.

Kesenjangan dalam ekosistem infrastruktur AI ada karena banyak pemain membangun solusi yang sama, menciptakan banyak tumpang tindih. Itu sering berasal dari kurangnya kesadaran tentang apa yang terjadi di seluruh pasar. Langkah pertama untuk menutup kesenjangan ini adalah memahami siapa yang melakukan apa, di mana ada peluang untuk kolaborasi, di mana persaingan dapat memacu inovasi, dan akhirnya, bagaimana ekosistem dapat ditingkatkan sebagai satu kesatuan. Salah satu kesenjangan unik di pasar infrastruktur AI adalah daya; bahkan jika GPU tersedia, seringkali tidak ada cukup energi untuk mendukung jumlah aplikasi AI yang meningkat. Menyelesaikan tantangan sumber daya ini adalah kunci kita untuk memungkinkan pertumbuhan dan inovasi yang berkelanjutan di masa depan.

Bagaimana fitur seperti pendinginan cair langsung dan jaringan UEC-siap (Universal Ethernet Consortium) meningkatkan kinerja dan efisiensi biaya?

Pendinginan cair langsung dan jaringan UEC-siap adalah fondasi dari apa yang membuat cloud AI modern layak secara ekonomi di skala besar, dan keduanya adalah sentral untuk bagaimana kita telah merancang TensorWave.

Tentang DLC: generasi akselerator terbaru, AMD’s MI355X dan MI455X, berjalan pada amplop termal yang udara tidak dapat menanganinya dengan efisien. Kita berbicara tentang 1400W+ TDP per GPU. Pendinginan cair langsung menghilangkan panas di sumber melalui desain pelat dingin atau imersi, yang melakukan tiga hal untuk pelanggan kita. Pertama, itu memungkinkan kepadatan rak yang substansial lebih tinggi, 120-300kW+ per rak bukan 30 hingga 40kW, yang mengompresi jejak kaki dan memotong biaya real estat dan distribusi daya per megawatt. Kedua, itu mendorong PUE menuju 1,1, versus 1,4 hingga 1,5 untuk fasilitas yang didinginkan udara legacy; pada skala kita, itu berarti puluhan juta dolar dalam penghematan utilitas tahunan. Ketiga, dan sering tidak dihargai, DLC mempertahankan silikon pada suhu junction yang lebih rendah dan lebih stabil, yang memperpanjang laju clock yang berkelanjutan selama pelatihan panjang dan memperpanjang umur panjang perangkat keras. Poin terakhir sangat penting ketika Anda sedang membiayai aset selama enam tahun.

Tentang UEC: spesifikasi Ultra Ethernet Consortium, yang AMD membantu mendirikan dan yang mencapai 1,0 pada 2025, memberi kita kain yang terbuka, merchant-silicon yang memenuhi atau melebihi InfiniBand pada metrik yang benar-benar penting untuk pelatihan terdistribusi. Keterlambatan tail pada kolektif, bandwidth efektif di bawah konten, dan perilaku penskalaan melewati ambang batas 100.000 GPU. Cerita biaya adalah struktural. Ethernet memiliki setengah lusin vendor silikon merchant yang kredibel yang bersaing pada harga, versus alternatif sumber tunggal yang membawa premi yang terdokumentasi dengan baik. Untuk situs 100MW, memilih jaringan UEC-siap daripada kain proprietary adalah keputusan CAPEX sembilan angka, dan keuntungan operasional yang diperkuat karena insinyur jaringan kita sudah mengetahui Ethernet.

Keduanya memungkinkan kita untuk mengirimkan ekonomi pelatihan yang lebih baik daripada cloud legacy. Pelanggan melihat FLOPs efektif per dolar yang lebih tinggi, waktu langkah yang lebih dapat diprediksi pada pekerjaan besar, dan landasan yang jelas ketika model berskala. Untuk kita, itu berarti struktur biaya yang lebih defensif dan fleksibilitas untuk menawarkan kartu tarif yang benar-benar kompetitif.

Apakah Anda dapat membagikan contoh tentang bagaimana pelanggan menggunakan TensorWave untuk melatih model AI skala besar?

Pelanggan TensorWave membutuhkan komputasi AI kinerja tinggi tanpa kekurangan GPU, kunci vendor, atau biaya yang tidak terkendali. TensorWave menyediakan cloud AMD eksklusif – terbuka, dioptimalkan memori, dan siap produksi, yang memberikan tim infrastruktur AI yang dapat diskalakan, dapat diakses, fleksibel, dan efisien biaya.

Sebagai contoh, Modular memilih untuk menjalankan tumpukan inferensi MAX di infrastruktur GPU AMD TensorWave karena TensorWave memberikan ekonomi kinerja biaya yang jauh lebih baik untuk inferensi AI skala besar. Dengan menjalankan MAX Modular di komputasi AMD TensorWave, mereka mencapai biaya per juta token yang 70% lebih rendah, throughput 57% lebih cepat, dan biaya total yang lebih rendah daripada tumpukan GPU lain.

Dengan dominasi Nvidia yang terus berlanjut, di mana Anda melihat peluang terbesar untuk tantangan seperti TensorWave?

Di ruang komputasi AI yang didominasi oleh beberapa pemain besar, tantangan terbesar adalah mencapai kecepatan pasar, mengirimkan teknologi terbaru, dan menyediakan dukungan yang luar biasa. Hyperscalers sering menawarkan berbagai pilihan, tetapi berjuang untuk menyediakan fokus atau bimbingan pribadi yang pelanggan butuhkan. Untuk menembus ruang yang didominasi ini, TensorWave fokus pada kekuatan kita, sambil berkolaborasi untuk menyediakan teknologi terbaik yang mungkin dan memastikan pelanggan memiliki pilihan alternatif.

Dua peluang terbesar untuk tantangan dominasi infrastruktur AI Nvidia adalah di ekosistem terbuka dan memori. Ekosistem terbuka menghilangkan kunci di setiap lapisan (perangkat keras, interkoneksi, dan perangkat lunak). Selain itu, memori yang dipasangkan dengan pelatihan/jalan teroptimalkan jaringan membalik kurva biaya.

Melihat lima tahun ke depan, bagaimana Anda membayangkan masa depan infrastruktur AI dan peran TensorWave di dalamnya?

Selama beberapa tahun, tujuan di infrastruktur AI adalah membuatnya baik, membuatnya stabil, dan membuatnya mudah digunakan. Fase berikutnya akan tentang apa yang dapat Anda kirimkan di atas itu—layanan yang dikelola, AI-as-a-Service, apa pun yang membantu pelanggan mengirimkan dan menskala dengan lebih mudah.

Kita berada di awal transformasi besar. Teknologi AI terus berkembang, dan alternatif seperti AMD menjadi lebih dan lebih layak. Ketika itu terjadi, pelanggan akan menjadi lebih nyaman mengirimkannya di skala besar, dan seluruh ekosistem akan mulai terbuka dan tumbuh.

Terima kasih atas wawancara yang luar biasa, siapa pun yang ingin mempelajari lebih lanjut tentang perusahaan infrastruktur AI inovatif ini harus mengunjungi TensorWave.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

ดาร์ริก ฮอร์ตัน COO ของ TensorWave – สัมภาษณ์ซีรีส์

mm

ดาร์ริก ฮอร์ตัน COO ของ TensorWave เป็นนักบริหารและนักธุรกิจด้านเทคโนโลยีที่มีประสบการณ์อย่างลึกซึ้งในการสร้างโครงสร้างพื้นฐาน AI การคำนวณแบบคลาวด์ และระบบฮาร์ดแวร์ขั้นสูง โดยมีพื้นหลังที่ครอบคลุมถึงการออกแบบศูนย์ข้อมูล เทคโนโลยีเซมิคอนดักเตอร์ และการคำนวณประสิทธิภาพสูง ทำให้เขาได้รับบทบาทสำคัญในการขยายแพลตฟอร์มการคำนวณ AI รุ่นต่อไป ก่อนที่เขาจะเข้าร่วม TensorWave ฮอร์ตัน曾ทำงานในโครงการวิศวกรรมขั้นสูง รวมถึงการวิจัยการหลอมรวมนิวเคลียร์ที่ Lockheed Martin’s Skunk Works และได้ร่วมให้การสนับสนุนโครงการวิจัยฟิสิกส์พลาสมาและดาราศาสตร์ที่ได้รับทุนจาก NASA อาชีพของเขาสะท้อนถึงการมุ่งเน้นอย่างต่อเนื่องในการแก้ปัญหาทางเทคนิคที่ซับซ้อนและขนาดใหญ่ และการแปลสิ่งเหล่านั้นเป็นโซลูชันโครงสร้างพื้นฐานที่ใช้งานได้จริงสำหรับเทคโนโลยีที่เกิดขึ้นใหม่

TensorWave เป็นบริษัทโครงสร้างพื้นฐาน AI ที่มุ่งเน้นในการส่งมอบการคำนวณแบบคลาวด์ที่มีประสิทธิภาพสูงโดยใช้ GPU ของ AMD โดยตำแหน่งตัวเองเป็นทางเลือกแทนระบบนิเวศ AI ที่ปิดที่สุด บริษัทก่อตั้งขึ้นในปี 2023 และมีสำนักงานใหญ่อยู่ที่ลาสเวกัส บริษัทสร้างคลัสเตอร์ GPU ระดับใหญ่ที่ได้รับการปรับให้เหมาะสมสำหรับการฝึกอบรมและใช้แบบจำลอง AI ขั้นสูง โดยมุ่งเน้นไปที่ประสิทธิภาพ ความยืดหยุ่น และความคุ้มค่าในการใช้จ่าย โดยการ tận dụngระบบนิเวศฮาร์ดแวร์และซอฟต์แวร์ที่เปิดกว้าง TensorWave มุ่งหวังที่จะขยายการเข้าถึงทรัพยากรการคำนวณ AI ที่มีประสิทธิภาพสูงสำหรับธุรกิจ ผู้วิจัย และนักพัฒนา ทำให้สามารถใช้งาน AI ได้อย่างมีประสิทธิภาพโดยไม่มีข้อจำกัดของการล็อกอินของผู้ขายแบบดั้งเดิม

Nvidia ควบคุมตลาด GPU ส่วนใหญ่ – คุณตัดสินใจเลือก AMD ทั้งหมดได้อย่างไร และทางเลือกนั้นให้ประโยชน์ gìแก่ TensorWave และลูกค้า?

หลังจากการเปิดตัว ChatGPT ความต้องการ AI เพิ่มขึ้นอย่างรวดเร็ว GPU ถูกซื้อขายอย่างรวดเร็ว และ NVIDIA เกือบจะเป็นตัวเลือกเดียวหากคุณสามารถเข้าถึงได้ และหากคุณสามารถจัดการค่าใช้จ่ายได้ การขาดแคลนนั้นกระตุ้นความสนใจอย่างมากในการ tìm kiếmทางเลือก เมื่อเราผ่านความตื่นเต้นเริ่มต้นไปแล้ว มีโอกาสที่แท้จริงในการท้าทายการครอบงำของ Nvidia ด้วยโซลูชันที่สามารถเข้าถึงได้ คุ้มค่า และใช้งานง่าย

ในฐานะสตาร์ทอัพ เราตัดสินใจทางธุรกิจด้วยจุดมุ่งหมายและวัตถุประสงค์ที่เข้มแข็ง ซึ่งเป็นเหตุผลที่เราไม่ได้ทดลองกับ Nvidia และเราได้สร้างความสามารถของเราบน AMD ขั้นตอนต่อไปของบริษัทของเราคือการมุ่งเน้นไปที่ความสามารถที่มุ่งเน้นเหล่านั้น เพื่อให้ทุกคนสามารถเข้าร่วมและทำอะไรที่มีความหมายกับ AI AMD เป็นทางเลือกที่น่าเชื่อถือที่มีการผลิตขนาดใหญ่ ทัศนคติซอฟต์แวร์ที่เปิดกว้าง และแผนการทางหน่วยความจำสำหรับ AI โมเดิร์น

วิธีการเข้าถึงโครงสร้างพื้นฐาน AI ของ TensorWave แตกต่างจากผู้ให้บริการคลาวด์ GPU แบบดั้งเดิมอย่างไร?

ความแตกต่างของเราคือเรียบง่าย: เราเป็นคลาวด์ AMD เพียงตัวเดียวในระดับใหญ่ ที่ตั้งเป้าที่จะฟื้นฟูทางเลือกในการคำนวณ AI และท้าทายการครอบงำของ Nvidia และทำให้การเข้าถึง AI มีความเท่าเทียมกัน แต่ก็เกี่ยวกับจิตวิญญาณและความมุ่งมั่นของเราในการนำเสนอทางเลือกที่แท้จริงให้กับตลาด ขั้นแรกและสำคัญที่สุด เราต้องการส่งมอบโครงสร้างพื้นฐานที่มีประสิทธิภาพสูงบน AMD ในระดับใหญ่ จาก那里 เราจะขยายไปสู่บริการระดับบน – Models-as-a-Service, AI-as-a-Service ทำให้ทุกอย่างง่ายขึ้น

ในฐานะคลาวด์ AMD เท่านั้น เรามีประสบการณ์ซอฟต์แวร์ที่สร้างขึ้นโดยเฉพาะสำหรับ AMD ตั้งแต่วันแรก การมุ่งเน้นนี้ทำให้เราสามารถปรับให้เหมาะสมกับซิลิคอน เน็ตเวิร์ก และซอฟต์แวร์จากปลายถึงปลาย เพื่อให้ทีมสามารถปรับขนาดเมื่อพวกเขาต้องการ

บทบาทของการร่วมมือเชิงกลยุทธ์กับ AMD มีผลกระทบต่อการเติบโตและการแตกต่างของ TensorWave อย่างไร?

มันคือพื้นฐาน AMD ลงทุนใน TensorWave เชิญเราเข้าร่วมการเปิดตัว MI300X Instinct และเรายังคงร่วมมืออย่างใกล้ชิดในการพัฒนาฮาร์ดแวร์ ซอฟต์แวร์ และการเติบโตของระบบนิเวศ การเป็นคลาวด์ AMD เท่านั้นหมายความว่าเราสามารถเคลื่อนไหวอย่างรวดเร็วพร้อมกับการเปิดตัว Instinct แต่ละรุ่น และทำหน้าที่เป็นห้องปฏิบัติการที่ให้ทางเลือกในตลาดของเรา การร่วมมือของ AMD ช่วยให้เราสามารถปิดช่องว่างได้อย่างรวดเร็ว ส่งมอบผลิตภัณฑ์ใหม่ๆ และเผยแพร่ประสิทธิภาพที่แท้จริงในระดับใหญ่

การเข้าถึง GPU ยังคงเป็นปัญหาสำคัญสำหรับทีม AI – TensorWave จัดการกับปัญหานี้อย่างไร?

เราจัดการกับปัญหานี้แรกด้วยความเป็นอิสระด้านการจัดหาสินค้า: โดยการสร้างบน AMD เราหลีกเลี่ยงข้อจำกัดด้านการผลิตของผู้ผลิตชิปอื่นๆ และส่งต่อความพร้อมให้บริการไปยังลูกค้า ความเป็นอิสระด้านการผลิตผ่าน AMD ทำให้แน่ใจว่าลูกค้าของเราจะไม่ต้องรออยู่ในคิวเดียวกับทุกคน

ช่องว่างในระบบนิเวศโครงสร้างพื้นฐาน AI เกิดขึ้นเนื่องจากผู้เล่นหลายคนกำลังสร้างโซลูชันที่คล้ายกัน ทำให้เกิดการซ้ำซ้อนมากเกินไป ซึ่งมักจะเกิดจากขาดความตระหนักเกี่ยวกับสิ่งที่เกิดขึ้นทั่วทั้งตลาด ขั้นตอนแรกในการปิดช่องว่างเหล่านั้นคือการเข้าใจว่าใครทำอะไร ที่ไหนมีโอกาสในการร่วมมือ ที่ไหนการแข่งขันสามารถขับเคลื่อนนวัตกรรม และสุดท้ายว่าระบบนิเวศสามารถปรับปรุงได้อย่างไร ช่องว่างที่ไม่เหมือนใครในตลาดโครงสร้างพื้นฐาน AI คือพลังงาน: แม้ว่า GPU จะมีอยู่ แต่มักจะมีพลังงานไม่เพียงพอในการสนับสนุนจำนวนแอปพลิเคชัน AI ที่เพิ่มขึ้น การแก้ไขปัญหาทรัพยากรเหล่านี้คือคำตอบของเราในการเปิดใช้งานการเติบโตและนวัตกรรมที่ยั่งยืนในอนาคต

คุณสามารถแบ่งปันข้อมูลเกี่ยวกับวิธีการที่ลูกค้าใช้ TensorWave เพื่อฝึกอบรมโมเดล AI ระดับใหญ่?

ลูกค้าของ TensorWave ต้องการการคำนวณ AI ที่มีประสิทธิภาพสูงโดยไม่มีการขาดแคลน GPU การล็อกอินของผู้ขายหรือต้นทุนที่ไม่ควบคุมได้ TensorWave ให้คลาวด์ AMD ที่เปิดกว้าง ระบบหน่วยความจำที่เหมาะสม และพร้อมสำหรับการผลิต ซึ่งให้โครงสร้างพื้นฐาน AI ที่มีความยืดหยุ่น คุ้มค่า และเข้าถึงได้สำหรับทีม

ตัวอย่างเช่น Modular เลือกที่จะใช้ TensorWave’s AMD GPU Infrastructure สำหรับการอนุมาน MAX เนื่องจาก TensorWave มอบประสิทธิภาพต้นทุนที่ดีกว่าสำหรับการอนุมาน AI ระดับใหญ่ โดยการรัน Modular’s MAX บนโครงสร้างพื้นฐานการคำนวณ AMD ของ TensorWave พวกเขาสามารถบรรลุถึงต้นทุนต่อล้านโทเค็นได้ถึง 70% น้อยกว่า ความเร็วในการผ่าน 57% เร็วกว่า และต้นทุนทั้งหมดน้อยกว่าเมื่อเทียบกับกลุ่ม GPU อื่นๆ

เมื่อ Nvidia ยังคงครอบงำตลาด – คุณเห็นโอกาสที่ใหญ่ที่สุดสำหรับผู้ท้าทายเช่น TensorWave อยู่ที่ไหน?

ในพื้นที่การคำนวณ AI ที่ควบคุมโดยผู้เล่นหลักๆ ไม่กี่ราย ปัญหาใหญ่ที่สุดคือการบรรลุความเร็วในการเข้าถึงตลาด การส่งมอบเทคโนโลยีล่าสุด และการให้การสนับสนุนที่ดีเยี่ยม ผู้ให้บริการคลาวด์ขนาดใหญ่มักจะให้ตัวเลือกที่หลากหลาย แต่ด้วยความยากลำบากในการให้คำแนะนำที่มุ่งเน้นหรือการสนับสนุนที่ส่วนบุคคลเพื่อให้ลูกค้าต้องการ เพื่อ突破พื้นที่ที่ถูกครอบงำนี้ TensorWave มุ่งเน้นไปที่จุดแข็งของเรา ในขณะเดียวกันก็ร่วมมือเพื่อให้เทคโนโลยีที่ดีที่สุดที่เป็นไปได้ และรับประกันว่าลูกค้ามีตัวเลือกที่หลากหลาย

โอกาสที่ใหญ่ที่สุดสำหรับผู้ท้าทายการครอบงำโครงสร้างพื้นฐาน AI ของ NVIDIA คือในระบบนิเวศที่เปิดกว้างและหน่วยความจำ ระบบนิเวศที่เปิดกว้างจะกำจัดการล็อกอินที่ทุกๆ ชั้น (ฮาร์ดแวร์ อินเทอร์เชื่อม และซอฟต์แวร์) นอกจากนี้ หน่วยความจำที่จับคู่กับการฝึกอบรม/การอนุมานที่ได้รับการปรับให้เหมาะสมกับเครือข่ายยังพลิกแนวเส้นต้นทุน

เมื่อมองไปข้างหน้า 5 ปี – คุณเห็นอนาคตของโครงสร้างพื้นฐาน AI และบทบาทของ TensorWave ในสิ่งนั้นอย่างไร?

เป็นเวลาหลายปีแล้วที่เป้าหมายในโครงสร้างพื้นฐาน AI คือการทำให้มันใช้งานได้ดี มีเสถียรภาพ และใช้งานง่ายได้ ช่วงต่อไปจะเป็นเรื่องของสิ่งที่คุณสามารถส่งมอบบนพื้นฐานนั้นได้ – บริการจัดการ AI-as-a-Service สิ่งใดๆ ที่ช่วยให้ลูกค้าสามารถใช้งานและขยายขนาดได้ง่ายขึ้น

เรากำลังอยู่ในช่วงเริ่มต้นของการเปลี่ยนแปลงที่สำคัญ เทคโนโลยี AI ยังคงพัฒนา และทางเลือกเช่น AMD กำลังเป็นที่ยอมรับมากขึ้น เมื่อสิ่งนี้เกิดขึ้น ลูกค้าจะรู้สึกสบายใจมากขึ้นในการใช้งานที่มีระดับใหญ่ และระบบนิเวศทั้งหมดจะเริ่มต้องเปิดกว้างและเติบโต

ขอขอบคุณสำหรับการสัมภาษณ์ที่ดี สำหรับทุกคนที่ต้องการเรียนรู้เพิ่มเติมเกี่ยวกับบริษัทโครงสร้างพื้นฐาน AI ที่มีนวัตกรรมนี้ ควรเยี่ยมชม TensorWave

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, COO på TensorWave – Intervjuerien

mm

Darrick Horton, COO på TensorWave, är en teknisk chef och entreprenör med djup erfarenhet av AI-infrastruktur, molntjänster och avancerade hårdvarusystem. Med en bakgrund som spänner över datacenterarkitektur, halvledarteknologi och högpresterande datorer, har han spelat en central roll i att skala upp nästa generations AI-beräkningsplattformar. Innan han började på TensorWave arbetade Horton med avancerade ingenjörsinitiativ, inklusive forskning om kärnfusion på Lockheed Martins Skunk Works och bidrog till NASA-finansierade projekt inom plasmafysik och astrofysik. Hans karriär präglas av ett konsekvent fokus på att lösa komplexa, storskaliga tekniska utmaningar och översätta dem till praktiska infrastrukturlösningar för ny teknik.

TensorWave är ett företag som specialiserar sig på AI-infrastruktur och fokuserar på att leverera högpresterande molntjänster som drivs av AMD:s GPU:er, och positionerar sig som ett alternativ till mer slutna AI-ekosystem. Företaget grundades 2023 och har sitt huvudkontor i Las Vegas, och bygger storskaliga GPU-kluster som är optimerade för utbildning och distribution av avancerade AI-modeller, med fokus på prestanda, flexibilitet och kostnadseffektivitet. Genom att utnyttja öppna hårdvaru- och mjukvaruekosystem syftar TensorWave till att öka tillgången till kraftfulla AI-beräkningsresurser för företag, forskare och utvecklare, och möjliggöra skalbara AI-arbetsbelastningar utan de begränsningar som traditionell leverantörslåsning medför.

Nvidia dominerar största delen av GPU-marknaden – varför valde du att satsa helt på AMD, och vad är fördelarna med det valet för TensorWave och dess kunder?

Efter lanseringen av ChatGPT sköt efterfrågan på AI i höjden. GPU:er tog slut snabbt, och NVIDIA var i princip det enda alternativet om man kunde få tag på det, och om man kunde hantera kostnaden. Den bristen väckte ett enormt intresse för alternativ. Nu när den första hysterin är över finns det en riktig möjlighet att utmana Nvidias dominans med lösningar som är tillgängliga, kostnadseffektiva och lätta att använda.

Som startup har vi alltid fattat affärsbeslut med ett starkt fokus och syfte. Därför har vi inte experimenterat med Nvidia, och vi har fortsatt att bygga ut vår kapacitet på AMD. Nästa fas i vår verksamhet handlar om att utnyttja dessa fokuserade förmågor så att alla kan komma igång och göra något meningsfullt med AI. AMD är ett trovärdigt alternativ med verklig tillverkningskapacitet, en öppen mjukvarupostur och en minnesförst-roadmap för modern AI.

Hur skiljer sig TensorWaves tillvägagångssätt för AI-infrastruktur från traditionella GPU-molntjänstleverantörer?

Vår differentiering är enkel: vi är det enda AMD-exklusiva molnet i stor skala, som syftar till att återställa valet i AI-beräkning, bryta Nvidias dominans och demokratisera tillgången. Men det handlar också om vår etos och vårt åtagande att erbjuda ett verkligt alternativ på marknaden. Först och främst vill vi leverera exceptionell AMD-baserad infrastruktur i stor skala. Därefter kommer vi att expandera till toppklass-tjänster ovanpå det – Modeller-som-en-tjänst, AI-som-en-tjänst, och göra allt enklare.

Som ett AMD-exklusivt moln har vi mjukvaruupplevelse som är byggd specifikt för AMD från dag ett. Detta fokus låter oss optimera silikon, nätverk och mjukvara från slut till slut, och säkerställer att team kan skala när de behöver.

Vilken roll spelar er strategiska partnerskap med AMD i TensorWaves tillväxt och differentiering?

Det är grundläggande. AMD investerade i TensorWave, bjöd in oss till MI300X Instinct-lanseringen, och vi samarbetar nära med dem om hårdvara, mjukvaruaktivering och ekosystemtillväxt. Att vara ett AMD-exklusivt moln betyder att vi kan röra oss snabbt med varje Instinct-generation, och fungera som ett levande laboratorium som erbjuder, i stor skala, alternativ inom vår marknad. Vår AMD-exklusiva differentiering har möjliggjort för oss att arbeta i en takt som inte är lika uppnåelig på AI-infrastrukturmärket. Deras partnerskap låter oss stänga luckor snabbt, leverera först på nya GPU:er, och publicera verklig prestanda i stor skala.

Åtkomst till GPU förblir en stor flaskhals för AI-team – hur hanterar TensorWave denna utmaning?

Vi hanterar dessa flaskhalsar först genom leverantörsoberoende: genom att bygga på AMD, undviker vi de värsta begränsningarna hos andra chip-tillverkare, och överför tillgänglighet till kunderna. Leverantörsoberoende genom AMD ser till att våra kunder inte blir fast i samma kö som alla andra.

Luckor i AI-infrastruktur-ekosystemet finns eftersom så många aktörer bygger liknande lösningar, vilket skapar mycket överlapp. Det beror ofta på bristande kännedom om vad som händer på marknaden. Det första steget för att stänga dessa luckor är att förstå vem som gör vad, var det finns möjligheter för samarbete, var konkurrens kan driva innovation, och slutligen, hur ekosystemet kan förbättras som helhet. En unik lucka i AI-infrastrukturmarknaden är kraft; även om GPU:er är tillgängliga, finns det ofta inte tillräckligt med energi för att stödja det växande antalet AI-applikationer. Att lösa dessa resursutmaningar är vår nyckel till att möjliggöra hållbar tillväxt och innovation i framtiden.

Hur förbättrar funktioner som direkt vätskekylnings- och UEC-klar nätverk (Universal Ethernet Consortium) prestanda och kostnadseffektivitet?

Direkt vätskekylnings- och UEC-klar nätverk är grundläggande för vad som gör en modern AI-molntjänst ekonomiskt livskraftig i stor skala, och båda är centrala för hur vi har designat TensorWave.

Om DLC: de senaste accelerator-generationerna, AMD:s MI355X och MI455X, körs vid termiska områden som luft inte kan hantera effektivt. Vi pratar om 1400W+ TDP per GPU. Direkt vätskekylnings- avlägsnar värme vid källan via kallplattor eller nedsänkningsdesign, vilket gör tre saker för våra kunder. Först möjliggör det avsevärt högre hylltäthet, 120-300kW+ per hylla istället för 30 till 40kW, vilket komprimerar fotavtrycket och minskar kostnader per megawatt för fastigheter och eldistribution. Andra, det driver PUE mot 1,1, jämfört med 1,4 till 1,5 för äldre luftkylda anläggningar; på vår skala översätter det till tiotals miljoner dollar i årliga besparingar på el. Tredje, och ofta underapprecierad, DLC håller silikon vid lägre, mer stabila junctionstemperaturer, vilket bevarar hållbara klockhastigheter under långa utbildningspass och förlänger den användbara livslängden för hårdvaran. Den sista punkten är enormt viktig när man tecknar en sexårig tillgång.

Om UEC: Ultra Ethernet Consortium-specifikationen, som AMD hjälpte till att grunda och som nådde 1,0 2025, ger oss ett öppet, merchant-silicon-nätverk som möter eller överträffar InfiniBand på de mått som verkligen spelar roll för distribuerad utbildning. Tail-latens på insamling, effektiv bandbredd under konkurrens, och skalbeteende förbi 100 000 GPU-tröskeln. Kostnadshistorien är strukturell. Ethernet har ett halvt dussin trovärdiga merchant-silicon-leverantörer som konkurrerar om priset, jämfört med en ensamkälla-alternativ som har en väldokumenterad premie. För en 100MW-plats är valet av UEC-klart nätverk istället för proprietärt nätverk vanligtvis ett nio-siffrigt CAPEX-beslut, och de operativa fördelarna ackumuleras eftersom våra nätverksingenjörer redan känner till Ethernet.

Tillsammans låter dessa val oss leverera bättre utbildningsekonomi än äldre molntjänster. Kunderna ser högre effektiva FLOPs per dollar, snabbare stegtider på stora jobb, och en tydlig väg för framtiden när modellerna skalar. För oss betyder det en mer försvarbar kostnadsstruktur och flexibiliteten att erbjuda verkligt konkurrenskraftiga prislistor.

Kan du dela exempel på hur kunder använder TensorWave för att utbilda storskaliga AI-modeller?

TensorWaves kunder behöver högpresterande AI-beräkning utan GPU-brist, leverantörsbundenhet eller springande kostnader. TensorWave erbjuder exklusiv AMD-molntjänst – öppen, minnesoptimerad och produktionsklar, vilket ger teamen skalbar AI-infrastruktur som är tillgänglig, flexibel och kostnadseffektiv.

Till exempel valde Modular att köra sin MAX-inferensstack på TensorWaves AMD-GPU-infrastruktur eftersom TensorWave levererar avsevärt bättre kostnadsprestanda för storskalig AI-inferens. Genom att köra Modulars MAX på TensorWaves AMD-beräkning uppnår de upp till 70% lägre kostnad per miljon token, 57% snabbare genomströmning och lägre total kostnad än andra GPU-stackar.

Med Nvidias fortsatta dominans, var ser du de största möjligheterna för utmanare som TensorWave?

I ett AI-beräkningsutrymme som domineras av ett fåtal stora aktörer är de största utmaningarna att uppnå marknadstakt, leverera den senaste tekniken och erbjuda exceptionell support. Hyperscalers erbjuder ofta ett brett utbud av alternativ, men kämpar för att erbjuda den fokus eller personliga vägledning som kunderna behöver. För att bryta igenom detta dominerade utrymme fokuserar TensorWave på våra styrkor, samtidigt som vi samarbetar för att erbjuda den bästa tekniken som är möjlig och säkerställer att kunderna har alternativa alternativ.

De två största möjligheterna för utmanare av Nvidias AI-infrastrukturdominans är i öppna ekosystem och minne. Öppna ekosystem eliminerar låsning på varje nivå (hårdvara, interconnect och mjukvara). Dessutom minskar minne, i kombination med nätverksoptimerad utbildning/inferens, kostnadskurvan.

Om fem år, hur ser du framtiden för AI-infrastruktur och TensorWaves roll i den?

Under många år har målet för AI-infrastruktur varit att göra den bra, stabil och lätt att använda. Nästa fas kommer att handla om vad man kan leverera ovanpå det – hanterade tjänster, AI-som-en-tjänst, allt som hjälper kunder att distribuera och skala mer enkelt.

Vi är i början av en stor transformation. AI-tekniken fortsätter att förbättras, och alternativ som AMD blir alltmer trovärdiga. När det händer kommer kunderna att bli mer bekväma med att distribuera dem i stor skala, och hela ekosystemet kommer att börja öppnas och växa.

Tack för den utmärkta intervjun, alla som vill lära sig mer om detta innovativa AI-infrastrukturföretag bör besöka TensorWave.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.

Interviste

Darrick Horton, TensorWaven COO – Haastattelusarja

mm

Darrick Horton, TensorWaven COO, on teknologiajohtaja ja yrittäjä, jolla on syvä kokemus AI-infrastruktuurista, pilvilaskennasta ja edistyneistä laitteistojärjestelmistä. Taustansa datakeskuksen arkkitehtuurista, puolijohdetechnologioista ja suorituskykyisestä laskennasta hän on ollut keskeisessä roolissa seuraavan sukupolven AI-laskentaplatformien skaalauksessa. Ennen johtajuuttaan TensorWavessa Horton työskenteli edistyneiden insinööritöiden parissa, mukaan lukien ydinfuusiontutkimus Lockheed Martinin Skunk Worksissa ja osallistui NASA:n rahoittamiin plasmafyysikaalisiin ja astrofyysikaalisiin projekteihin. Hänen uransa heijastaa johdonmukaista keskittymistä monimutkaisten, laajamittaisten teknisten haasteiden ratkaisemiseen ja niiden kääntämiseen käytännöllisiksi infrastruktuuriratkaisuiksi nousujohtaville tekniikoille.

TensorWave on AI-infrastruktuuriyhtiö, joka on keskittynyt toimittamaan suorituskykyistä pilvilaskentaa, jota ajavat AMD:n GPU:t, ja asettuu vaihtoehdoksi suljetummille AI-ekosysteemeille. Perustettu vuonna 2023 ja pääkonttori Las Vegasissa, yhtiö rakentaa suuria GPU-klustereita, jotka on optimoitu koulutus- ja käyttöönottoon edistyneille AI-malleille, painottaen suorituskykyä, joustavuutta ja kustannustehokkuutta. Hyödyntämällä avoimia laitteisto- ja ohjelmistoympäristöjä TensorWave pyrkii laajentamaan pääsyn voimakkaisiin AI-laskentaresursseihin yrityksille, tutkijoille ja kehittäjille, mahdollistaen skaalautuvat AI-kuormat perinteisten toimittajien lukituksen rajoituksitta.

Nvidia hallitsee suurinta osaa GPU-markkinaa – miksi päädyit valitsemaan AMD:n ja mitkä ovat tästä valinnasta johtuvat edut TensorWavelle ja sen asiakkaille?

ChatGPT:n julkaisun jälkeen AI:n kysyntä nousi nopeasti. GPU:t menivät nopeasti kaupaksi, ja NVIDIA oli käytännössä ainoa vaihtoehto, jos sitä sai lainkaan, ja jos asiakas pystyi kustantamaan sen. Tämä pula herätti suuren kiinnostuksen vaihtoehtoja kohtaan. Nyt, kun olemme ohittaneet alkuvaiheen hypeen, on oikea mahdollisuus haastaa Nvidian valta-asemaa ratkaisuilla, jotka ovat saatavilla, kustannustehokkaita ja helppokäyttöisiä.

Miten TensorWaven lähestymistapa AI-infrastruktuuriin eroaa perinteisistä GPU-pilvitukkuritoimittajista?

Meidän erottumisemme on suoraviivainen: olemme ainoita AMD:n yksinomaisia pilviyhtiöitä, jotka pyrkivät palauttamaan valinnanvapauden AI-laskentaan, murtamaan Nvidian dominanssin ja demokratisoimaan pääsyn. Mutta se on myös meidän eetoksemme ja sitoutumisemme tuomaan oikea vaihtoehto markkinoille. Ensinnäkin haluamme toimittaa poikkeuksellista AMD-pohjaista infrastruktuuria suurten mittakaavojen mukaisesti. Siitä lähtien laajennamme huippuluokan palveluihin sen päällä – Mallit-palveluna, AI-palveluna, ja teemme kaiken yksinkertaisemmaksi.

Mikä on strategisen yhteistyön rooli AMD:n kanssa TensorWaven kasvussa ja erottumisessa?

Se on perustava. AMD on sijoittanut TensorWaveen, kutsui meidät MI300X Instinct -julkaisuun ja jatkamme tiivistä yhteistyötä laitteiston, ohjelmistotoiminnan ja ekosysteemin kasvun suhteen. Olemme AMD:n yksinomainen pilvi, mikä mahdollistaa nopean liikkeen jokaisen Instinct-sukupolven kanssa, ja toimimme elävänä laboratoriona, joka tarjoaa markkinoiden vaihtoehdot. Meidän AMD-vain erottuvuus on mahdollistanut meidän työskennellä tahdissa, joka ei ole yhtä saavutettavissa AI-infrastruktuurimarkkinoilla. Heidän kumppanuutensa antaa meille mahdollisuuden sulkea aukot nopeasti, toimittaa ensimmäisenä uusia GPU:ita ja julkaista todellista suorituskykyä suurten mittakaavojen mukaisesti.

GPU-pääsy on edelleen suuri pullonkaula AI-tiimien kannalta – miten TensorWave on ratkaisemassa tämän haasteen?

Meidän tavoittelemme näitä pullonkauloja ensisijaisesti toimittamalla tarvikkeiden riippumattomuutta: rakentamalla AMD:lle, vältämme muiden piirivalmistajien toimittamien rajoitusten huonointa, ja välitämme saatavuuden asiakkaille.

Miten ominaisuudet, kuten suora nestejäähdytys ja UEC-valmiit verkkoyhteydet (Universal Ethernet Consortium), parantavat suorituskykyä ja kustannustehokkuutta?

Suora nestejäähdytys ja UEC-valmiit verkkoyhteydet ovat perustavanlaatuisia nykyaikaisen AI-pilven taloudelliselle kannattavuudelle suurten mittakaavojen mukaisesti, ja molemmat ovat keskeisiä siinä, miten olemme suunnitelleet TensorWaven.

Voitko jakaa esimerkkejä siitä, miten asiakkaat hyödyntävät TensorWavea kouluttamaan laajamittaisia AI-malleja?

TensorWaven asiakkaat tarvitsevat suorituskykyistä AI-laskentaa ilman GPU-pulaa, toimittajan lukitusta tai karkaavia kustannuksia. TensorWave tarjoaa yksinomaisen AMD-pilven – avoimen, muistioptimoidun ja tuotantovalmiin, mikä antaa tiimille skaalautuvan AI-infrastruktuurin, joka on saatavilla, joustava ja kustannustehokas.

Nvidian jatkuva dominanssi – missä näet suurimmat mahdollisuudet haastajille, kuten TensorWavelle?

AI-laskentatilassa, jota hallitsevat muutamassa suuressa toimijassa, suurimmat haasteet ovat nopeus markkinoille, uusimman teknologian toimittaminen ja poikkeuksellisen tuen tarjoaminen. Hyperskalereilla on usein laaja valikoima vaihtoehtoja, mutta he kamppailevat tarjohtaakseen fokusta tai henkilökohtaista ohjausta, jota asiakkaat tarvitsevat. Murtamaan tämän hallitun markkinatilan, TensorWave keskittyy vahvuuksiimme, samalla yhteistyöhön tarjotakseen parasta mahdollista teknologiaa ja varmistaakseen, että asiakkaat ovat tietoisia vaihtoehtoista.

Miten näet tulevaisuuden AI-infrastruktuurin ja TensorWaven roolin siinä viiden vuoden kuluttua?

Vuosiin, tavoitteena on ollut tehdä AI-infrastruktuuri hyväksi, vakaaksi ja helppokäyttöiseksi. Seuraava vaihe on siinä, mitä voit toimittaa sen päällä – hallitut palvelut, AI-palvelut, mitä tahansa, joka auttaa asiakkaita käyttämään ja skaalaamaan helpommin.

Olemme suuren muutoksen alussa. AI-tekniikka jatkaa kehittymistään, ja vaihtoehtoja, kuten AMD, tulee yhä uskottavammaksi. Kun tämä tapahtuu, asiakkaat tulevat tulemaan yhä mukavammaksi käyttämään niitä suuressa mittakaavassa, ja koko ekosysteemi alkaa avautua ja kasvaa.

Kiitos haastattelusta, kaikki, jotka haluavat oppia lisää tästä innovatiivisesta AI-infrastruktuuriyhtiöstä, voivat vierailla TensorWaven sivustolla.

Antoine è un leader visionario e socio fondatore di Unite.AI, guidato da una passione incrollabile per plasmare e promuovere il futuro dell'AI e della robotica. Un imprenditore seriale, crede che l'AI sarà altrettanto disruptiva per la società quanto l'elettricità, e spesso viene colto a parlare con entusiasmo del potenziale delle tecnologie disruptive e dell'AGI.
Come futurist, è dedicato a esplorare come queste innovazioni plasmeranno il nostro mondo. Inoltre, è il fondatore di Securities.io, una piattaforma focalizzata sugli investimenti in tecnologie all'avanguardia che stanno ridefinendo il futuro e ridisegnando interi settori.