Interviews
Jeronimo De Leon, Senior Product Manager of AI at Backblaze – Interview Series

Jeronimo De Leon ist ein erfahrener Produktmanagement-Experte mit über 10 Jahren Erfahrung in der Förderung von künstlicher Intelligenz (KI)-getriebener Innovation in Unternehmens- und Start-up-Umgebungen. Derzeit ist er als Senior Product Manager, KI bei Backblaze tätig, wo er die Entwicklung von KI/ML-Funktionen leitet, sich auf die Verbesserung des KI-Datenspeichers für die MLOps-Architekturen der Kunden konzentriert und KI-Tools und -Agenten implementiert, um interne Betriebsabläufe zu optimieren.
Backblaze ist ein Cloud-Speicher- und Backup-Unternehmen, das unbegrenzte, automatische Computer-Backups für Einzelpersonen und Unternehmen sowie skalierbare Objektspeicherlösungen für Unternehmen, Medien und Anwendungsworkloads bietet. Die Dienstleistungen konzentrieren sich auf Affordability, Datensicherheit, einfache Wiederherstellung und nahtlose Kompatibilität mit bestehenden Systemen.
Sie bringen über ein Jahrzehnt Erfahrung in der KI-getriebenen Produktverwaltung – von der Arbeit mit LLMs bei Intelas und RAG bei Welcome.AI bis hin zur Einführung von Bloombergs Chatbot und jetzt der Leitung der KI-Bemühungen bei Backblaze. Wie haben diese Erfahrungen Ihre Sicht auf die Rolle des Cloud-Speichers bei der Skalierung von KI/ML-Workflows geprägt?
Seit ich mit KI-Projekten bei IBM Watson begonnen habe, habe ich gesehen, wie sich das Tempo der Innovation dramatisch beschleunigt hat. Was früher Jahre dauerte, um von der Forschung zur Produktion zu gelangen, geschieht jetzt in Monaten. Die grundlegenden Infrastrukturherausforderungen bleiben jedoch dieselben: Wo sind die Daten, wo werden sie gespeichert und wie können sie effizient abgerufen werden?
Früher waren die Einschränkungen Compute- und Modelle, aber jetzt haben wir einen Überfluss an vorgefertigten Modellen und es gibt viele Compute-Anbieter. Wenn man jedoch ein Projekt startet, muss man typischerweise mit einem Daten-Sammel- und -Verarbeitungsprojekt beginnen, das immer noch derselbe ist. Ich sehe ständig, wie Organisationen an demselben Engpass der Konsolidierung von Daten aus verschiedenen Quellen stoßen. Die Organisationen, die erfolgreich sind, sind diejenigen, die die Datenzugänglichkeit früh lösen und eine Grundlage schaffen, die mit ihrer KI-Reife skaliert. Ihre Speicherarchitektur-Entscheidungen bestimmen, wie schnell Sie zum Modelltraining und zur Innovation gelangen können.
Wo sehen Sie den Cloud-Speicher in den kritischsten Rollen über den gesamten KI-Lebenszyklus – von der Datenübernahme und -verarbeitung bis zum Training, Feinabstimmung, Rückschluss und Überwachung?
Cloud-Speicher ist kritisch über den gesamten KI-Lebenszyklus, mit wichtigen Phasen in der Datenaggregation, -verarbeitung, -training und -rückschluss. Am Anfang beschleunigt die systematische Konsolidierung, Katalogisierung und Sicherung von Archiven neue Projekte und erleichtert es, aufkommende Modelle zu testen. Saubere, gut verarbeitete Daten schlagen oft einfach mehr Daten, was den Speicher zentral für Qualität und Skalierbarkeit macht. Einer meiner Lieblingssprüche von Backblaze lautet: “Es ist kein Hamstern, wenn es sich um Daten handelt.” Man weiß nie, wie wertvoll sie sein werden, daher sollten Organisationen so viel wie möglich sammeln. Während des Trainings stellt der skalierbare Speicher den Durchsatz von großen Datensätzen sicher, und beim Rückschluss ermöglicht die Erfassung von Vorhersageergebnissen und Benutzerfeedback eine kontinuierliche Iteration. Am Ende bestimmt der Speicher, wie schnell Sie mit KI innovieren können.
Welche sind die größten Hindernisse, denen Organisationen bei der Skalierung des Speichers für KI gegenüberstehen, und wie unterscheiden sich diese Herausforderungen zwischen kleinen Start-ups und großen Unternehmen?
Die größten Hindernisse bei der Skalierung des Speichers für KI sind Kosten, Datenverwaltung und Zugänglichkeit. Das Speichern großer Datenmengen ist nur ein Teil der Herausforderung; es muss auch organisiert, abrufbar und mit den richtigen Kontrollen verwaltet werden. Saubere, gut strukturierte Daten sind oft wertvoller als einfach mehr Daten.
Für Start-ups ist die anfängliche Herausforderung die Beschaffung genügend Daten, um ihre Modelle zu trainieren und zu verfeinern. Sobald sie diese haben, werden Kosten und Architektur die nächsten Barrieren.
Für große Unternehmen ist die Herausforderung die Komplexität. Ihre Daten sind reichlich vorhanden, aber fragmentiert über Silos, Legacy-Systeme und Compliance-Regime, was die Konsolidierung und Zugänglichkeit erschwert.
Die Organisationen, die erfolgreich sind, behandeln den Speicher als strategischen Enabler, der in Kosten, Leistung und Zugänglichkeit mit ihrer KI-Reife skaliert.
Unter den Aspekten Kosten, Latenz, Sicherheit und Compliance sehen Sie als das dringlichste Hindernis für die Skalierung von KI. Wie sollten Organisationen es priorisieren, um es zu überwinden?
Unter den Aspekten Kosten, Latenz, Sicherheit und Compliance ist die Latenz eines der dringlichsten Hindernisse. Sie hat direkten Einfluss auf das Modelltraining und den Rückschluss, und der Rückschluss prägt insbesondere die Benutzererfahrung. Organisationen tun alles Mögliche, um die Latenz in dieser Phase zu reduzieren, da Verzögerungen bei der Bereitstellung von Vorhersagen die Akzeptanz untergraben können.
Kosten bleiben eine konstante Herausforderung, da die Datenmengen wachsen, und die Compliance wird kritischer, wenn Organisationen skaliert werden, insbesondere in regulierten Branchen. Start-ups konzentrieren sich oft zuerst auf Kosten und Latenz, während Unternehmen die Latenz mit Governance- und regulatorischen Anforderungen ausbalancieren müssen. Die Priorität sollte darin bestehen, einen Speicher aufzubauen, der die Latenz für das Training und den Rückschluss minimiert, während er gleichzeitig kosteneffizient und compliance-konform bleibt, wenn die KI-Adoption expandiert.
Unternehmen betonen oft die Notwendigkeit von Flexibilität und einfacher Zugänglichkeit von Daten, um KI-Innovationen voranzutreiben. Aus Ihrer Perspektive sieht wahre Flexibilität in der Datenzugänglichkeit wie aus, und warum ist sie so entscheidend?
In einer kürzlichen Rede betonte ich die Idee des intelligenten Archivierens. Wahre Flexibilität in der Datenzugänglichkeit beginnt mit der Zentralisierung von Informationen in einem strukturierten, durchsuchbaren Archiv. Das bedeutet, diverse Formate zu vereinheitlichen, zu normalisieren und zu kennzeichnen, um Konsistenz zu ermöglichen, und die Indizierung für zukünftige Abfragen zu ermöglichen. Dieser Ansatz stellt sicher, dass Daten nicht nur gespeichert, sondern auch nutzbar gemacht werden.
Es ist entscheidend, weil es die Grundlage für Analysen und Modellierung legt. Wenn Daten strukturiert und durchsuchbar sind, können Teams schneller agieren, experimentieren und die Latenz in beiden Phasen – Training und Rückschluss – reduzieren. Ohne diese Art von Flexibilität wird der Speicher schnell zu einem Engpass anstelle eines Enablers für KI-Innovationen.
Können Sie reale Anwendungsfälle teilen – wie bei Kunden wie Decart AI oder Wynd Labs –, die zeigen, wie der richtige Cloud-Speicher-Ansatz direkt die KI-Innovation ermöglichen kann?
Diese sind zwei großartige Beispiele dafür, wie der richtige Cloud-Speicher-Ansatz direkt die KI-Innovation ermöglicht. Decart konzentrierte sich auf das Modelltraining, bei dem die effiziente Datenübertragung zum Compute kritisch war. Mit Backblaze B2 skalierten sie auf 16 PB in 90 Tagen, trainierten über mehrere GPU-Cluster mit null Ausgangskosten und erreichten zehnmal die Effizienz der Wettbewerber. Diese Zuverlässigkeit und Effizienz ermöglichten es ihnen, schneller zu innovieren.
Wynd Labs konzentrierte sich auf den Zugang der Kunden zu den Daten. Sie nehmen täglich Petabyte an Daten auf und liefern monatlich Zehntausende von Petabyte. Mit Backblaze’ hoher Leistung und kostenlosem Ausgang konnten sie auf Unternehmensnachfrage skaliert werden und Ressourcen in die Produktentwicklung investieren. Diese Fähigkeit, den Datenzugang im großen Maßstab bereitzustellen, schloss neue Möglichkeiten für ihre Plattform auf.
In beiden Fällen verwandelte die richtige Speicherstrategie die Infrastruktur von einem Hindernis in einen Enabler, sodass die Unternehmen sich auf die KI-Innovation konzentrieren konnten, anstatt Kosten und Komplexität zu verwalten.
Wenn KI-Modelle und Datensätze komplexer werden, welche Richtlinie würden Sie Organisationen geben, die den Speicherleistung mit Kosteneffizienz in Einklang bringen möchten?
Organisationen müssen an ihre langfristige Datenverwendung im Hinblick auf ihr Produkt denken. Das Sammeln, Verarbeiten, Verschieben und Ausführen von Daten werden alle zur Kernfunktion ihrer Produktentwicklung gehören. Wenn sie dies nicht jetzt berücksichtigen, werden die Kosten und Speicherherausforderungen im Laufe der Zeit nur zunehmen. Da KI ein zentraler Teil ihres Produkts und ihrer Organisation sein wird, muss der Speicher von Anfang an so konzipiert werden, dass er die Leistung mit der Kosteneffizienz ausbalanciert, um reibungslos zu skalierten, wenn sie wachsen.
Sicherheit und Compliance sind insbesondere in regulierten Branchen von entscheidender Bedeutung. Wie sehen Sie die Evolution des Cloud-Speichers, um Governance-Bedürfnisse zu unterstützen, während Teams gleichzeitig schnell innovieren können?
Governance ist ein wichtiger Teil des Speichers. Die Zugänglichkeit durch eine solide Grundlage für die Datenverwaltung, -sicherheit und -audit ist entscheidend. Ich sehe den Cloud-Speicher mit stärkeren integrierten Kontrollen wie Verschlüsselung standardmäßig, fein abgestimmten Berechtigungen, Audit-Protokollen und Datenresidenzoptionen evolvieren. Ebenso wichtig ist die Datenherkunft. Bei KI ist es entscheidend zu wissen, woher die Daten stammen, wie sie verarbeitet wurden und wie sie in Modelle einfließen, sowohl für die Compliance als auch für das Vertrauen.
Gleichzeitig verbessern Speicherplattformen die Benutzerfreundlichkeit, damit Teams schnell agieren können. Wenn Governance, Herkunft und Zugänglichkeit zusammenarbeiten, können Organisationen regulatorische Anforderungen erfüllen und gleichzeitig mit KI schnell innovieren.
Für Organisationen, die B2 bewerten oder migrieren, welche Ratschläge oder Richtlinien geben Sie in Bezug auf die Implementierung – insbesondere bezüglich der Datenmigration, der Integration in bestehende MLOps- oder Compute-Stacks oder der Optimierung für Durchsatz und Ausgang?
Da B2 S3-kompatibel ist, integriert es sich direkt in bestehende MLOps- und Compute-Stacks ohne Neukonfiguration. Wir arbeiten oft mit Kunden an einem Proof-of-Concept, um die Migration, Leistung und Integration zu validieren, bevor wir skaliert werden. Von dort aus konzentriert sich der Fokus auf die Optimierung des Durchsatzes, der Datenübertragung und der Datenorchestrierung, damit Teams über Cluster trainieren, Rückschlüsse ziehen und schnell iterieren können, ohne von Infrastruktur-Engpässen behindert zu werden.
Wie entwickelt sich Backblaze seine Speicherangebote, um den aufkommenden Bedarf – insbesondere im Zusammenhang mit Trends um LLMs, Exabyte-Datensätze und hybride oder Multi-Cloud-Strategien – zu erfüllen?
Bei Backblaze konzentrieren wir uns nicht nur darauf, wie Daten heute verwendet werden, sondern auch darauf, wie sie in Zukunft orchestriert werden. Der Speicher ist nicht länger nur ein Archiv, sondern wird zu einem Werkzeug, das den schnellen Zugriff, die effiziente Übertragung und die zuverlässige Orchestrierung von Daten über Umgebungen hinweg ermöglicht. Mit LLMs und Exabyte-Datensätzen wird diese Grundlage des einfachen Zugriffs und der hohen Durchsatzleistung nicht nur für das Training und den Rückschluss, sondern auch für die aufkommende Klasse von KI-Agents, die auf Daten angewiesen sind, um Prozesse autonomer zu machen, entscheidend sein. Das Ergebnis ist eine Speichergrundlage, die Innovationen jetzt ermöglicht und Organisationen auf das vorbereitet, was kommt.
Vielen Dank für das großartige Interview. Leser, die mehr erfahren möchten, sollten Backblaze besuchen.












