Vordenker
Der nächste KI-Durchbruch steckt in Ihren Backups

Stellen Sie sich vor, eine Versicherungsgesellschaft könnte alle Brandschadensfälle im pazifischen Nordwesten des letzten Jahrzehnts innerhalb weniger Augenblicke isolieren oder eine Vertriebsabteilung könnte Nutzerfeedback mit einer bestimmten Stimmung sammeln, um Funktionen proaktiv zu verbessern, bevor Leads verloren gehen. Die potenziellen positiven Auswirkungen der Nutzung Ihrer historischen Daten zur KI-gestützten Datenerfassung sind endlos – allerdings nur, wenn Backups nicht mehr wie Backups funktionieren.
Jahrelang haben Unternehmen aller Branchen, von der Versicherungsbranche bis zur Unterhaltungsbranche, ihre alten Daten wie eine verstaubte Versicherungspolice behandelt – etwas, das man weglegt und hofft, nie wieder zu brauchen. Diese Unternehmen haben Berge von Datensätzen, Dateien und Videos angelegt und sitzen auf ihnen, die kaum das Licht der Welt erblicken und für sie kaum bis gar keinen Wert haben, außer dass sie als Backup-Richtlinie oder für Compliance- und Regulierungsanforderungen dienen.
Wo liegt also das Problem, wenn diese Daten irgendwo im hinteren Teil des digitalen Schranks liegen bleiben? Viele davon wurden doch aus gutem Grund beiseite gelegt, oder?
Diese „Na und?“-Mentalität übersieht die Realität des KI-Zeitalters, das die Erwartungen der Verbraucher an alle Arten von Dienstleistungen und Erlebnissen drastisch verändert hat. In einer Welt, in der von Unternehmen erwartet wird, auf der Grundlage von KI-gestützten Echtzeit-Erkenntnissen zu handeln und personalisierte, kontextreiche Erlebnisse zu bieten, gehören all diese „ruhenden“ Daten heute zu den am meisten unterbewerteten strategischen Vermögenswerten im Unternehmen.
Backups gehören der Vergangenheit an
In der heutigen schnellen Cloud-First-Welt werden Backups allzu oft als statische Versicherungspolicen behandelt – etwas, das Unternehmen einrichten, vergessen und hoffen, nie wieder daran zu kommen.
Die Realität ist viel chaotischer und viel kostspieliger.
Transparenz ist die erste Schwachstelle. In fragmentierten Backup-Ökosystemen erschweren Ressourcenwucherung, Schatten-IT und falsch konfigurierte Tags den Nachweis, was tatsächlich geschützt ist, und die Erkennung von Nicht-Schutz. Cloud-native Backup-Tools verschärfen die Herausforderung zusätzlich, da sie zwar einfach zu aktivieren sind, ihnen aber oft wichtige Funktionen wie echte Suchfunktion und die Wiederherstellung einzelner Elemente fehlen. Tools von Drittanbietern versuchen, diese Lücken zu schließen, bringen aber ihre eigene Komplexität mit sich. Sie erfordern Agenten und zusätzliche Maschinen in der Kundenumgebung, eine komplizierte Konfiguration von Backup-Richtlinien und versteckte Preismodelle, bei denen Unternehmen nicht nur für Lizenzen, sondern auch für jede gespeicherte oder übertragene Dateneinheit zahlen.
Wenn Daten benötigt werden – aus Compliance-, rechtlichen oder betrieblichen Gründen –, greifen die Wiederherstellungsprozesse dieser traditionellen Modelle zu kurz. Die meisten Tools erfordern vollständige Snapshot-Wiederherstellungen und lösen eine vollständige Instanzwiederherstellung aus, selbst wenn nur ein winziger Teil der Daten benötigt wird. Anders ausgedrückt: Teams sind gezwungen, eine komplette Datenbank wiederherzustellen, obwohl nur eine Tabelle oder sogar eine einzelne Zeile für sie relevant ist. Das Ergebnis ist ein enormer Zeit-, Rechenleistungs- und Kostenaufwand. Den Backup-Systemen der meisten Unternehmen fehlen die granularen Wiederherstellungsfunktionen, um diesen redundanten, verschwenderischen Prozess zu umgehen.
Compliance-Anforderungen offenbaren einen weiteren Schwachpunkt. Nur wenige Teams können bei einem Audit den Erfolg von Echtzeit-Backups nachweisen oder nachweisen, dass Richtlinien zur Aufbewahrung sensibler Daten, Verschlüsselung und Zugriffskontrollen ordnungsgemäß angewendet wurden. In einer dynamischen Multi-Cloud-Welt kann dies im besten Fall zu einer pauschalen Datenaufbewahrung und massiver Speicherüberlastung führen, im schlimmsten Fall zu Lücken, in denen sensible Daten unkontrolliert und ungesichert bleiben.
Unternehmen, die Backups genauso behandeln wie früher passive Archive wie LTOs oder Glacier, sehen sich mit einer wachsenden Kluft zwischen Cloud-Geschwindigkeit und Backup-Bereitschaft konfrontiert. Ohne automatisierte Erkennung oder Klassifizierung können Daten selbst in hochdynamischen Umgebungen verloren gehen. Backups bleiben unvollständig oder inkonsistent, während die Ausgaben für die Löschung der entstehenden Daten immer weiter steigen.
Von Backups bis zu Data Lakes: Die nächste Grenze der KI erschließen
Die bloße „Modernisierung“ des Speichers wird nicht die nächste Ära der Datenstrategie einleiten. Vielmehr müssen Unternehmen ihre Backups in vollständig durchsuchbare, analysebereite Datenseen – nicht nur, um Compliance- und Wiederherstellungsanforderungen zu erfüllen, sondern auch, um die umfangreichen, hochwertigen Datensätze zu versorgen, die die heutigen KI-Modelle benötigen, um im großen Maßstab effektiv zu lernen und zu arbeiten.
In einem Data-Lake-Modell sind Backups keine statischen Snapshots. Sie werden zu dynamischen Repositories, die mit kontextbezogenen Metadaten angereichert, für eine detaillierte Suche indiziert und mit Analysetools verknüpft sind. Anstatt lediglich Disaster Recovery- und Compliance-Anforderungen zu erfüllen, tragen sie aktiv zu Business Intelligence, Produktinnovation und Kundenbindung bei.
Zu den wichtigsten Faktoren, die diesen Wandel ermöglichen, gehören:
- Automatisierte, kontextbezogene Datenextraktion: Mithilfe von KI-gesteuertem Tagging und natürlicher Sprachverarbeitung können historische Aufzeichnungen, Dokumente, Bilder und Videos mit umfangreichen, durchsuchbaren Deskriptoren versehen werden.
- Granulare Wiederherstellungsfunktionen: Anstatt einen gesamten Datensatz unter Quarantäne zu stellen, können Unternehmen einzelne Dateien, Transaktionen, Tabellen oder Medienclips in Sekundenschnelle abrufen, ohne größere Datensätze zu beeinträchtigen.
- Nahtlose Integration in Analyse-Pipelines: Sobald Backups durchsuchbar und abfragbar sind, können sie direkt in KI-Trainingsdatensätze, Echtzeit-Dashboards und Trendanalyse-Workflows eingespeist werden.
Die Auswirkungen sind transformativ. Eine Bank könnte beispielsweise Algorithmen zur Betrugserkennung anhand statischer Transaktionsdaten aus einem Jahrzehnt trainieren und so Anomalien entdecken, die in kleineren Stichproben nicht zu erkennen sind. Ein Gesundheitsdienstleister könnte auf ähnliche Weise alle Patientenfälle abrufen, die einem bestimmten genetischen Marker entsprechen, um die Forschung zu unterstützen, oder ein Unterhaltungsunternehmen könnte historische Daten zur Stimmung des Publikums nutzen, um die Produktion von Inhalten zu steuern.
Was einst „tote Daten“ waren, wird zu einem immer wichtigeren strategischen Vermögenswert. Backups sind kein Kostenfaktor mehr, sondern ein Wettbewerbsvorteil – und fördern Innovationen in allen Branchen.
„Tote Daten“ nach Geschäftspotenzial durchsuchen
Glücklicherweise ändert sich der Status quo. Moderne Speichersysteme können bereits objekt- und themenbasierte Speicherung, automatische Indizierung und kontextbezogene Metadatenextraktion integrieren, um Archive sofort durchsuchbar und geschäftsbereit zu machen.
Zum Beispiel, Cumolocity hat mit großen Herstellern und Automobilunternehmen wie Ford und Kyocera zusammengearbeitet, um historisch isolierte Anlagen zu verbinden, Daten zu verarbeiten und zu standardisieren und die Transparenz von der Fabrikhalle bis in die Cloud zu verbessern. Finanzinstitute, die sich ansammeln Petabytes an Transaktions- und Kundeninteraktionsdaten wollen unbedingt auf diese Goldmine zugreifen, um finanzspezifische KI-Modelle zu trainieren, was zeigt, wie wertvoll tiefgehende historische Daten geworden sind.
Auch in den Bereichen Medien und Unterhaltung bergen die Anwendungsfälle ein erstaunliches Potenzial. Nehmen wir zum Beispiel Netflix, dessen Ausgaben für Original- und Lizenzinhalte voraussichtlich 18 Milliarden Dollar in diesem JahrMit anderen Worten: Netflix sitzt auf einem Berg gesicherter Daten, Medien, Metadaten, Video-Tagging-Informationen und mehr, die dann durch eine Vielzahl regionaler Compliance-Vorschriften, zahlreicher Zugänglichkeitsstandards und einer Vielzahl unterschiedlicher Cloud-Anbieter gefiltert werden müssen. Das Durchsuchen einer so enormen Menge an Inhalten in einem einzigen Backup-Recovery-Snapshot ist schlichtweg unmöglich. Stellen Sie sich stattdessen vor, wie viel einfacher es wäre, die Daten mit granularen Wiederherstellungsfunktionen und sofortiger Suchfunktion zu durchforsten.
Genau das ermöglicht die Data Lake-Verlagerung.
Der Beweis liegt in der Ausgabe: Mit den richtigen Tools und der richtigen strategischen Denkweise wird der Backup-Speicher zu einem kreativen, wertschöpfenden Motor und nicht nur zu einer Versicherungspolice.
Bessere Backups bedeuten bessere Geschäftsergebnisse
Unternehmen definieren sich heute über Daten und Geschwindigkeit. Veraltete Backup-Systeme behindern Teams an beiden Fronten.
Backups sollten nicht als Tresor oder Überlebensmechanismus für den Ernstfall betrachtet werden. Stattdessen sollten sie Motoren für Wachstum, Kreativität und Wettbewerbsvorteile sein. Neue technische Lösungen ermöglichen diesen Wandel. Unternehmen, die ihre Backup-Architektur heute modernisieren, werden die Durchbrüche von morgen vorantreiben – im Finanzwesen, im Gesundheitswesen, in den Medien und darüber hinaus.










