Connect with us

Thought leaders

AI dwingt tot een reset in netwerkobservabiliteit

mm

Gedurende jaren was netwerkobservabiliteit een discussie over tools. Welk platform verzamelt de breedste set telemetrie? Welke agent dekt mijn meer obscure apparaten? Welke architectuur presteert het beste op grote schaal? Op welke punten in het netwerk moeten we pakketten vastleggen? Dat gesprek ging ervan uit dat het netwerk relatief stabiel was en dat verandering incrementeel was.

Dat is het niet meer.

AI-gestuurde workloads vergroten de verkeersvariabiliteit, omdat de adoptie van AI versnelt in het hele bedrijf. Recent onderzoek toont aan dat 88% van de organisaties nu AI gebruikt in tenminste één bedrijfsfunctie. Hybride architecturen strekken zich uit over cloud, datacenter, WAN en edge. Beveiligings- en prestatiesignalen overlappen nu op manieren die vijf jaar geleden niet het geval waren. En het bedrijf verwacht snellere oplossingen, minder storingen en duidelijke verantwoordelijkheid.

Onder die druk falen de huidige benaderingen van netwerkobservabiliteit. Niet omdat teams geen vaardigheden missen, maar omdat de architectuur onder de observabiliteit niet heeft kunnen bijhouden.

Dit gaat niet over het toevoegen van meer dashboards of het vastleggen van meer gegevens. Het gaat erover te erkennen dat observabiliteit moet evolueren van een verzameling tools naar een samenhangende gegevensbasis. Die basis is wat netwerkoperatieteams (NetOps) in staat zal stellen om AI te gebruiken voor netwerkobservabiliteit en intelligentie.

Hier is hoe je moet denken over waar je bent en hoe je verder moet gaan.

Waar ben je op de volwassenheidscurve?

Onderzoek van Enterprise Management Associates (EMA) toonde aan dat slechts 46% van de IT-leiders geloofden dat ze volledig succesvol waren met netwerkobservabiliteitstools. De meeste klachten zijn welbekend, met tool-sprawl, alarmruis en slechte gegevenskwaliteit die op de lijst staan.

De EMA-rapport van 2025, Network Observability Maturity Model: Hoe te plannen voor NetOps-excellentie, identificeerde ook vijf distincte stadia van volwassenheid:

  1. Ad Hoc en Reactief
  2. Fragmenteerd en Opportunisme
  3. Geïntegreerd en Centraal Beheerd
  4. Intelligent en Geautomatiseerd
  5. Geoptimaliseerd en AI-Gestuurd

Vandaag wil ik me concentreren op de middelste drie stadia, waar je de meeste organisaties zult vinden, voordat ik de weg naar het laatste stadium beschrijf.

Fragmenteerd en Opportunisme

Je hebt meerdere observabiliteitstools. Vaak drie of vier. Industrieonderzoek weerspiegelt hetzelfde patroon, met 87% van de NetOps-teams die nu afhankelijk zijn van meerdere observabiliteitstools, maar slechts 29% van de alarmsignalen die ze genereren zijn actiegericht. Dekking bestaat, maar het is oneven. Ingenieurs fungeren als integratielaag, pivoteren tussen consoles en mentaal correleren gebeurtenissen. AI kan aanwezig zijn, maar het werkt binnen silo’s. Teams werken hard in dit stadium, maar de architectuur werkt tegen hen.

Geïntegreerd en Centraal Beheerd

Je hebt een sterke monitorkapaciteit bereikt over infrastructuur en verkeer. Er is enige integratie tussen systemen. Dashboards zijn gestandaardiseerd. Je hebt mogelijk vroege automatisering voor veelvoorkomende incidenten.

Maar root cause-analyse is nog steeds afhankelijk van handmatige stitching. Predictive inzichten zijn beperkt. AI versnelt analyse, maar het verandert niet fundamenteel hoe het netwerk wordt begrepen.

Intelligent en geautomatiseerd

Telemetrie is real-time waar het ertoe doet. Flow-, pakket- en configuratiegegevens worden gecorreleerd. Alarmsignalen zijn contextueel, niet drempelgestuurd. AI ondersteunt anomaliedetectie, capaciteitsvoorspelling en geleide herstel. Automatisering wordt ingevoerd met opzet en binnen beleidskaders. Alleen organisaties met voldoende middelen zijn op dit niveau.

Een kleinere groep van best-in-class-organisaties heeft het laatste stadium van volwassenheid bereikt, Geoptimaliseerd en AI-Gestuurd. Tooling alleen zal je niet helpen evolueren.

Van Intelligent en Geautomatiseerd naar Geoptimaliseerd en AI-Gestuurd: wat te doen next

Het moderniseren van netwerkobservabiliteit vereist niet het verwijderen van wat je hebt. Het vereist een verschuiving van tools naar gegevens.

1. Begin met gegevenscoherentie, niet met meer AI

Voordat je AI-initiatieven uitbreidt, stel jezelf een vraag: is onze netwerkgegevens schoon, consistent en verbonden over domeinen?

Inconsistente telemetrieformaten, blind spots in cloud of SD-WAN, dubbele IP-ruimte en verouderde inventarisrecords ondermijnen AI-resultaten meer dan de meeste executives beseffen. Als telemetrie niet betrouwbaar kan worden gekoppeld aan identiteit en context vanuit autoritaire adressering, blijft correlatie probabilistisch in plaats van definitief.

Dit is waar fundamentale netwerkdiensten ertoe doen. DNS, DHCP en IP-adresbeheer (samen bekend als DDI) vormen de autoritaire kaart van het netwerk. Elk apparaat, workload en verbinding komt samen op dat niveau.

Wanneer observabiliteitstelemetrie wordt verrijkt met autoritaire identiteit en adressering, wordt analyse gefundeerd. AI kan verwachte gedragingen onderscheiden van echte anomalieën met grotere vertrouwen. Root cause-analyse gebeurt sneller. Automatisering wordt veiliger.

2. Verklein tool-sprawl door diepe integratie

De meeste ondernemingen zullen blijven werken met meerdere observabiliteitssystemen. Dat is niet het hoofdprobleem. Het probleem is ondiepe integratie.

Het insluiten van een dashboard in een ander of het delen van basisgegevensexporten creëert geen coherentie. Volwassen omgevingen integreren op het gegevensniveau. Ze coördineren telemetrie-verzameling, correleren alarmsignalen over domeinen en mogelijk maken workflows die tools overspannen in plaats van erin gevangen te zitten.

Wanneer integratie dat niveau bereikt, wordt consolidatie rationeel in plaats van politiek. Overbodige systemen zijn gemakkelijker te pensioneren. Overlappende telemetrie is gemakkelijker te rationaliseren. AI werkt op een unified context in plaats van aan elkaar genaaide fragmenten.

3. Moderniseer in fasen om verstoring te vermijden

De angst om legacy-omgevingen te destabiliseren is legitiem. Niemand wil productie breken terwijl hij architecturale puurheid nastreeft. Een gefaseerde aanpak vermindert dat risico.

Fase één: Overlay-intelligentie

Stroom telemetrie naar een gedeelde analytics-laag. Verrijk het met identiteit en beleidscontext. Gebruik AI voor detectie en aanbeveling, niet voor autonome handhaving.

Fase twee: Standaardiseer en rationaliseer

Terwijl correlatie verbetert en ruis afneemt, identificeer overbodige tools en pensioneer die welke niet kunnen deelnemen aan de unified architectuur.

Fase drie: Introduceer geautomatiseerde beveiliging

Begin met laagrisico-automatiseringsscenario’s. Laat agentic AI suggesteren herstel voordat je toestaat dat het wordt uitgevoerd. Breid uit terwijl vertrouwen en governance volwassen worden.

Dit is niet over het omzetten van een schakelaar. Het is over het verhogen van coherentie zonder stabiliteit op te offeren.

De strategische verschuiving: naar Geoptimaliseerd en AI-Gestuurd

Observabiliteit is niet langer een verzameling van monitortools. Het is core AI-gestuurde infrastructuur die een nieuwe basis vereist. Wanneer organisaties observabiliteit verankeren in een unified gegevensarchitectuur en autoritaire netwerkintelligentie, wordt AI anticiperend.

Predictive analytics verplaatst zich van theorie naar praktijk. Door historische en real-time telemetrie samen te analyseren, kan AI vroegtijdige signalen van capaciteitsbelasting, configuratiedrift of abnormaal gedrag identificeren voordat ze escaleren. In plaats van te racen om storingen te herstellen, grijpen teams in voordat gebruikers verslechtering opmerken. Dit is vooral belangrijk omdat grootschalige IT-storingen organisaties tot 2 miljoen dollar per uur kunnen kosten.

Capaciteitsplanning wordt dynamisch in plaats van periodiek. Uitputting van resources en dienstverzadiging kunnen vooruit worden geprojecteerd, waardoor proactieve optimalisatie mogelijk wordt in plaats van reactieve schaling.

Dit is wat op het horizon ligt.

Als je gegevens gefragmenteerd zijn, zal AI dat blootleggen.

Als je basis coherent is, wordt AI hefboom.

De vraag is niet of je AI-gestuurde observabiliteit en intelligentie zult adopteren. De vraag is of je architectuur daarop voorbereid is.

Scott Fulton is Chief Product en Technology Officer bij BlueCat en een ervaren leider in enterprise technologie met meer dan 20 jaar ervaring in cloudinfrastructuur, DevOps en cybersecurity. Hij was eerder de oprichter van cloudobservatie-startup OpsCruise, waar hij de ontwikkeling leidde van AI-gedreven technologieën die worden gebruikt door Fortune 500-organisaties.