- Terminologi (A til D)
- AI-kapacitetskontrol
- AI Ops
- Albummenteringer
- Aktiv ydeevne
- Autoencoder
- Tilbageformning
- Bayes sætning
- Big data
- Chatbot: En begyndervejledning
- Beregningstænkning
- Computer Vision
- Forvirringsmatrix
- Konvolutional neurale netværk
- Cybersecurity
- Datastof
- Data storytelling
- data, Science
- Datavarehousing
- Beslutningstræ
- Deepfakes
- Deep Learning
- Dyb forstærkning læring
- DevOps
- DevSecOps
- Diffusionsmodeller
- Digital tvilling
- Dimensionalitetsreduktion
- Terminologi (E til K)
- Edge AI
- Følelse AI
- Ensemble læring
- Etisk Hacking
- ETL
- Forklarelig AI
- Federeret læring
- FinOps
- Generativ AI
- Generativt kontradiktorisk netværk
- Generativ vs. diskriminerende
- Gradientforstærkning
- Gradient nedstigning
- Få-Shot læring
- Billedklassificering
- IT-drift (ITOps)
- Hændelsesautomatisering
- Influence Engineering
- K-Betyder Clustering
- K-Nærmeste Naboer
- Terminologi (L til Q)
- Terminologi (R til Z)
AI 101
Hvad er et datastof?
Indholdsfortegnelse
Ofte forbundet med kunstig intelligens (AI) og maskinlæring (ML), er et datastof et af de vigtigste værktøjer til at konvertere rå data til business intelligence.
Men hvad er et datastof egentlig?
Et datastof er en arkitektur og software, der tilbyder en samlet samling af dataaktiver, databaser og databasearkitekturer i en virksomhed. Det letter ende-til-ende integration af forskellige datapipelines og cloud-miljøer gennem brug af intelligente og automatiserede systemer.
Datastrukturer er blevet vigtigere, efterhånden som store udviklinger fortsætter med at finde sted med hybridskyen, tingenes internet (IoT), AI og edge computing. Dette har forårsaget en massiv stigning i big data, hvilket betyder, at organisationer har endnu mere at administrere.
For at håndtere disse big data skal virksomheder fokusere på ensretning og styring af datamiljøer, hvilket har givet flere udfordringer som datasiloer, sikkerhedsrisici og flaskehalse i beslutningstagningen. Det er disse udfordringer, der har ført til, at datastyringsteams har vedtaget datastrukturløsninger, som hjælper med at forene datasystemer, styrke privatlivets fred og sikkerhed, forbedre forvaltningen og give mere datatilgængelighed for arbejdere.
Dataintegration fører til mere datadrevet beslutningstagning, og mens virksomheder historisk har brugt forskellige dataplatforme til specifikke aspekter af virksomheden, gør datastrukturer det muligt at se dataene mere sammenhængende. Alt dette fører til en bedre forståelse af kundens livscyklus, og det hjælper med at etablere forbindelser mellem data.
Hvad er formålet med et datastof?
Datastrukturer bruges til at etablere en samlet visning af de tilknyttede data, som letter adgangen til information uanset dens placering, databasetilknytning eller struktur. Datavæv forenkler også analyse med kunstig intelligens og maskinlæring.
Et andet formål med et datastof er at lette applikationsudvikling, da det skaber en fælles model for adgang til information adskilt fra de traditionelle applikations- og databasesiloer. Disse modeller giver bedre informationsadgang, men de forbedrer også effektiviteten ved at etablere et enkelt lag, hvor dataadgang kan administreres på tværs af alle ressourcer.
Selvom der ikke er én enkelt dataarkitektur for en datastruktur, siges det ofte, at der er seks grundlæggende komponenter til denne type dataramme:
Datastyring: Ansvarlig for datastyring og datasikkerhed.
Dataindtagelse: Samler cloud-data og identificerer forbindelser mellem strukturerede og ustrukturerede data.
Databehandling: Forfiner dataene for at sikre, at kun relevante data vises til dataudtræk.
Dataorkestrering: Et virkelig vigtigt lag af rammen, der er ansvarlig for at transformere, integrere og rense data, så de kan bruges på tværs af virksomheden.
Dataopdagelse: Viser nye måder at integrere datakilder på.
Dataadgang: Aktiverer forbruget af data, sikrer de rigtige tilladelser for visse teams til at overholde reguleringen og hjælper med at vise relevante data gennem brug af dashboards og andre datavisualiseringsværktøjer.
Fordele ved et datastof
Der er mange forretningsmæssige og tekniske fordele ved datastrukturer, såsom:
Bryd datasiloer: Moderne virksomheder lider ofte af datasiloer, da moderne databaser er forbundet med grupper af applikationer og ofte vokser, efterhånden som nye tilføjes virksomheden. Datasiloer indeholder data af forskellige strukturer og formater, men datastrukturer kan forbedre adgangen til virksomhedsinformation og bruge indsamlede data til at forbedre driftseffektiviteten.
Foren databaser: Datastoffer hjælper også virksomheder med at forene databaser, der er spredt over et stort område. De sikrer, at placeringsforskellene ikke resulterer i barrierer for adgang. Datastrukturer forenkler applikationsudvikling og kan bruges til at optimere specifik applikationsdataanvendelse uden at gøre data mindre tilgængelige for andre applikationer. De kan også forene data, der allerede er flyttet ind i siloer.
Enkelt måde at få adgang til oplysninger på: Datastoffer forbedrer applikationsportabilitet og fungerer som en enkelt måde at få adgang til information i både skyen og datacenteret.
Generer indsigt i et accelereret tempo: Datastofløsninger kan nemt håndtere komplekse datasæt, hvilket accelererer tiden til indsigt. Deres arkitektur gør det muligt for forudbyggede analysemodeller og kognitive algoritmer at behandle data i skala og hastighed.
Brugt af tekniske og ikke-tekniske brugere: Datavæv er ikke kun rettet mod tekniske brugere. Arkitekturen er fleksibel og kan bruges med en bred vifte af brugergrænseflader. De kan hjælpe med at bygge dashboards, der kan forstås af virksomhedsledere, eller deres sofistikerede værktøjer kan bruges til dataudforskning af dataforskere.
Bedste praksis for implementering af datastoffer
Det globale datamarked udvides konstant, og der er stor efterspørgsel i rummet. Mange virksomheder søger at implementere en dataarkitektur for at optimere deres virksomhedsdata, og de følger nogle almindelige bedste praksisser.
En sådan praksis er at omfavne en DataOps-procesmodel. Datastof og DataOps er ikke identiske, men ifølge en DataOps-model er der tæt forbindelse mellem dataprocesser, værktøjer og brugerne. Ved at tilpasse brugerne til at stole på data kan de udnytte værktøjerne og anvende indsigt. Uden en DataOps-model kan brugere kæmpe for at udtrække nok fra datastrukturen.
En anden bedste praksis er at undgå at gøre datastrukturen til blot endnu en datasø, hvilket er en almindelig hændelse. For eksempel kan en ægte datastruktur ikke opnås, hvis du har alle de arkitektoniske komponenter, såsom datakilder og analyser, men ingen af API'erne og SDK'erne. Datastof refererer til arkitekturdesignet, ikke en enkelt teknologi. Og nogle af de definerende træk ved arkitekturen er interoperabilitet mellem komponenter og integrationsparathed.
Det er også afgørende for organisationen at forstå dens overholdelse og lovkrav. En datastrukturarkitektur kan forbedre sikkerhed, styring og overholdelse af lovgivning.
Da data ikke er spredt på tværs af systemer, er der en mindre trussel om eksponering af følsomme data. Når det er sagt, er det vigtigt at forstå overholdelse og lovgivningsmæssige krav, før du implementerer en datastruktur. Forskellige datatyper kan falde ind under forskellige regulatoriske jurisdiktioner. En løsning er at bruge automatiserede overholdelsespolitikker, der sikrer, at datatransformation overholder lovene.
Data Fabric Use Cases
Der er mange forskellige anvendelser for et datastof, men nogle få er meget almindelige. Et sådant almindeligt eksempel er den virtuelle/logiske indsamling af geografisk forskellige dataaktiver for at lette adgang og analyse. Datastrukturen bruges normalt til centraliseret forretningsstyring i dette tilfælde. Fordi de distribuerede linjeoperationer, der indsamler og bruger dataene, understøttes gennem traditionelle applikations- og dataadgangs-/forespørgselsgrænseflader, er der meget at hente for organisationer, der har regional eller national segmentering af deres aktiviteter. Disse organisationer kræver ofte central ledelse og koordinering.
En anden vigtig case for datastrukturer er etableringen af en samlet datamodel efter en fusion eller opkøb. Når disse finder sted, ændres database- og datastyringspolitikkerne for den tidligere uafhængige organisation ofte, hvilket betyder, at det bliver sværere at indsamle information på tværs af organisationsgrænser. En datastruktur kan overvinde dette ved at skabe en samlet visning af data, der gør det muligt for den kombinerede enhed at harmonisere på en enkelt datamodel.
Alex McFarland er en AI-journalist og forfatter, der udforsker den seneste udvikling inden for kunstig intelligens. Han har samarbejdet med adskillige AI-startups og publikationer verden over.