Thought leaders
Hoe we diepe leer kunnen gebruiken met kleine gegevens? – Thought Leaders

Wanneer het gaat om bijhouden van de nieuwste trends op het gebied van cybersecurity, kan het proces van op de hoogte blijven van de laatste ontwikkelingen nogal omslachtig worden, omdat er veel nieuws is om bij te houden. De laatste tijd is de situatie echter dramatisch veranderd, aangezien de cybersecurity-domeinen lijken te draaien om twee woorden – diepe leer.
Hoewel we aanvankelijk verrast waren door de enorme aandacht die diepe leer kreeg, werd het al snel duidelijk dat de opwinding rond diepe leer terecht was. Op een manier die lijkt op de menselijke hersenen, stelt diepe leer een AI-model in staat om zeer nauwkeurige resultaten te behalen door taken rechtstreeks uit te voeren vanuit tekst, afbeeldingen en audio-signalen.
Tot nu toe werd algemeen aangenomen dat diepe leer afhankelijk is van een enorme hoeveelheid gegevens, vergelijkbaar met de omvang van de gegevens die worden gehuisvest door de Silicon Valley-reuzen Google en Facebook, om de meest complexe problemen binnen een organisatie op te lossen. In tegenstelling tot de algemene overtuiging kunnen ondernemingen echter de kracht van diepe leer benutten, zelfs met toegang tot een beperkte gegevensset.
In een poging om onze lezers te helpen met de noodzakelijke kennis om hun organisatie uit te rusten met diepe leer, hebben we een artikel samengesteld dat diep (geen grap bedoeld) ingaat op enkele manieren waarop ondernemingen de voordelen van diepe leer kunnen benutten, ondanks het feit dat ze toegang hebben tot een beperkte, of ‘kleine’, gegevensset.
Maar voordat we in de kern van het artikel kunnen komen, zouden we graag een kleine, maar zeer essentiële suggestie doen – begin eenvoudig. Voordat u echter complexe neurale netwerken gaat creëren die in een sciencefictionfilm zouden kunnen figureren, begin met het experimenteren met enkele eenvoudige en conventionele modellen (bijv. random forest) om de software onder de knie te krijgen.
Met dat uit de weg, laten we rechtstreeks ingaan op enkele manieren waarop ondernemingen diepe leer technologie kunnen integreren, terwijl ze toegang hebben tot een beperkte gegevensset.
#1- Fijnafstemming van het basismodel:
Zoals we hierboven al vermeldden, is de eerste stap die ondernemingen moeten nemen nadat ze een eenvoudig basismodel voor diepe leer hebben geformuleerd, om dit model fijn af te stemmen op het specifieke probleem dat aan de orde is.
Het fijn afstemmen van een basismodel klinkt echter veel moeilijker op papier dan het in werkelijkheid is. Het fundamentale idee achter het fijn afstemmen van een grote gegevensset om te voldoen aan de specifieke behoeften van een onderneming is eenvoudig – u neemt een grote gegevensset die enige gelijkenis vertoont met het domein waarin u acteert, en stemt vervolgens de details van de oorspronkelijke gegevensset af met uw beperkte gegevens.
Wat betreft het verkrijgen van de grote gegevensset, kunnen ondernemingsleiders vertrouwen op ImageNet, die ook een eenvoudige oplossing biedt voor eventuele problemen met beeldclassificatie. De door ImageNet gehoste gegevensset biedt organisaties toegang tot miljoenen afbeeldingen, die zijn onderverdeeld in meerdere klassen van afbeeldingen, die nuttig kunnen zijn voor ondernemingen uit een breed scala aan domeinen, waaronder, maar niet beperkt tot, afbeeldingen van dieren, enz.
Als het proces van fijn afstemmen van een vooraf getraind model om te voldoen aan de specifieke behoeften van uw organisatie nog steeds te veel werk lijkt, raden we u aan om hulp te zoeken op internet, aangezien een eenvoudige Google-zoekopdracht u honderden tutorials zal opleveren over hoe u een gegevensset kunt fijn afstemmen.
#2- Meer gegevens verzamelen:
Hoewel het tweede punt op onze lijst voor sommige van onze meer cynische lezers overbodig kan lijken, blijft het feit dat wanneer het gaat om diepe leer, de grotere uw gegevensset is, des te waarschijnlijker u nauwkeurigere resultaten zult behalen.
Hoewel de essentie van dit artikel erin bestaat om ondernemingen met een beperkte gegevensset te voorzien van de noodzakelijke kennis, hebben we vaak de onaangename ervaring gehad dat we te maken kregen met te veel “hoge functionarissen” die het investeren in het verzamelen van gegevens beschouwen als een zonde.
Het komt veel te vaak voor dat bedrijven de voordelen van diepe leer negeren, simpelweg omdat ze niet bereid zijn tijd en moeite te steken in het verzamelen van gegevens. Als uw onderneming onzeker is over de hoeveelheid gegevens die moet worden verzameld, raden we u aan om leercurves te plotten, terwijl de extra gegevens in het model worden geïntegreerd, en de verandering in de prestaties van het model te observeren.
In tegenstelling tot de algemene overtuiging die door de meeste CSO’s en CISO’s wordt gehuldigd, is soms de beste manier om problemen op te lossen door het verzamelen van meer relevante gegevens. De rol van CSO en CISO is in dit geval extreem belangrijk, aangezien er altijd een dreiging van cyberaanvallen is. Uit onderzoek is gebleken dat in 2019 de totale wereldwijde uitgaven aan cybersecurity 103,1 miljard dollar bedroegen, en dit aantal blijft stijgen. Om dit in perspectief te plaatsen, laten we een eenvoudig voorbeeld overwegen – stel dat u zeldzame diamanten probeert te classificeren, maar toegang heeft tot een zeer beperkte gegevensset. Als de meest voor de hand liggende oplossing voor het probleem, in plaats van een feestje te bouwen met het basismodel, gewoon meer gegevens verzamelt!
#3- Gegevensverrijking:
Hoewel de eerste twee punten die we hierboven hebben besproken beiden zeer efficiënt zijn in het bieden van een eenvoudige oplossing voor de meeste problemen met betrekking tot de implementatie van diepe leer in ondernemingen met een kleine gegevensset, zijn ze sterk afhankelijk van een zeker niveau van geluk om de klus te klaren.
Als u geen succes heeft met het fijn afstemmen van een bestaande gegevensset, raden we u aan om gegevensverrijking te proberen. De manier waarop gegevensverrijking werkt is eenvoudig. Door middel van gegevensverrijking wordt de invoer-gegevensset gewijzigd of verrijkt op een manier die een nieuwe uitvoer oplevert, zonder de labelwaarde daadwerkelijk te wijzigen.
Om het idee van gegevensverrijking voor onze lezers in perspectief te plaatsen, laten we een afbeelding van een hond overwegen. Wanneer deze wordt geroteerd, kan de kijker van de afbeelding nog steeds zien dat het een afbeelding van een hond is. Dit is precies wat goede gegevensverrijking probeert te bereiken, in tegenstelling tot een geroteerde afbeelding van een weg, die de hoek van de verheffing verandert en veel ruimte laat voor het diepe leer algoritme om tot een onjuiste conclusie te komen en het doel van de implementatie van diepe leer te ondermijnen.
Wanneer het gaat om het oplossen van problemen met betrekking tot beeldclassificatie, fungeert gegevensverrijking als een sleutelspeler in het veld en biedt een verscheidenheid aan gegevensverrijkingstechnieken die helpen om het diepe leer model een diepgaand inzicht te geven in de verschillende classificaties van afbeeldingen.
Bovendien, wanneer het gaat om het verrijken van gegevens – de mogelijkheden zijn vrijwel eindeloos. Ondernemingen kunnen gegevensverrijking op verschillende manieren implementeren, waaronder NLP en het experimenteren met GAN’s, waardoor het algoritme in staat is om nieuwe gegevens te genereren.
#4- Implementatie van een ensemble-effect:
De technologie achter diepe leer dicteert dat het netwerk is gebouwd op meerdere lagen. Echter, in tegenstelling tot de algemene overtuiging die door velen wordt gehuldigd, moet men in plaats van elke laag te zien als een “steeds toenemende” hiërarchie van kenmerken, de laatste laag dienen als een ensemble-mechanisme.
De overtuiging dat ondernemingen met toegang tot een beperkte, of kleine, gegevensset moeten kiezen voor het bouwen van hun netwerken diep, werd ook gedeeld in een NIPs-paper, dat de overtuiging weerspiegelt die we hierboven hebben uitgedrukt. Ondernemingen met kleine gegevens kunnen gemakkelijk het ensemble-effect manipuleren om hun voordeel te doen, door simpelweg hun diepe leer netwerken diep te bouwen, door middel van fijn afstemmen of een andere alternatieve methode.
#5- Incorporatie van auto-encoders:
Hoewel het vijfde punt dat we in overweging hebben genomen slechts een relatief niveau van succes heeft behaald – we zijn nog steeds voorstander van het gebruik van auto-encoders om een netwerk voor te trainen en het netwerk correct te initialiseren.
Een van de grootste redenen, los van cyberaanvallen, waarom ondernemingen er niet in slagen om de eerste hindernissen van diepe leer te overwinnen, is omdat ze te maken krijgen met slechte initialisatie en de vele valkuilen daarvan. Onbegeleide voor-training leidt vaak tot slechte of onjuiste uitvoering van de diepe leer technologie, en dat is waar auto-encoders kunnen uitblinken.
Het fundamentale idee achter een neurale netwerk dicteert de creatie van een neurale netwerk dat de aard van de invoer-gegevensset voorspelt. Als u onzeker bent over hoe u een auto-encoder moet gebruiken, zijn er verschillende tutorials online die duidelijke instructies geven.
Conclusie:
Aan het einde van het artikel zouden we graag herhalen wat we in het hele artikel hebben gezegd, met één toevoeging – het incorporeren van domeinspecifieke kennis in het leerproces. Niet alleen versnelt het incorporeren van waardevolle inzichten het leerproces, maar het stelt de diepe leer technologie ook in staat om betere en nauwkeurigere resultaten te produceren.












