Vordenker
Wie können wir Deep Learning mit kleinen Daten nutzen? – Thought Leaders

Wenn es darum geht, mit den aufkommenden Cyber-Sicherheitstrends Schritt zu halten, kann der Prozess des Auf-dem-neuesten-Stehen bei den jüngsten Entwicklungen ziemlich mühsam werden, da es eine Menge Nachrichten gibt, die man verfolgen muss. Heutzutage jedoch hat sich die Situation dramatisch geändert, da die Cyber-Sicherheitsbereiche scheinbar um zwei Wörter kreisen – Deep Learning.
Obwohl wir anfangs von der massiven Berichterstattung über Deep Learning überrascht waren, wurde schnell deutlich, dass der von Deep Learning erzeugte Hype wohlverdient war. Ähnlich wie das menschliche Gehirn ermöglicht Deep Learning einem KI-Modell, hochgenaue Ergebnisse zu erzielen, indem es Aufgaben direkt aus Text, Bildern und Audio-Hinweisen ausführt.
Bis zu diesem Punkt wurde allgemein angenommen, dass Deep Learning auf einer riesigen Datenmenge angewiesen ist, ähnlich wie die Datenmenge, die von Silicon-Valley-Riesen wie Google und Facebook genutzt wird, um die kompliziertesten Probleme innerhalb eines Unternehmens zu lösen. Im Gegensatz zur landläufigen Meinung jedoch können Unternehmen die Macht von Deep Learning nutzen, auch mit Zugang zu einem begrenzten Datensatz.
In dem Versuch, unseren Lesern die notwendigen Kenntnisse zu vermitteln, um ihr Unternehmen mit Deep Learning auszustatten, haben wir einen Artikel zusammengestellt, der tief (ohne Wortspiel) in einige der Möglichkeiten eintaucht, wie Unternehmen die Vorteile von Deep Learning nutzen können, trotz Zugang zu begrenzten oder “kleinen” Daten.
Bevor wir jedoch in den Kern des Artikels eintauchen können, möchten wir einen kleinen, aber äußerst wichtigen Vorschlag machen – fangen Sie einfach an. Bevor Sie jedoch komplexe neuronale Netze formulieren, die in einem Sci-Fi-Film vorkommen könnten, fangen Sie an, mit einigen einfachen und herkömmlichen Modellen (z.B. Random Forest) zu experimentieren, um sich mit der Software vertraut zu machen.
Mit diesem Hinweis aus dem Weg, lassen Sie uns direkt in einige der Möglichkeiten eintauchen, wie Unternehmen Deep-Learning-Technologie mit begrenzten Daten nutzen können.
#1- Feinabstimmung des Basismodells:
Wie wir bereits oben erwähnt haben, ist der erste Schritt, den Unternehmen nach der Formulierung eines einfachen Basismodells für Deep Learning unternehmen müssen, es für das spezifische Problem zu feinabstimmen.
Die Feinabstimmung eines Basismodells klingt jedoch viel schwieriger auf dem Papier, als es tatsächlich ist. Die grundlegende Idee hinter der Feinabstimmung eines großen Datensatzes, um ihn an die spezifischen Bedürfnisse eines Unternehmens anzupassen, ist einfach – Sie nehmen einen großen Datensatz, der einige Ähnlichkeit mit dem Bereich aufweist, in dem Sie tätig sind, und feinabstimmen dann die Details des ursprünglichen Datensatzes mit Ihren begrenzten Daten.
Was die Beschaffung des großen Datensatzes betrifft, können Unternehmen sich auf ImageNet verlassen, das auch eine einfache Lösung für Probleme der Bildklassifizierung bietet. Der von ImageNet gehostete Datensatz ermöglicht es Organisationen, auf Millionen von Bildern zuzugreifen, die in mehrere Klassen von Bildern unterteilt sind, was für Unternehmen aus einer Vielzahl von Bereichen, einschließlich, aber nicht beschränkt auf Bilder von Tieren, nützlich sein kann.
Wenn der Prozess der Feinabstimmung eines vorgefertigten Modells, um es an die spezifischen Bedürfnisse Ihres Unternehmens anzupassen, immer noch wie zu viel Arbeit für Sie klingt, empfehlen wir, Hilfe aus dem Internet zu holen, da eine einfache Google-Suche Ihnen Hunderte von Anleitungen liefern wird, wie Sie einen Datensatz feinabstimmen können.
#2- Sammeln Sie mehr Daten:
Obwohl der zweite Punkt auf unserer Liste für einige unserer zynischeren Leser redundant erscheinen mag, bleibt die Tatsache bestehen – wenn es um Deep Learning geht, ist es wahrscheinlicher, dass Sie genauere Ergebnisse erzielen, je größer Ihr Datensatz ist.
Obwohl der eigentliche Zweck dieses Artikels darin besteht, Unternehmen mit begrenzten Datenmengen zu helfen, sind wir oft auf zu viele “Vorgesetzte” gestoßen, die die Investition in die Datensammlung als gleichbedeutend mit der Begehung eines Kardinalfehlers betrachten.
Es kommt allzu oft vor, dass Unternehmen die Vorteile von Deep Learning übersehen, einfach weil sie sich weigern, Zeit und Mühe in die Datensammlung zu investieren. Wenn Ihr Unternehmen unsicher ist, wie viel Daten gesammelt werden müssen, empfehlen wir, Lernkurven zu erstellen, wenn die zusätzlichen Daten in das Modell integriert werden, und die Änderung der Modellleistung zu beobachten.
Im Gegensatz zur landläufigen Meinung, die die meisten CSO und CISO vertreten, ist die Sammlung von mehr relevanten Daten manchmal der beste Weg, um Probleme zu lösen. Die Rolle von CSO und CISO ist in diesem Fall extrem wichtig, da es immer eine Bedrohung durch Cyber-Angriffe gibt. Es wurde festgestellt, dass die weltweiten Ausgaben für Cyber-Sicherheit im Jahr 2019 103,1 Milliarden Dollar betrugen und die Zahl weiter steigt. Um dies in Perspektive zu setzen, betrachten wir ein einfaches Beispiel – stellen Sie sich vor, Sie würden versuchen, seltene Diamanten zu klassifizieren, aber haben nur Zugang zu einem sehr begrenzten Datensatz. Wie die offensichtlichste Lösung für das Problem besagt, anstatt sich an dem Basismodell zu erfreuen, sammeln Sie einfach mehr Daten!
#3- Datenvergrößerung:
Obwohl die ersten beiden Punkte, die wir oben diskutiert haben, beide sehr effizient sind, um eine einfache Lösung für die meisten Probleme zu bieten, die mit der Implementierung von Deep Learning in Unternehmen mit kleinen Datenmengen verbunden sind, hängen sie stark von einem bestimmten Maß an Glück ab, um die Aufgabe zu erledigen.
Wenn Sie keinen Erfolg mit der Feinabstimmung eines vorgefertigten Datensatzes haben, empfehlen wir, Datenvergrößerung zu versuchen. Die Datenvergrößerung ist einfach. Durch den Prozess der Datenvergrößerung wird der Eingabedatensatz so verändert oder vergrößert, dass er ein neues Ergebnis liefert, ohne den Label-Wert tatsächlich zu ändern.
Um die Idee der Datenvergrößerung für unsere Leser in Perspektive zu setzen, betrachten wir ein Bild eines Hundes. Wenn es gedreht wird, kann der Betrachter des Bildes immer noch erkennen, dass es sich um ein Bild eines Hundes handelt. Genau das will eine gute Datenvergrößerung erreichen, im Gegensatz zu einem gedrehten Bild einer Straße, das den Winkel der Erhebung ändert und viel Platz für das Deep-Learning-Algorithmus lässt, um zu einer falschen Schlussfolgerung zu gelangen und den Zweck der Implementierung von Deep Learning zu untergraben.
Wenn es um die Lösung von Problemen im Zusammenhang mit der Bildklassifizierung geht, spielt die Datenvergrößerung eine wichtige Rolle und bietet eine Vielzahl von Datenvergrößerungstechniken, die dem Deep-Learning-Modell helfen, ein tiefes Verständnis der verschiedenen Bildklassifizierungen zu erlangen.
Darüber hinaus sind die Möglichkeiten, Daten zu vergrößern, virtuell endlos. Unternehmen können Datenvergrößerung auf verschiedene Weise umsetzen, einschließlich NLP und der Experimentierung mit GANs, die es dem Algorithmus ermöglichen, neue Daten zu generieren.
#4- Umsetzung eines Ensemble-Effekts:
Die Technologie hinter Deep Learning legt fest, dass das Netzwerk auf mehreren Schichten aufbaut. Im Gegensatz zur landläufigen Meinung, die viele vertreten, sollte man jedes Layer nicht als “immer zunehmende” Hierarchie von Funktionen betrachten, sondern die Endschicht dient dem Zweck, ein Ensemble-Mechanismus anzubieten.
Die Überzeugung, dass Unternehmen mit Zugang zu kleinen Datenmengen tiefere Netze bauen sollten, wurde auch in einem NIPs-Papier geteilt, das unsere oben geäußerte Überzeugung widerspiegelt. Unternehmen mit kleinen Datenmengen können den Ensemble-Effekt leicht zu ihrem Vorteil nutzen, indem sie ihre Deep-Learning-Netze tief bauen, entweder durch Feinabstimmung oder andere alternative Methoden.
#5- Einbeziehung von Autoencodern:
Obwohl der fünfte Punkt, den wir in Betracht gezogen haben, nur einen relativen Erfolg hatte – wir sind immer noch für die Verwendung von Autoencodern, um ein Netzwerk vorzutrainieren und es ordnungsgemäß zu initialisieren.
Einer der größten Gründe, abgesehen von Cyber-Angriffen, warum Unternehmen Schwierigkeiten haben, die anfänglichen Hürden der Integration von Deep Learning zu überwinden, liegt in der schlechten Initialisierung und ihren vielen Fallstricken. Unbeaufsichtigtes Vor-Training führt oft zu schlechter oder falscher Ausführung der Deep-Learning-Technologie, und hier können Autoencoder glänzen.
Die grundlegende Vorstellung hinter einem neuronalen Netzwerk legt die Schaffung eines neuronalen Netzwerks nahe, das die Natur des Eingabedatensatzes vorhersagt. Wenn Sie unsicher sind, wie Sie einen Autoencoder verwenden können, gibt es online several Tutorials, die klare Anweisungen liefern.
Zusammenfassung:
Am Ende des Artikels möchten wir unsere Aussagen aus dem gesamten Artikel noch einmal zusammenfassen, mit einer Ergänzung – die Einbeziehung von domänen-spezifischem Wissen in den Lernprozess! Nicht nur beschleunigt die Einbeziehung von wertvollem Wissen den Lernprozess, sondern ermöglicht es auch der Deep-Learning-Technologie, bessere und genauere Ergebnisse zu liefern.












