Τεχνητή νοημοσύνη
Δημιουργία τεχνητών μηχανικών Τούρκων με προεκπαιδευμένα μοντέλα γλώσσας

Ένα μεγάλο μέρος της ανάπτυξης συστημάτων μηχανικής μάθησης εξαρτάται από την επισήμανση δεδομένων, όπου εκατοντάδες, ακόμη και χιλιάδες ερωτήσεις (όπως π.χ. Είναι αυτή η εικόνα μιας γάτας; και Είναι προσβλητικό αυτό το κείμενο;) πρέπει να διευθετηθεί προκειμένου να αναπτυχθούν έγκυρα σύνολα δεδομένων στα οποία θα εκπαιδευτούν συστήματα τεχνητής νοημοσύνης.
Αν και όλοι συμβάλλουμε σε αυτή τη διαδικασία κάποια στιγμή, η πλειονότητα αυτών των εργασιών επισήμανσης είναι εκτελείται για χρήματα από ανθρώπους εργαζόμενους σε πλαίσια όπως το Amazon Mechanical Turk, όπου οι σχολιαστές ολοκληρώνουν μικρές εργασίες ταξινόμησης σε οικονομία του κομματιού.
Η ανάπτυξη μοντέλων θα ήταν φθηνότερη εάν τα προεκπαιδευμένα γλωσσικά μοντέλα (PLM) μπορούσαν από μόνα τους να αναλάβουν μερικά από τα πιο βασικά καθήκοντα ανθρώπινης νοημοσύνης (HIT) που επί του παρόντος παρέχονται από κοινού στο AMT και παρόμοιες πλατφόρμες.
Πρόσφατη έρευνα από τη Γερμανία και τη Huawei προτείνει αυτό, στο χαρτί LMTurk: Λίγοι μαθητευόμενοι ως εργαζόμενοι στο Crowdsourcing.
Μοντέλα Γλωσσών που εκτελούν εκμάθηση με λίγα βήματα
Οι συγγραφείς προτείνουν ότι τα απλούστερα στρώματα εργασιών που συνήθως απευθύνονται σε (ανθρώπους) Τούρκους εργάτες είναι ανάλογα με μάθηση με λίγα βήματα, όπου ένα αυτοματοποιημένο πλαίσιο πρέπει να αποφασίσει μια μίνι εργασία με βάση έναν μικρό αριθμό παραδειγμάτων που του δίνονται.
Ως εκ τούτου, προτείνουν ότι τα συστήματα τεχνητής νοημοσύνης μπορούν να μάθουν αποτελεσματικά από υπάρχοντα PLM που εκπαιδεύτηκαν αρχικά από crowdworkers - ότι η βασική γνώση που μεταδίδεται από τους ανθρώπους στις μηχανές έχει ήδη ολοκληρωθεί αποτελεσματικά και ότι όπου αυτή η γνώση είναι σχετικά αμετάβλητη ή εμπειρική κατά κάποιο τρόπο, η αυτοματοποιημένη γλώσσα Τα πλαίσια μοντέλων μπορούν ενδεχομένως να εκτελέσουν αυτές τις εργασίες από μόνα τους.
«Η βασική μας ιδέα είναι ότι, για μια εργασία NLP T, αντιμετωπίζουμε τους μαθητές με λίγες δυνατότητες ως μη ειδικούς εργαζόμενους, μοιάζοντας με τους εργαζόμενους crowdsourcing που σχολιάζουν πόρους για την τεχνολογία ανθρώπινης γλώσσας. Μας εμπνέει το γεγονός ότι μπορούμε να δούμε έναν εργαζόμενο crowdsourcing ως ένα είδος μαθητή με λίγες δυνατότητες.»
Οι συνέπειες περιλαμβάνουν την πιθανότητα πολλές από τις βασικές αλήθειες στις οποίες βασίζονται τα συστήματα τεχνητής νοημοσύνης του μέλλοντος να έχουν προέλθει από ανθρώπους αρκετά χρόνια νωρίτερα, στη συνέχεια να αντιμετωπίζονται ως προεπικυρωμένες και εκμεταλλεύσιμες πληροφορίες που δεν απαιτούν πλέον ανθρώπινη παρέμβαση.
Θέσεις εργασίας για μοντέλα γλωσσών μεσαίας κατηγορίας, ημι-επίδοσης
Εκτός από το κίνητρο για μείωση του κόστους των ανθρώπινων δραστηριοτήτων, οι ερευνητές προτείνουν ότι η χρήση PLM «μεσαίας κατηγορίας» ως όντως Το Mechanical Turks παρέχει χρήσιμη εργασία για αυτά τα συστήματα που «τρέχουν επίσης», τα οποία επισκιάζονται ολοένα και περισσότερο από πρωτοσέλιδα, υπερκλιμακωτά και δαπανηρά γλωσσικά μοντέλα όπως το GPT-3, τα οποία είναι πολύ ακριβά και υπερ-προδιαγραφές για τέτοιες εργασίες.
«Ο στόχος μας σε αυτό το άρθρο είναι να επινοήσουμε μεθόδους που κάνουν πιο αποτελεσματική χρήση των σημερινών μαθητών που έχουν λίγες λήψεις. Αυτό είναι ζωτικής σημασίας επειδή ένας αυξανόμενος αριθμός γιγάντιων μαθητών με λίγες λήψεις εκπαιδεύεται. Το πώς να τα χρησιμοποιήσετε αποτελεσματικά είναι επομένως ένα σημαντικό ερώτημα. Συγκεκριμένα, θέλουμε μια εναλλακτική λύση στα δύσκολα στην ανάπτυξη τεράστια μοντέλα.
«Ταυτόχρονα, θέλουμε να αξιοποιήσουμε πλήρως τα δυνατά σημεία των PLM: Η ευελιξία τους εξασφαλίζει ευρεία εφαρμογή σε όλες τις εργασίες. Το τεράστιο απόθεμα γνώσεών τους για τη γλώσσα και τον κόσμο (που αποκτήθηκε κατά την προ-εκπαίδευση) εκδηλώνεται στην αποτελεσματικότητα των δεδομένων των μαθητών με περιορισμένες γνώσεις, μειώνοντας την κατανάλωση εργασίας και χρόνου στη σχολιασμό δεδομένων.»
Μέχρι σήμερα, υποστηρίζουν οι συγγραφείς, οι λίγοι εκπαιδευόμενοι στο NLP αντιμετωπίζονται ως παρενθετικά στάδια μιας χρήσης στο δρόμο για συστήματα φυσικής γλώσσας υψηλού επιπέδου που είναι πολύ πιο εντάσεως πόρων και ότι αυτή η εργασία έχει αναληφθεί αφηρημένα και χωρίς να λαμβάνεται υπόψη η πιθανή χρησιμότητα αυτών των συστημάτων.
Μέθοδος
Η προσφορά των συγγραφέων LMTurk (Language Model as mechanical Turk), σε μια ροή εργασίας όπου η είσοδος από αυτό το αυτοματοποιημένο HIT παρέχει ετικέτες για ένα μοντέλο NLP μεσαίου επιπέδου.

Ένα βασικό μοντέλο ιδέας για το LMTurk. Πηγή: https://arxiv.org/pdf/2112.07522.pdf
Αυτή η πρώτη εκδοχή βασίζεται σε δεδομένα «χρυσού» με λίγες λήψεις που έχουν επισημανθεί από ανθρώπους, όπου οι Meatware Turks έχουν σχολιάσει ετικέτες για έναν περιορισμένο αριθμό εργασιών και οι ετικέτες έχουν βαθμολογηθεί καλά, είτε μέσω άμεσης ανθρώπινης εποπτείας είτε μέσω ψηφοφορίας με συναίνεση. Η συνέπεια αυτού του σχήματος είναι ότι οι διακλαδώσεις ή οι εξελίξεις από αυτό το σημείο εκκίνησης που βασίζεται στον άνθρωπο ενδέχεται να μην χρειάζονται πρόσθετη ανθρώπινη συμβολή στο μέλλον.
Αν και οι συγγραφείς προτείνουν περαιτέρω πειράματα με μεταγενέστερα υβριδικά μοντέλα (όπου θα υπήρχε ανθρώπινη συμβολή, αλλά θα μειωνόταν σημαντικά), για τους σκοπούς της έρευνάς τους δεν αντιπαρέβαλαν τα μοντέλα LMTurk με ισοδύναμα αποτελέσματα από εργαζόμενους HIT που δημιουργούνται από ανθρώπους, λαμβάνοντας υπόψη ότι τα δεδομένα με την ένδειξη «χρυσή» είναι τα ίδια «ανθρώπινη συμβολή».
Το PLM που σχεδιάστηκε για να εκτελεί επιχειρήσεις Τούρκων προσαρμόστηκε για την εργασία από P-Tuning, μια μέθοδος που δημοσιεύθηκε από ερευνητές από την Κίνα το 2021, η οποία πρότεινε συνεχή εκπαίδευση γρήγορες ενσωματώσεις για τη βελτίωση της απόδοσης των μοντέλων τύπου GPT-3 σε εργασίες Κατανόησης Φυσικής Γλώσσας (NLU).
![Το P-Tuning επιχειρεί να εμβαθύνει την προγνωστική δύναμη ενός μοντέλου τύπου GPT και την εμφάνισή του ως εννοιολογική κατανόηση της γλώσσας, ενσωματώνοντας ενσωματωμένες ψευδο-προτροπές. Σε αυτήν την περίπτωση, το ερώτημα έναρξης είναι «Η πρωτεύουσα της Βρετανίας είναι [x]». Πηγή: https://arxiv.org/pdf/2103.10385.pdf](https://www.unite.ai/wp-content/uploads/2021/12/p-tuning.jpg)
Το P-Tuning επιχειρεί να εμβαθύνει την προγνωστική ισχύ ενός μοντέλου τύπου GPT και την εμφάνισή του ως εννοιολογικής κατανόησης της γλώσσας, ενσωματώνοντας ενσωματωμένες ψευδο-προτροπές. Σε αυτήν την περίπτωση, το αρχικό ερώτημα είναι «Η πρωτεύουσα της Βρετανίας είναι [x]». Πηγή: https://arxiv.org/pdf/2103.10385.pdf
Δεδομένα και Αρχιτεκτονική
Το LMTurk αξιολογήθηκε σε πέντε σύνολα δεδομένων: δύο από το Stanford Sentiment Treebank; AG's News Corpus; Αναγνώριση κειμενικών συνεπειών (RTE) και Corpus της γλωσσικής αποδοχής (Δένδρο των τροπικών).
Για το μεγαλύτερο μοντέλο της, η LMTurk χρησιμοποιεί τα δημόσια διαθέσιμα PLM ALBERT-XXLarge-v2 (AXLV2) ως το μοντέλο πηγής για τη μετατροπή σε αυτοματοποιημένο Τούρκο. Το μοντέλο διαθέτει 223 εκατομμύρια παραμέτρους (σε αντίθεση με το 175 δισεκατομμύρια παράμετροι στο GPT-3). Το AXLV2, παρατηρούν οι συγγραφείς, έχει αποδείξει ότι είναι ικανό να ξεπεράσει τα μοντέλα υψηλότερης κλίμακας όπως το 334M ΜΠΕΡΤ-Μεγάλο.
Για ένα πιο ευέλικτο, ελαφρύ και αναπτυσσόμενο μοντέλο, το έργο χρησιμοποιεί TinyBERT-General-4L-312D (TBG), το οποίο διαθέτει 14.5 εκατομμύρια παραμέτρους με απόδοση συγκρίσιμη με τη βάση BERT (η οποία έχει 110 εκατομμύρια παραμέτρους).
Η εκπαίδευση με δυνατότητα άμεσης λειτουργίας πραγματοποιήθηκε στο PyTorch και στο HuggingFace για AXLV2 πάνω από 100 βήματα παρτίδας σε μέγεθος παρτίδας 13, με ρυθμό εκμάθησης 5e-4, χρησιμοποιώντας γραμμική αποσύνθεση. Κάθε πείραμα ξεκίνησε με τρεις διαφορετικούς τυχαίους σπόρους.
Αποτελέσματα
Το έργο LMTurk εφαρμόζει ποικίλα μοντέλα σε τόσους πολλούς συγκεκριμένους υποτομείς του NLP, με αποτέλεσμα τα σύνθετα αποτελέσματα των πειραμάτων των ερευνητών να μην είναι εύκολο να αναχθούν σε εμπειρικά στοιχεία που να αποδεικνύουν ότι το LMTurk προσφέρει από μόνο του μια βιώσιμη προσέγγιση για την επαναχρησιμοποίηση ιστορικών, ανθρωπογενών σεναρίων μάθησης με λίγες μόνο βολές, τύπου HIT.
Ωστόσο, για λόγους αξιολόγησης, οι συγγραφείς συγκρίνουν τη μέθοδο τους με δύο προηγούμενες εργασίες: Εκμεταλλεύοντας τις ερωτήσεις Cloze για την ταξινόμηση κειμένων με λίγες λήψεις και το συμπέρασμα φυσικής γλώσσας από τους Γερμανούς ερευνητές Timo Schick και Hinrich Schutze. και προκύπτει από Αυτόματο βασισμένο σε προτροπή, εμφανίζεται σε Κάνοντας τα προεκπαιδευμένα μοντέλα γλώσσας καλύτερα Λίγοι μαθητές από τους Gao, Chen και Fisch (αντίστοιχα από το Princeton και το MIT).

Αποτελέσματα από τα πειράματα LMTurk, με τους ερευνητές να αναφέρουν «συγκρίσιμη» απόδοση.
Εν ολίγοις, το LMTurk προσφέρει μια σχετικά πολλά υποσχόμενη γραμμή έρευνας για ερευνητές που επιδιώκουν να ενσωματώσουν και να ενσωματώσουν δεδομένα ανθρώπινης προέλευσης με χρυσό σήμα σε εξελισσόμενα, μέσης πολυπλοκότητας μοντέλα γλώσσας όπου τα αυτοματοποιημένα συστήματα αντιπροσωπεύουν την ανθρώπινη συμβολή.
Όπως και με τον σχετικά μικρό όγκο προηγούμενης εργασίας σε αυτόν τον τομέα, η κεντρική ιδέα βασίζεται στο αμετάβλητο των αρχικών ανθρώπινων δεδομένων και στην υπόθεση ότι οι χρονικοί παράγοντες – που μπορεί να αντιπροσωπεύουν σημαντικά εμπόδια στην ανάπτυξη του NLP – δεν θα απαιτήσουν περαιτέρω ανθρώπινη παρέμβαση. Η γενεαλογία μόνο για μηχανή εξελίσσεται.
Δημοσιεύθηκε αρχικά στις 30 Δεκεμβρίου 2022