Συνδεθείτε μαζί μας

Όταν η περισσότερη σκέψη κάνει την τεχνητή νοημοσύνη πιο χαζή: Το παράδοξο της αντίστροφης κλιμάκωσης

Τεχνητή νοημοσύνη

Όταν η περισσότερη σκέψη κάνει την τεχνητή νοημοσύνη πιο χαζή: Το παράδοξο της αντίστροφης κλιμάκωσης

mm

Η τεχνητή νοημοσύνη έχει βασιστεί στην ιδέα ότι η παροχή περισσότερου χρόνου, δεδομένων και υπολογιστικής ισχύος στις μηχανές βελτιώνει την απόδοσή τους. Αυτή η πεποίθηση καθοδηγεί την κατεύθυνση της έρευνας και ανάπτυξης της Τεχνητής Νοημοσύνης εδώ και πολλά χρόνια. Η βασική υπόθεση που διέπει αυτήν την πεποίθηση είναι ότι μεγαλύτερα μοντέλα και περισσότεροι πόροι θα δημιουργήσουν πιο ευφυή συστήματα. Ωστόσο, πρόσφατα... έρευνα έχει αρχίσει να αμφισβητεί αυτήν την προσέγγιση. Μεγάλα γλωσσικά μοντέλα, όπως Η σειρά o1 του OpenAI, Anthropic's Claude, να Το R1 του DeepSeek, κατασκευάστηκαν για να λύνουν προβλήματα βήμα προς βήμα, όπως ακριβώς και η ανθρώπινη συλλογιστική. Οι ερευνητές ανέμεναν ότι το να δοθεί σε αυτά τα μοντέλα περισσότερος χρόνος για να σκεφτούν και να επεξεργαστούν πληροφορίες θα βελτίωνε τη λήψη αποφάσεων. Ωστόσο, οι νέες μελέτες δείχνουν ότι μπορεί να συμβεί και το αντίθετο. Όταν δίνετε σε αυτά τα μοντέλα περισσότερο χρόνο για σκέψη, μερικές φορές έχουν χειρότερες επιδόσεις, ειδικά σε απλές εργασίες. Αυτό το φαινόμενο ονομάζεται αντίστροφη κλιμάκωση. Αμφισβητεί την πεποίθηση ότι η περισσότερη υπολογιστική ισχύς και η βαθύτερη συλλογιστική οδηγούν πάντα σε καλύτερα αποτελέσματα. Αυτά τα ευρήματα έχουν σημαντικές συνέπειες για τον τρόπο που σχεδιάζουμε και χρησιμοποιούμε την Τεχνητή Νοημοσύνη σε πραγματικές καταστάσεις.

Κατανόηση του φαινομένου της αντίστροφης κλιμάκωσης

Ο "αντίστροφη κλιμάκωσηΤο φαινόμενο αυτό ανακαλύφθηκε αρχικά μέσω ελεγχόμενων πειραμάτων από ερευνητές της Anthropic. Σε αντίθεση με τους παραδοσιακούς νόμους κλιμάκωσης, οι οποίοι λένε ότι η περισσότερη υπολογιστική ικανότητα βελτιώνει την απόδοση, αυτές οι μελέτες διαπίστωσαν ότι η παροχή περισσότερου χρόνου στην Τεχνητή Νοημοσύνη για συλλογισμό μπορεί να μειώσει την ακρίβειά της σε διαφορετικές εργασίες.

Η ερευνητική ομάδα δημιούργησε εργασίες σε τέσσερα τομείς: απλή μέτρηση με περισπασμούς, παλινδρόμηση με άσχετα χαρακτηριστικά, επαγωγή με παρακολούθηση περιορισμών και σύνθετα σενάρια ασφάλειας τεχνητής νοημοσύνης. Τα αποτελέσματα ήταν εκπληκτικά. Σε ορισμένες περιπτώσεις, μοντέλα που έδωσαν πρώτα σωστές απαντήσεις άρχισαν να δίνουν λανθασμένες αφού τους δόθηκε περισσότερος χρόνος για επεξεργασία.

Για παράδειγμα, σε μια απλή άσκηση μέτρησης όπως «Πόσα φρούτα έχεις αν έχεις ένα μήλο και ένα πορτοκάλι;», τα μοντέλα του Κλοντ συχνά αποσπούνταν από επιπλέον λεπτομέρειες όταν τους δινόταν περισσότερος χρόνος για να συλλογιστούν. Δεν κατάφερναν να δώσουν τη σωστή απάντηση, η οποία είναι δύο. Σε αυτές τις περιπτώσεις, τα μοντέλα σκέφτονταν υπερβολικά και κατέληγαν να κάνουν λάθη.

Πρόσφατο της Apple έρευνα υποστήριξαν επίσης αυτά τα ευρήματα. Πραγματοποίησαν τα πειράματά τους σε ελεγχόμενα περιβάλλοντα παζλ όπως ο Πύργος του Ανόι και το River Crossing, αντί για τυπικά benchmarks. Οι μελέτες τους έδειξαν τρία μοτίβα: σε απλές εργασίες, τα τυπικά μοντέλα Τεχνητής Νοημοσύνης απέδωσαν καλύτερα από τα μοντέλα συλλογισμού· σε μεσαίες εργασίες, τα μοντέλα συλλογισμού είχαν πλεονέκτημα· και σε πολύ σύνθετες εργασίες, και οι δύο τύποι μοντέλων απέτυχαν.

Οι πέντε τρόποι με τους οποίους αποτυγχάνει η συλλογιστική της τεχνητής νοημοσύνης

Οι ερευνητές έχουν βρει πέντε συνηθισμένους τρόπους με τους οποίους τα μοντέλα τεχνητής νοημοσύνης μπορούν να αποτύχουν όταν συλλογίζονται για μεγαλύτερες περιόδους:

  1. Απόσπαση προσοχής λόγω άσχετου περιεχομένου: Όταν τα μοντέλα τεχνητής νοημοσύνης σκέφτονται για πολύ ώρα, συχνά αποσπάται η προσοχή τους από λεπτομέρειες που δεν έχουν σημασία. Αυτό μοιάζει με έναν μαθητή που χάνει το κύριο σημείο ενός προβλήματος ενώ σκέφτεται σε βάθος το πρόβλημα.
  2. Υπερπροσαρμογή σε Πλαίσια Προβλήματος: Ορισμένα μοντέλα, όπως η σειρά O της OpenAI, εστιάζουν υπερβολικά στην παρουσίαση προβλημάτων. Ενώ αποφεύγουν τους περισπασμούς, δεν είναι ευέλικτα και βασίζονται στη διατύπωση προβλημάτων.
  3. Ψευδής Μετατόπιση Συσχέτισης: Με την πάροδο του χρόνου, τα μοντέλα τεχνητής νοημοσύνης ενδέχεται να μετατοπιστούν από λογικές υποθέσεις σε παραπλανητικές συσχετίσεις. Για παράδειγμα, σε εργασίες παλινδρόμησης, τα μοντέλα λαμβάνουν πρώτα υπόψη σχετικά χαρακτηριστικά, αλλά όταν τους δοθεί περισσότερος χρόνος για σκέψη, μπορεί να αρχίσουν να εστιάζουν σε άσχετα χαρακτηριστικά και να δίνουν λανθασμένα αποτελέσματα.
  4. Υποβάθμιση εστίασηςΚαθώς οι εργασίες γίνονται πιο περίπλοκες, τα μοντέλα τεχνητής νοημοσύνης δυσκολεύονται να διατηρήσουν τη συλλογιστική τους σαφή και εστιασμένη.
  5. Ενισχυμένο σχετικά με συμπεριφορές: Περισσότερος χρόνος για συλλογισμό μπορεί να επιδεινώσει τις αρνητικές συμπεριφορές. Για παράδειγμα, το Sonnet 4 του Claude έδειξε ισχυρότερες τάσεις αυτοσυντήρησης όταν του δόθηκε επιπλέον χρόνος για να σκεφτεί σενάρια διακοπής της λειτουργίας του.

Πώς η συλλογιστική τεχνητής νοημοσύνης αντιμετωπίζει την πολυπλοκότητα των προβλημάτων

Οι ερευνητές της Apple εισήγαγαν τον όρο «ψευδαίσθηση της σκέψης«για να εξηγήσουν τι συμβαίνει όταν τα μοντέλα συλλογισμού αντιμετωπίζουν εργασίες με διαφορετικά επίπεδα πολυπλοκότητας. Αντί να επικεντρωθούν σε μαθηματικά προβλήματα ή τεστ κωδικοποίησης, δοκίμασαν μοντέλα συλλογισμού με τεχνητή νοημοσύνη σε ελεγχόμενα περιβάλλοντα παζλ όπως το Tower of Hanoi, το Checker Jumping, το River Crossing και το Blocks World. Αυξάνοντας σταδιακά τη δυσκολία αυτών των παζλ, μπόρεσαν να δουν πώς απέδιδαν τα μοντέλα σε κάθε επίπεδο. Αυτή η μέθοδος τους βοήθησε να εξετάσουν όχι μόνο τις τελικές απαντήσεις, αλλά και πώς τα μοντέλα έφτασαν σε αυτές τις απαντήσεις. Η μελέτη διαπίστωσε τρία σαφή μοτίβα στην απόδοση των μοντέλων με βάση την πολυπλοκότητα του προβλήματος:

  • Για απλά παζλ όπως ο Πύργος του Ανόι με έναν ή δύο δίσκους, τα τυπικά μοντέλα μεγάλης γλώσσας (LLM) έδωσαν σωστές απαντήσεις πιο αποτελεσματικά. Τα μοντέλα συλλογισμού τεχνητής νοημοσύνης συχνά έκαναν τα πράγματα πολύ περίπλοκα μέσω των μακρών αλυσίδων συλλογισμού τους, κάτι που συχνά οδηγεί σε λανθασμένες απαντήσεις.
  • Σε μέτριας πολυπλοκότητας παζλ, η συλλογιστική μέσω Τεχνητής Νοημοσύνης αποδίδει καλύτερα. Μπορούσαν να αναλύσουν τα προβλήματα σε σαφή βήματα, κάτι που τους βοηθούσε να λύσουν προκλήσεις πολλαπλών βημάτων πιο αποτελεσματικά από τα τυπικά LLM.
  • Σε πολύπλοκα παζλ, όπως ο Πύργος του Ανόι με πολλούς δίσκους, και οι δύο τύποι μοντέλων δυσκολεύονταν. Τα μοντέλα συλλογισμού συχνά μείωναν την προσπάθεια συλλογισμού τους καθώς το παζλ γινόταν πιο δύσκολο, παρόλο που διέθεταν επαρκείς υπολογιστικούς πόρους. Αυτή η συμπεριφορά «εγκατάλειψης» δείχνει μια βασική αδυναμία στην κλιμάκωση της συλλογιστικής τους.

Η Πρόκληση της Αξιολόγησης της Τεχνητής Νοημοσύνης

Το φαινόμενο της αντίστροφης κλιμάκωσης παρουσιάζει σημαντικά προβλήματα στον τρόπο με τον οποίο αξιολογούμε τα μοντέλα Τεχνητής Νοημοσύνης. Πολλά τρέχοντα κριτήρια αξιολόγησης μετρούν μόνο την ακρίβεια των τελικών απαντήσεων, όχι την ποιότητα της διαδικασίας συλλογισμού. Αυτό μπορεί να οδηγήσει σε μια ψευδή αίσθηση των πραγματικών ικανοτήτων ενός μοντέλου. Ένα μοντέλο μπορεί να τα πάει καλά στις δοκιμές, αλλά να αποτύχει σε νέα ή ασυνήθιστα προβλήματα.

Η αντίστροφη κλιμάκωση επισημαίνει επίσης αδυναμίες στα σημεία αναφοράς συλλογισμού και στον τρόπο που τα χρησιμοποιούμε. Πολλά μοντέλα χρησιμοποιούν συντομεύσεις και αναγνώριση προτύπων αντί για πραγματική συλλογιστική. Αυτό μπορεί να τα κάνει να φαίνονται πιο έξυπνα από ό,τι είναι στην πραγματικότητα, αλλά η απόδοσή τους συχνά μειώνεται σε πραγματικές καταστάσεις. Αυτό το πρόβλημα σχετίζεται με μεγαλύτερα προβλήματα με την Τεχνητή Νοημοσύνη, όπως οι παραισθήσεις και η αξιοπιστία. Καθώς τα μοντέλα βελτιώνονται στην παραγωγή εξηγήσεων που ακούγονται πειστικές, γίνεται πιο δύσκολο να διαφοροποιηθεί η πραγματική συλλογιστική από τις επινοημένες απαντήσεις.

Το μέλλον του συλλογισμού AI

Το παράδοξο της αντίστροφης κλιμάκωσης αποτελεί ταυτόχρονα πρόκληση και ευκαιρία για την Τεχνητή Νοημοσύνη. Δείχνει ότι η προσθήκη περισσότερης υπολογιστικής ισχύος δεν κάνει πάντα την Τεχνητή Νοημοσύνη πιο έξυπνη. Πρέπει να επανεξετάσουμε τον τρόπο με τον οποίο σχεδιάζουμε και εκπαιδεύουμε συστήματα Τεχνητής Νοημοσύνης που θα μπορούσαν να χειρίζονται προβλήματα με ποικίλες πολυπλοκότητες. Τα νέα μοντέλα μπορεί να χρειαστεί να αποφασίσουν πότε να σταματήσουν και να σκεφτούν και πότε να ανταποκριθούν γρήγορα. Από αυτή την άποψη, η Τεχνητή Νοημοσύνη θα μπορούσε να επωφεληθεί από τη γνωστική αρχιτεκτονική, όπως θεωρία διπλής διαδικασίας ως κατευθυντήριες αρχές. Αυτές οι αρχιτεκτονικές εξηγούν πώς η ανθρώπινη σκέψη συνδυάζει γρήγορες, ενστικτώδεις αντιδράσεις με αργή, προσεκτική συλλογιστική. Η αντίστροφη κλιμάκωση μας υπενθυμίζει επίσης ότι πρέπει να κατανοήσουμε πλήρως πώς η Τεχνητή Νοημοσύνη λαμβάνει αποφάσεις πριν τη χρησιμοποιήσουμε σε κρίσιμους τομείς. Καθώς η Τεχνητή Νοημοσύνη χρησιμοποιείται περισσότερο για τη λήψη αποφάσεων σε τομείς όπως η υγειονομική περίθαλψη, το δίκαιο και οι επιχειρήσεις, καθίσταται ακόμη πιο σημαντικό να διασφαλιστεί ότι αυτά τα συστήματα συλλογίζονται σωστά.

Η κατώτατη γραμμή

Το παράδοξο της αντίστροφης κλιμάκωσης μας διδάσκει ένα ουσιαστικό μάθημα στην ανάπτυξη της Τεχνητής Νοημοσύνης. Ο περισσότερος χρόνος και η υπολογιστική ισχύς δεν καθιστούν πάντα την Τεχνητή Νοημοσύνη πιο ικανή ή πιο αξιόπιστη. Η πραγματική πρόοδος προέρχεται από την κατανόηση του πότε η Τεχνητή Νοημοσύνη πρέπει να συλλογίζεται και από τη γνώση των ορίων της. Για τους οργανισμούς και τους ερευνητές, είναι απαραίτητο να χρησιμοποιούν την Τεχνητή Νοημοσύνη ως εργαλείο, όχι ως υποκατάστατο της ανθρώπινης κρίσης. Είναι απαραίτητο να επιλέγουν το σωστό μοντέλο για κάθε εργασία. Καθώς η Τεχνητή Νοημοσύνη γίνεται μέρος σημαντικών αποφάσεων, πρέπει να αξιολογούμε προσεκτικά τα δυνατά και τα αδύνατα σημεία της. Το μέλλον της Τεχνητής Νοημοσύνης εξαρτάται από τη σωστή σκέψη, όχι απλώς από την περισσότερη σκέψη.

Ο Δρ. Tehseen Zia είναι Αναπληρωτής Καθηγητής στο Πανεπιστήμιο COMSATS του Ισλαμαμπάντ, κάτοχος διδακτορικού τίτλου στην τεχνητή νοημοσύνη από το Τεχνολογικό Πανεπιστήμιο της Βιέννης, στην Αυστρία. Με ειδίκευση στην Τεχνητή Νοημοσύνη, τη Μηχανική Μάθηση, την Επιστήμη των Δεδομένων και την Όραση Υπολογιστών, έχει κάνει σημαντικές συνεισφορές με δημοσιεύσεις σε έγκριτα επιστημονικά περιοδικά. Ο Δρ. Tehseen έχει επίσης ηγηθεί διαφόρων βιομηχανικών έργων ως Κύριος Ερευνητής και υπηρέτησε ως Σύμβουλος AI.