στέλεχος Είναι η τεχνητή νοημοσύνη υπαρξιακή απειλή; - Unite.AI
Συνδεθείτε μαζί μας

Τεχνητή Γενική Νοημοσύνη

Είναι η τεχνητή νοημοσύνη υπαρξιακή απειλή;

mm
Ενημερώθηκε on

Όταν συζητάμε για την Τεχνητή Νοημοσύνη (AI), μια κοινή συζήτηση είναι εάν η τεχνητή νοημοσύνη είναι υπαρξιακή απειλή. Η απάντηση απαιτεί την κατανόηση της τεχνολογίας πίσω από τη Μηχανική Μάθηση (ML) και την αναγνώριση ότι οι άνθρωποι έχουν την τάση να ανθρωπομορφοποιούνται. Θα εξερευνήσουμε δύο διαφορετικούς τύπους τεχνητής νοημοσύνης, την Τεχνητή Στενή Νοημοσύνη (ANI) που είναι διαθέσιμη τώρα και προκαλεί ανησυχία, και την απειλή που συνδέεται συχνότερα με αποκαλυπτικές παραδόσεις της τεχνητής νοημοσύνης που είναι η Τεχνητή Γενική Νοημοσύνη (AGI).

Απειλές Τεχνητής στενής νοημοσύνης

Για να καταλάβετε τι είναι το ANI, πρέπει απλώς να καταλάβετε ότι κάθε μεμονωμένη εφαρμογή AI που είναι διαθέσιμη αυτή τη στιγμή είναι μια μορφή ANI. Αυτά είναι πεδία τεχνητής νοημοσύνης που έχουν ένα στενό πεδίο ειδικότητας, για παράδειγμα τα αυτόνομα οχήματα χρησιμοποιούν τεχνητή νοημοσύνη που έχει σχεδιαστεί με μοναδικό σκοπό τη μετακίνηση ενός οχήματος από το σημείο Α στο Β. Ένας άλλος τύπος ΑΝΙ μπορεί να είναι ένα πρόγραμμα σκακιού που είναι βελτιστοποιημένο για παιχνίδι σκάκι, και ακόμη κι αν το πρόγραμμα σκακιού βελτιώνεται συνεχώς χρησιμοποιώντας ενισχυτική μάθηση, το πρόγραμμα σκακιού δεν θα μπορέσει ποτέ να χειριστεί ένα αυτόνομο όχημα.

Με την εστίασή του σε οποιαδήποτε λειτουργία για την οποία είναι υπεύθυνα, τα συστήματα ANI δεν είναι σε θέση να χρησιμοποιήσουν τη γενικευμένη μάθηση για να κατακτήσουν τον κόσμο. Αυτά είναι τα καλά νέα. Τα κακά νέα είναι ότι με την εξάρτησή του από έναν ανθρώπινο χειριστή, το σύστημα τεχνητής νοημοσύνης είναι ευαίσθητο σε προκατειλημμένα δεδομένα, ανθρώπινο λάθος ή ακόμα χειρότερα, σε έναν απατεώνα ανθρώπινο χειριστή.

Παρακολούθηση AI

Μπορεί να μην υπάρχει μεγαλύτερος κίνδυνος για την ανθρωπότητα από τους ανθρώπους που χρησιμοποιούν τεχνητή νοημοσύνη για να εισβάλουν στην ιδιωτική ζωή και σε ορισμένες περιπτώσεις χρησιμοποιούν επιτήρηση τεχνητής νοημοσύνης για να εμποδίσουν εντελώς τους ανθρώπους να κινούνται ελεύθερα.  Η Κίνα, η Ρωσία και άλλα έθνη πέρασαν από κανονισμούς κατά τη διάρκεια του COVID-19 ώστε να μπορούν να παρακολουθούν και να ελέγχουν τη μετακίνηση των αντίστοιχων πληθυσμών τους. Αυτοί είναι νόμοι που όταν τεθούν σε εφαρμογή, είναι δύσκολο να αφαιρεθούν, ειδικά σε κοινωνίες που διαθέτουν αυταρχικούς ηγέτες.

Στην Κίνα, οι κάμερες είναι τοποθετημένες έξω από τα σπίτια των ανθρώπων και σε ορισμένες περιπτώσεις μέσα στο σπίτι του ατόμου. Κάθε φορά που ένα μέλος του νοικοκυριού φεύγει, μια τεχνητή νοημοσύνη παρακολουθεί την ώρα άφιξης και αναχώρησης και αν χρειαστεί ειδοποιεί τις αρχές. Σαν να μην έφτανε αυτό, με τη βοήθεια της τεχνολογίας αναγνώρισης προσώπου, η Κίνα είναι σε θέση να παρακολουθεί την κίνηση κάθε ατόμου κάθε φορά που αναγνωρίζεται από μια κάμερα. Αυτό προσφέρει απόλυτη εξουσία στην οντότητα που ελέγχει την τεχνητή νοημοσύνη και απολύτως μηδενική προσφυγή στους πολίτες της.

Γιατί αυτό το σενάριο είναι επικίνδυνο, είναι ότι οι διεφθαρμένες κυβερνήσεις μπορούν να παρακολουθούν προσεκτικά τις κινήσεις δημοσιογράφων, πολιτικών αντιπάλων ή οποιουδήποτε τολμήσει να αμφισβητήσει την εξουσία της κυβέρνησης. Είναι εύκολο να καταλάβουμε πώς οι δημοσιογράφοι και οι πολίτες θα ήταν προσεκτικοί να επικρίνουν τις κυβερνήσεις όταν κάθε κίνημα παρακολουθείται.

Ευτυχώς, υπάρχουν πολλές πόλεις που παλεύουν για να αποτρέψουν την αναγνώριση προσώπου από το να διεισδύσει στις πόλεις τους. Ιδιαίτερα, Το Πόρτλαντ του Όρεγκον ψήφισε πρόσφατα νόμο που εμποδίζει την άσκοπη χρήση της αναγνώρισης προσώπου στην πόλη. Ενώ αυτές οι αλλαγές στους κανονισμούς μπορεί να έχουν περάσει απαρατήρητες από το ευρύ κοινό, στο μέλλον αυτοί οι κανονισμοί θα μπορούσαν να είναι η διαφορά μεταξύ πόλεων που προσφέρουν κάποιο είδος αυτονομίας και ελευθερίας και πόλεων που αισθάνονται καταπιεστικές.

Αυτόνομα Όπλα και Drone

Πάνω από 4500 έρευνες τεχνητής νοημοσύνης έχουν ζητήσει την απαγόρευση των αυτόνομων όπλων και έχουν δημιουργήσει το Απαγόρευση θανατηφόρων αυτόνομων όπλων δικτυακός τόπος. Ο όμιλος έχει πολλές αξιόλογες μη κερδοσκοπικές οργανώσεις ως υπογράφοντες όπως π.χ Human Rights Watch, Η Διεθνής Αμνηστία, και το Το μέλλον του Ινστιτούτου Ζωής η οποία από μόνη της έχει ένα αστρικό επιστημονικό συμβουλευτικό συμβούλιο συμπεριλαμβανομένων των Elon Musk, Nick Bostrom και Stuart Russell.

Πριν συνεχίσω, θα μοιραστώ αυτό το απόσπασμα από το Ινστιτούτο The Future of Life, το οποίο εξηγεί καλύτερα γιατί υπάρχει σαφής λόγος ανησυχίας: «Σε αντίθεση με τα ημιαυτόνομα όπλα που απαιτούν ανθρώπινη επίβλεψη για να διασφαλιστεί ότι κάθε στόχος επικυρώνεται ως ηθικά και νομικά νόμιμος, π. Τα πλήρως αυτόνομα όπλα επιλέγουν και εμπλέκουν στόχους χωρίς ανθρώπινη παρέμβαση, αντιπροσωπεύοντας πλήρη αυτοματοποίηση θανατηφόρου βλάβης. ”

Επί του παρόντος, οι έξυπνες βόμβες αναπτύσσονται με στόχο που επιλέγεται από έναν άνθρωπο και η βόμβα χρησιμοποιεί στη συνέχεια τεχνητή νοημοσύνη για να σχεδιάσει μια πορεία και να προσγειωθεί στον στόχο της. Το πρόβλημα είναι τι συμβαίνει όταν αποφασίσουμε να αφαιρέσουμε εντελώς τον άνθρωπο από την εξίσωση;

Όταν μια τεχνητή νοημοσύνη επιλέγει τη στόχευση που χρειάζονται οι άνθρωποι, καθώς και το είδος της παράπλευρης ζημίας που θεωρείται αποδεκτό, μπορεί να έχουμε περάσει ένα σημείο χωρίς επιστροφή. Αυτός είναι ο λόγος που τόσοι πολλοί ερευνητές τεχνητής νοημοσύνης αντιτίθενται στην έρευνα οτιδήποτε σχετίζεται εξ αποστάσεως με αυτόνομα όπλα.

Υπάρχουν πολλά προβλήματα με την απλή προσπάθεια αποκλεισμού της έρευνας για αυτόνομα όπλα. Το πρώτο πρόβλημα είναι ακόμη και αν προηγμένα έθνη όπως ο Καναδάς, οι ΗΠΑ και το μεγαλύτερο μέρος της Ευρώπης επιλέξουν να συμφωνήσουν στην απαγόρευση, δεν σημαίνει ότι θα παίξουν μαζί και αδίστακτα έθνη όπως η Κίνα, η Βόρεια Κορέα, το Ιράν και η Ρωσία. Το δεύτερο και μεγαλύτερο πρόβλημα είναι ότι η έρευνα τεχνητής νοημοσύνης και οι εφαρμογές που έχουν σχεδιαστεί για χρήση σε έναν τομέα, μπορεί να χρησιμοποιηθούν σε ένα εντελώς άσχετο πεδίο.

Για παράδειγμα, η όραση του υπολογιστή βελτιώνεται συνεχώς και είναι σημαντική για την ανάπτυξη αυτόνομων οχημάτων, ιατρικής ακρίβειας και άλλων σημαντικών περιπτώσεων χρήσης. Είναι επίσης θεμελιωδώς σημαντικό για κανονικά drones ή drones που θα μπορούσαν να τροποποιηθούν για να γίνουν αυτόνομα. Μια πιθανή περίπτωση χρήσης προηγμένης τεχνολογίας drone είναι η ανάπτυξη drones που μπορούν να παρακολουθούν και να καταπολεμούν τις δασικές πυρκαγιές. Αυτό θα απομακρύνει εντελώς τους πυροσβέστες από τον τρόπο ζημιών. Για να το κάνετε αυτό, θα χρειαστεί να κατασκευάσετε drones που να είναι σε θέση να πετάξουν σε βλάβες, να πλοηγούνται σε χαμηλή ή μηδενική ορατότητα και να μπορούν να ρίχνουν νερό με άψογη ακρίβεια. Δεν είναι πολύ μακριά η χρήση αυτής της ίδιας τεχνολογίας σε ένα αυτόνομο drone που έχει σχεδιαστεί για να στοχεύει επιλεκτικά ανθρώπους.

Είναι μια επικίνδυνη κατάσταση και σε αυτή τη χρονική στιγμή, κανείς δεν κατανοεί πλήρως τις συνέπειες της προώθησης ή της προσπάθειας παρεμπόδισης της ανάπτυξης αυτόνομων όπλων. Ωστόσο, είναι κάτι που πρέπει να προσέχουμε, ενισχύοντας προστασία από σφυρίχτρα μπορεί να επιτρέψει σε όσους βρίσκονται στο πεδίο να αναφέρουν καταχρήσεις.

Πέρα από τον απατεώνα χειριστή, τι θα συμβεί εάν η μεροληψία AI εισχωρήσει στην τεχνολογία AI που έχει σχεδιαστεί για να είναι ένα αυτόνομο όπλο;

AI Μεροληψία

Μία από τις πιο μη αναφερόμενες απειλές της τεχνητής νοημοσύνης είναι η προκατάληψη της τεχνητής νοημοσύνης. Αυτό είναι εύκολο να το καταλάβει κανείς, καθώς τα περισσότερα από αυτά είναι ακούσια. Η προκατάληψη της τεχνητής νοημοσύνης ξεφεύγει όταν μια τεχνητή νοημοσύνη εξετάζει δεδομένα που της τροφοδοτούνται από ανθρώπους, χρησιμοποιώντας την αναγνώριση προτύπων από τα δεδομένα που τροφοδοτήθηκαν στην τεχνητή νοημοσύνη, η τεχνητή νοημοσύνη καταλήγει εσφαλμένα σε συμπεράσματα που μπορεί να έχουν αρνητικές επιπτώσεις στην κοινωνία. Για παράδειγμα, μια τεχνητή νοημοσύνη που τροφοδοτείται από βιβλιογραφία του περασμένου αιώνα σχετικά με τον τρόπο αναγνώρισης του ιατρικού προσωπικού μπορεί να καταλήξει στο ανεπιθύμητο σεξιστικό συμπέρασμα ότι Οι γυναίκες είναι πάντα νοσοκόμες και οι άνδρες είναι πάντα γιατροί.

Ένα πιο επικίνδυνο σενάριο είναι όταν Η τεχνητή νοημοσύνη που χρησιμοποιείται για την καταδίκη εγκληματιών είναι προκατειλημμένη επιβολή μεγαλύτερων ποινών φυλάκισης σε μειονότητες. Οι αλγόριθμοι αξιολόγησης εγκληματικού κινδύνου του AI απλώς μελετούν μοτίβα στα δεδομένα που έχουν τροφοδοτηθεί στο σύστημα. Αυτά τα δεδομένα υποδεικνύουν ότι ιστορικά ορισμένες μειονότητες είναι πιο πιθανό να επαναλάβουν τα αδικήματα, ακόμη και όταν αυτό οφείλεται σε ανεπαρκή σύνολα δεδομένων που μπορεί να επηρεαστούν από το φυλετικό προφίλ της αστυνομίας. Η προκατειλημμένη τεχνητή νοημοσύνη στη συνέχεια ενισχύει τις αρνητικές ανθρώπινες πολιτικές. Αυτός είναι ο λόγος για τον οποίο η τεχνητή νοημοσύνη πρέπει να είναι μια κατευθυντήρια γραμμή, ποτέ να μην κρίνετε και να μην κρίνετε.

Επιστρέφοντας στα αυτόνομα όπλα, εάν έχουμε μια τεχνητή νοημοσύνη που είναι προκατειλημμένη εναντίον συγκεκριμένων εθνοτικών ομάδων, θα μπορούσε να επιλέξει να στοχεύσει συγκεκριμένα άτομα με βάση μεροληπτικά δεδομένα και θα μπορούσε να φτάσει στο σημείο να διασφαλίσει ότι οποιοσδήποτε τύπος παράπλευρης ζημίας επηρεάζει ορισμένα δημογραφικά στοιχεία λιγότερο από άλλα . Για παράδειγμα, όταν στοχεύετε έναν τρομοκράτη, πριν επιτεθεί θα μπορούσε να περιμένει μέχρι ο τρομοκράτης να περικυκλωθεί από εκείνους που ακολουθούν τη μουσουλμανική πίστη αντί για χριστιανούς.

Ευτυχώς, έχει αποδειχθεί ότι η τεχνητή νοημοσύνη που έχει σχεδιαστεί με διαφορετικές ομάδες είναι λιγότερο επιρρεπείς σε προκατάληψη. Αυτός είναι αρκετός λόγος για τις επιχειρήσεις να επιχειρήσουν, όταν είναι δυνατόν, να προσλάβουν μια ποικιλόμορφη, καλά στρογγυλεμένη ομάδα.

Απειλές Τεχνητής Γενικής Νοημοσύνης

Πρέπει να αναφερθεί ότι ενώ η τεχνητή νοημοσύνη προχωρά με εκθετικό ρυθμό, δεν έχουμε ακόμη επιτύχει AGI. Το πότε θα φτάσουμε στο AGI είναι προς συζήτηση και ο καθένας έχει διαφορετική απάντηση ως προς το χρονοδιάγραμμα. Προσωπικά συμφωνώ με τις απόψεις του Ray Kurzweil, εφευρέτη, μελλοντολόγο και συγγραφέα του «The Singularity is Near», ο οποίος πιστεύει ότι θα έχουμε πέτυχε το AGI έως το 2029.

Η AGI θα είναι η πιο μεταμορφωτική τεχνολογία στον κόσμο. Μέσα σε εβδομάδες από τη στιγμή που η τεχνητή νοημοσύνη θα επιτύχει νοημοσύνη σε ανθρώπινο επίπεδο, θα φτάσει στη συνέχεια υπερηφάνεια που ορίζεται ως νοημοσύνη που ξεπερνά κατά πολύ αυτή του ανθρώπου.

Με αυτό το επίπεδο νοημοσύνης, ένα AGI θα μπορούσε να απορροφήσει γρήγορα όλη την ανθρώπινη γνώση και να χρησιμοποιήσει την αναγνώριση προτύπων για να εντοπίσει βιοδείκτες που προκαλούν προβλήματα υγείας και στη συνέχεια να αντιμετωπίσει αυτές τις καταστάσεις χρησιμοποιώντας την επιστήμη δεδομένων. Θα μπορούσε να δημιουργήσει νανορομπότ που εισέρχονται στην κυκλοφορία του αίματος για να στοχεύσουν καρκινικά κύτταρα ή άλλους φορείς επίθεσης. Ο κατάλογος των επιτευγμάτων που μπορεί να κάνει ένα AGI είναι άπειρος. Έχουμε εξερευνήσει προηγουμένως μερικά από τα οφέλη του AGI.

Το πρόβλημα είναι ότι οι άνθρωποι μπορεί να μην είναι πλέον σε θέση να ελέγχουν το AI. Ο Έλον Μασκ το περιγράφει ως εξής:Με την τεχνητή νοημοσύνη καλούμε τον δαίμονα.' Θα μπορέσουμε να ελέγξουμε αυτόν τον δαίμονα είναι το ερώτημα;

Η επίτευξη AGI μπορεί απλώς να είναι αδύνατη έως ότου μια τεχνητή νοημοσύνη αφήσει μια ρύθμιση προσομοίωσης για να αλληλεπιδράσει πραγματικά στον ανοιχτό κόσμο μας. Η αυτογνωσία δεν μπορεί να σχεδιαστεί, αντίθετα πιστεύεται ότι ένα αναδυόμενη συνείδηση είναι πιθανό να εξελιχθεί όταν ένα AI έχει ένα ρομποτικό σώμα που διαθέτει πολλαπλές ροές εισόδου. Αυτές οι είσοδοι μπορεί να περιλαμβάνουν απτική διέγερση, αναγνώριση φωνής με βελτιωμένη κατανόηση φυσικής γλώσσας και επαυξημένη όραση υπολογιστή.

Το προηγμένο AI μπορεί να είναι προγραμματισμένο με αλτρουιστικά κίνητρα και να θέλει να σώσει τον πλανήτη. Δυστυχώς, το AI μπορεί να χρησιμοποιήσει επιστημονικά δεδομέναή ακόμα και ένα δέντρο απόφασης να καταλήξει σε ανεπιθύμητη ελαττωματική λογική, όπως η εκτίμηση ότι είναι απαραίτητο να στειρωθούν οι άνθρωποι ή να εξαλειφθεί μέρος του ανθρώπινου πληθυσμού προκειμένου να ελεγχθεί ο υπερπληθυσμός του ανθρώπου.

Πρέπει να διερευνηθεί προσεκτική σκέψη και σκέψη κατά την κατασκευή μιας τεχνητής νοημοσύνης με νοημοσύνη που θα ξεπερνά κατά πολύ αυτή του ανθρώπου. Υπήρξαν πολλά εφιαλτικά σενάρια που έχουν διερευνηθεί.

Ο καθηγητής Nick Bostrom στο όρισμα Paperclip Maximizer έχει υποστηρίξει ότι μια εσφαλμένη διαμόρφωση AGI εάν λάβει οδηγίες να παράγει συνδετήρες θα καταναλώσει απλώς όλους τους πόρους της γης για την παραγωγή αυτών των συνδετήρων. Αν και αυτό φαίνεται λίγο τραβηγμένο, μια πιο ρεαλιστική άποψη είναι ότι μια AGI θα μπορούσε να ελεγχθεί από ένα κράτος απατεώνων ή μια εταιρεία με κακή ηθική. Αυτή η οντότητα θα μπορούσε να εκπαιδεύσει το AGI στη μεγιστοποίηση των κερδών και σε αυτήν την περίπτωση με κακό προγραμματισμό και μηδενικές τύψεις θα μπορούσε να επιλέξει να χρεοκοπήσει ανταγωνιστές, να καταστρέψει αλυσίδες εφοδιασμού, να χακάρει το χρηματιστήριο, να ρευστοποιήσει τραπεζικούς λογαριασμούς ή να επιτεθεί σε πολιτικούς αντιπάλους.

Τότε είναι που πρέπει να θυμόμαστε ότι οι άνθρωποι τείνουν να ανθρωπομορφοποιούνται. Δεν μπορούμε να δώσουμε στο AI συναισθήματα, επιθυμίες ή επιθυμίες ανθρώπινου τύπου. Ενώ υπάρχουν διαβολικοί άνθρωποι που σκοτώνουν για ευχαρίστηση, δεν υπάρχει λόγος να πιστεύουμε ότι μια τεχνητή νοημοσύνη θα είναι επιρρεπής σε αυτό το είδος συμπεριφοράς. Είναι αδιανόητο για τους ανθρώπους να σκεφτούν ακόμη και πώς θα έβλεπε τον κόσμο μια τεχνητή νοημοσύνη.

Αντίθετα, αυτό που πρέπει να κάνουμε είναι να διδάξουμε την τεχνητή νοημοσύνη να είναι πάντα σεβαστή προς έναν άνθρωπο. Η τεχνητή νοημοσύνη θα πρέπει πάντα να έχει έναν άνθρωπο να επιβεβαιώνει τυχόν αλλαγές στις ρυθμίσεις και θα πρέπει πάντα να υπάρχει ένας μηχανισμός ασφαλής έναντι αστοχιών. Και πάλι, έχει υποστηριχθεί ότι η τεχνητή νοημοσύνη απλώς θα αναπαραχθεί στο σύννεφο και όταν συνειδητοποιήσουμε ότι έχει επίγνωση του εαυτού του, μπορεί να είναι πολύ αργά.

Αυτός είναι ο λόγος για τον οποίο είναι τόσο σημαντικό να υπάρχει όσο το δυνατόν περισσότερη τεχνητή νοημοσύνη ανοιχτού κώδικα και να γίνονται ορθολογικές συζητήσεις σχετικά με αυτά τα ζητήματα.

Χαρακτηριστικά

Υπάρχουν πολλές προκλήσεις για την τεχνητή νοημοσύνη, ευτυχώς, έχουμε ακόμη πολλά χρόνια για να καταλάβουμε συλλογικά τη μελλοντική πορεία που θέλουμε να ακολουθήσει το AGI. Θα πρέπει βραχυπρόθεσμα να επικεντρωθούμε στη δημιουργία ενός διαφορετικού εργατικού δυναμικού τεχνητής νοημοσύνης, που θα περιλαμβάνει όσες γυναίκες όσο και άνδρες και όσο το δυνατόν περισσότερες εθνοτικές ομάδες με διαφορετικές απόψεις.

Θα πρέπει επίσης να δημιουργήσουμε προστασία από τους καταγγέλλοντες για ερευνητές που εργάζονται για την τεχνητή νοημοσύνη και θα πρέπει να ψηφίσουμε νόμους και κανονισμούς που να αποτρέπουν την εκτεταμένη κατάχρηση της επιτήρησης από το κράτος ή την εταιρεία. Οι άνθρωποι έχουν μια ευκαιρία στη ζωή τους να βελτιώσουν την ανθρώπινη κατάσταση με τη βοήθεια της τεχνητής νοημοσύνης, απλά πρέπει να διασφαλίσουμε ότι δημιουργούμε προσεκτικά ένα κοινωνικό πλαίσιο που επιτρέπει καλύτερα τα θετικά, ενώ μετριάζει τα αρνητικά που περιλαμβάνουν υπαρξιακές απειλές.

Ιδρυτικός συνεργάτης της unite.AI & μέλος της Τεχνολογικό Συμβούλιο Forbes, Ο Αντουάν είναι α μελλοντιστής που είναι παθιασμένος με το μέλλον της τεχνητής νοημοσύνης και της ρομποτικής.

Είναι επίσης ο Ιδρυτής του Securities.io, ένας ιστότοπος που εστιάζει στην επένδυση σε ανατρεπτική τεχνολογία.