Συνδεθείτε μαζί μας

Οι ανησυχίες για τους πιθανούς κινδύνους του ChatGPT κερδίζουν ορμή, αλλά είναι καλή κίνηση η παύση στο AI;

Ηγέτες της σκέψης

Οι ανησυχίες για τους πιθανούς κινδύνους του ChatGPT κερδίζουν ορμή, αλλά είναι καλή κίνηση η παύση στο AI;

mm

Ενώ ο Έλον Μασκ και άλλοι παγκόσμιοι ηγέτες της τεχνολογίας έχουν ζητήσει α παύση στο AI μετά την κυκλοφορία του ChatGPT, ορισμένοι κριτικοί πιστεύουν ότι η διακοπή της ανάπτυξης δεν είναι η λύση. Ο ευαγγελιστής της τεχνητής νοημοσύνης Andrew Pery, της εταιρείας ευφυών αυτοματισμών ABBYY πιστεύει ότι το διάλειμμα είναι σαν να βάζεις ξανά την οδοντόκρεμα στο σωληνάριο. Εδώ μας λέει γιατί…

Οι εφαρμογές AI είναι διάχυτες, επηρεάζοντας ουσιαστικά κάθε πτυχή της ζωής μας. Αν και είναι αξιέπαινο, το να βάλετε τα φρένα τώρα μπορεί να είναι απίθανο.

Υπάρχουν σίγουρα απτές ανησυχίες που απαιτούν αυξημένη ρυθμιστική εποπτεία για να κυριαρχήσει στις πιθανές επιβλαβείς επιπτώσεις της.

Μόλις πρόσφατα, η Ιταλική Αρχή Προστασίας Δεδομένων απέκλεισε προσωρινά τη χρήση του ChatGPT σε εθνικό επίπεδο λόγω ανησυχιών σχετικά με το απόρρητο που σχετίζονται με τον τρόπο συλλογής και επεξεργασίας των προσωπικών δεδομένων που χρησιμοποιούνται για την εκπαίδευση του μοντέλου, καθώς και λόγω προφανούς έλλειψης διασφαλίσεων, εκθέτοντας τα παιδιά σε απαντήσεις «απολύτως ακατάλληλο για την ηλικία και την επίγνωσή τους».

Η Ευρωπαϊκή Οργάνωση Καταναλωτών (BEUC) προτρέπει την ΕΕ να διερευνήσει τις πιθανές επιβλαβείς επιπτώσεις των μοντέλων γλώσσας μεγάλης κλίμακας, δεδομένης της «εντεινόμενης ανησυχίας σχετικά με το πώς το ChatGPT και παρόμοια chatbots ενδέχεται να εξαπατήσουν και να χειραγωγήσουν τους ανθρώπους. Αυτά τα συστήματα τεχνητής νοημοσύνης χρειάζονται μεγαλύτερο δημόσιο έλεγχο και οι δημόσιες αρχές πρέπει να επαναφέρουν τον έλεγχό τους».

Στις ΗΠΑ, η Κέντρο Τεχνητής Νοημοσύνης και Ψηφιακής Πολιτικής έχει υποβάλει καταγγελία στην Ομοσπονδιακή Επιτροπή Εμπορίου ότι το ChatGPT παραβιάζει την ενότητα 5 του Νόμου για την Ομοσπονδιακή Επιτροπή Εμπορίου (FTC) (15 USC 45). Η βάση της καταγγελίας είναι ότι το ChatGPT φέρεται να αποτυγχάνει να εκπληρώσει το καθοδήγηση καθορίζεται από την FTC για τη διαφάνεια και την επεξήγηση των συστημάτων AI. Έγινε αναφορά στις αναγνωρίσεις του ChatGPT πολλών γνωστών κινδύνους συμπεριλαμβανομένου του συμβιβασμού των δικαιωμάτων απορρήτου, της δημιουργίας επιβλαβούς περιεχομένου και της διάδοσης παραπληροφόρησης.

Η χρησιμότητα μοντέλων γλώσσας μεγάλης κλίμακας όπως το ChatGPT, παρά την έρευνα, επισημαίνει τις δυνατότητές του σκοτεινή πλευρά. Έχει αποδειχθεί ότι παράγει λανθασμένες απαντήσεις, καθώς το υποκείμενο μοντέλο ChatGPT βασίζεται σε αλγόριθμους βαθιάς μάθησης που αξιοποιούν μεγάλα σύνολα δεδομένων εκπαίδευσης από το διαδίκτυο. Σε αντίθεση με άλλα chatbot, το ChatGPT χρησιμοποιεί μοντέλα γλώσσας που βασίζονται σε τεχνικές βαθιάς μάθησης που δημιουργούν κείμενο παρόμοιο με τις ανθρώπινες συνομιλίες και η πλατφόρμα «φθάνει σε μια απάντηση κάνοντας μια σειρά εικασιών, που είναι μέρος του λόγου που μπορεί να υποστηρίξει λάθος απαντήσεις σαν να ήταν απολύτως αληθινές».

Επιπλέον, το ChatGPT έχει αποδειχθεί ότι τονίζει και ενισχύει την προκατάληψη με αποτέλεσμα «απαντήσεις που κάνουν διακρίσεις κατά του φύλου, της φυλής και των μειονοτικών ομάδων, κάτι που η εταιρεία προσπαθεί να μετριάσει». Το ChatGPT μπορεί επίσης να είναι ένα καλό πλεονέκτημα για κακόβουλους ηθοποιούς να εκμεταλλεύονται ανυποψίαστους χρήστες, θέτοντας σε κίνδυνο τους μυστικότητα και εκθέτοντάς τους σε επιθέσεις απάτης.

Αυτές οι ανησυχίες ώθησαν το Ευρωπαϊκό Κοινοβούλιο να δημοσιεύσει α σχόλια γεγονός που ενισχύει την ανάγκη περαιτέρω ενίσχυσης των ισχυουσών διατάξεων του σχεδίου Νόμος της ΕΕ για την Τεχνητή Νοημοσύνη, (ΔΑΑ) που εκκρεμεί ακόμη η επικύρωση. Ο σχολιασμός επισημαίνει ότι το τρέχον σχέδιο του προτεινόμενου κανονισμού εστιάζει σε αυτό που αναφέρεται ως στενές εφαρμογές τεχνητής νοημοσύνης, που αποτελούνται από συγκεκριμένες κατηγορίες συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου, όπως η πρόσληψη, η πιστοληπτική ικανότητα, η απασχόληση, η επιβολή του νόμου και η επιλεξιμότητα για κοινωνικές υπηρεσίες. Ωστόσο, το σχέδιο κανονισμού ΔΑΑ της ΕΕ δεν καλύπτει την τεχνητή νοημοσύνη γενικού σκοπού, όπως μεγάλα γλωσσικά μοντέλα που παρέχουν πιο προηγμένες γνωστικές ικανότητες και τα οποία μπορούν να «εκτελούν ένα ευρύ φάσμα έξυπνων εργασιών». Υπάρχουν εκκλήσεις να επεκταθεί το πεδίο εφαρμογής του σχεδίου κανονισμού ώστε να συμπεριλάβει μια χωριστή κατηγορία υψηλού κινδύνου συστημάτων τεχνητής νοημοσύνης γενικής χρήσης, που απαιτεί από τους προγραμματιστές να διεξάγουν αυστηρές εκ των προτέρων δοκιμές συμμόρφωσης πριν από τη διάθεση τέτοιων συστημάτων στην αγορά και να παρακολουθούν συνεχώς την απόδοσή τους για πιθανές απροσδόκητες επιβλαβείς εκροές.

Ένα ιδιαίτερα χρήσιμο κομμάτι του έρευνα επισημαίνει αυτό το κενό ότι ο κανονισμός ΔΑΑ της ΕΕ «εστιάζει κυρίως στα συμβατικά μοντέλα τεχνητής νοημοσύνης και όχι στη νέα γενιά της οποίας τη γέννηση παρακολουθούμε σήμερα».

Συνιστά τέσσερις στρατηγικές που πρέπει να εξετάσουν οι ρυθμιστικές αρχές.

  1. Απαιτείται από τους προγραμματιστές τέτοιων συστημάτων να αναφέρουν τακτικά την αποτελεσματικότητα των διαδικασιών διαχείρισης κινδύνου για τον μετριασμό των επιβλαβών αποτελεσμάτων.
  2. Οι επιχειρήσεις που χρησιμοποιούν μοντέλα γλώσσας μεγάλης κλίμακας θα πρέπει να υποχρεούνται να αποκαλύπτουν στους πελάτες τους ότι το περιεχόμενο δημιουργήθηκε με τεχνητή νοημοσύνη.
  3. Οι προγραμματιστές θα πρέπει να εγγραφούν σε μια επίσημη διαδικασία σταδιακών εκδόσεων, ως μέρος ενός πλαισίου διαχείρισης κινδύνου, που έχει σχεδιαστεί για να προστατεύεται από δυνητικά απρόβλεπτα επιβλαβή αποτελέσματα.
  4. Αναθέστε το βάρος στους προγραμματιστές να «μετριάσουν τον κίνδυνο στις ρίζες του» με το να πρέπει «να ελέγχουν προληπτικά το σύνολο δεδομένων εκπαίδευσης για παραπλανητικές δηλώσεις».

Ένας παράγοντας που διαιωνίζει τους κινδύνους που συνδέονται με τις τεχνολογίες που προκαλούν αποδιοργάνωση είναι η ώθηση των καινοτόμων να επιτύχουν το πλεονέκτημα του πρώτου κινητήριου δυναμικού υιοθετώντας ένα επιχειρηματικό μοντέλο «πρώτα πλοία και διορθώστε αργότερα». Ενώ το OpenAI είναι κάπως διαφανής σχετικά με τους πιθανούς κινδύνους του ChatGPT, το έχουν κυκλοφορήσει για ευρεία εμπορική χρήση με το βάρος «προσοχή αγοραστή» στους χρήστες να σταθμίζουν και να αναλαμβάνουν οι ίδιοι τους κινδύνους. Αυτή μπορεί να είναι μια αβάσιμη προσέγγιση δεδομένου του διάχυτου αντίκτυπου των συστημάτων τεχνητής νοημοσύνης συνομιλίας. Η προληπτική ρύθμιση σε συνδυασμό με αυστηρά μέτρα επιβολής πρέπει να είναι πρωταρχικής σημασίας κατά τον χειρισμό μιας τέτοιας ανατρεπτικής τεχνολογίας.

Η τεχνητή νοημοσύνη ήδη διαπερνά σχεδόν κάθε μέρος της ζωής μας, πράγμα που σημαίνει ότι μια παύση στην ανάπτυξη της τεχνητής νοημοσύνης θα μπορούσε να συνεπάγεται πολλά απρόβλεπτα εμπόδια και συνέπειες. Αντί να κάνουν ξαφνικά τις διακοπές, η βιομηχανία και οι νομοθετικοί παράγοντες θα πρέπει να συνεργαστούν καλή τη πίστη για να θεσπίσουν εφαρμόσιμους κανονισμούς που έχουν τις ρίζες τους σε ανθρωποκεντρικές αξίες όπως η διαφάνεια, η λογοδοσία και η δικαιοσύνη. Αναφερόμενοι σε υφιστάμενη νομοθεσία όπως ο ΔΑΑ, οι ηγέτες στον ιδιωτικό και τον δημόσιο τομέα μπορούν να σχεδιάσουν εμπεριστατωμένες, παγκοσμίως τυποποιημένες πολιτικές που θα αποτρέψουν κακόβουλες χρήσεις και θα μετριάσουν τα δυσμενή αποτελέσματα, διατηρώντας έτσι την τεχνητή νοημοσύνη εντός των ορίων της βελτίωσης των ανθρώπινων εμπειριών.

Ο Andrew Pery είναι Ευαγγελιστής Δεοντολογίας AI στην παγκόσμια εταιρεία ευφυούς αυτοματισμού ABBYY. Είναι κάτοχος μεταπτυχιακού διπλώματος νομικής με διάκριση από το Northwestern University Pritzker School of Law και είναι Πιστοποιημένος Επαγγελματίας Προστασίας Προσωπικών Δεδομένων. Η Pery έχει περισσότερα από 25 χρόνια εμπειρίας πρωτοστατώντας σε προγράμματα διαχείρισης τεχνολογίας για κορυφαίες παγκόσμιες εταιρείες τεχνολογίας. Η εξειδίκευσή του είναι στον έξυπνο αυτοματισμό διαδικασιών εγγράφων και την ευφυΐα διεργασιών με ιδιαίτερη εξειδίκευση στις τεχνολογίες τεχνητής νοημοσύνης, το λογισμικό εφαρμογών, το απόρρητο δεδομένων και την ηθική της τεχνητής νοημοσύνης.