Connect with us

Η Προτεραιότητα του AI Σημαίνει Προτεραιότητα της Ασφάλειας

Ηγέτες σκέψης

Η Προτεραιότητα του AI Σημαίνει Προτεραιότητα της Ασφάλειας

mm

Αγοράστε σε ένα παιδί ένα καινούριο ποδήλατο, και το ποδήλατο θα λάβει όλη την προσοχή – όχι το λαμπερό κράνος που το συνοδεύει. Αλλά οι γονείς εκτιμούν το κράνος.

Φοβούμαι ότι πολλοί από εμάς σήμερα είμαστε πιο σαν παιδιά όταν πρόκειται για το AI. Είμαστε εστιασμένοι στο πόσο κουλ είναι και πόσο γρήγορα podemos να πάμε μαζί του. Όχι τόσο σε τι μπορούμε να κάνουμε για να μείνουμε ασφαλείς ενώ το χρησιμοποιούμε. Είναι λυπηρό γιατί δεν μπορείτε να έχετε το όφελος του ενός χωρίς το άλλο.

Λαμβάνοντας υπόψη ότι η εφαρμογή του AI χωρίς προσεκτικό σχεδιασμό για την ασφάλεια πρώτα δεν είναι απλά ριψοκίνδυνη. Είναι ένας ευθύς δρόμος εκτός的一 cliff.

Τι Σημαίνει Ασφάλεια του AI;

Η ασφάλεια του AI περιλαμβάνει μια σειρά από βήματα. Αλλά ίσως το πιο σημαντικό στοιχείο είναι πότε να τα λάβουμε. Για να είναι αποτελεσματική, η ασφάλεια του AI πρέπει να είναι με σχεδιασμό.

Αυτό σημαίνει ότι θεωρούμε πώς να προληφθούν οι ζημιές πριν από το τεστ drive. Βγάζουμε ένα σχέδιο για να διασφαλίσουμε ότι το AI λειτουργεί και παράγει αποτελέσματα σύμφωνα με τις αξίες και τις κοινωνικές προσδοκίες μας πρώτα – όχι μετά από να λάβουμε κάποια άσχημα αποτελέσματα.

Ο σχεδιασμός για την ασφάλεια του AI περιλαμβάνει επίσης τη σκέψη για το πώς να το κάνουμε robust, ή να το κάνουμε να λειτουργεί προβλέψιμα ακόμη και σε δυσμενείς καταστάσεις. Σημαίνει να το κάνουμε διαφανές, ώστε οι αποφάσεις που λαμβάνει το AI να είναι κατανοητές, ελέγξιμες και αμερόληπτες.

Αλλά περιλαμβάνει επίσης τη ματιά στο κόσμο στον οποίο το AI θα λειτουργήσει. Ποια θεσμικά και νομικά μέτρα ασφαλείας χρειαζόμαστε, ειδικά για τη συμμόρφωση με τις ισχύουσες κυβερνητικές κανονιστικές; Και δεν μπορώ να τονίσω αρκετά το ανθρώπινο στοιχείο: Ποια θα είναι η επίδραση της χρήσης του AI στα άτομα που αλληλεπιδρούν μαζί του;

Η ασφάλεια με σχεδιασμό σημαίνει την εμβέδωση της ασφάλειας του AI σε όλες τις διαδικασίες, τις ροές εργασιών και τις λειτουργίες μας πριν από το πρώτο μας prompt.

Οι Κίνδυνοι Υπερβαίνουν τις Ανησυχίες

Δεν 모두 συμφωνούν. Όταν ακούν “ασφάλεια πρώτα”, κάποιοι ακούν “βήμα τόσο προσεκτικά και αργά που θα μείνετε πίσω”. Βέβαια, αυτό δεν είναι αυτό που σημαίνει η ασφάλεια πρώτα. Δεν πρέπει να σβήσει την καινοτομία ή να επιβραδύνει τον χρόνο αγοράς. Και δεν σημαίνει ένα ατελείωτο ρεύμα πιλότων που δεν κλιμακώνουν. Το αντίθετο.

Σημαίνει την κατανόηση των κινδύνων μη σχεδιασμού της ασφάλειας στο AI. Σκεφτείτε μόνο quelques.

  • Deloitte’s Center for Financial Services προβλέπει ότι το GenAI θα μπορούσε να είναι υπεύθυνο για απώλειες απάτης που φτάνουν στα 40 δισεκατομμύρια δολάρια στις ΗΠΑ μόνο μέχρι το 2027, από 12,3 δισεκατομμύρια δολάρια το 2023, một αύξηση 32% ετησίως.
  • Προκατειλημμένες αποφάσεις. Περιπτώσεις τεκμηριώνουν προκατειλημμένη ιατρική φροντίδα λόγω AI που είχε εκπαιδευτεί με προκατειλημμένα δεδομένα.
  • Κακές αποφάσεις που εμπνέουν περισσότερες κακές αποφάσεις. Χειρότερο από μια αρχική κακή απόφαση που προκλήθηκε από ελαττωματικό AI, μελέτες δείχνουν ότι αυτές οι ελαττωματικές αποφάσεις μπορούν να γίνουν μέρος του πώς σκεφτόμαστε και λαμβάνουμε μελλοντικές αποφάσεις.
  • Πραγματικές συνέπειες. Το AI που δίνει κακές ιατρικές συμβουλές έχει ευθύνη για θανατηφόρα αποτελέσματα για τους ασθενείς. Νομικά ζητήματα έχουν προκύψει από την αναφορά μιας ψευδαίσθησης του AI ως νομικής προηγουμένως. Και σφάλματα λογισμικού που προέρχονται από την ψευδαίσθηση του AI έχουν μολύνει προϊόντα εταιρειών και τη φήμη τους και οδήγησαν σε ευρεία δυσαρέσκεια των χρηστών.

Και τα πράγματα είναι πρόθυμα να γίνουν ακόμη πιο ενδιαφέροντα.

Η έλευση και γρήγορη υιοθέτηση του agentic AI, του AI που μπορεί να λειτουργήσει αυτονομamente για να λάβει αποφάσεις που έχει λάβει, θα μεγεθύνει την_importance του σχεδιασμού για την ασφάλεια του AI.

Ένα AI που μπορεί να ενεργήσει για λογαριασμό σας θα μπορούσε να είναι εξαιρετικά χρήσιμο. Αντί να σας λέει για τις καλύτερες πτήσεις για ένα ταξίδι, θα μπορούσε να τις βρει και να τις κλείσει για σας. Αν θέλετε να επιστρέψετε ένα προϊόν, το AI της εταιρείας θα μπορούσε όχι μόνο να σας πει την πολιτική επιστροφής και πώς να υποβάλετε αίτηση επιστροφής, αλλά και να χειριστεί ολόκληρη τη διαδικασία για σας.

Καλά – εφόσον το πράγμα δεν ψευδαισθάνεται μια πτήση ή χειρίζεται λανθασμένα τις οικονομικές σας πληροφορίες. Ή να λάβει λανθασμένα την πολιτική επιστροφής της εταιρείας και να αρνηθεί έγκυρες επιστροφές.

Δεν είναι δύσκολο να δούμε πώς οι παρούσες κίνδυνοι ασφαλείας του AI θα μπορούσαν να κασκαντίζουν με μια σειρά από πράγματα του AI που τρέχουν γύρω και λαμβάνουν αποφάσεις και ενεργούν, ιδιαίτερα既然 δεν θα ενεργούν πιθανότατα μόνοι τους. Πολύ της πραγματικής αξίας του agentic AI θα έρθει από ομάδες πραγμάτων, όπου τα μεμονωμένα πράγματα χειρίζονται μέρη των εργασιών και συνεργάζονται – πράγμα προς πράγμα – για να ολοκληρώσουν την εργασία.

Τότε, πώς να αγκαλιάσετε την ασφάλεια του AI με σχεδιασμό χωρίς να εμποδίζετε την καινοτομία και να σκοτώνετε την potensial αξία της;

Ασφάλεια με Σχεδιασμό σε Δράση

Τα ad hoc ελέγχοι ασφαλείας δεν είναι η απάντηση. Αλλά η ενσωμάτωση των πρακτικών ασφαλείας σε κάθε φάση μιας εφαρμογής του AI είναι.

Ξεκινήστε με τα δεδομένα. Βεβαιωθείτε ότι τα δεδομένα είναι ετικεταρισμένα, ανα노ημένα όπου χρειάζεται, απαλλαγμένα από προκαταλήψεις και υψηλής ποιότητας. Αυτό είναι ιδιαίτερα αληθινό για τα δεδομένα εκπαίδευσης.

Εκπαιδεύστε τα μοντέλα σας με ανθρώπινη ανατροφοδότηση, καθώς η ανθρώπινη κρίση είναι απαραίτητη για να διαμορφώσει τη συμπεριφορά του μοντέλου. Η ενίσχυση της μάθησης με ανθρώπινη ανατροφοδότηση (RLHF) και άλλες παρόμοιες τεχνικές επιτρέπουν στους ανανοητές να βαθμολογούν και να οδηγούν τις απαντήσεις, βοηθώντας τα LLM να παράγουν εξόδους που είναι ασφαλείς και ευθυγραμμισμένες με τις ανθρώπινες αξίες.

Στη συνέχεια, πριν από την κυκλοφορία ενός μοντέλου, δοκιμάστε το. Οι ομάδες που προσπαθούν να προκαλέσουν ασφαλή συμπεριφορά με τη χρήση αντιπαλών προτύπων, περιπτώσεων άκρων και προσπαθειών για διάρρηξη μπορούν να αποκαλύψουν ευπάθειες. Λαμβάνοντας αυτά τα λάθη πριν από την κυκλοφορία τους στο κοινό, διασφαλίζουν ότι όλα είναι ασφαλή πριν από το πρόβλημα.

Ενώ αυτό το τεστ διασφαλίζει ότι τα μοντέλα του AI σας είναι robust, συνεχίστε να τα παρακολουθείτε με το μάτι σας στις αναδυόμενες απειλές και τις điều chỉnh που μπορεί να χρειαστούν για τα μοντέλα.

Σε παρόμοιο πνεύμα, παρακολουθήστε τακτικά τις πηγές περιεχομένου και τις ψηφιακές αλληλεπιδράσεις για σημάδια απάτης. Κρίσιμο, χρησιμοποιήστε μια υβριδική προσέγγιση AI-ανθρώπου, αφήνοντας την αυτοματοποίηση του AI να φροντίσει τον τεράστιο όγκο δεδομένων που πρέπει να παρακολουθούνται, και τους ικανούς ανθρώπους να χειρίζονται τις αναθεωρήσεις για την επιβολή και να διασφαλίζουν την ακρίβεια.

Η εφαρμογή του agentic AI απαιτεί ακόμη περισσότερη φροντίδα. Một βασική απαιτούμενη: εκπαιδεύστε το πράγμα να γνωρίζει τα όριά του. Όταν συναντήσει αβεβαιότητα, ηθικές диλήμματα, νέες καταστάσεις ή ιδιαίτερα υψηλές αποφάσεις, διασφαλίστε ότι γνωρίζει πώς να ζητήσει βοήθεια.

Επίσης, σχεδιάστε την ιχνηλασιμότητα στα πράγματα σας. Αυτό είναι ιδιαίτερα σημαντικό, ώστε οι αλληλεπιδράσεις να πραγματοποιούνται μόνο με επικυρωμένους χρήστες, για να αποφευχθεί η επίδραση των απάτης που επηρεάζουν τις ενέργειες του πράγματος.

Αν φαίνεται ότι λειτουργούν αποτελεσματικά, θα ήταν πειστικό να τα αφήσετε ελεύθερα και να τα αφήσετε να κάνουν το πράγμα τους. Η εμπειρία μας λέει να συνεχίσουμε να τα παρακολουθούμε και τις εργασίες που τις εκπληρώνουν για να παρακολουθούμε λάθη ή απρόσμενη συμπεριφορά. Χρησιμοποιήστε τόσο αυτοματοποιημένα ελέγχους όσο και ανθρώπινη αναθεώρηση.

Στην πραγματικότητα, ένα απαραίτητο στοιχείο της ασφάλειας του AI είναι η τακτική ανθρώπινη εμπλοκή. Οι άνθρωποι πρέπει να εμπλέκονται σκόπιμα όπου κρίσιμη κρίση, ευσπλαχνία ή νюανς και αμφιβολία εμπλέκονται σε μια απόφαση ή ενέργεια.

Πάλι, να είναι σαφές, αυτά είναι όλα πρακτικές που χτίζετε στην εφαρμογή του AI εκ των προτέρων, με σχεδιασμό. Δεν είναι το αποτέλεσμα κάτι που πήγε στραβά και τότε να βγάλουμε γρήγορα πώς να ελαττώσουμε την ζημία.

Λειτουργεί;

Έχουμε εφαρμόσει μια φιλοσοφία ασφαλείας του AI και ένα πλαίσιο “με σχεδιασμό” με τους πελάτες μας καθ’ όλη τη διάρκεια της εμφάνισης του GenAI και τώρα στην ταχεία οδό προς το agentic AI. Βρίσκουμε ότι, αντίθετα με τις ανησυχίες ότι θα επιβραδύνουν τα πράγματα, στην πραγματικότητα βοηθούν να τα επιταχύνουν.

Το agentic AI έχει το potensial να μειώσει το κόστος της υποστήριξης του πελάτη κατά 25-50%, για παράδειγμα, ενώ αυξάνει την ικανοποίηση του πελάτη. Αλλά όλα αυτά εξαρτώνται από την εμπιστοσύνη.

Οι άνθρωποι που χρησιμοποιούν το AI πρέπει να το εμπιστεύονται, και οι πελάτες που αλληλεπιδρούν με το AI-ενεργοποιημένο ανθρώπινο πράγμα ή με πραγματικά πράγματα του AI δεν μπορούν να βιώσουν μια seule αλληλεπίδραση που θα υπονόμευε την εμπιστοσύνη τους. Μια κακή εμπειρία μπορεί να εξαφανίσει την εμπιστοσύνη σε ένα brand.

Δεν εμπιστεύομαι τι δεν είναι ασφαλές. Όταν χτίζουμε την ασφάλεια σε κάθε στρώμα του AI που πρόκειται να κυκλοφορήσουμε, μπορούμε να το κάνουμε με εμπιστοσύνη. Και όταν είμαστε έτοιμοι να το κλιμακώσουμε, μπορούμε να το κάνουμε γρήγορα – με εμπιστοσύνη.

Ενώ η εφαρμογή της ασφαλείας του AI πρώτα στη πράξη μπορεί να φαίνεται αποθαρρυντική, δεν είστε μόνοι. Υπάρχουν πολλοί εμπειρογνώμονες για να βοηθήσουν και συνεργάτες που μπορούν να μοιραστούν τι έχουν μάθει και μαθαίνουν, ώστε να μπορέσετε να利用σετε την αξία του AI ασφαλώς χωρίς να σας επιβραδύνουν.

Ο Joe Anderson είναι ο Senior Director of Consulting and Digital Transformation tại TaskUs, όπου ηγείται της στρατηγικής go-to-market και της καινοτομίας. Εστιάζει στο σημείο τομής του AI, της εμπειρίας του πελάτη και των ψηφιακών επιχειρηματικών δραστηριοτήτων, και ηγείται της νέας πρακτικής συμβουλευτικής AI της TaskUs.