Ηθική
5 Θεμελιώδεις Στυλοβάτες για την Εγγύηση της Υπεύθυνης Τεχνητής Νοημοσύνης

Βλέπουμε μια κατακλυσμική αύξηση των συστημάτων Τεχνητής Νοημοσύνης/Μηχανικής Μάθησης για την επεξεργασία ωκεανών δεδομένων που παράγονται στην νέα ψηφιακή οικονομία. Ωστόσο, με αυτή την αύξηση, υπάρχει ανάγκη να ληφθούν σοβαρά υπόψη οι ηθικές και νομικές επιπτώσεις της Τεχνητής Νοημοσύνης.
Όσο εμπιστεύομαστε όλο και πιο εξελιγμένα και σημαντικά καθήκοντα στα συστήματα Τεχνητής Νοημοσύνης, όπως για παράδειγμα την αυτόματη έγκριση δανείων, πρέπει να είμαστε απόλυτα βέβαιοι ότι αυτά τα συστήματα είναι υπεύθυνα και αξιόπιστα. Η μείωση των προκαταλήψεων στην Τεχνητή Νοημοσύνη έχει γίνει ένα τεράστιο πεδίο εστίασης για πολλούς ερευνητές και έχει τεράστιες ηθικές επιπτώσεις, όπως και το ποσό αυτονομίας που δίνουμε σε αυτά τα συστήματα.
Η έννοια της Υπεύθυνης Τεχνητής Νοημοσύνης είναι ένα σημαντικό πλαίσιο που μπορεί να βοηθήσει στην κατασκευή εμπιστοσύνης στις αναπτύξεις Τεχνητής Νοημοσύνης. Υπάρχουν πέντε θεμελιώδεις στυλοβάτες για την Υπεύθυνη Τεχνητή Νοημοσύνη. Αυτό το άρθρο θα εξετάσει αυτές για να σας βοηθήσει να κατασκευάσετε καλύτερα συστήματα.
1. Αναπαραγωγιμότητα
Υπάρχει ένα παλιό ρητό στον κόσμο της ανάπτυξης λογισμικού που λέει: “Ε, δουλεύει στο μηχάνημά μου” Στη Μηχανική Μάθηση και Τεχνητή Νοημοσύνη, η φράση θα μπορούσε να τροποποιηθεί για να είναι: “Ε, δουλεύει στη βάση δεδομένων μου.” Αυτό σημαίνει ότι τα μοντέλα Μηχανικής Μάθησης μπορούν συχνά να τείνουν να είναι ένα μαύρο κουτί. Πολλές βάσεις δεδομένων εκπαίδευσης μπορούν να έχουν εγγενείς προκαταλήψεις, όπως προκαταλήψεις δειγματοληψίας ή επιβεβαίωσης, που μειώνουν την ακρίβεια του τελικού προϊόντος.
Για να βοηθήσετε να κάνετε τα συστήματα Τεχνητής Νοημοσύνης/Μηχανικής Μάθησης πιο αναπαραγωγιμά, και επομένως ακριβή και αξιόπιστα, ο πρώτος βήμας είναι να τυποποιήσετε τον αγωγό MLOps. Ακόμη και οι πιο έξυπνοι επιστήμονες δεδομένων έχουν τις αγαπημένες τους τεχνολογίες και βιβλιοθήκες, που σημαίνει ότι η μηχανική χαρακτηριστικών και τα αποτελέσματα των μοντέλων δεν είναι ομοιόμορφα από άτομο σε άτομο. Χρησιμοποιώντας εργαλεία όπως το MLflow, μπορείτε να τυποποιήσετε τον αγωγό MLOps και να μειώσετε αυτές τις διαφορές.
Ένας άλλος τρόπος για να βοηθήσετε να κάνετε τα συστήματα Τεχνητής Νοημοσύνης/Μηχανικής Μάθησης πιο αναπαραγωγιμά είναι μέσω της χρήσης των так звαμένων “χρυσών βάσεων δεδομένων”. Αυτές είναι αντιπροσωπευτικές βάσεις δεδομένων που λειτουργούν ουσιαστικά ως δοκιμές και επικύρωση νέων μοντέλων πριν από την κυκλοφορία τους για παραγωγή.
2. Διαφάνεια
Όπως αναφέρθηκε νωρίτερα, πολλά μοντέλα Μηχανικής Μάθησης, ιδιαίτερα τα νευρωνικά δίκτυα, είναι μαύρα κουτί. Για να τα κάνουμε πιο υπεύθυνα, πρέπει να τα κάνουμε πιο ερμηνεύσιμα. Για απλά συστήματα όπως τα δέντρα απόφασης, είναι khá εύκολο να κατανοηθεί πώς και γιατί το σύστημα έκανε μια bestimmμένη απόφαση, αλλά, καθώς η ακρίβεια και η πολυπλοκότητα ενός συστήματος Τεχνητής Νοημοσύνης αυξάνεται, η ερμηνευσιμότητά του συχνά μειώνεται.
Υπάρχει ένα νέο πεδίο έρευνας που ονομάζεται “ερμηνευσιμότητα” που προσπαθεί να φέρει διαφάνεια ακόμη και στα σύνθετα συστήματα Τεχνητής Νοημοσύνης, όπως τα νευρωνικά δίκτυα και τη βαθιά μάθηση. Αυτά χρησιμοποιούν μοντέλα-proxies για να αντιγράψουν την απόδοση ενός νευρωνικού δικτύου, αλλά επίσης προσπαθούν να δώσουν έγκυρες εξηγήσεις για ποιες χαρακτηριστικές είναι σημαντικές.
Αυτό οδηγεί στη δικαιοσύνη· θέλετε να γνωρίζετε γιατί μια bestimmμένη απόφαση λήφθηκε και να βεβαιωθείτε ότι αυτή η απόφαση είναι δίκαιη. Θέλετε επίσης να διασφαλίσετε ότι ακατάλληλες χαρακτηριστικές δεν λαμβάνονται υπόψη, ώστε να μην εισέλθει προκατάληψη στο μοντέλο σας.
3. Υπεύθυνότητα
Πιθανότατα το πιο σημαντικό аспект της Υπεύθυνης Τεχνητής Νοημοσύνης είναι η υπεύθυνότητα. Υπάρχει πολλή συζήτηση γύρω από αυτό το θέμα, ακόμη και στον κυβερνητικό τομέα, καθώς αφορά τις πολιτικές που θα οδηγήσουν τα αποτελέσματα της Τεχνητής Νοημοσύνης. Αυτή η πολιτική-οδηγούμενη προσέγγιση καθορίζει σε ποιο στάδιο οι άνθρωποι πρέπει να είναι στην επικοινωνία.
Η υπεύθυνότητα απαιτεί ρομποτικά μέσα και μετρήσεις για να βοηθήσουν τους πολιτικούς και να ελέγξουν τα συστήματα Τεχνητής Νοημοσύνης/Μηχανικής Μάθησης. Η υπεύθυνότητα πραγματικά συνδέει την αναπαραγωγιμότητα και τη διαφάνεια, αλλά χρειάζεται αποτελεσματική εποπτεία με τη μορφή επιτροπών ηθικής Τεχνητής Νοημοσύνης. Αυτές οι επιτροπές μπορούν να χειριστούν τις αποφάσεις πολιτικής, να αποφασίσουν τι είναι σημαντικό να μετρηθεί και να διεξαγάγουν αναθεωρήσεις δικαιοσύνης.
4. Ασφάλεια
Η ασφάλεια της Τεχνητής Νοημοσύνης εστιάζει στην εμπιστευτικότητα και την ακεραιότητα των δεδομένων. Όταν τα συστήματα επεξεργάζονται δεδομένα, θέλετε να είναι σε ένα ασφαλές περιβάλλον. Θέλετε τα δεδομένα να είναι και κρυπτογραφημένα κατά την ηρεμία τους στη βάση δεδομένων σας και επίσης όταν καλούνται μέσω του αγωγού, αλλά υπάρχουν ακόμη ευπάθειες όταν τα δεδομένα εισάγονται σε ένα μοντέλο Μηχανικής Μάθησης ως απλό κείμενο. Τεχνολογίες όπως η ομομορφική κρυπτογράφηση λύνουν αυτό το πρόβλημα, επιτρέποντας την εκπαίδευση της Μηχανικής Μάθησης σε einem κρυπτογραφημένο περιβάλλον.
Ένας άλλος аспект είναι η ασφάλεια του μοντέλου selbst. Για παράδειγμα, οι επιθέσεις αναστροφής μοντέλων επιτρέπουν στους hackers να μάθουν τα δεδομένα εκπαίδευσης που χρησιμοποιήθηκαν για την κατασκευή του μοντέλου. Υπάρχουν επίσης επιθέσεις δηλητηρίασης μοντέλων, οι οποίες εισάγουν κακά δεδομένα στο μοντέλο κατά την εκπαίδευση και καταστρέφουν完全 την απόδοσή του. Η δοκιμή του μοντέλου σας για επιθέσεις όπως αυτές μπορεί να το κρατήσει ασφαλές και ασφαλές.
5. Ιδιωτικότητα
Η Google και η OpenMined είναι δύο οργανισμοί που έχουν προτεραιότητα την ιδιωτικότητα της Τεχνητής Νοημοσύνης, και η OpenMined φιλοξένησε μια πρόσφατη διάσκεψη σε αυτό το θέμα. Με νέες κανονιστικές προδιαγραφές όπως το GDPR και το CCPA, και πιθανότατα περισσότερες που έρχονται, η ιδιωτικότητα θα παίξει κεντρικό ρόλο σε тому πώς εκπαιδεύουμε τα μοντέλα Μηχανικής Μάθησης.
Ένας τρόπος για να διασφαλίσετε ότι χειρίζεστε τα δεδομένα των πελατών σας με ιδιωτικότητα είναι να χρησιμοποιήσετε τη διαกระμοιρημένη μάθηση. Αυτή η αποκεντρωμένη μέθοδος της Μηχανικής Μάθησης εκπαιδεύει διαφορετικά μοντέλα τοπικά και στη συνέχεια συνδυάζει κάθε μοντέλο σε ένα κεντρικό κόμβο, διατηρώντας τα δεδομένα ασφαλή, ασφαλή και ιδιωτικά. Ένας άλλος τρόπος είναι να εισαγάγετε στατιστικό θόρυβο, ώστε οι μεμονωμένες τιμές των πελατών να μην διαρρεύσουν. Αυτό σας κρατά να εργάζεστε με το σύνολο, ώστε τα δεδομένα ενός ατόμου να παραμείνουν άθικτα και να μην είναι διαθέσιμα στο αλγόριθμο.
Διατήρηση της Υπεύθυνης Τεχνητής Νοημοσύνης
Τελικά, η διατήρηση της Υπεύθυνης Τεχνητής Νοημοσύνης είναι υπόθεση κάθε οργανισμού που σχεδιάζει συστήματα Τεχνητής Νοημοσύνης/Μηχανικής Μάθησης. Με την ενθέρμη追求 των τεχνολογιών внутри κάθε μίας από αυτές τις πέντε πτυχές της Υπεύθυνης Τεχνητής Νοημοσύνης, μπορείτε να επωφεληθείτε nicht μόνο από την δύναμη της Τεχνητής Νοημοσύνης, αλλά και να το κάνετε με έναν αξιόπιστο και ευθύ τρόπο που θα εγγυηθεί την οργάνωση σας, τους πελάτες σας και τους ρυθμιστές.












