στέλεχος Μεροληψία και δικαιοσύνη των συστημάτων που βασίζονται σε τεχνητή νοημοσύνη εντός του οικονομικού εγκλήματος - Unite.AI
Συνδεθείτε μαζί μας

Ηγέτες της σκέψης

Μεροληψία και δικαιοσύνη των συστημάτων που βασίζονται σε τεχνητή νοημοσύνη στο πλαίσιο του οικονομικού εγκλήματος

mm

Δημοσιευμένα

 on

Όσον αφορά την καταπολέμηση του οικονομικού εγκλήματος, υπάρχουν προκλήσεις που ξεπερνούν το πεδίο της απλής αναχαίτισης των απατεώνων ή άλλων κακών παραγόντων.

Μερικές από τις πιο πρόσφατες, προηγμένες τεχνολογίες που κυκλοφορούν συχνά έχουν τα δικά τους συγκεκριμένα ζητήματα που πρέπει να ληφθούν υπόψη κατά τα στάδια υιοθέτησης για την επιτυχή καταπολέμηση των απατεώνων χωρίς ρυθμιστικές επιπτώσεις. Στον εντοπισμό απάτης, η δικαιοσύνη του μοντέλου και η μεροληψία δεδομένων μπορεί να προκύψουν όταν ένα σύστημα έχει μεγαλύτερη στάθμιση ή στερείται αντιπροσώπευσης ορισμένων ομάδων ή κατηγοριών δεδομένων. Θεωρητικά, ένα προγνωστικό μοντέλο θα μπορούσε να συσχετίσει λανθασμένα επώνυμα από άλλους πολιτισμούς με δόλιους λογαριασμούς ή να μειώσει ψευδώς τον κίνδυνο εντός των τμημάτων του πληθυσμού για συγκεκριμένο τύπο χρηματοοικονομικών δραστηριοτήτων.

Τα προκατειλημμένα συστήματα τεχνητής νοημοσύνης μπορεί να αντιπροσωπεύουν μια σοβαρή απειλή όταν μπορεί να επηρεαστεί η φήμη και εμφανίζεται όταν τα διαθέσιμα δεδομένα δεν είναι αντιπροσωπευτικά του πληθυσμού ή του φαινομένου της εξερεύνησης. Αυτά τα δεδομένα δεν περιλαμβάνουν μεταβλητές που αποτυπώνουν σωστά το φαινόμενο που θέλουμε να προβλέψουμε. Εναλλακτικά, τα δεδομένα θα μπορούσαν να περιλαμβάνουν περιεχόμενο που παράγεται από ανθρώπους, το οποίο μπορεί να περιέχει μεροληψία έναντι ομάδων ανθρώπων, κληρονομημένη από πολιτισμικές και προσωπικές εμπειρίες, που οδηγεί σε στρεβλώσεις κατά τη λήψη αποφάσεων. Αν και αρχικά τα δεδομένα μπορεί να φαίνονται αντικειμενικά, εξακολουθούν να συλλέγονται και αναλύονται από τον άνθρωπο και ως εκ τούτου μπορεί να είναι προκατειλημμένα.

Αν και δεν υπάρχει ασήμαντη κουκκίδα όσον αφορά την αποκατάσταση των κινδύνων των διακρίσεων και της αδικίας στα συστήματα τεχνητής νοημοσύνης ή μόνιμες επιδιορθώσεις του προβλήματος της δικαιοσύνης και του μετριασμού της μεροληψίας στην αρχιτεκτονική του μοντέλου και της χρήσης μηχανικής μάθησης, αυτά τα ζητήματα πρέπει να ληφθούν υπόψη τόσο για την κοινωνία όσο και για επαγγελματικούς λόγους.

Κάνοντας το σωστό στο AI

Η αντιμετώπιση της μεροληψίας σε συστήματα που βασίζονται σε τεχνητή νοημοσύνη δεν είναι μόνο το σωστό, αλλά και το έξυπνο πράγμα για τις επιχειρήσεις — και τα διακυβεύματα για τους ηγέτες των επιχειρήσεων είναι υψηλά. Τα προκατειλημμένα συστήματα τεχνητής νοημοσύνης μπορούν να οδηγήσουν τα χρηματοπιστωτικά ιδρύματα σε λάθος δρόμο κατανέμοντας ευκαιρίες, πόρους, πληροφορίες ή ποιότητα υπηρεσιών άδικα. Έχουν ακόμη τη δυνατότητα να παραβιάσουν τις πολιτικές ελευθερίες, να βλάψουν την ασφάλεια των ατόμων ή να επηρεάσουν την ευημερία ενός ατόμου, εάν εκληφθούν ως απαξιωτικά ή προσβλητικά.

Είναι σημαντικό για τις επιχειρήσεις να κατανοήσουν τη δύναμη και τους κινδύνους της προκατάληψης της τεχνητής νοημοσύνης. Αν και συχνά άγνωστο από το ίδρυμα, ένα προκατειλημμένο σύστημα που βασίζεται σε τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιεί επιζήμια μοντέλα ή δεδομένα που εκθέτουν τη φυλετική ή έμφυλη προκατάληψη σε μια απόφαση δανεισμού. Πληροφορίες όπως ονόματα και φύλο θα μπορούσαν να αποτελέσουν αντιπροσώπους για την κατηγοριοποίηση και την ταυτοποίηση των αιτούντων με παράνομους τρόπους. Ακόμα κι αν η μεροληψία είναι ακούσια, εξακολουθεί να θέτει τον οργανισμό σε κίνδυνο επειδή δεν συμμορφώνεται με τις κανονιστικές απαιτήσεις και θα μπορούσε να οδηγήσει σε άδικη άρνηση δανείων ή πιστωτικών γραμμών σε ορισμένες ομάδες ανθρώπων.

Επί του παρόντος, οι οργανισμοί δεν διαθέτουν τα κομμάτια για να μετριάσουν με επιτυχία την προκατάληψη στα συστήματα τεχνητής νοημοσύνης. Όμως, καθώς η τεχνητή νοημοσύνη αναπτύσσεται όλο και περισσότερο σε όλες τις επιχειρήσεις για την ενημέρωση των αποφάσεων, είναι ζωτικής σημασίας οι οργανισμοί να προσπαθούν να μειώσουν την προκατάληψη, όχι μόνο για ηθικούς λόγους, αλλά για να συμμορφωθούν με τις κανονιστικές απαιτήσεις και να δημιουργήσουν έσοδα.

Πολιτισμός και εφαρμογή «Fairness-Aware».

Οι λύσεις που επικεντρώνονται στον σχεδιασμό και την εφαρμογή με επίγνωση της δικαιοσύνης θα έχουν τα πιο ευεργετικά αποτελέσματα. Οι πάροχοι θα πρέπει να έχουν μια αναλυτική κουλτούρα που να θεωρεί την υπεύθυνη απόκτηση, χειρισμό και διαχείριση δεδομένων ως απαραίτητα στοιχεία αλγοριθμικής δικαιοσύνης, επειδή εάν τα αποτελέσματα ενός έργου τεχνητής νοημοσύνης δημιουργούνται από μεροληπτικά, παραβιασμένα ή λοξά σύνολα δεδομένων, τα επηρεαζόμενα μέρη δεν θα προστατεύονται επαρκώς από ζημία που προκαλεί διακρίσεις.

Αυτά είναι τα στοιχεία της δικαιοσύνης δεδομένων που πρέπει να έχουν υπόψη οι ομάδες επιστήμης δεδομένων:

  • Αντιπροσωπευτικότητα:Ανάλογα με το πλαίσιο, είτε η υποεκπροσώπηση είτε η υπερεκπροσώπηση μειονεκτουσών ή νομικά προστατευμένων ομάδων στο δείγμα δεδομένων μπορεί να οδηγήσει στη συστηματική μειονεκτική θέση των ευάλωτων μερών στα αποτελέσματα του εκπαιδευμένου μοντέλου. Για την αποφυγή τέτοιων ειδών μεροληψίας δειγματοληψίας, η εμπειρογνωμοσύνη του τομέα θα είναι ζωτικής σημασίας για την αξιολόγηση της προσαρμογής μεταξύ των δεδομένων που συλλέγονται ή αποκτώνται και του υποκείμενου πληθυσμού που πρόκειται να μοντελοποιηθεί. Τα μέλη της τεχνικής ομάδας θα πρέπει να προσφέρουν μέσα αποκατάστασης για τη διόρθωση αναπαραστατικών ελαττωμάτων στη δειγματοληψία.
  • Κατάλληλο για το σκοπό και επάρκεια: Είναι σημαντικό να κατανοήσουμε εάν τα δεδομένα που συλλέγονται είναι επαρκή για τον επιδιωκόμενο σκοπό του έργου. Τα ανεπαρκή σύνολα δεδομένων ενδέχεται να μην αντικατοπτρίζουν δίκαια τις ιδιότητες που θα πρέπει να σταθμιστούν για να παραχθεί ένα δικαιολογημένο αποτέλεσμα που να συνάδει με τον επιθυμητό σκοπό του συστήματος AI. Αντίστοιχα, τα μέλη της ομάδας έργου με τεχνικές ικανότητες και ικανότητες πολιτικής θα πρέπει να συνεργάζονται για να καθορίσουν εάν η ποσότητα δεδομένων είναι επαρκής και κατάλληλη για το σκοπό.
  • Ακεραιότητα πηγής και ακρίβεια μέτρησης:Ο αποτελεσματικός μετριασμός της προκατάληψης ξεκινά από την αρχή των διαδικασιών εξαγωγής και συλλογής δεδομένων. Τόσο οι πηγές όσο και τα εργαλεία μέτρησης ενδέχεται να εισάγουν παράγοντες διάκρισης σε ένα σύνολο δεδομένων. Προκειμένου να διασφαλιστεί η μεροληπτική μη βλάβη, το δείγμα δεδομένων πρέπει να έχει τη βέλτιστη ακεραιότητα της πηγής. Αυτό περιλαμβάνει την εξασφάλιση ή την επιβεβαίωση ότι οι διαδικασίες συλλογής δεδομένων περιλάμβαναν κατάλληλες, αξιόπιστες και αμερόληπτες πηγές μέτρησης και αξιόπιστες μεθόδους συλλογής.
  • Επικαιρότητα και Επικαιρότητα: Εάν τα σύνολα δεδομένων περιλαμβάνουν παρωχημένα δεδομένα, τότε οι αλλαγές στην υποκείμενη κατανομή δεδομένων ενδέχεται να επηρεάσουν αρνητικά τη γενίκευση του εκπαιδευμένου μοντέλου. Εφόσον αυτές οι μετατοπίσεις της κατανομής αντικατοπτρίζουν τις μεταβαλλόμενες κοινωνικές σχέσεις ή τη δυναμική της ομάδας, αυτή η απώλεια ακρίβειας σχετικά με τα πραγματικά χαρακτηριστικά του υποκείμενου πληθυσμού μπορεί να εισάγει μεροληψία στο σύστημα AI. Για την αποτροπή μεροληπτικών αποτελεσμάτων, η επικαιρότητα και η πρόσφατη πληρότητα όλων των στοιχείων του συνόλου δεδομένων θα πρέπει να ελέγχονται εξονυχιστικά.
  • Συνάφεια, Καταλληλότητα και Γνώση Τομέα: Η κατανόηση και η χρήση των καταλληλότερων πηγών και τύπων δεδομένων είναι ζωτικής σημασίας για τη δημιουργία ενός ισχυρού και αμερόληπτου συστήματος τεχνητής νοημοσύνης. Η γνώση του συμπαγούς τομέα της υποκείμενης κατανομής του πληθυσμού και του προγνωστικού στόχου του έργου είναι καθοριστικής σημασίας για την επιλογή των βέλτιστων σχετικών εισροών μέτρησης που συμβάλλουν στην λογική ανάλυση της καθορισμένης λύσης. Οι ειδικοί σε τομείς θα πρέπει να συνεργάζονται στενά με ομάδες επιστήμης δεδομένων για να βοηθήσουν στον καθορισμό των βέλτιστων κατάλληλων κατηγοριών και πηγών μέτρησης.

Ενώ τα συστήματα που βασίζονται στην τεχνητή νοημοσύνη βοηθούν στις διαδικασίες αυτοματοποίησης λήψης αποφάσεων και προσφέρουν εξοικονόμηση κόστους, τα χρηματοπιστωτικά ιδρύματα που θεωρούν την τεχνητή νοημοσύνη ως λύση πρέπει να είναι προσεκτικά για να διασφαλίσουν ότι δεν λαμβάνονται μεροληπτικές αποφάσεις. Οι ηγέτες συμμόρφωσης θα πρέπει να βρίσκονται σε δεσμευμένο βήμα με την ομάδα επιστήμης δεδομένων τους για να επιβεβαιώσουν ότι οι δυνατότητες AI είναι υπεύθυνες, αποτελεσματικές και χωρίς προκατάληψη. Η κατοχή μιας στρατηγικής που υπερασπίζεται την υπεύθυνη τεχνητή νοημοσύνη είναι το σωστό και μπορεί επίσης να παρέχει μια διαδρομή για τη συμμόρφωση με τους μελλοντικούς κανονισμούς για την τεχνητή νοημοσύνη.

Ο Danny Butvinik είναι ο επικεφαλής επιστήμονας δεδομένων στο ΩΡΑΙΑ Actimize, παρέχοντας τεχνική και επαγγελματική ηγεσία. Ο Danny είναι ειδικός στην τεχνητή νοημοσύνη και την επιστήμη δεδομένων, έχοντας συγγράψει πολλά επιστημονικά άρθρα και εργασίες. Στον σημερινό του ρόλο, διοικεί μια μεγάλη ομάδα επιστημόνων δεδομένων και συμβάλλει στην ανάπτυξη της καινοτομίας και της πνευματικής ιδιοκτησίας της εταιρείας, με πάνω από 15 χρόνια εμπειρίας έρευνας, ανάπτυξης και διαχείρισης στην επιστήμη δεδομένων και την ανάπτυξη λογισμικού.