στέλεχος Πώς να εκτελέσετε έναν έλεγχο AI το 2023 - Unite.AI
Συνδεθείτε μαζί μας

Τεχνητή νοημοσύνη

Πώς να εκτελέσετε έναν έλεγχο AI το 2023

mm
Ενημερώθηκε on
έλεγχος-αι

Ο έλεγχος AI αναφέρεται στην αξιολόγηση συστημάτων τεχνητής νοημοσύνης για να διασφαλιστεί ότι λειτουργούν όπως αναμένεται χωρίς προκατάληψη ή διάκριση και ευθυγραμμίζονται με τα ηθικά και νομικά πρότυπα. Η τεχνητή νοημοσύνη γνώρισε εκθετική ανάπτυξη την τελευταία δεκαετία. Κατά συνέπεια, οι κίνδυνοι που σχετίζονται με την τεχνητή νοημοσύνη έχουν γίνει ανησυχία για τους οργανισμούς. Όπως είπε ο Έλον Μασκ:

«Η τεχνητή νοημοσύνη είναι μια σπάνια περίπτωση όπου νομίζω ότι πρέπει να είμαστε προνοητικοί όσον αφορά τη ρύθμιση αντί να αντιδρούμε».

Οι οργανισμοί πρέπει να αναπτύξουν στρατηγικές διακυβέρνησης, αξιολόγησης κινδύνου και ελέγχου για τους υπαλλήλους που εργάζονται με τεχνητή νοημοσύνη. Η λογοδοσία της τεχνητής νοημοσύνης γίνεται κρίσιμη στη λήψη αποφάσεων όπου τα διακυβεύματα είναι υψηλά, όπως η ανάπτυξη αστυνόμευσης σε έναν τομέα και όχι στον άλλο, η πρόσληψη και η απόρριψη υποψηφίων.

Αυτό το άρθρο θα παρουσιάσει μια επισκόπηση του ελέγχου τεχνητής νοημοσύνης, πλαισίων και κανονισμών για ελέγχους τεχνητής νοημοσύνης και μια λίστα ελέγχου για τον έλεγχο εφαρμογών τεχνητής νοημοσύνης.

Παράγοντες που πρέπει να ληφθούν υπόψη

  • Συμμόρφωση: Εκτίμηση κινδύνου που σχετίζεται με τη συμμόρφωση ενός συστήματος τεχνητής νοημοσύνης με νομικούς, ρυθμιστικούς, ηθικούς και κοινωνικούς λόγους.
  • Τεχνολογία: Εκτίμηση κινδύνου που σχετίζεται με τεχνικές δυνατότητες, συμπεριλαμβανομένης της μηχανικής εκμάθησης, των προτύπων ασφαλείας και της απόδοσης του μοντέλου.

Προκλήσεις για τον έλεγχο συστημάτων AI

  • Προκατάληψη: Τα συστήματα τεχνητής νοημοσύνης μπορούν να ενισχύσουν τις προκαταλήψεις στα δεδομένα στα οποία εκπαιδεύονται και να λαμβάνουν άδικες αποφάσεις. Αναγνωρίζοντας αυτό το πρόβλημα, ένα ερευνητικό ινστιτούτο ερευνητικών προβλημάτων στο Πανεπιστήμιο του Στάνφορντ, Ανθρωποκεντρική AI (HAI), ξεκίνησε μια Πρόκληση Καινοτομίας 71,000 $ για τον σχεδιασμό καλύτερων ελέγχων AI. Ο στόχος αυτής της πρόκλησης ήταν να απαγορευθούν οι διακρίσεις στα συστήματα τεχνητής νοημοσύνης.
  • Πολυπλοκότητα: Τα συστήματα τεχνητής νοημοσύνης, ειδικά εκείνα που χρησιμοποιούν βαθιά μάθηση, είναι πολύπλοκα και στερούνται ερμηνείας.

Υφιστάμενοι Κανονισμοί & Πλαίσια Ελέγχου AI

Κανονισμοί και τα πλαίσια λειτουργούν ως το βόρειο αστέρι για τον έλεγχο της τεχνητής νοημοσύνης. Μερικά σημαντικά πλαίσια και κανονισμοί ελέγχου συζητούνται παρακάτω.

Ελεγκτικά Πλαίσια

  1. Πλαίσιο COBIT (Στόχοι Ελέγχου για Πληροφορική και σχετική Τεχνολογία): Είναι το πλαίσιο για τη διακυβέρνηση και τη διαχείριση της πληροφορικής μιας επιχείρησης.
  2. Πλαίσιο ελέγχου τεχνητής νοημοσύνης του IIA (Institute of Internal Auditors): Αυτό το πλαίσιο AI στοχεύει στην αξιολόγηση του σχεδιασμού, της ανάπτυξης και της λειτουργίας των συστημάτων AI και της ευθυγράμμισής τους με τους στόχους του οργανισμού. Τρία κύρια στοιχεία του Πλαισίου Ελέγχου AI της IIA είναι η στρατηγική, η διακυβέρνηση και ο ανθρώπινος παράγοντας. Έχει επτά στοιχεία τα οποία είναι τα εξής:
  • Cyber ​​Resilience
  • Ικανότητες AI
  • Ποιότητα δεδομένων
  • Αρχιτεκτονική & Υποδομή Δεδομένων
  • Μέτρηση απόδοσης
  • Ηθική
  • Το Μαύρο Κουτί
  1. Πλαίσιο COSO ERM: Αυτό το πλαίσιο παρέχει ένα πλαίσιο αναφοράς για την αξιολόγηση των κινδύνων για συστήματα τεχνητής νοημοσύνης σε έναν οργανισμό. Έχει πέντε στοιχεία για τον εσωτερικό έλεγχο:
  • Εσωτερικό περιβάλλον: Διασφάλιση ότι η διακυβέρνηση και η διαχείριση του Οργανισμού διαχειρίζονται κινδύνους τεχνητής νοημοσύνης
  • Ρύθμιση στόχου: Συνεργασία με ενδιαφερόμενα μέρη για τη χάραξη στρατηγικής κινδύνου
  • Αναγνώριση συμβάντων: Προσδιορισμός κινδύνων στα συστήματα τεχνητής νοημοσύνης, όπως ακούσιες προκαταλήψεις, παραβίαση δεδομένων
  • Εκτίμηση Κινδύνου: Ποιος θα είναι ο αντίκτυπος του κινδύνου;
  • Απόκριση κινδύνου: Πώς θα ανταποκριθεί ο οργανισμός σε καταστάσεις κινδύνου, όπως η υποβέλτιστη ποιότητα δεδομένων;

Κανονισμοί

Ο Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR) είναι ένας νόμος στον κανονισμό της ΕΕ που θέτει υποχρεώσεις στους οργανισμούς να χρησιμοποιούν προσωπικά δεδομένα. Έχει επτά αρχές:

  • Νομιμότητα, Δικαιοσύνη και Διαφάνεια: Η επεξεργασία προσωπικών δεδομένων πρέπει να συμμορφώνεται με το νόμο
  • Περιορισμός σκοπού: Χρήση δεδομένων μόνο για συγκεκριμένο σκοπό
  • Ελαχιστοποίηση δεδομένων: Τα προσωπικά δεδομένα πρέπει να είναι επαρκή και περιορισμένα
  • Ακρίβεια: Τα δεδομένα πρέπει να είναι ακριβή και ενημερωμένα
  • Περιορισμός αποθήκευσης: Μην αποθηκεύετε προσωπικά δεδομένα που δεν απαιτούνται πλέον
  • Ακεραιότητα και εμπιστευτικότητα: Τα προσωπικά δεδομένα που χρησιμοποιούνται για την ασφαλή επεξεργασία
  • Ευθύνη: Ο υπεύθυνος επεξεργασίας επεξεργάζεται τα δεδομένα με υπευθυνότητα μετά από συμμόρφωση

Άλλοι κανονισμοί περιλαμβάνουν CCPA και ΠΙΠΕΔΑ.

Λίστα ελέγχου για AI Audit

Πηγές Δεδομένων

Ο εντοπισμός και η επαλήθευση των πηγών δεδομένων είναι το κύριο μέλημα κατά τον έλεγχο συστημάτων τεχνητής νοημοσύνης. Οι ελεγκτές ελέγχουν για την ποιότητα των δεδομένων και εάν η εταιρεία μπορεί να χρησιμοποιήσει τα δεδομένα.

Διασταυρωμένη επικύρωση

Η διασφάλιση της κατάλληλης διασταυρούμενης επικύρωσης του μοντέλου είναι μία από τις λίστες ελέγχου των ελεγκτών. Τα δεδομένα επικύρωσης δεν θα πρέπει να χρησιμοποιούνται για εκπαίδευση και οι τεχνικές επικύρωσης θα πρέπει να διασφαλίζουν τη γενίκευση του μοντέλου.

Ασφαλής φιλοξενία

Σε ορισμένες περιπτώσεις, τα συστήματα AI χρησιμοποιούν προσωπικά δεδομένα. Είναι σημαντικό να αξιολογηθεί ότι οι υπηρεσίες φιλοξενίας ή cloud πληρούν τις απαιτήσεις ασφάλειας πληροφοριών, όπως οι οδηγίες του OWASP (Open Web Application Security Project).

Επεξήγηση AI

Επεξήγηση AI αναφέρεται στην ερμηνεία και την κατανόηση των αποφάσεων που λαμβάνονται από το σύστημα AI και των παραγόντων που το επηρεάζουν. Οι ελεγκτές ελέγχουν εάν τα μοντέλα είναι επαρκώς εξηγήσιμα χρησιμοποιώντας τεχνικές όπως το LIME και το SHAP.

Έξοδοι μοντέλων

Η δικαιοσύνη είναι το πρώτο πράγμα που διασφαλίζουν οι ελεγκτές στα αποτελέσματα των μοντέλων. Τα αποτελέσματα του μοντέλου θα πρέπει να παραμένουν συνεπή όταν αλλάζουν μεταβλητές όπως το φύλο, η φυλή ή η θρησκεία. Επιπλέον, αξιολογείται η ποιότητα των προβλέψεων με την κατάλληλη μέθοδο βαθμολόγησης.

Κοινωνική Ανατροφοδότηση

Το AI Auditing είναι μια συνεχής διαδικασία. Μόλις αναπτυχθούν, οι ελεγκτές θα πρέπει να δουν τον κοινωνικό αντίκτυπο του συστήματος AI. Το σύστημα τεχνητής νοημοσύνης και η στρατηγική κινδύνου θα πρέπει να τροποποιηθούν και να ελεγχθούν ανάλογα με βάση την ανατροφοδότηση, τη χρήση, τις συνέπειες και την επιρροή, είτε θετική είτε αρνητική.

Εταιρείες που ελέγχουν αγωγούς και εφαρμογές AI

Πέντε μεγάλες εταιρείες που ελέγχουν την τεχνητή νοημοσύνη είναι οι εξής:

  • Deloitte: Η Deloitte είναι η μεγαλύτερη εταιρεία επαγγελματικών υπηρεσιών στον κόσμο και παρέχει υπηρεσίες που σχετίζονται με τον έλεγχο, τη φορολογία και τις χρηματοοικονομικές συμβουλές. Η Deloitte χρησιμοποιεί RPA, AI και αναλυτικά στοιχεία για να βοηθήσει τους οργανισμούς στην αξιολόγηση κινδύνου των συστημάτων AI τους.
  • PwC: Η PwC είναι το δεύτερο μεγαλύτερο δίκτυο επαγγελματικών υπηρεσιών σε έσοδα. Έχουν αναπτύξει μεθοδολογίες ελέγχου για να βοηθήσουν τους οργανισμούς να εξασφαλίσουν υπευθυνότητα, αξιοπιστία και διαφάνεια.
  • ΕΥ: Το 2022, ΕΥ ανακοίνωσε επένδυση 1 δισεκατομμυρίου δολαρίων σε μια τεχνολογική πλατφόρμα με δυνατότητα AI για την παροχή υπηρεσιών ελέγχου υψηλής ποιότητας. Οι εταιρείες που καθοδηγούνται από την τεχνητή νοημοσύνη είναι καλά ενημερωμένες για τον έλεγχο συστημάτων τεχνητής νοημοσύνης.
  • KPMG: Η KPMG είναι η τέταρτη μεγαλύτερη εταιρεία παροχής λογιστικών υπηρεσιών. Η KPMG παρέχει εξατομικευμένες υπηρεσίες στη διακυβέρνηση της τεχνητής νοημοσύνης, την αξιολόγηση κινδύνου και τους ελέγχους.
  • Grant Thronton: Βοηθούν τους πελάτες να διαχειρίζονται κινδύνους που σχετίζονται με την ανάπτυξη της τεχνητής νοημοσύνης και τη συμμόρφωση με την ηθική και τους κανονισμούς της τεχνητής νοημοσύνης.

Οφέλη από τον έλεγχο συστημάτων AI

  • Διαχείριση Κινδύνων: Ο έλεγχος αποτρέπει ή μετριάζει τους κινδύνους που σχετίζονται με συστήματα τεχνητής νοημοσύνης.
  • Διαφάνεια: Ο έλεγχος διασφαλίζει ότι οι εφαρμογές τεχνητής νοημοσύνης είναι απαλλαγμένες από μεροληψία και διακρίσεις.
  • Συμμόρφωση: Ο έλεγχος των εφαρμογών τεχνητής νοημοσύνης σημαίνει ότι το σύστημα ακολουθεί νομικές και κανονιστικές συμμορφώσεις.

Έλεγχος AI: Τι επιφυλάσσει το μέλλον

Οι οργανισμοί, οι ρυθμιστικές αρχές και οι ελεγκτές θα πρέπει να διατηρούν επαφή με τις εξελίξεις της τεχνητής νοημοσύνης, να συνειδητοποιούν τις πιθανές απειλές της και να αναθεωρούν συχνά τους κανονισμούς, τα πλαίσια και τις στρατηγικές για να διασφαλίζουν δίκαιη, ακίνδυνη και ηθική χρήση.

Το 2021, 193 κράτη μέλη της UNESCO ενέκρινε μια παγκόσμια συμφωνία για την ηθική της τεχνητής νοημοσύνης. Το AI είναι ένα οικοσύστημα που εξελίσσεται συνεχώς.

Θέλετε περισσότερο περιεχόμενο σχετικό με την τεχνητή νοημοσύνη; Επίσκεψη ενω.αι.