στέλεχος Προκατάληψη AI & Πολιτιστικά Στερεότυπα: Επιπτώσεις, Περιορισμοί & Μετριασμός - Unite.AI
Συνδεθείτε μαζί μας

Τεχνητή νοημοσύνη

Προκατάληψη AI & Πολιτισμικά Στερεότυπα: Επιπτώσεις, Περιορισμοί και Μετριασμός

mm

Δημοσιευμένα

 on

Προκατάληψη AI & Πολιτισμικά Στερεότυπα: Επιπτώσεις, Περιορισμοί και Μετριασμός

Τεχνητή Νοημοσύνη (AI), ιδιαίτερα Παραγωγική τεχνητή νοημοσύνη, συνεχίζει να ξεπερνά τις προσδοκίες με την ικανότητά του να κατανοεί και να μιμείται την ανθρώπινη γνώση και νοημοσύνη. Ωστόσο, σε πολλές περιπτώσεις, τα αποτελέσματα ή οι προβλέψεις των συστημάτων τεχνητής νοημοσύνης μπορεί να αντικατοπτρίζουν διάφορους τύπους προκατάληψης τεχνητής νοημοσύνης, όπως πολιτιστική και φυλετική.

Buzzfeed's "Μπάρμπι του ΚόσμουΤο ιστολόγιο (το οποίο τώρα έχει διαγραφεί) δείχνει ξεκάθαρα αυτές τις πολιτισμικές προκαταλήψεις και ανακρίβειες. Αυτές οι «μπάρμπι» δημιουργήθηκαν χρησιμοποιώντας Μεσοταξίδι – μια κορυφαία συσκευή δημιουργίας εικόνων AI, για να μάθετε πώς θα έμοιαζαν οι barbies σε κάθε μέρος του κόσμου. Θα μιλήσουμε περισσότερα για αυτό αργότερα.

Αλλά αυτή δεν είναι η πρώτη φορά που η τεχνητή νοημοσύνη είναι «ρατσιστική» ή παράγει ανακριβή αποτελέσματα. Για παράδειγμα, το 2022, η Apple ήταν μήνυσε σχετικά με τους ισχυρισμούς ότι ο αισθητήρας οξυγόνου αίματος του Apple Watch ήταν προκατειλημμένος εναντίον έγχρωμων ανθρώπων. Σε μια άλλη αναφερόμενη περίπτωση, οι χρήστες του Twitter διαπίστωσαν ότι Η αυτόματη περικοπή εικόνων AI του Twitter ευνοούσε τα πρόσωπα των λευκών έναντι των μαύρων και των γυναικών έναντι των ανδρών. Αυτές είναι κρίσιμες προκλήσεις και η αντιμετώπισή τους είναι πολύ δύσκολη.

Σε αυτό το άρθρο, θα εξετάσουμε τι είναι η προκατάληψη AI, πώς επηρεάζει την κοινωνία μας και θα συζητήσουμε εν συντομία πώς μπορούν οι επαγγελματίες να μετριάζω για την αντιμετώπιση προκλήσεων όπως τα πολιτιστικά στερεότυπα.

Τι είναι το AI Bias;

Η προκατάληψη της τεχνητής νοημοσύνης εμφανίζεται όταν τα μοντέλα τεχνητής νοημοσύνης παράγουν μεροληπτικά αποτελέσματα έναντι ορισμένων δημογραφικών στοιχείων. Διάφοροι τύποι προκαταλήψεων μπορούν να εισέλθουν σε συστήματα τεχνητής νοημοσύνης και να παράγουν εσφαλμένα αποτελέσματα. Μερικές από αυτές τις προκαταλήψεις AI είναι:

  • Στερεοτυπική προκατάληψη: Η στερεοτυπική μεροληψία αναφέρεται στο φαινόμενο όπου τα αποτελέσματα ενός μοντέλου τεχνητής νοημοσύνης αποτελούνται από στερεότυπα ή αντιληπτές αντιλήψεις για ένα συγκεκριμένο δημογραφικό στοιχείο.
  • Φυλετική προκατάληψη: Η φυλετική προκατάληψη στην τεχνητή νοημοσύνη συμβαίνει όταν το αποτέλεσμα ενός μοντέλου τεχνητής νοημοσύνης εισάγει διακρίσεις και είναι άδικο για ένα άτομο ή μια ομάδα με βάση την εθνικότητα ή τη φυλή τους.
  • Πολιτιστική προκατάληψη: Η πολιτιστική προκατάληψη μπαίνει στο παιχνίδι όταν τα αποτελέσματα ενός μοντέλου AI ευνοούν μια συγκεκριμένη κουλτούρα έναντι μιας άλλης.

Εκτός από προκαταλήψεις, άλλα ζητήματα μπορούν επίσης να εμποδίσουν τα αποτελέσματα ενός συστήματος AI, όπως:

  • Ανακρίβειες: Ανακρίβειες συμβαίνουν όταν τα αποτελέσματα που παράγονται από ένα μοντέλο τεχνητής νοημοσύνης είναι εσφαλμένα λόγω ασυνεπών δεδομένων εκπαίδευσης.
  • Παραισθήσεις: Οι ψευδαισθήσεις συμβαίνουν όταν τα μοντέλα AI παράγουν φανταστικά και ψευδή αποτελέσματα που δεν βασίζονται σε πραγματικά δεδομένα.

Ο αντίκτυπος της προκατάληψης της AI στην κοινωνία

Ο αντίκτυπος της προκατάληψης της τεχνητής νοημοσύνης στην κοινωνία μπορεί να είναι επιζήμιος. Τα προκατειλημμένα συστήματα τεχνητής νοημοσύνης μπορούν να παράγουν ανακριβή αποτελέσματα που ενισχύουν την προκατάληψη που υπάρχει ήδη στην κοινωνία. Αυτά τα αποτελέσματα μπορούν να αυξήσουν τις διακρίσεις και τις παραβιάσεις δικαιωμάτων, να επηρεάσουν τις διαδικασίες πρόσληψης και να μειώσουν την εμπιστοσύνη στην τεχνολογία AI.

Επίσης, τα προκατειλημμένα αποτελέσματα AI συχνά οδηγούν σε ανακριβείς προβλέψεις που μπορεί να έχουν σοβαρές συνέπειες για αθώα άτομα. Για παράδειγμα, τον Αύγουστο του 2020, Ρόμπερτ ΜακΝτάνιελ έγινε στόχος εγκληματικής πράξης λόγω του αλγόριθμου προγνωστικής αστυνόμευσης του Αστυνομικού Τμήματος του Σικάγο που τον χαρακτηρίζει ως «άτομο ενδιαφέροντος».

Ομοίως, τα προκατειλημμένα συστήματα τεχνητής νοημοσύνης υγειονομικής περίθαλψης μπορούν να έχουν οξείες εκβάσεις στους ασθενείς. Το 2019, Επιστήμη ανακάλυψε ότι ένα ευρέως χρησιμοποιούμενο Ιατρικός αλγόριθμος των ΗΠΑ ήταν φυλετικά προκατειλημμένος ενάντια στους έγχρωμους, γεγονός που οδήγησε τους μαύρους ασθενείς να λαμβάνουν λιγότερο υψηλού κινδύνου διαχείριση φροντίδας.

Μπάρμπι του Κόσμου

Τον Ιούλιο του 2023, Το Buzzfeed δημοσίευσε ένα ιστολόγιο που περιλαμβάνει 194 barbies που δημιουργήθηκαν από AI από όλο τον κόσμο. Η ανάρτηση έγινε viral στο Twitter. Αν και το Buzzfeed έγραψε μια δήλωση αποποίησης ευθύνης, δεν εμπόδισε τους χρήστες του Διαδικτύου να επισημάνουν τις φυλετικές και πολιτισμικές ανακρίβειες. Για παράδειγμα, η εικόνα της Γερμανίδας Barbie που δημιουργήθηκε από την τεχνητή νοημοσύνη φορούσε τη στολή του α SS Ναζί γενικά.

Barbies of the World-εικόνα5

Ομοίως, η εικόνα μιας Barbie του Νοτίου Σουδάν που δημιουργήθηκε από την τεχνητή νοημοσύνη εμφανίστηκε να κρατά ένα όπλο στο πλευρό της, αντανακλώντας τη βαθιά ριζωμένη προκατάληψη στους αλγόριθμους τεχνητής νοημοσύνης.

Barbies of the World-εικόνα4

Εκτός από αυτό, αρκετές άλλες εικόνες έδειχναν πολιτιστικές ανακρίβειες, όπως η Barbie του Κατάρ να φοράει ένα Γκούτρα, μια παραδοσιακή κόμμωση που φορούσαν Άραβες άνδρες.

Barbies of the World-εικόνα3

Αυτή η ανάρτηση ιστολογίου έλαβε μια τεράστια αντίδραση για πολιτιστικά στερεότυπα και μεροληψία. ο Διεπιστημονικό Σχολείο Λονδίνου (LIS) το ονόμασε αυτό αντιπροσωπευτική βλάβη που πρέπει να ελέγχεται με την επιβολή προτύπων ποιότητας και τη σύσταση φορέων εποπτείας της τεχνητής νοημοσύνης.

Περιορισμοί μοντέλων AI

Η τεχνητή νοημοσύνη έχει τη δυνατότητα να φέρει επανάσταση σε πολλούς κλάδους. Όμως, εάν πολλαπλασιαστούν σενάρια όπως αυτά που αναφέρθηκαν παραπάνω, μπορεί να οδηγήσει σε πτώση της γενικής υιοθέτησης της τεχνητής νοημοσύνης, με αποτέλεσμα χαμένες ευκαιρίες. Τέτοιες περιπτώσεις συμβαίνουν συνήθως λόγω σημαντικών περιορισμών στα συστήματα τεχνητής νοημοσύνης, όπως:

  • Έλλειψη δημιουργικότητας: Δεδομένου ότι η τεχνητή νοημοσύνη μπορεί να λαμβάνει αποφάσεις μόνο με βάση τα δεδομένα εκπαίδευσης, δεν έχει τη δημιουργικότητα να σκέφτεται έξω από το πλαίσιο, κάτι που εμποδίζει τη δημιουργική επίλυση προβλημάτων.
  • Έλλειψη κατανόησης των συμφραζομένων: Τα συστήματα τεχνητής νοημοσύνης αντιμετωπίζουν δυσκολία στην κατανόηση των συμφραζόμενων αποχρώσεων ή των γλωσσικών εκφράσεων μιας περιοχής, κάτι που συχνά οδηγεί σε σφάλματα στα αποτελέσματα.
  • Προπόνηση προπόνησης: Η τεχνητή νοημοσύνη βασίζεται σε ιστορικά δεδομένα που μπορούν να περιέχουν κάθε είδους δείγματα που προκαλούν διακρίσεις. Κατά τη διάρκεια της εκπαίδευσης, το μοντέλο μπορεί εύκολα να μάθει μοτίβα που εισάγουν διακρίσεις για να παράγει άδικα και μεροληπτικά αποτελέσματα.

Πώς να μειώσετε την προκατάληψη σε μοντέλα AI

Γνωρίστε τους experts εκτίμηση ότι μέχρι το 2026, το 90% του διαδικτυακού περιεχομένου θα μπορούσε να δημιουργηθεί συνθετικά. Ως εκ τούτου, είναι ζωτικής σημασίας η ταχεία ελαχιστοποίηση των προβλημάτων που υπάρχουν στις τεχνολογίες Generative AI.

Μπορούν να εφαρμοστούν πολλές βασικές στρατηγικές για τη μείωση της προκατάληψης σε μοντέλα τεχνητής νοημοσύνης. Μερικά από αυτά είναι:

  • Εξασφάλιση ποιότητας δεδομένων: Η πρόσληψη πλήρων, ακριβών και καθαρών δεδομένων σε ένα μοντέλο τεχνητής νοημοσύνης μπορεί να βοηθήσει στη μείωση της προκατάληψης και στην παραγωγή πιο ακριβών αποτελεσμάτων.
  • Διαφορετικά σύνολα δεδομένων: Η εισαγωγή διαφορετικών συνόλων δεδομένων σε ένα σύστημα τεχνητής νοημοσύνης μπορεί να βοηθήσει στον μετριασμό της προκατάληψης καθώς το σύστημα τεχνητής νοημοσύνης γίνεται πιο περιεκτικό με την πάροδο του χρόνου.
  • Αυξημένοι Κανονισμοί: Οι παγκόσμιοι κανονισμοί τεχνητής νοημοσύνης είναι ζωτικής σημασίας για τη διατήρηση της ποιότητας των συστημάτων τεχνητής νοημοσύνης διασυνοριακά. Ως εκ τούτου, οι διεθνείς οργανισμοί πρέπει να συνεργαστούν για να εξασφαλίσουν την τυποποίηση της τεχνητής νοημοσύνης.
  • Αυξημένη υιοθέτηση υπεύθυνης τεχνητής νοημοσύνης: Οι υπεύθυνες στρατηγικές τεχνητής νοημοσύνης συμβάλλουν θετικά στον μετριασμό της προκατάληψης της τεχνητής νοημοσύνης, στην καλλιέργεια της δικαιοσύνης και της ακρίβειας στα συστήματα τεχνητής νοημοσύνης και διασφαλίζοντας ότι εξυπηρετούν μια διαφορετική βάση χρηστών ενώ προσπαθούν για συνεχή βελτίωση.

Ενσωματώνοντας διαφορετικά σύνολα δεδομένων, ηθική ευθύνη και ανοιχτά μέσα επικοινωνίας, μπορούμε να διασφαλίσουμε ότι η τεχνητή νοημοσύνη αποτελεί πηγή θετικών αλλαγών παγκοσμίως.

Αν θέλετε να μάθετε περισσότερα για την προκατάληψη και τον ρόλο της Τεχνητής Νοημοσύνης στην κοινωνία μας, διαβάστε τα παρακάτω ιστολόγια.