στέλεχος Τεχνικοί ηγέτες που επισημαίνουν τους κινδύνους της τεχνητής νοημοσύνης και τον επείγοντα χαρακτήρα του κανονισμού για ισχυρή τεχνητή νοημοσύνη - Unite.AI
Συνδεθείτε μαζί μας

Τεχνητή νοημοσύνη

Τεχνικοί ηγέτες που επισημαίνουν τους κινδύνους της τεχνητής νοημοσύνης και τον επείγοντα χαρακτήρα του κανονισμού για ισχυρή τεχνητή νοημοσύνη

mm

Δημοσιευμένα

 on

Επιλεγμένοι ηγέτες της τεχνολογίας εικόνας ιστολογίου που επισημαίνουν τους κινδύνους της τεχνητής νοημοσύνης και τον επείγοντα χαρακτήρα του κανονισμού για ισχυρή τεχνητή νοημοσύνη

Η ανάπτυξη και οι εξελίξεις της τεχνητής νοημοσύνης ήταν εκθετικές τα τελευταία χρόνια. Αναφέρει ο Statista ότι μέχρι το 2024, η παγκόσμια αγορά τεχνητής νοημοσύνης θα δημιουργήσει εκπληκτικά έσοδα περίπου 3000 δισεκατομμυρίων δολαρίων, σε σύγκριση με 126 δισεκατομμύρια δολάρια το 2015. Ωστόσο, οι ηγέτες της τεχνολογίας μας προειδοποιούν τώρα για τους διάφορους κινδύνους της τεχνητής νοημοσύνης.

Ειδικά, το πρόσφατο κύμα των γενετική AI μοντέλα όπως το ChatGPT έχουν εισαγάγει νέες δυνατότητες σε διάφορους τομείς ευαίσθητους στα δεδομένα, όπως η υγειονομική περίθαλψη, η εκπαίδευση, χρηματοδότηση, κ.λπ. Αυτές οι εξελίξεις που υποστηρίζονται από τεχνητή νοημοσύνη είναι ευάλωτες λόγω πολλών αδυναμιών τεχνητής νοημοσύνης που μπορούν να εκθέσουν οι κακόβουλοι πράκτορες.

Ας συζητήσουμε τι λένε οι ειδικοί της τεχνητής νοημοσύνης για τις πρόσφατες εξελίξεις και ας τονίσουμε τους πιθανούς κινδύνους της τεχνητής νοημοσύνης. Θα αναφερθούμε επίσης εν συντομία στον τρόπο διαχείρισης αυτών των κινδύνων.

Οι ηγέτες τεχνολογίας και οι ανησυχίες τους που σχετίζονται με τους κινδύνους της τεχνητής νοημοσύνης

Τζέφρι Χίντιν

Ο Geoffrey Hinton – ένας διάσημος ηγέτης τεχνολογίας AI (και νονός αυτού του τομέα), ο οποίος εγκατέλειψε πρόσφατα την Google, έχει εξέφρασε τις ανησυχίες του σχετικά με την ταχεία ανάπτυξη της τεχνητής νοημοσύνης και τους πιθανούς κινδύνους της. Ο Hinton πιστεύει ότι τα chatbot AI μπορεί να γίνουν «αρκετά τρομακτικά» εάν ξεπεράσουν την ανθρώπινη νοημοσύνη.

Ο/Η Hinton λέει:

«Αυτή τη στιγμή, αυτό που βλέπουμε είναι πράγματα όπως το GPT-4 επισκιάζει ένα άτομο στο βαθμό των γενικών γνώσεων που έχει, και το επισκιάζει κατά πολύ. Όσον αφορά τη συλλογιστική, δεν είναι τόσο καλό, αλλά κάνει ήδη απλούς συλλογισμούς. Και δεδομένου του ρυθμού προόδου, αναμένουμε ότι τα πράγματα θα βελτιωθούν αρκετά γρήγορα. Πρέπει λοιπόν να ανησυχούμε γι' αυτό».

Επιπλέον, πιστεύει ότι οι «κακοί ηθοποιοί» μπορούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη για «κακά πράγματα», όπως να επιτρέπουν στα ρομπότ να έχουν τους δευτερεύοντες στόχους τους. Παρά τις ανησυχίες του, ο Hinton πιστεύει ότι η τεχνητή νοημοσύνη μπορεί να αποφέρει βραχυπρόθεσμα οφέλη, αλλά θα πρέπει επίσης να επενδύσουμε σε μεγάλο βαθμό στην ασφάλεια και τον έλεγχο της τεχνητής νοημοσύνης.

Elon Musk

Η εμπλοκή του Elon Musk στην τεχνητή νοημοσύνη ξεκίνησε με την πρώιμη επένδυσή του Deepmind το 2010, σε συνίδρυση OpenAI και ενσωμάτωση της τεχνητής νοημοσύνης στα αυτόνομα οχήματα της Tesla.

Αν και είναι ενθουσιώδης με την τεχνητή νοημοσύνη, συχνά εκφράζει ανησυχίες για τους κινδύνους της τεχνητής νοημοσύνης. Ο Μασκ λέει ότι τα ισχυρά συστήματα AI μπορεί να είναι πιο επικίνδυνα για τον πολιτισμό από τα πυρηνικά όπλα. Σε συνέντευξη στο Fox News τον Απρίλιο του 2023 είπε:

«Η τεχνητή νοημοσύνη είναι πιο επικίνδυνη από, για παράδειγμα, κακοδιαχείριση σχεδιασμού ή συντήρησης αεροσκαφών ή κακής παραγωγής αυτοκινήτων. Με την έννοια ότι έχει τη δυνατότητα - ωστόσο, μικρή μπορεί να θεωρήσει κανείς αυτή την πιθανότητα - αλλά δεν είναι ασήμαντο και έχει τη δυνατότητα καταστροφής πολιτισμού».

Επιπλέον, ο Μασκ υποστηρίζει τους κυβερνητικούς κανονισμούς για την τεχνητή νοημοσύνη για να διασφαλίσει την ασφάλεια από πιθανούς κινδύνους, αν και «δεν είναι τόσο διασκεδαστικό».

Παύση Giant AI Experiments: An Open Letter που υποστηρίζεται από 1000 ειδικούς AI

Το Future of Life Institute δημοσίευσε μια ανοιχτή επιστολή στις 22 Μαρτίου 2023. Η επιστολή ζητά προσωρινή εξάμηνη παύση Η ανάπτυξη συστημάτων AI πιο προηγμένη από GPT-4. Οι συγγραφείς εκφράζουν τις ανησυχίες τους σχετικά με τον ρυθμό με τον οποίο αναπτύσσονται τα συστήματα τεχνητής νοημοσύνης θέτει σοβαρές κοινωνικοοικονομικές προκλήσεις.

Επιπλέον, η επιστολή αναφέρει ότι οι προγραμματιστές τεχνητής νοημοσύνης θα πρέπει να συνεργαστούν με τους υπεύθυνους χάραξης πολιτικής για την τεκμηρίωση των συστημάτων διακυβέρνησης AI. Από τον Ιούνιο του 2023, η επιστολή έχει υπογραφεί από περισσότερους από 31,000 προγραμματιστές τεχνητής νοημοσύνης, ειδικούς και ηγέτες τεχνολογίας. Αξιοσημείωτοι υπογράφοντες είναι ο Elon Musk, ο Steve Wozniak (Συνιδρυτής της Apple), ο Emad Mostaque (CEO, Stability AI), ο Yoshua Bengio (νικητής του βραβείου Turing) και πολλοί άλλοι.

Αντιεπιχειρήματα σχετικά με την αναχαίτιση της ανάπτυξης AI

Δύο εξέχοντες ηγέτες AI, Andrew Ng και Yann LeCun, αντιτάχθηκαν στην εξάμηνη απαγόρευση ανάπτυξης προηγμένων συστημάτων τεχνητής νοημοσύνης και θεώρησαν την παύση κακή ιδέα.

Ο Ng λέει ότι παρόλο που η τεχνητή νοημοσύνη έχει κάποιους κινδύνους, όπως μεροληψία, συγκέντρωση ισχύος κ.λπ. Όμως η αξία που δημιουργεί η τεχνητή νοημοσύνη σε τομείς όπως η εκπαίδευση, η υγειονομική περίθαλψη και η ανταποκρινόμενη καθοδήγηση είναι τεράστια.

Ο Yann LeCun λέει ότι η έρευνα και η ανάπτυξη δεν πρέπει να σταματήσουν, αν και τα προϊόντα τεχνητής νοημοσύνης που φτάνουν στον τελικό χρήστη μπορούν να ρυθμιστούν.

Ποιοι είναι οι πιθανοί κίνδυνοι και οι άμεσοι κίνδυνοι της τεχνητής νοημοσύνης;

Πιθανοί κίνδυνοι & άμεσοι κίνδυνοι AI

1. Μετατόπιση εργασίας

Οι ειδικοί της τεχνητής νοημοσύνης πιστεύουν ότι τα ευφυή συστήματα τεχνητής νοημοσύνης μπορούν να αντικαταστήσουν τις γνωστικές και δημιουργικές εργασίες. Η επενδυτική τράπεζα Goldman Sachs εκτιμά ότι περίπου 300 εκατομμύρια θέσεις εργασίας θα αυτοματοποιηθεί από το Generative AI.

Ως εκ τούτου, θα πρέπει να υπάρχουν κανονισμοί για την ανάπτυξη της τεχνητής νοημοσύνης, ώστε να μην προκαλεί σοβαρή οικονομική ύφεση. Θα πρέπει να υπάρχουν εκπαιδευτικά προγράμματα για την αναβάθμιση και την επανεκπαίδευση των εργαζομένων για την αντιμετώπιση αυτής της πρόκλησης.

2. Μεροληπτικά συστήματα AI

Υποτροπές που επικρατεί μεταξύ των ανθρώπων σχετικά με το φύλο, τη φυλή ή το χρώμα μπορεί να διαπεράσει ακούσια τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση συστημάτων τεχνητής νοημοσύνης, καθιστώντας στη συνέχεια τα συστήματα τεχνητής νοημοσύνης μεροληπτικά.

Για παράδειγμα, στο πλαίσιο της πρόσληψης θέσεων εργασίας, ένα προκατειλημμένο σύστημα τεχνητής νοημοσύνης μπορεί να απορρίψει βιογραφικά ατόμων από συγκεκριμένο εθνοτικό υπόβαθρο, δημιουργώντας διακρίσεις στην αγορά εργασίας. Σε επιβολή του νόμου, η μεροληπτική προγνωστική αστυνόμευση θα μπορούσε να στοχεύσει δυσανάλογα συγκεκριμένες γειτονιές ή δημογραφικές ομάδες.

Ως εκ τούτου, είναι απαραίτητο να υπάρχει μια ολοκληρωμένη στρατηγική δεδομένων που αντιμετωπίζει τους κινδύνους της τεχνητής νοημοσύνης, ιδιαίτερα την προκατάληψη. Τα συστήματα τεχνητής νοημοσύνης πρέπει να αξιολογούνται συχνά και να ελέγχονται για να διατηρούνται δίκαια.

3. Εφαρμογές τεχνητής νοημοσύνης κρίσιμες για την ασφάλεια

Τα αυτόνομα οχήματα, η ιατρική διάγνωση και θεραπεία, τα αεροπορικά συστήματα, ο έλεγχος πυρηνικών σταθμών ηλεκτροπαραγωγής κ.λπ., είναι όλα παραδείγματα κρίσιμων για την ασφάλεια εφαρμογών τεχνητής νοημοσύνης. Αυτά τα συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτύσσονται με προσοχή γιατί ακόμη και μικρά σφάλματα θα μπορούσαν να έχουν σοβαρές συνέπειες για την ανθρώπινη ζωή ή το περιβάλλον.

Για παράδειγμα, η δυσλειτουργία του λογισμικού AI ονομάζεται Σύστημα αύξησης χαρακτηριστικών ελιγμών (MCAS) αποδίδεται εν μέρει στη συντριβή των δύο Boeing 737 MAX, αρχικά τον Οκτώβριο του 2018 και στη συνέχεια τον Μάρτιο του 2019. Δυστυχώς, τα δύο δυστυχήματα σκότωσαν 346 άτομα.

Πώς μπορούμε να ξεπεράσουμε τους κινδύνους των συστημάτων AI; – Υπεύθυνη Ανάπτυξη AI & Κανονιστική Συμμόρφωση

Υπεύθυνη Ανάπτυξη AI & Κανονιστική Συμμόρφωση

Υπεύθυνη AI (RAI) σημαίνει ανάπτυξη και ανάπτυξη δίκαιων, υπεύθυνων, διαφανών και ασφαλών συστημάτων AI που διασφαλίζουν το απόρρητο και ακολουθούν νομικούς κανονισμούς και κοινωνικούς κανόνες. Η εφαρμογή του RAI μπορεί να είναι περίπλοκη δεδομένης της ευρείας και ταχείας ανάπτυξης των συστημάτων τεχνητής νοημοσύνης.

Ωστόσο, μεγάλες εταιρείες τεχνολογίας έχουν αναπτύξει πλαίσια RAI, όπως:

  1. Το Υπεύθυνο AI της Microsoft
  2. Αρχές τεχνητής νοημοσύνης της Google
  3. IBM'S Trusted AI

Τα εργαστήρια τεχνητής νοημοσύνης σε όλο τον κόσμο μπορούν να αντλήσουν έμπνευση από αυτές τις αρχές ή να αναπτύξουν τα δικά τους υπεύθυνα πλαίσια τεχνητής νοημοσύνης για να δημιουργήσουν αξιόπιστα συστήματα τεχνητής νοημοσύνης.

Κανονιστική Συμμόρφωση AI

Δεδομένου ότι τα δεδομένα αποτελούν αναπόσπαστο στοιχείο των συστημάτων τεχνητής νοημοσύνης, οι οργανισμοί και τα εργαστήρια που βασίζονται σε τεχνητή νοημοσύνη πρέπει να συμμορφώνονται με τους ακόλουθους κανονισμούς για να διασφαλίσουν την ασφάλεια, το απόρρητο και την ασφάλεια των δεδομένων.

  1. GDPR (Γενικός Κανονισμός Προστασίας Δεδομένων) – πλαίσιο προστασίας δεδομένων από την ΕΕ.
  2. CCPA (California Consumer Privacy Act) – καταστατικό της πολιτείας της Καλιφόρνια για τα δικαιώματα της ιδιωτικής ζωής και την προστασία των καταναλωτών.
  3. HIPAA (Health Insurance Portability and Accountability Act) – μια νομοθεσία των ΗΠΑ που προστατεύει τα ιατρικά δεδομένα των ασθενών.   
  4. Νόμος για την τεχνητή νοημοσύνη της ΕΕ, να Οδηγίες δεοντολογίας για αξιόπιστη τεχνητή νοημοσύνη – κανονισμός τεχνητής νοημοσύνης της Ευρωπαϊκής Επιτροπής.

Υπάρχουν διάφοροι περιφερειακοί και τοπικοί νόμοι που θεσπίζονται από διαφορετικές χώρες για την προστασία των πολιτών τους. Οι οργανισμοί που αποτυγχάνουν να διασφαλίσουν τη συμμόρφωση με τους κανονισμούς σχετικά με τα δεδομένα μπορεί να επιφέρουν αυστηρές κυρώσεις. Για παράδειγμα, ο GDPR έχει ορίσει πρόστιμο ύψους €20 εκατ. ή 4% των ετήσιων κερδών για σοβαρές παραβιάσεις όπως η παράνομη επεξεργασία δεδομένων, η μη αποδεδειγμένη συγκατάθεση δεδομένων, η παραβίαση των δικαιωμάτων των υποκειμένων των δεδομένων ή η μη προστατευμένη μεταφορά δεδομένων σε διεθνή οντότητα.

Ανάπτυξη & Κανονισμοί AI – Παρόν & Μέλλον

Κάθε μήνας που περνά, οι εξελίξεις της τεχνητής νοημοσύνης φτάνουν σε πρωτοφανή ύψη. Ωστόσο, οι κανονισμοί και τα πλαίσια διακυβέρνησης που συνοδεύουν την τεχνητή νοημοσύνη υστερούν. Πρέπει να είναι πιο στιβαρά και συγκεκριμένα.

Οι ηγέτες της τεχνολογίας και οι προγραμματιστές τεχνητής νοημοσύνης κρούουν συναγερμό σχετικά με τους κινδύνους της τεχνητής νοημοσύνης εάν δεν ρυθμιστούν επαρκώς. Η έρευνα και η ανάπτυξη στην τεχνητή νοημοσύνη μπορεί να φέρει περαιτέρω αξία σε πολλούς τομείς, αλλά είναι σαφές ότι η προσεκτική ρύθμιση είναι πλέον επιτακτική.

Για περισσότερο περιεχόμενο που σχετίζεται με την τεχνητή νοημοσύνη, επισκεφθείτε ενω.αι.