Connect with us

Οι περισσότεροι τεχνολογικοί διευθυντές στις ΗΠΑ θέλουν κανονισμό για την τεχνητή νοημοσύνη, αλλά ποιος πρέπει να το ηγηθεί;

Ρύθμιση

Οι περισσότεροι τεχνολογικοί διευθυντές στις ΗΠΑ θέλουν κανονισμό για την τεχνητή νοημοσύνη, αλλά ποιος πρέπει να το ηγηθεί;

mm

Όπως η δεκαετία του 1990 είχε την εμπορευματοποίηση του Διαδικτύου, η δεκαετία του 2000 το smartphone και η δεκαετία του 2010 την άνοδο των μέσων κοινωνικής δικτύωσης, η δεκαετία του 2020 ανήκει στην τεχνητή νοημοσύνη. Όπως και αυτές οι προηγούμενες τεχνολογικές επαναστάσεις, η τεχνητή νοημοσύνη φαίνεται να επεκτείνεται πιο γρήγορα από ό,τι οι ρυθμιστές και οι νομοθέτες μπορούν να τη跟ουν.

Η φούσκα dotcom εξερράγη το 1993 με την εκτόξευση του περιεκτικού πλοηγού Mosaic, και δεν ήταν μέχρι το 1996 που το Κογκρέσο των ΗΠΑ ψήφισε τον Νόμο Τηλεπικοινωνιών, τον πρώτο που αναφέρθηκε ρητά στο Διαδίκτυο. Παρόμοια, η Apple παρουσίασε το iPhone το 2007, αν και οι νομοθέτες ψήφισαν τον Νόμο Προσβασιμότητας Επικοινωνιών και Βίντεο του 21ου Αιώνα το 2010, απαιτώντας από όλα τα smartphones να περιλαμβάνουν χαρακτηριστικά προσβασιμότητας.

Και αν και η «δεκαετία των μέσων κοινωνικής δικτύωσης» του 2010 saw την ίδρυση και επέκταση πλατφορμών όπως το Facebook, το WhatsApp, το YouTube και το Instagram, δεν ήταν μέχρι το δεύτερο μισό της δεκαετίας που ο νόμος FOSTA-SESTA εγκρίθηκε, καθιστώντας τις πλατφόρμες υπεύθυνες για τη σκόπιμη διευκόλυνση της εμπορίας ανθρώπων. Θα επαναληφθεί η ιστορία με την τεχνητή νοημοσύνη;

Ενώ η τεχνητή νοημοσύνη έγινε mainstream μετά την κυκλοφορία του OpenAI’s ChatGPT το 2022, η χώρα προέλευσης του εργαλείου δεν έχει ακόμη ψηφίσει ομοσπονδιακή νομοθεσία για τη ρύθμιση της. Οι ΗΠΑ, αντίθετα, έχουν αλλάξει τη στάση τους – από περιοριστική σε απελευθερωτική – καθώς έχουν αλλάξει οι διοικήσεις.

Η τεχνητή νοημοσύνη στις ΗΠΑ: Ένα διπαρτιτικό ζήτημα

Ο πρόεδρος Τζο Μπάιντεν Ασφαλής, Ασφαλής και Αξιόπιστος Νόμος απαιτούσε από τις ομοσπονδιακές υπηρεσίες το 2023 να λάβουν μέτρα προς την ασφάλεια της τεχνητής νοημοσύνης, τα πολιτικά δικαιώματα, την ισότητα και τη διαφάνεια. «Η αξιοποίηση της τεχνητής νοημοσύνης για το καλό και η εκπλήρωση των πολυάριθμων οφελών της απαιτεί την μείωση των σημαντικών κινδύνων της», διαβάστε.

Τον Ιανουάριο του 2025, ωστόσο, ο πρόεδρος Ντόναλντ Τραμπ υπέγραψε τον Νόμο για την Αφαίρεση Εμποδίων στην Αμερικανική Ηγεσία στην Τεχνητή Νοημοσύνη, ανακαλώντας τις υφιστάμενες πολιτικές και οδηγίες της τεχνητής νοημοσύνης «που λειτουργούν ως εμπόδια στην αμερικανική καινοτομία της τεχνητής νοημοσύνης, ανοίγοντας τον δρόμο για τις Ηνωμένες Πολιτείες να ενεργήσουν αποφασιστικά για να διατηρήσουν την παγκόσμια ηγεσία στην τεχνητή νοημοσύνη.»

Η τρέχουσα διοίκηση, λοιπόν, επιδιώκει να επιταχύνει την καινοτομία της τεχνητής νοημοσύνης στις ΗΠΑ μέσω των προσπαθειών απελευθέρωσης, αντίστοιχα με τους potεντικούς κινδύνους μέσω επένδυσης στην έρευνα και ανάπτυξη. Το ερώτημα παραμένει, ωστόσο, αν είναι η κυβέρνηση που πρέπει να διευθετήσει αυτές τις ανησυχίες.

Σήμερα, υπάρχουν σχεδόν παγκόσμιες αγωνίες για τους κινδύνους της τεχνητής νοημοσύνης, συμπεριλαμβανομένων της ηθικής, της διατάραξης και της εμπιστοσύνης. Μια μελέτη του 2024 για τις ανησυχίες των πολλαπλών ενδιαφερόμενων μερών που προκύπτουν από την τεχνητή νοημοσύνη, στην πραγματικότητα, βρήκε ότι οι πιο επείγουσες ανησυχίες περιλαμβάνουν την προκατάληψη, την κακοποίηση, την απροσδόκητη δράση της μηχανής, την ανισότητα, την κοινωνική αγωνία και τις αλλαγές στις αλυσίδες εφοδιασμού, για να αναφέρουμε quelques.

Οι περισσότεροι τεχνολογικοί διευθυντές στις ΗΠΑ συμφωνούν, αλλά υπογραμμίζουν το παράδοξο. Μια μελέτη του Solvd, μιας εταιρείας συμβούλων και ψηφιακής μηχανικής, κατέληξε στο συμπέρασμα ότι mặc dù το 97% των απαντώντων Chief Information Officers (CIOs) και Chief Technology Officers (CTOs) είναι κάπως ανήσυχοι για τη μη ηθική χρήση της τεχνητής νοημοσύνης, το 87% πιστεύει ότι ο过度 κανονισμός της τεχνητής νοημοσύνης μπορεί να περιορίσει την καινοτομία και να γίνει ανταγωνιστικό μειονέκτημα.

Οι principales ανησυχίες αυτών των ηγετών αντανακλούν εκείνες που αναφέρθηκαν από τη μελέτη του 2024: τα μοντέλα της τεχνητής νοημοσύνης γίνονται τόσο ισχυρά που δεν μπορούν να ελεγχθούν, οι κακόβουλοι παράγοντες μπορεί να εκμεταλλευτούν τις ευπαθειές της τεχνητής νοημοσύνης, τα μοντέλα της τεχνητής νοημοσύνης αποκτούν πολύ πρόσβαση στα δεδομένα της εταιρείας και η παραπληροφόρηση ή η προκατάληψη που μπορεί να προκαλέσει η τεχνολογία.

Μεταξύ των 500 Αμερικανών CIOs και CTOs σε εταιρείες που κάνουν πάνω από 500 εκατομμύρια δολάρια σε ARR που έρευνασε το Solvd, το 61% προτίμησε τη δημόσια ρύθμιση, ενώ το 36% ευνοούσε τη ρύθμιση που ηγείται από την βιομηχανία.

Η ρύθμιση που ηγείται από την βιομηχανία μπορεί να σημαίνει ένα μεικτό μοντέλο, που απομακρύνεται από τη δημόσια-ιδιωτική dicotomia. Η διοίκηση Μπάιντεν, στην πραγματικότητα, διαπραγματεύτηκε μια συμφωνία με τους κορυφαίους τεχνολογικούς διευθυντές το 2023 που περιέγραφε τις εθελοντικές δεσμεύσεις σχετικά με τις προστατευτικές μεζονέτες της τεχνητής νοημοσύνης. Τέτοιες δεσμεύσεις περιελάμβαναν την εγγύηση ότι τα προϊόντα ήταν ασφαλή πριν από την κυκλοφορία τους, την κατασκευή συστημάτων που έβαζαν την ασφάλεια πρώτα, και την κέρδη της εμπιστοσύνης του κοινού μέσω της διαφάνειας και της αποκάλυψης των δυνατοτήτων, των περιορισμών και των περιοχών της σωστής και της λανθασμένης χρήσης των συστημάτων της τεχνητής νοημοσύνης.

Μια Παγκόσμια Συζήτηση

Παρά την απόκλιση στις προτιμήσεις των διευθυντών εταιρειών για δημόσιους ή βιομηχανικούς κανονισμούς, το γεγονός παραμένει ότι το 82% από αυτούς είναι κυρίως υπεύθυνοι για την ηγεσία της εσωτερικής διακυβέρνησης της τεχνητής νοημοσύνης, σύμφωνα με το Solvd. Μόνο το 8% των απαντώντων ανέφερε την ανώτατη διοίκηση για την εσωτερική ρύθμιση της τεχνητής νοημοσύνης, και το 5% είπε ότι οι εταιρείες τους είχαν μια αφιερωμένη επιτροπή ηθικής ή συμμόρφωσης.

Οι επιχειρήσεις – και οι εργαζόμενοι τους – είναι επομένως παγιδευμένες μεταξύ της αναμονής για μια δημόσια πολιτική που μπορεί ή δεν μπορεί να έρθει, και της ενέργειας κυρίως ανεξάρτητα από την ανώτατη διοίκηση και τις ομάδες που εκπαιδεύονται στην ηθική της τεχνητής νοημοσύνης.

Διάφορες περιπτώσεις έχουν βρει διαφορετικές λύσεις σε αυτήν την复雑. Η Ευρωπαϊκή Ένωση (ΕΕ), για παράδειγμα, αντιδιαστέλλει την απελευθερωτική προσέγγιση της διοίκησης Τραμπ μέσω του Νόμου της ΕΕ για την Τεχνητή Νοημοσύνη, τον πρώτο ολοκληρωμένο νόμο για την τεχνητή νοημοσύνη. Ψηφίστηκε τον Μάρτιο του 2024, ο Νόμος απαγόρευσε ορισμένες εφαρμογές της τεχνητής νοημοσύνης, καθιέρωσε ένα πλαίσιο αξιολόγησης με βάση τον κίνδυνο και απαιτούσε νομικά τη διαφάνεια και την επικοινωνία με τους χρήστες.

Άλλοι ακολουθούν το παράδειγμα της ΕΕ. Η Χιλή, η ηγέτης της τεχνητής νοημοσύνης στη Νότια Αμερική, πρόσφατα πρότεινε einen νόμο για τη ρύθμιση της τεχνητής νοημοσύνης, εμπνευσμένο από τον Νόμο της ΕΕ για την Τεχνητή Νοημοσύνη. Η Κίνα, από την άλλη πλευρά, παρακάμπτει αυτά τα εμπόδια, поскольку το πολιτικό της σύστημα ευνοεί τη ρύθμιση, τις επιδοτήσεις και τις συνεργασίες με ιδιωτικές εταιρείες της τεχνητής νοημοσύνης. Οι προκλήσεις της χώρας προέρχονται λιγότερο από τη ρυθμιστική dicotomia και περισσότερο από τους κινδύνους της λογοκρισίας και της κρατικής παρέμβασης στην καινοτομία.

Αλλά οι ΗΠΑ, ως παγκόσμιος ηγέτης της τεχνητής νοημοσύνης, είναι πιθανό να ορίσουν τον τόνο για το μέλλον των ρυθμιστικών πλαισίων.

Τελικές Σκέψεις

Η εφαρμογή και η καινοτομία της τεχνητής νοημοσύνης έχουν γίνει ανταγωνιστικό πλεονέκτημα σε σχεδόν κάθε βιομηχανία σε όλο τον κόσμο. Αλλά, χωρίς σαφήνεια ρύθμισης και μεταβαλλόμενη πολιτική, οι τεχνολογικοί διευθυντές πρέπει να ορίσουν τις δικές τους προστατευτικές μεζονέτες, και να είναι υπεύθυνοι για την προστασία των καταναλωτών, την κέρδη της εμπιστοσύνης τους giữa την ευρεία φόβου της τεχνητής νοημοσύνης, και την καινοτομία – όλα ταυτόχρονα.

Παρά τις ανησυχίες του ιδιωτικού τομέα ότι οι αυστηροί κανονισμοί μπορεί να εμποδίσουν την καινοτομία, το αντίθετο μπορεί να είναι η περίπτωση. Σύμφωνα με το RegulatingAI, một μη κερδοσκοπικό οργανισμό που ασχολείται με την διερεύνηση του交叉 της τεχνητής νοημοσύνης και της ρύθμισης, η αβεβαιότητα σχετικά με την αστυνόμευση της τεχνητής νοημοσύνης εμποδίζει την υιοθέτησή της, η οποία καθυστερεί την πραγματοποίηση των οικονομικών οφελών, την έλλειψη επένδυσης και την καθυστέρηση των εταιρειών να αυξήσουν τα περιθώρια τους.

«Η διευκρίνιση του πώς οι συστήματα της τεχνητής νοημοσύνης ορίζονται μέσα στα ρυθμιστικά περιβάλλοντα είναι κρίσιμη, καθώς η αμφιβολία στις ορισμοί προστίθεται στις προκλήσεις συμμόρφωσης», σημείωσε ο μη κερδοσκοπικός οργανισμός.

Παρόμοια, το Solvd τόνισε τη σημασία των εταιρειών να εκμεταλλευτούν την τρέχουσα ρυθμιστική σύγχυση. «Τώρα είναι η ιδανική στιγμή για τις εταιρείες να καθιερώσουν αποτελεσματική εσωτερική διακυβέρνηση πριν οι εξωτερικοί ρυθμιστές介入 και потенτικά επιβάλουν λιγότερο ευέλικτες λύσεις», κατέληξε η αναφορά της εταιρείας.

Στο πλαίσιο αυτό, οι καινοτόμοι της τεχνητής νοημοσύνης στις ΗΠΑ αντιμετωπίζουν беспрецедέντες προκλήσεις: κινδύνους φήμης για την μη υιοθέτηση πολιτικών εποπτείας, και την πιθανότητα κενών συμμόρφωσης όταν η ρύθμιση έρθει σε θέση.

Αλλά η ευκαιρία λάμπει επίσης. Με την οπτική της ιστορίας του Διαδικτύου, των smartphone και των μέσων κοινωνικής δικτύωσης, τώρα είναι ακριβώς η στιγμή να κοιτάξουμε μπροστά και να χτίσουμε για ένα οικοσύστημα που ισορροπεί την καινοτομία με την ευθύνη, να προάγει την εμπιστοσύνη και να προετοιμάζεται για την αναπόφευκτη ρύθμιση.

Η Salomé είναι μια δημοσιογράφος γεννημένη στο Medellín και Senior Reporter στο Espacio Media Incubator. Με υπόβαθρο στην Ιστορία και την Πολιτική, το έργο της Salomé τονίζει τη κοινωνική επικαιρότητα των αναδυόμενων τεχνολογιών. Έχει παρουσιαστεί στο Al Jazeera, Latin America Reports, και The Sociable, μεταξύ άλλων