Ρύθμιση
Ο Διευθύνων Σύμβουλος της Google Καλεί για Αυξημένο Έλεγχο για την Αποφυγή των “Αρνητικών Συνεπειών της Τεχνητής Νοημοσύνης”

Τον προηγούμενο χρόνο, δόθηκε αυξανόμενη προσοχή στον έλεγχο της βιομηχανίας της τεχνητής νοημοσύνης και φαίνεται ότι αυτή η τάση συνεχίζεται φέτος. Πρόσφατα, ο Sundar Pichai, ο Διευθύνων Σύμβουλος της Google και της Alphabet Inc., υποστήριξε τον έλεγχο της τεχνητής νοημοσύνης σε ένα οικονομικό think tank που διεξαγόταν στο Brugel.
Οι δηλώσεις του Pichai ήταν πιθανότατα сделаны σε αναμονή των νέων σχεδίων της ΕΕ για τον έλεγχο της τεχνητής νοημοσύνης, τα οποία θα αποκαλυφθούν σε quelques εβδομάδες. Είναι πιθανό ότι οι κανονισμοί της ΕΕ θα περιλαμβάνουν πολιτικές που θα επιβάλλουν νομικά bestimmμένα πρότυπα για την τεχνητή νοημοσύνη που χρησιμοποιείται στις μεταφορές, την υγεία και άλλους τομείς υψηλού κινδύνου. Οι νέοι κανονισμοί της ΕΕ μπορεί επίσης να απαιτούν αυξημένη διαφάνεια σχετικά με τα συστήματα και τις πλατφόρμες της τεχνητής νοημοσύνης.
Σύμφωνα με το Bloomberg, η Google είχε προηγουμένως προσπαθήσει να αμφισβητήσει τις προστίμους ανταγωνισμού και την επιβολή των πνευματικών δικαιωμάτων στην ΕΕ.尽管 οι προηγούμενες προσπάθειες να αντιταχθούν σε ορισμένα κανονιστικά πλαίσια στην Ευρώπη, ο Pichai δήλωσε ότι ο έλεγχος είναι ευπρόσδεκτος εφόσον λαμβάνει “μια αναλογική προσέγγιση, ισορροπώντας τους πιθανούς κινδύνους με τις κοινωνικές ευκαιρίες”.
Ο Pichai έγραψε πρόσφατα ένα άρθρο απόψεων στην Financial Times, όπου αναγνώρισε ότι μαζί με πολλές ευκαιρίες για βελτίωση της κοινωνίας, η τεχνητή νοημοσύνη έχει επίσης το δυναμικό να χρησιμοποιηθεί λανθασμένα. Ο Pichai δήλωσε ότι οι κανονισμοί πρέπει να βοηθήσουν στην αποφυγή των “αρνητικών συνεπειών της τεχνητής νοημοσύνης”, αναφέροντας την κακοποίηση της αναγνώρισης προσώπου και των deepfakes ως αρνητικές εφαρμογές της τεχνητής νοημοσύνης. Ο Pichai δήλωσε ότι η διεθνής συμφωνία είναι απαραίτητη για τους κανονιστικούς κανόνες να λειτουργήσουν και ότι, ως εκ τούτου, πρέπει να υπάρχει συμφωνία για τις βασικές αξίες. Πέρα από αυτό, ο Pichai είπε ότι είναι η ευθύνη των εταιρειών της τεχνητής νοημοσύνης όπως η Google να λαμβάνουν υπόψη το πώς η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί με ηθικό τρόπο και ότι αυτό είναι ο λόγος για τον οποίο η Google υιοθέτησε τα δικά της πρότυπα για την ηθική χρήση της τεχνητής νοημοσύνης το 2018.
Ο Pichai δήλωσε ότι τα κυβερνητικά κανονιστικά σώματα και οι πολιτικές θα παίξουν σημαντικό ρόλο στην εξασφάλιση ότι η τεχνητή νοημοσύνη χρησιμοποιείται ηθικά, αλλά ότι αυτά τα σώματα δεν πρέπει να αρχίσουν από το μηδέν. Ο Pichai προτείνει ότι τα κανονιστικά όργανα μπορούν να κοιτάξουν τους προηγουμένως καθορισμένους κανονισμούς για έμπνευση, όπως ο κανονισμός της Ευρώπης για την προστασία των δεδομένων. Ο Pichai έγραψε επίσης ότι η ηθική ρύθμιση της τεχνητής νοημοσύνης μπορεί να είναι τόσο ευρεία όσο και ευέλικτη, με τον κανονισμό να παρέχει γενικές οδηγίες που μπορούν να προσαρμοστούν για συγκεκριμένες εφαρμογές σε συγκεκριμένους τομείς της τεχνητής νοημοσύνης. Νέες τεχνολογίες όπως τα αυτονομικά οχήματα θα απαιτήσουν νέους κανόνες και πολιτικές που θα ζυγίσουν τα οφέλη και τα κόστη, ενώ για πιο καλά εδραιωμένα εδάφη όπως τα ιατρικά συσκευές, τα υπάρχοντα πλαίσια μπορούν να είναι ένα καλό σημείο εκκίνησης.
Τέλος, ο Pichai δήλωσε ότι η Google θέλει να συνεργαστεί με τους κανονιστές για την ανάπτυξη πολιτικών και την εύρεση λύσεων που θα ισορροπήσουν τις ανταλλαγές, όπως έγραψε στην Financial Times:
“Θέλουμε να είμαστε ένα χρήσιμο και ενεργό συνεργάτη για τους κανονιστές καθώς αντιμετωπίζουν τις αναπόφευκτες εντάσεις και τις ανταλλαγές. Προσφέρουμε την εμπειρία μας, την εμπειρία και τα εργαλεία μας καθώς διαπραγματευόμαστε αυτά τα ζητήματα μαζί”.
Ενώ κάποιοι έχουν επευφημήσει την Google για την ανάληψη στάσης σχετικά με την ανάγκη για κανονισμό για να διασφαλιστεί η ηθική χρήση της τεχνητής νοημοσύνης, η συζήτηση συνεχίζεται για το βαθμό στον οποίο είναι κατάλληλο ότι οι εταιρείες της τεχνητής νοημοσύνης πρέπει να συμμετέχουν στη δημιουργία κανονιστικών πλαισίων.
Όσον αφορά τους επικείμενους κανονισμούς της ΕΕ, είναι πιθανό ότι η ΕΕ ακολουθεί ένα σύστημα κανόνων με βάση τον κίνδυνο, το οποίο θα επιβάλλει στενότερους περιορισμούς στις εφαρμογές υψηλού κινδύνου της τεχνητής νοημοσύνης. Αυτό περιλαμβάνει περιορισμούς που θα μπορούσαν να είναι πολύ στενότεροι από ό,τι ελπίζει η Google, συμπεριλαμβανομένης μιας πιθανής πολλαπλής ετών απαγόρευσης της τεχνολογίας αναγνώρισης προσώπου (με εξαιρέσεις για έρευνα και ασφάλεια). Σε αντίθεση με τις πιο περιοριστικές προσεγγίσεις της ΕΕ, οι ΗΠΑ έχουν πιέσει για σχετικά ελαφрыούς κανονισμούς. Παραμένει να δούμε πώς οι διαφορετικές στρατηγικές κανονισμού θα επηρεάσουν την ανάπτυξη της τεχνητής νοημοσύνης και την κοινωνία στο σύνολό της, στις δύο διαφορετικές περιοχές του πλανήτη.












