Connect with us

Η ΕΕ να Εκκινήσει τους Πρώτους Κανονισμούς για την Τεχνητή Νοημοσύνη

Ρύθμιση

Η ΕΕ να Εκκινήσει τους Πρώτους Κανονισμούς για την Τεχνητή Νοημοσύνη

mm
EU AI regulations

Στις 21 Απριλίου, η Ευρωπαϊκή Ένωση θα ανακοινώσει το πρώτο κανονιστικό πλαίσιο που διέπει τη χρήση της τεχνητής νοημοσύνης. Οι νέοι κανονισμοί θα απαγορεύσουν εντελώς τα συστήματα μηχανικής μάθησης “υψηλού κινδύνου” και θα εισαγάγουν ελάχιστες προδιαγραφές για άλλες τεχνολογίες μηχανικής μάθησης, επιβάλλοντας ποινές 20 εκατομμυρίων ευρώ ή 4% του κύκλου εργασιών της εταιρείας για παραβιάσεις.

Ένα προσχέδιο της νέας νομοθεσίας, που απέκτησε η Politico, θα ζητήσει να προωθήσει την καινοτομία και την ανάπτυξη συστημάτων τεχνητής νοημοσύνης για το γενικό όφελος της οικονομίας και της κοινωνίας της ΕΕ, σε τομείς όπως η βιομηχανία, η βελτίωση της ενεργειακής απόδοσης και η μοντελοποίηση της κλιματικής αλλαγής· αλλά θα απαγορεύσει τη χρήση της μηχανικής μάθησης σε συστήματα αξιολόγησης πιστωτικής αξιολόγησης, αυτοματοποιημένη αξιολόγηση ποινικών προστίμων και αξιολόγηση της καταλληλότητας για κοινωνικές παροχές και αιτήσεις ασύλου ή βίζας, μεταξύ άλλων απαγορεύσεων που θα αποκαλυφθούν αργότερα.

Το προσχέδιο αναφέρει ρητά ότι τα κινεζικά στυλ συστήματα κοινωνικής αξιολόγησης για άτομα και εταιρείες είναι αντίθετα με τις αξίες της Ευρωπαϊκής Ένωσης και θα απαγορευτούν με τον κανονισμό, μαζί με τις τεχνολογίες “μαζικής επιτήρησης” που τροφοδοτούνται από την τεχνητή νοημοσύνη.

Επιβλέπουσα Εποπτεία

Μετά την διορισμό μιας υψηλού επιπέδου ομάδας εμπειρογνωμόνων για την τεχνητή νοημοσύνη τον Μάρτιο του 2021, η ΕΕ επίσης σκοπεύει να ιδρύσει một νέο Ευρωπαϊκό Συμβούλιο Τεχνητής Νοημοσύνης, με κάθε κράτος μέλος να αντιπροσωπεύεται, μαζί με einen εκπρόσωπο της Ευρωπαϊκής Επιτροπής και της αρχής προστασίας δεδομένων της ΕΕ.

Πιθανώς η πιο ριζική και προβληματική διαταγή στο προσχέδιο είναι ότι απαγορεύει τα συστήματα που προκαλούν ζημιά στους πληθυσμούς της ΕΕ “με τη χειραγώγηση της συμπεριφοράς, των απόψεων ή των αποφάσεων”, που θα περιελάμβανε πιθανώς πολλές τεχνολογίες που τροφοδοτούν την ανάλυση του εμπορικού και πολιτικού μάρκετινγκ.

Οι κανονισμοί θα κάνουν εξαιρέσεις για την καταπολέμηση της σοβαρής εγκληματικότητας, επιτρέποντας τις προκαθορισμένες αναπτύξεις συστημάτων αναγνώρισης προσώπου, εντός ορίων εύρους και διάρκειας χρήσης.

Όπως και με την ευρεία σάρωση του GDPR, φαίνεται ότι αυτοί οι νέοι κανονισμοί μπορεί να είναι αρκετά γενικοί ώστε να προκαλέσουν ένα “ψυχρό αποτέλεσμα” σε περιοχές όπου δεν existουν σαφείς οδηγίες για τη χρήση της τεχνητής νοημοσύνης, με τις εταιρείες να κινδυνεύουν με την έκθεση όπου η χρήση της μηχανικής μάθησης πέφτει σε μια πιθανή γκρίζα ζώνη εντός των κανονισμών.

Συστάσεις κάτω από τους Νέους Κανονισμούς της ΕΕ για την Τεχνητή Νοημοσύνη

Ωστόσο, το μεγαλύτερο挑λιο και πιθανό νομικό βούρκο έρχεται με τη μορφή της προδιαγραφής του προσχέδιου ότι τα σύνολα δεδομένων δεν “περιλαμβάνουν κανένα εσκεμμένο ή ακούσιο προκατάληψη” που μπορεί να διευκολύνει την διάκριση.

Η προκατάληψη δεδομένων είναι ένας από τους πιο προκλητικούς τομείς στην ανάπτυξη συστημάτων μηχανικής μάθησης – δύσκολο να αποδειχθεί, δύσκολο να αντιμετωπιστεί και βαθιά συνδεδεμένο με τις κεντρικές κουλτούρες των σωμάτων συλλογής δεδομένων. Το ζήτημα τοποθετεί ολοένα και περισσότερο ιδιωτικές και κρατικές ερευνητικές εταιρείες σε μια ροή μεταξύ της ανάγκης να αντιπροσωπεύουν με ακρίβεια διαφορετικές ομάδες (πρακτικά το ιδρυτικό αντικείμενο των μαθηματικών και της εμπειρικής στατιστικής ανάλυσης) και τη δυνατότητα να προωθήσουν το ρατσιστικό προφίλ και την πολιτιστική δαιμονοποίηση, μεταξύ άλλων ζητημάτων.

Επομένως, είναι πιθανό ότι οι αγορές εκτός ΕΕ θα ελπίζουν ότι ο νέος κανονισμός θα παρέχει τουλάχιστον κάποιες συγκεκριμένες περιοχές οδηγιών και ένα εύρος εφαρμοστέων ορισμών σε αυτή τη σχέση.

Εξωτερική Αντίσταση στους Κανονισμούς της ΕΕ για την Τεχνητή Νοημοσύνη

Ο νέος κανονισμός πιθανό να έχει einen βαθύ αντίκτυπο στις νομικές επιπτώσεις της χρήσης της μηχανικής μάθησης για την ανάλυση δεδομένων που αντιμετωπίζουν το κοινό – καθώς και στα δεδομένα που θα εξακολουθούν να είναι δυνατό να εξαχθούν από τους χρήστες του ιντερνέτ στην εποχή που εισάγεται από την Apple, Firefox και (σε μικρότερο βαθμό), Chrome.

Η δικαιοδοσία μπορεί να χρειάζεται να οριστεί σαφώς, για παράδειγμα, σε περιπτώσεις όπου οι γίγαντες FAANG συλλέγουν δεδομένα χρηστών σύμφωνα με τον GDPR, αλλά επεξεργάζονται αυτά τα δεδομένα μέσω συστημάτων μηχανικής μάθησης εκτός της Ευρωπαϊκής Ένωσης. Δεν είναι σαφές αν οι αλγόριθμοι που προέρχονται από τέτοια συστήματα θα μπορούσαν να εφαρμοστούν σε πλατφόρμες εντός της ΕΕ και ακόμη λιγότερο σαφές πώς μια τέτοια εφαρμογή θα μπορούσε να αποδειχθεί.

Στην περίπτωση της χρήσης της τεχνητής νοημοσύνης για την ενημέρωση αποφάσεων κράτησης και δίωξης, μια αυξανόμενη τάση στις Ηνωμένες Πολιτείες, οι δικές τους περιπτώσεις πειραματισμού του Ηνωμένου Βασιλείου σε αυτόν τον τομέα θα είχαν καλύπτει από τους νέους κανονισμούς αν η χώρα δεν είχε εξέλθει από την Ευρωπαϊκή Ένωση.

Το 2020, ένα προσχέδιο μεμονοδίου του Λευκού Οίκου για τον κανονισμό της τεχνητής νοημοσύνης ανέφερε την αμερικανική περίπτωση για τον κανονισμό της τεχνητής νοημοσύνης, δηλώνοντας ότι ‘Οι ομοσπονδιακές υπηρεσίες πρέπει να αποφεύγουν τις κανονιστικές ή μη κανονιστικές ενέργειες που εμποδίζουν περιττώς την καινοτομία και την ανάπτυξη της τεχνητής νοημοσύνης’. Πιθανότατα, αυτή η στάση φαίνεται να επιβιώσει της διοίκησης Trump, υπό την οποία δημοσιεύθηκε το μεμονοδίο, αλλά αντανακλά την επερχόμενη τριβή μεταξύ των ΗΠΑ και της ΕΕ μετά τον νέο κανονισμό.

Παρόμοια, το ‘Οδικό Χάρτη της Τεχνητής Νοημοσύνης’ του Συμβουλίου Τεχνητής Νοημοσύνης του Ηνωμένου Βασιλείου εκφράζει μεγάλη ενθουσιασμό για τα οικονομικά οφέλη της υιοθέτησης της τεχνητής νοημοσύνης, αλλά μια γενική ανησυχία ότι οι νέοι κανονισμοί δεν πρέπει να επιτρέψουν να εμποδίσουν αυτή την πρόοδο.

Ο Πρώτος Πραγματικός Νόμος για την Τεχνητή Νοημοσύνη

Η δέσμευση της ΕΕ σε μια νομική στάση για την τεχνητή νοημοσύνη είναι καινοτομική. Τα τελευταία δέκα χρόνια χαρακτηρίστηκαν από einen χειμώνα λευκών βιβλίων και προκαταρκτικών ερευνών και συστάσεων από κυβέρνηση σε όλο τον κόσμο, που επικεντρώνονται στην ηθική της τεχνητής νοημοσύνης, με λίγους πραγματικούς νόμους να έχουν ψηφιστεί.

ΑΙ ETHICS PAPERS

Γεωγραφική κατανομή των εκδοτών των οδηγιών της ηθικής της τεχνητής νοημοσύνης ανά αριθμό εγγράφων, σε μια έρευνα από το 2019. Οι περισσότερες οδηγίες ηθικής της τεχνητής νοημοσύνης εκδίδονται στις Ηνωμένες Πολιτείες και στην Ευρωπαϊκή Ένωση, ακολουθούμενες από το Ηνωμένο Βασίλειο και την Ιαπωνία. Ο Καναδάς, η Ισλανδία, η Νορβηγία, τα Ηνωμένα Αραβικά Εμιράτα, η Ινδία, η Σιγκαπούρη, η Νότια Κορέα, η Αυστραλία αντιπροσωπεύονται με 1 έγγραφο το καθένα. Μετά τη συμβολή σε μια συγκεκριμένη δήλωση G7, τα κράτη μέλη των χωρών G7 υπογραμμίζονται ξεχωριστά. Πηγή: https://arxiv.org/ftp/arxiv/papers/1906/1906.11668.pdf

Επιπλέον Ανάγνωση

Εθνικές πολιτικές & στρατηγικές AI (OECD)

Συγγραφέας για τη μηχανική μάθηση, ειδικός σε τομέα συνθέσεων εικόνων ανθρώπων. Πρώην επικεφαλής ερευνών περιεχομένου στη Metaphysic.ai.
Προσωπικός ιστότοπος: martinanderson.ai
Επικοινωνία: [email protected]