στέλεχος Οι αποτυχίες του σχεδίου νόμου της ΕΕ για την τεχνητή νοημοσύνη - Unite.AI
Συνδεθείτε μαζί μας

Ρυθμιστικές Αρχές

Οι αποτυχίες του σχεδίου νόμου της ΕΕ για την τεχνητή νοημοσύνη

mm
Ενημερώθηκε on

Μια νέα νομική κριτική του σχεδίου της Ευρωπαϊκής Ένωσης για την «Πράξη AI» προκαλεί ένα ευρύ φάσμα επικρίσεων στους προτεινόμενους κανονισμούς κυκλοφόρησε τον Απρίλιο, καταλήγοντας στο συμπέρασμα ότι μεγάλο μέρος του εγγράφου είναι «συναρμολογημένο» από την ελάχιστα εφαρμόσιμη νομοθεσία της δεκαετίας του 1980 για τους καταναλωτές. ότι στην πραγματικότητα προωθεί ένα απελευθερωμένο περιβάλλον τεχνητής νοημοσύνης στην Ευρώπη, αντί να θέτει τον τομέα σε συνεκτική ρύθμιση· και – μεταξύ μιας σειράς άλλων επικρίσεων – ότι οι προτάσεις χαρτογραφούν ένα μελλοντικό ρυθμιστικό πλαίσιο τεχνητής νοημοσύνης που έχει «λίγο νόημα και αντίκτυπο».

Με τίτλο Απομυθοποίηση του σχεδίου νόμου της ΕΕ για την τεχνητή νοημοσύνη, τη προεκτύπωση είναι μια συνεργασία μεταξύ ερευνητών από το UCL London και το Πανεπιστήμιο Radboud στο Nijmegen.

Το έγγραφο προσθέτει σε ένα αυξανόμενο σώμα αρνητικών απόψεων σχετικά με την προτεινόμενη εφαρμογή (και όχι την πολύ θαυμαστή πρόθεση) ενός ρυθμιστικού πλαισίου τεχνητής νοημοσύνης, συμπεριλαμβανομένου του ισχυρισμού τον Απρίλιο ενός από τους συνεισφέροντες του σχεδίου κανονισμού ότι οι προτεινόμενες κατευθυντήριες γραμμές είναι «χλιαρές, κοντόφθαλμες και εσκεμμένα ασαφείς», γεγονός που χαρακτήρισε το έγγραφο της Ευρωπαϊκής Επιτροπής ως υπέρμαχο της «ψεύτικης ηθικής».

Συστήματα χειραγώγησης AI

Το νέο έγγραφο υποστηρίζει ότι οι προτεινόμενοι περιορισμοί του νόμου περί τεχνητής νοημοσύνης στα «συστήματα χειραγώγησης» εμποδίζονται από έναν ασαφή και αντιφατικό ορισμό της «βλάβης», σχολιάζοντας ότι «ένας κυνικός μπορεί να αισθάνεται ότι η Επιτροπή ενδιαφέρεται περισσότερο για τις απαγορεύσεις» ρητορική αξία παρά πρακτική αποτέλεσμα'.

Η σχέδια κανονισμών περιγράψτε δύο υποτιθέμενες απαγορευμένες πρακτικές:

(α) η διάθεση στην αγορά, η θέση σε λειτουργία ή η χρήση ενός συστήματος τεχνητής νοημοσύνης που αναπτύσσει υποσυνείδητες τεχνικές πέρα ​​από τη συνείδηση ​​ενός ατόμου προκειμένου να αλλοιώσει ουσιωδώς τη συμπεριφορά ενός ατόμου με τρόπο που προκαλεί ή είναι πιθανό να προκαλέσει σε αυτό το άτομο ή άλλο άτομο φυσική ή ψυχολογική βλάβη?

(β) η διάθεση στην αγορά, η θέση σε λειτουργία ή η χρήση ενός συστήματος τεχνητής νοημοσύνης που εκμεταλλεύεται οποιαδήποτε από τις ευπάθειες μιας συγκεκριμένης ομάδας ατόμων λόγω της ηλικίας, της σωματικής ή διανοητικής αναπηρίας τους, προκειμένου να αλλοιώσει ουσιωδώς τη συμπεριφορά ενός ατόμου που σχετίζονται με αυτήν την ομάδα με τρόπο που προκαλεί ή είναι πιθανό να προκαλέσει σε αυτό το άτομο ή σε άλλο άτομο σωματική ή ψυχολογική βλάβη·

Οι ερευνητές υποστηρίζουν ότι αυτοί οι περιορισμοί δεν εξετάζουν εάν οι υπηρεσίες ή το λογισμικό ενός παρόχου τεχνητής νοημοσύνης είναι επιτυχείς στην προώθηση των δικών τους στόχων, αλλά μόνο εάν ο τελικός χρήστης υποστεί «ζημιά» στη διαδικασία. Προσθέτουν ότι ο ορισμός της βλάβης στο προσχέδιο περιορίζεται μοιραία σε μεμονωμένους χρήστες, αντί για το είδος της συλλογικής ή κοινωνικής βλάβης που μπορεί εύλογα να συναχθεί από μια σειρά από διαμάχες που βασίζονται στην τεχνητή νοημοσύνη των τελευταίων ετών, όπως η καταστροφή της Cambridge Analytica.

Η εφημερίδα παρατηρεί ότι «Στην πραγματική ζωή, η ζημιά μπορεί να συσσωρευτεί χωρίς ένα μεμονωμένο γεγονός να σκοντάψει ένα κατώφλι σοβαρότητας, αφήνοντας δύσκολο να αποδειχθεί».

Επιτρέπονται επιβλαβή συστήματα τεχνητής νοημοσύνης, αλλά όχι για κατανάλωση στην ΕΕ

Ο νόμος περί τεχνητής νοημοσύνης προτείνει την εφαρμογή απαγόρευσης των βιομετρικών συστημάτων «σε πραγματικό χρόνο» σε δημόσιους χώρους από τις αρχές επιβολής του νόμου. Αν και κάποιος δημόσιος σκεπτικισμός έχει στοχεύσει στις εξαιρέσεις που κάνουν οι προτάσεις για την καταπολέμηση της τρομοκρατίας, την εμπορία παιδιών και την επιδίωξη ευρωπαϊκού εντάλματος σύλληψης, οι ερευνητές σημειώνουν επίσης ότι τίποτα δεν θα εμπόδιζε τους προμηθευτές να πουλήσουν παραβιαστικά βιομετρικά συστήματα σε καταπιεστικά καθεστώτα.

Η εφημερίδα παρατηρεί ότι αυτή είναι ήδη ιστορική πρακτική, όπως αποκαλύπτεται στην έκθεση του 2020 από τη Διεθνή Αμνηστία.

Δηλώνει επίσης ότι η προδιαγραφή του νόμου περί τεχνητής νοημοσύνης για το βιομετρικό σύστημα «σε πραγματικό χρόνο» είναι αυθαίρετη και αποκλείει τα συστήματα ανάλυσης εκτός σύνδεσης, όπως η μεταγενέστερη επεξεργασία βίντεο από εκδηλώσεις διαμαρτυρίας.

Επιπρόσθετα, σημειώνεται ότι οι προτάσεις δεν προσφέρουν μηχανισμό περιορισμού των βιομετρικών συστημάτων που είναι δεν σχετίζονται με την επιβολή του νόμου, οι οποίες αντίθετα αναβάλλονται νωχελικά στον GDPR· και ότι ο ίδιος ο GDPR «θέτει μια απαίτηση υψηλής ποιότητας, ατομικής συναίνεσης για κάθε σαρωμένο άτομο που είναι ουσιαστικά αδύνατο να εκπληρωθεί».

Η διατύπωση αυτού του τμήματος του νόμου περί τεχνητής νοημοσύνης δέχεται επίσης κριτική από τους ερευνητές. Το σχέδιο ορίζει ότι θα απαιτείται προέγκριση για την ανάπτυξη βιομετρικών συστημάτων για την «ατομική χρήση» των συστημάτων αυτών από τις αρμόδιες αρχές – αλλά δεν διευκρινίζει τι σημαίνει «ατομική χρήση» σε αυτό το πλαίσιο. Η εφημερίδα σημειώνει ότι αμφιλεγόμενα εντάλματα μπορεί να είναι θεματικός, και σχετίζονται με ευρείες οργανώσεις, σκοπούς και χώρους.

Επιπλέον, τα σχέδια κανονισμών δεν προβλέπουν μηχανισμό διαφάνειας για τον αριθμό και το είδος των αδειών που εκδίδονται, καθιστώντας τον δημόσιο έλεγχο προβληματικό.

Κανονισμός εξωτερικής ανάθεσης σε «εναρμονισμένα πρότυπα»

Η έρευνα αναφέρει ότι οι πιο σημαντικές οντότητες στον νόμο AI στην πραγματικότητα δεν αναφέρονται ούτε μία φορά στα σχέδια κανονισμών: CEN (Ευρωπαϊκή Επιτροπή Τυποποίησης) και CENELEC (Ευρωπαϊκή Επιτροπή Ηλεκτροτεχνικής Τυποποίησης) – δύο από τους τρεις Ευρωπαϊκούς Οργανισμούς Τυποποίησης (ESO) που η Ευρωπαϊκή Επιτροπή μπορεί να δώσει εντολή για τη διαμόρφωση εναρμονισμένων προτύπων, τα οποία σε πολλές περιπτώσεις θα παραμείνουν τα ρυθμιστικά πλαίσια για ορισμένους τύπους υπηρεσιών και αναπτύξεων τεχνητής νοημοσύνης.

Αυτό ουσιαστικά σημαίνει ότι οι παραγωγοί τεχνητής νοημοσύνης μπορούν να επιλέξουν να ακολουθήσουν τα πρότυπα των πρακτικών ανταγωνιστικών και όχι συμπληρωματικών κανονισμών, αντί να πληρούν τις βασικές απαιτήσεις που περιγράφονται στον νόμο AI. Αυτό επιτρέπει στους παρόχους να ερμηνεύουν πιο χαλαρά τους προτεινόμενους κανονισμούς όταν τεθούν σε ισχύ το 2024-5.

Οι ερευνητές της δημοσίευσης πιστεύουν επίσης ότι τα χρόνια βιομηχανικών πιέσεων μεταξύ των φορέων τυποποίησης είναι πιθανό να επαναπροσδιορίσουν σημαντικά αυτά τα «ουσιώδη πρότυπα» και προτείνουν ότι οι «ιδανικοί» κανονισμοί θα πρέπει να ξεκινήσουν από υψηλότερο ηθικό επίπεδο και νομοθετική σαφήνεια, έστω και μόνο για να ληφθεί υπόψη αυτό. αναπόφευκτη διαδικασία φθοράς.

Νομιμοποίηση της πλάνης των συστημάτων αναγνώρισης συναισθημάτων

Ο νόμος περί τεχνητής νοημοσύνης περιλαμβάνει διάταξη ενάντια στην ανάπτυξη συστημάτων αναγνώρισης και κατηγοριοποίησης συναισθημάτων - πλαίσια που μπορεί να μην προσδιορίζουν απαραίτητα ένα άτομο, αλλά είτε ισχυρίζονται ότι κατανοούν τι αισθάνονται είτε ότι μπορούν να το κατηγοριοποιήσουν ως προς το φύλο, την εθνικότητα και διάφορα άλλα οικονομικά και κοινωνικά σημαίνοντα.

Οι ερευνητές υποστηρίζουν ότι αυτή η ρήτρα είναι άσκοπη, καθώς ο GDPR υποχρεώνει ήδη τους προμηθευτές τέτοιων συστημάτων να παρέχουν στους χρήστες σαφείς πληροφορίες σχετικά με τη χρήση τέτοιων συστημάτων, έτσι ώστε οι χρήστες να μπορούν να εξαιρεθούν (που μπορεί να περιλαμβάνει τη μη χρήση μιας ηλεκτρονικής υπηρεσίας ή τη μη είσοδο περιοχή όπου ανακοινώνεται ότι υπάρχουν τέτοια συστήματα).

Το πιο σημαντικό, το έγγραφο ισχυρίζεται ότι αυτή η ρήτρα νομιμοποιεί α καταρριφθούν τεχνολογία, και συνεχίζει να χαρακτηρίζει FACS-Συστήματα αναγνώρισης συναισθημάτων υπό το πρίσμα της επαίσχυντης ιστορίας της φρενολογίας και άλλων σχεδόν σαμανιστικών προσεγγίσεων της κοινωνικής κατηγοριοποίησης από την πρώιμη βιομηχανική εποχή.

«Όσοι ισχυρίζονται ότι ανιχνεύουν συναισθήματα χρησιμοποιούν υπεραπλουστευμένες, αμφισβητήσιμες ταξινομίες. υποθέτουν εσφαλμένα την καθολικότητα μεταξύ πολιτισμών και πλαισίων· και κινδυνεύουν να «[μας] επιστρέψουν στο φρενολογικό παρελθόν» της ανάλυσης των χαρακτηριστικών του χαρακτήρα από τις δομές του προσώπου. Οι διατάξεις του νόμου για την αναγνώριση συναισθημάτων και τη βιομετρική κατηγοριοποίηση φαίνονται ανεπαρκείς για τον μετριασμό των κινδύνων».

Μια πολύ μέτρια πρόταση

Εκτός από αυτά, οι ερευνητές αντιμετωπίζουν άλλες ελλείψεις στον νόμο AI όσον αφορά τη ρύθμιση των deepfakes, την έλλειψη εποπτείας για τις εκπομπές άνθρακα των συστημάτων τεχνητής νοημοσύνης, την επικάλυψη της ρυθμιστικής εποπτείας με άλλα πλαίσια και τον ανεπαρκή ορισμό των διωκόμενων νομικών οντοτήτων.

Προτρέπουν τους νομοθέτες και τους πολιτικούς ακτιβιστές να αναλάβουν δράση για την επίλυση των προβλημάτων που εντοπίστηκαν, και επιπλέον σημειώνουν ότι ακόμη και η εκτεταμένη αποδόμηση των σχεδίων κανονισμών χρειάστηκε να παραλείψει πολλούς άλλους τομείς ανησυχίας, λόγω έλλειψης χώρου.

Ωστόσο, το έγγραφο επικροτεί την πρωτοποριακή προσπάθεια του νόμου να εισαγάγει ένα σύστημα οριζόντιας ρύθμισης των συστημάτων τεχνητής νοημοσύνης, αναφέροντας τα πολλά «λογικά στοιχεία» του, όπως η δημιουργία μιας ιεραρχίας επιπέδων εκτίμησης κινδύνου, η δέσμευση για εισαγωγή απαγορεύσεων και η πρόταση δημόσιας βάσης δεδομένων. των συστημάτων στα οποία θα έπρεπε να συνεισφέρουν οι προμηθευτές προκειμένου να αποκτήσουν ευρωπαϊκή νομιμότητα, λαμβάνοντας ωστόσο υπόψη τα νομικά προβλήματα που ενδέχεται να φέρει αυτή η μεταγενέστερη απαίτηση.