Ρύθμιση
Ο Κώδικας Συμπεριφοράς της ΕΕ για την Τεχνητή Νοημοσύνη Πιθανό να Επηρεάσει την Ρύθμιση

Η Ευρωπαϊκή Επιτροπή εισήγαγε πρόσφατα einen Κώδικα Συμπεριφοράς που μπορεί να αλλάξει τον τρόπο λειτουργίας των εταιρειών Τεχνητής Νοημοσύνης. Δεν είναι απλά μια άλλη σειρά οδηγιών, αλλά μάλλον μια πλήρης αναθεώρηση της εποπτείας της Τεχνητής Νοημοσύνης που ακόμη και οι μεγαλύτεροι παίκτες δεν μπορούν να αγνοήσουν.
Τι την κάνει διαφορετική; Για πρώτη φορά, βλέπουμε συγκεκριμένες κανόνες που θα μπορούσαν να αναγκάσουν εταιρείες όπως η OpenAI και η Google να ανοίξουν τα μοντέλα τους για εξωτερική δοκιμή, μια θεμελιώδης αλλαγή στον τρόπο ανάπτυξης και ανάπτυξης συστημάτων Τεχνητής Νοημοσύνης στην Ευρώπη.
Οι Νέοι Παίκτες Ισχύος στην Εποπτεία της Τεχνητής Νοημοσύνης
Η Ευρωπαϊκή Επιτροπή έχει δημιουργήσει ένα πλαίσιο που στοχεύει συγκεκριμένα σε αυτά που ονομάζουν συστήματα Τεχνητής Νοημοσύνης με “συστημικό κίνδυνο”. Μιλάμε για μοντέλα που εκπαιδεύονται με περισσότερες από 10^25 FLOPs υπολογιστικής δύναμης – ένα όριο που το GPT-4 έχει ήδη ξεπεράσει.
Οι εταιρείες θα πρέπει να αναφέρουν τους πランς εκπαίδευσης Τεχνητής Νοημοσύνης δύο εβδομάδες πριν από την έναρξή τους.
Στο κέντρο αυτού του νέου συστήματος βρίσκονται δύο βασικά έγγραφα: το Πλαίσιο Ασφάλειας και Ασφάλειας (SSF) και η Αναφορά Ασφάλειας και Ασφάλειας (SSR). Το SSF είναι ένας綜合τικός χάρτης για τη διαχείριση των κινδύνων της Τεχνητής Νοημοσύνης, καλύπτοντας όλα, από την αρχική αναγνώριση κινδύνων έως τις συνεχείς μέτρα ασφαλείας. Εν τω μεταξύ, η SSR χρησιμεύει ως ένα λεπτομερές εργαλείο τεκμηρίωσης για κάθε μεμονωμένο μοντέλο.
Εξωτερική Δοκιμή για Μοντέλα Τεχνητής Νοημοσύνης Υψηλού Κινδύνου
Η Επιτροπή απαιτεί εξωτερική δοκιμή για μοντέλα Τεχνητής Νοημοσύνης υψηλού κινδύνου. Αυτό δεν είναι η τυπική εσωτερική έλεγχος ποιότητας – ανεξάρτητοι εμπειρογνώμονες και το Γραφείο Τεχνητής Νοημοσύνης της ΕΕ είναι υπό την κουβέρτα αυτών των συστημάτων.
Οι επιπτώσεις είναι μεγάλες. Αν είσαι η OpenAI ή η Google, τότε ξαφνικά πρέπει να αφήσεις εξωτερικούς εμπειρογνώμονες να εξετάσουν τα συστήματά σου. Το σχέδιο αναφέρει ρητά ότι οι εταιρείες πρέπει να “διασφαλίσουν επαρκή ανεξάρτητη δοκιμή εμπειρογνωμόνων πριν από την ανάπτυξη.” Αυτό είναι μια τεράστια αλλαγή από την τρέχουσα προσέγγιση αυτορύθμισης.
Η ερώτηση προκύπτει: Ποιος είναι αρμόδιος για τη δοκιμή αυτών των εξαιρετικά σύνθετων συστημάτων; Το Γραφείο Τεχνητής Νοημοσύνης της ΕΕ εισέρχεται σε έδαφος που δεν έχει χαρτογραφηθεί ποτέ πριν. Θα χρειαστούν εμπειρογνώμονες που μπορούν να κατανοήσουν και να αξιολογήσουν नई τεχνολογία Τεχνητής Νοημοσύνης, διατηρώντας παράλληλα αυστηρή εμπιστευτικότητα για ό,τι ανακαλύπτουν.
Αυτή η απαίτηση εξωτερικής δοκιμής μπορεί να γίνει υποχρεωτική σε όλη την ΕΕ μέσω μιας πράξης εφαρμογής της Επιτροπής. Οι εταιρείες μπορούν να προσπαθήσουν να αποδείξουν τη συμμόρφωση τους μέσω “ικανοποιητικών εναλλακτικών μέσων”, αλλά κανείς δεν ξέρει ακριβώς τι σημαίνει αυτό στην πράξη.
Η Προστασία Πνευματικών Δικαιωμάτων Γίνεται Σοβαρή
Η ΕΕ λαμβάνει επίσης σοβαρά μέτρα για τα πνευματικά δικαιώματα. Αναγκάζει τους παρόχους Τεχνητής Νοημοσύνης να δημιουργήσουν σαφείς πολιτικές για τον τρόπο με τον οποίο χειρίζονται την πνευματική ιδιοκτησία.
Η Επιτροπή υποστηρίζει το πρότυπο robots.txt – ένα απλό αρχείο που λέει στους web crawlers πού μπορούν και πού δεν μπορούν να πάνε. Αν ένας ιστότοπος λέει “όχι” μέσω robots.txt, οι εταιρείες Τεχνητής Νοημοσύνης δεν μπορούν απλά να το αγνοήσουν και να εκπαιδεύσουν στο περιεχόμενο αυτό. Οι μηχανές αναζήτησης δεν μπορούν να ποινικοποιήσουν τους ιστότοπους για τη χρήση αυτών των εξαιρέσεων. Είναι ένα κίνημα δύναμης που τοποθετεί τους δημιουργούς περιεχομένου πίσω στο τιμόνι.
Οι εταιρείες Τεχνητής Νοημοσύνης θα πρέπει επίσης να αποφεύγουν ενεργά τους ιστότοπους πειρατείας όταν συλλέγουν δεδομένα εκπαίδευσης. Η ΕΕ τους δείχνει sogar τον “Κατάλογο Παρακολούθησης Παραποίησης και Πειρατείας” ως σημείο εκκίνησης.
Τι Αυτό Σημαίνει για το Μέλλον
Η ΕΕ δημιουργεί ένα εντελώς νέο πεδίο για την ανάπτυξη της Τεχνητής Νοημοσύνης. Αυτές οι απαιτήσεις θα επηρεάσουν όλα, από τον τρόπο με τον οποίο οι εταιρείες σχεδιάζουν τα προγράμματά τους Τεχνητής Νοημοσύνης έως τον τρόπο με τον οποίο συλλέγουν τα δεδομένα εκπαίδευσής τους.
Κάθε μεγάλη εταιρεία Τεχνητής Νοημοσύνης αντιμετωπίζει τώρα μια επιλογή. Θα πρέπει είτε:
- Να ανοίξουν τα μοντέλα τους για εξωτερική δοκιμή
- Να βρουν τι σημαίνουν αυτά τα μυστήρια “εναλλακτικά μέσα” συμμόρφωσης
- Ή να περιορίσουν τις δραστηριότητές τους στην αγορά της ΕΕ
Το χρονοδιάγραμμα εδώ έχει επίσης σημασία. Αυτό δεν είναι κάποιο μακρινό μέλλον ρύθμισης – η Επιτροπή κινείται γρήγορα. Κατάφεραν να συγκεντρώσουν περίπου 1.000 ενδιαφερόμενους φορείς, χωρισμένους σε τέσσερις ομάδες εργασίας, όλους τους οποίους εργάζονται για την εξειδίκευση των λεπτομερειών του πώς αυτό θα λειτουργήσει.
Για τις εταιρείες που κατασκευάζουν συστήματα Τεχνητής Νοημοσύνης, οι μέρες του “κινήσου γρήγορα και βρες τις κανόνες αργότερα” μπορεί να φτάνουν στο τέλος. Θα πρέπει να αρχίσουν να σκέφτονται αυτές τις απαιτήσεις τώρα, όχι όταν θα γίνουν υποχρεωτικές. Αυτό σημαίνει:
- Να προγραμματίζουν εξωτερικές ελέγχους στο χρονοδιάγραμμα ανάπτυξής τους
- Να εγκαταστήσουν ρομπούς συστήματα συμμόρφωσης με τα πνευματικά δικαιώματα
- Να κατασκευάσουν πλαισιαία τεκμηρίωσης που ταιριάζουν με τις απαιτήσεις της ΕΕ
Η πραγματική επίδραση αυτών των ρυθμίσεων θα αναπτυχθεί τις επόμενες μήνες. Ενώ κάποιες εταιρείες μπορεί να αναζητήσουν τρόπους να τις παρακάμψουν, άλλες θα ενσωματώσουν αυτές τις απαιτήσεις στις διαδικασίες ανάπτυξής τους. Το πλαίσιο της ΕΕ μπορεί να επηρεάσει τον τρόπο με τον οποίο η ανάπτυξη της Τεχνητής Νοημοσύνης συμβαίνει παγκοσμίως, ιδιαίτερα αν άλλες περιοχές ακολουθήσουν με παρόμοιες μέτρα εποπτείας. Όσο αυτές οι κανόνες μεταβαίνουν από το σχέδιο στην εφαρμογή, η βιομηχανία Τεχνητής Νοημοσύνης αντιμετωπίζει την μεγαλύτερη ρυθμιστική της αλλαγή μέχρι τώρα.












