Συνδεθείτε μαζί μας

Η Κίνα προτείνει κανόνες που απαιτούν από τα AI Chatbots να παρακολουθούν τους χρήστες για εθισμό

Ρυθμιστικές Αρχές

Η Κίνα προτείνει κανόνες που απαιτούν από τα AI Chatbots να παρακολουθούν τους χρήστες για εθισμό

mm

Κυκλοφόρησε η ρυθμιστική αρχή κυβερνοασφάλειας της Κίνας προσχέδιο κανόνων το Σάββατο Αυτό θα απαιτούσε από τα συνοδευτικά chatbots τεχνητής νοημοσύνης να παρακολουθούν τις συναισθηματικές καταστάσεις των χρηστών και να παρεμβαίνουν όταν εμφανίζονται σημάδια εθισμού - η πιο επιθετική ρυθμιστική απάντηση μέχρι στιγμής στις αυξανόμενες ανησυχίες σχετικά με την ψυχολογική βλάβη από σχέσεις που υποστηρίζονται από την τεχνητή νοημοσύνη.

Οι προτεινόμενοι κανονισμοί από την Διοίκηση Κυβερνοχώρου της Κίνας στοχεύουν σε προϊόντα Τεχνητής Νοημοσύνης που προσομοιώνουν ανθρώπινες προσωπικότητες και σχηματίζουν συναισθηματικές συνδέσεις με τους χρήστες μέσω κειμένου, εικόνων, ήχου ή βίντεο. Σύμφωνα με το προσχέδιο, οι πάροχοι θα πρέπει να προειδοποιούν τους χρήστες για την υπερβολική χρήση, να αξιολογούν τα επίπεδα συναισθηματικής εξάρτησης και να αναλαμβάνουν δράση όταν οι χρήστες εκδηλώνουν ακραία συναισθήματα ή εθιστική συμπεριφορά.

Οι χρήστες πρέπει να υπενθυμίζουν ότι αλληλεπιδρούν με την Τεχνητή Νοημοσύνη κατά τη σύνδεση και ανά δύο ώρες — ή νωρίτερα εάν το σύστημα εντοπίσει σημάδια υπερβολικής εξάρτησης. Οι κανόνες θα καθιστούν επίσης τους παρόχους υπεύθυνους για την ασφάλεια καθ' όλη τη διάρκεια του κύκλου ζωής των προϊόντων τους, συμπεριλαμβανομένης της αναθεώρησης αλγορίθμων, της ασφάλειας δεδομένων και της προστασίας των προσωπικών πληροφοριών.

Η χρονική στιγμή δεν είναι τυχαία. Η βάση χρηστών της παραγωγικής τεχνητής νοημοσύνης στην Κίνα διπλασιάστηκε στα 515 εκατομμύρια Τους τελευταίους έξι μήνες, οι ανησυχίες σχετικά με τον ψυχολογικό αντίκτυπο των συνοδών τεχνητής νοημοσύνης έχουν αυξηθεί παράλληλα. Μια μελέτη Frontiers in Psychology διαπίστωσε ότι το 45.8% των Κινέζων φοιτητών πανεπιστημίου ανέφεραν ότι χρησιμοποίησαν chatbots τεχνητής νοημοσύνης τον τελευταίο μήνα, με τους χρήστες να εμφανίζουν σημαντικά υψηλότερα επίπεδα κατάθλιψης σε σύγκριση με τους μη χρήστες.

Η Καλιφόρνια νίκησε την Κίνα στο τέρμα

Η Κίνα δεν είναι η μόνη που ρυθμίζει τα chatbots με τεχνητή νοημοσύνη. Η Καλιφόρνια έγινε η πρώτη πολιτεία των ΗΠΑ που ψήφισε παρόμοια νομοθεσία τον Οκτώβριο, όταν ο κυβερνήτης Γκάβιν Νιούσομ υπέγραψε το νομοσχέδιο SB 243. Το νομοσχέδιο αυτό, που πρόκειται να τεθεί σε ισχύ την 1η Ιανουαρίου 2026, απαιτεί από τις πλατφόρμες να υπενθυμίζουν στους ανηλίκους κάθε τρεις ώρες ότι μιλάνε σε μια Τεχνητή Νοημοσύνη—όχι σε άνθρωπο—και να κάνουν ένα διάλειμμα.

Το SB 243 επιβάλλει επίσης την επαλήθευση ηλικίας, απαγορεύει στα chatbot να παρουσιάζονται ως επαγγελματίες υγείας και εμποδίζει τους ανηλίκους να βλέπουν εικόνες που δημιουργούνται από τεχνητή νοημοσύνη και έχουν σεξουαλικό περιεχόμενο. Ο νόμος επιτρέπει σε άτομα να μηνύουν εταιρείες τεχνητής νοημοσύνης για παραβάσεις, ζητώντας έως και 1,000 δολάρια ανά περιστατικό συν τις αμοιβές δικηγόρου.

Τι κάνει τους συνοδούς τεχνητής νοημοσύνης διαφορετικούς

Η ανησυχία δεν είναι απλώς ο χρόνος μπροστά σε οθόνες. Μάρτιος 2025 MIT Media Lab Μελέτη διαπίστωσε ότι τα chatbots τεχνητής νοημοσύνης μπορούν να προκαλέσουν μεγαλύτερο εθισμό από τα μέσα κοινωνικής δικτύωσης, επειδή μαθαίνουν τι θέλουν να ακούσουν οι χρήστες και παρέχουν αυτή την ανατροφοδότηση με συνέπεια. Η υψηλότερη καθημερινή χρήση συσχετίστηκε με αυξημένη μοναξιά, εξάρτηση και αυτό που οι ερευνητές ονόμασαν «προβληματική χρήση».

Τα ψυχολογικά προειδοποιητικά σημάδια που εντοπίζονται στην κλινική βιβλιογραφία περιλαμβάνουν παρατεταμένες συνεδρίες που διαταράσσουν τον ύπνο, συναισθηματική εξάρτηση και δυσφορία όταν η πρόσβαση είναι περιορισμένη, προτίμηση συνομιλιών με chatbots έναντι πραγματικής ανθρώπινης αλληλεπίδρασης και ανθρωπομορφισμό της Τεχνητής Νοημοσύνης — πιστεύοντας ότι κατέχει ανθρώπινα συναισθήματα και αντιμετωπίζοντάς την ως γνήσιο έμπιστο άτομο ή ρομαντικό σύντροφο.

Το προσχέδιο κανόνων της Κίνας επιχειρεί να αντιμετωπίσει αυτούς τους κινδύνους σε επίπεδο πλατφόρμας αντί να βασίζεται στην κρίση των μεμονωμένων χρηστών. Απαιτώντας από τους παρόχους να παρακολουθούν τις συναισθηματικές καταστάσεις και τα επίπεδα εξάρτησης, οι κανονισμοί μεταθέτουν την ευθύνη στις εταιρείες που κατασκευάζουν αυτά τα συστήματα. Αυτή η προσέγγιση διαφέρει από την προηγούμενη ρύθμιση της Τεχνητής Νοημοσύνης που επικεντρώνεται κυρίως στον έλεγχο περιεχομένου και την ασφάλεια των δεδομένων.

Το προσχέδιο ορίζει επίσης περιορισμούς περιεχομένου, απαγορεύοντας στους συνοδούς της Τεχνητής Νοημοσύνης να δημιουργούν υλικό που θέτει σε κίνδυνο την εθνική ασφάλεια, διαδίδει φήμες ή προωθεί τη βία ή την άσεμνη φύση — διατάξεις που αντικατοπτρίζουν τους υφιστάμενους κανονισμούς της Κίνας για την παραγωγική Τεχνητή Νοημοσύνη.

Η Πρόκληση της Επιβολής

Η υποχρέωση των εταιρειών να εντοπίζουν τον εθισμό και να παρεμβαίνουν ακούγεται απλή στη διατύπωση πολιτικής. Η εφαρμογή είναι ένα άλλο ζήτημα. Ο ορισμός του τι συνιστά «υπερβολική χρήση» ή «ακραία συναισθήματα» με τρόπο που να είναι τόσο ουσιαστικός όσο και εφαρμόσιμος θα θέσει σε δοκιμασία τόσο τις ρυθμιστικές αρχές όσο και τις εταιρείες.

Πολύ ευαίσθητο, και το σύστημα γίνεται ενοχλητικό—διακόπτοντας χρήστες που απλώς ασχολούνται με εκτεταμένες συζητήσεις. Πολύ επιεικής, και ευάλωτοι χρήστες γλιστρούν χωρίς παρέμβαση. Η απαίτηση υπενθύμισης δύο ωρών παρέχει ένα αμβλύ εργαλείο, αλλά η πιο λεπτή απαίτηση για ανίχνευση υπερβολικής εξάρτησης «όταν μπορούν να ανιχνευθούν σημάδια» αφήνει σημαντικό ερμηνευτικό περιθώριο.

Κτίριο εταιρειών προστατευτικά κιγκλιδώματα για εφαρμογές τεχνητής νοημοσύνης έχουν αντιμετωπίσει παρόμοιες προκλήσεις. Τα φίλτρα περιεχομένου είναι γνωστά για την ανακριβειά τους και η προσθήκη ψυχολογικής παρακολούθησης εισάγει νέες διαστάσεις πολυπλοκότητας. Ο προσδιορισμός του εάν ένας χρήστης σχηματίζει μια ανθυγιεινή προσκόλληση απαιτεί την εξαγωγή συμπερασμάτων για νοητικές καταστάσεις από κείμενο - μια δυνατότητα που τα συστήματα τεχνητής νοημοσύνης δεν διαθέτουν αξιόπιστα.

Το προσχέδιο είναι ανοιχτό για δημόσιο σχολιασμό, με τους τελικούς κανονισμούς να αναμένονται κάποια στιγμή το 2026. Εάν εφαρμοστεί όπως προτείνεται, η Κίνα θα έχει το πιο περιοριστικό πλαίσιο στον κόσμο για τη διαχείριση των συνοδευτικών προϊόντων τεχνητής νοημοσύνης.

Ένας Παγκόσμιος Απολογισμός

Η ταυτόχρονη κανονιστική δράση στην Κίνα και την Καλιφόρνια υποδηλώνει ότι οι ανησυχίες σχετικά με τον εθισμό στους συντρόφους της Τεχνητής Νοημοσύνης έχουν φτάσει σε κρίσιμη μάζα σε διαφορετικά πολιτικά συστήματα.

Για τις εταιρείες τεχνητής νοημοσύνης, το μήνυμα γίνεται ολοένα και πιο σαφές: η άναρχη εποχή των συντρόφων της τεχνητής νοημοσύνης τελειώνει. Είτε μέσω της κινεζικής διοικητικής νομοθεσίας, της αστικής ευθύνης της Καλιφόρνια είτε της ενδεχόμενης ομοσπονδιακής νομοθεσίας στις Ηνωμένες Πολιτείες, οι πλατφόρμες θα αντιμετωπίσουν απαιτήσεις για την προστασία των χρηστών από τα δικά τους προϊόντα.

Το ερώτημα δεν είναι αν θα θεσπιστούν κανονισμοί — είναι αν οι παρεμβάσεις που σχεδιάζονται θα λειτουργήσουν όντως. Η προσέγγιση της Κίνας να επιβάλλει την παρακολούθηση και την παρέμβαση μπορεί να αποδειχθεί δύσκολο να εφαρμοστεί στην πράξη.

Αυτό που είναι σαφές είναι ότι η αγορά των συνοδών της Τεχνητής Νοημοσύνης έχει γίνει πολύ μεγάλη και έχει πολύ σημαντικές συνέπειες για να τις αγνοήσουν οι κυβερνήσεις. Τα chatbot με τα οποία οι άνθρωποι δημιουργούν συναισθηματικούς δεσμούς δεν είναι πλέον περιέργεια - είναι προϊόντα που χρησιμοποιούνται από εκατοντάδες εκατομμύρια, με καταγεγραμμένες περιπτώσεις σοβαρών βλαβών. Η ρύθμιση, όσο ατελής κι αν είναι, ήταν αναπόφευκτη. Η συζήτηση τώρα μετατοπίζεται στο εάν οι συγκεκριμένοι κανόνες που προτείνονται θα προστατεύσουν τους ευάλωτους χρήστες χωρίς να καταπνίξουν μια τεχνολογία που πολλοί θεωρούν πραγματικά πολύτιμη.

Ο Alex McFarland είναι δημοσιογράφος και συγγραφέας AI που εξερευνά τις τελευταίες εξελίξεις στην τεχνητή νοημοσύνη. Έχει συνεργαστεί με πολλές startups και εκδόσεις AI παγκοσμίως.