Ηγέτες σκέψης
Υπάρχει μια Σαφής Λύση για τους Κινδύνους Ιδιωτικότητας που Δημιουργούνται από την Γεννητική Ινเทλιτζέντσα;
Οι κίνδυνοι ιδιωτικότητας που δημιουργούνται από την γεννητική ιντελιτζέντσα είναι πολύ πραγματικοί. Από την αύξηση της επιτήρησης και της έκθεσης σε πιο αποτελεσματικές καμπάνιες φισινγκ και βισινγκ από ποτέ, η γεννητική ιντελιτζέντσα διαβρώνει την ιδιωτικότητα en masse, αδιακρίτως, ενώ παρέχει στους κακόβουλους ηθοποιούς, είτε εγκληματίες, είτε χορηγούμενους από το κράτος ή κυβερνητικούς, τα εργαλεία που χρειάζονται για να στοχεύουν άτομα και ομάδες.
Η πιο σαφής λύση σε αυτό το πρόβλημα περιλαμβάνει τους καταναλωτές και τους χρήστες να γυρίσουν collectivly την πλάτη τους στην υπεραπλήρωσή της ιντελιτζέντσας, να απαιτήσουν διαφάνεια από εκείνους που αναπτύσσουν ή εφαρμόζουν τα λεγόμενα χαρακτηριστικά της ιντελιτζέντσας και αποτελεσματική ρύθμιση από τους κυβερνητικούς οργανισμούς που εποπτεύουν τις επιχειρήσεις τους. Αν και αξίζει να καταβληθεί προσπάθεια για αυτό, δεν είναι πιθανό να συμβεί σε κοντινή μέλληση.
Τι μένει είναι λογικές, ακόμη και αν απαραίτητα ατελείς, προσεγγίσεις για την μείωση των κινδύνων ιδιωτικότητας της γεννητικής ιντελιτζέντσας. Η μακροπρόθεσμη, σίγουρη, αλλά βαρετή πρόβλεψη είναι ότι όσο περισσότερο ενημερωμένοι γίνονται οι πολίτες για την ιδιωτικότητα των δεδομένων γενικά, τόσο μικρότεροι είναι οι κίνδυνοι ιδιωτικότητας που δημιουργούνται από την μαζική υιοθέτηση της γεννητικής ιντελιτζέντσας.
Συνοψίζουμε Όλοι τη Σύλληψη της Γεννητικής Ιντελιτζέντσας;
Η υπεραπλήρωσή της ιντελιτζέντσας είναι τόσο πανταχού παρούσα που μια έρευνα για το τι εννοούν οι άνθρωποι με γεννητική ιντελιτζέντσα είναι σχεδόν άχρηστη. Φυσικά, κανένα από αυτά τα «χαρακτηριστικά της ιντελιτζέντσας», λειτουργίες και προϊόντα δεν αντιπροσωπεύουν πραγματικά παραδείγματα αληθινής τεχνητής νοημοσύνης, όποιο και αν θα ήταν αυτό. Αντίθετα, είναι κυρίως παραδείγματα μηχανικής μάθησης (ML), βαθιάς μάθησης (DL) και μεγάλων μοντέλων γλώσσας (LLMs).
Η γεννητική ιντελιτζέντσα, όπως υποδηλώνει το όνομά της, μπορεί να δημιουργήσει νέο περιεχόμενο – είτε κείμενο (συμπεριλαμβανομένων των γλωσσών προγραμματισμού), ήχο (συμπεριλαμβανομένης της μουσικής και των ανθρώπινων φωνών) ή βίντεο (με ήχο, διάλογο, κοψίματα και αλλαγές κάμερας). Όλα αυτά επιτυγχάνονται με την εκπαίδευση των LLMs για να αναγνωρίσουν, να ταιριάξουν και να αναπαράγουν μοτίβα σε ανθρώπινα δημιουργημένα περιεχόμενα.
Ας πάρουμε το ChatGPT ως παράδειγμα. Όπως και πολλά LLMs, έχει εκπαιδευτεί σε τρεις ευρείες φάσεις:
- Προ-εκπαίδευση: Κατά τη διάρκεια αυτής της φάσης, το LLM «τρεφόμενο» με υλικό από το διαδίκτυο, βιβλία, ακαδημαϊκούς περιοδικούς και οτιδήποτε άλλο που περιέχει πιθανώς σχετικό ή χρήσιμο κείμενο.
- Επιτήρηση οδηγιών και λεπτομέρειες: Τα μοντέλα εκπαιδεύονται να απαντούν πιο συνεκτικά στις οδηγίες χρησιμοποιώντας υψηλής ποιότητας ζευγάρια οδηγιών-απαντήσεων, συνήθως πηγαίνοντας από τους ανθρώπους.
- Ενίσχυση μάθησης από ανθρώπινη ανάδραση (RLHF): LLMs όπως το ChatGPT συχνά υφίστανται αυτή την πρόσθετη φάση εκπαίδευσης, κατά τη διάρκεια της οποίας οι αλληλεπιδράσεις με ανθρώπινους χρήστες χρησιμοποιούνται για να βελτιώσουν την ευθυγράμμιση του μοντέλου με τυπικές περιπτώσεις χρήσης.
Όλες οι τρεις φάσεις της διαδικασίας εκπαίδευσης περιλαμβάνουν δεδομένα, είτε τεράστιες αποθήκες προ-συγκεντρωμένων δεδομένων (όπως αυτά που χρησιμοποιούνται στην προ-εκπαίδευση) είτε δεδομένα που συλλέγονται και επεξεργάζονται σχεδόν σε πραγματικό χρόνο (όπως αυτά που χρησιμοποιούνται στην RLHF). Είναι αυτά τα δεδομένα που φέρνουν το μεγαλύτερο μέρος των κινδύνων ιδιωτικότητας που προέρχονται από τη γεννητική ιντελιτζέντσα.
Τι Είναι οι Κίνδυνοι Ιδιωτικότητας που Δημιουργούνται από τη Γεννητική Ιντελιτζέντσα;
Η ιδιωτικότητα παραβιάζεται όταν προσωπικές πληροφορίες που αφορούν ένα άτομο (το υποκείμενο των δεδομένων) γίνονται διαθέσιμες σε άλλα άτομα ή οντότητες χωρίς τη συγκατάθεση του υποκειμένου των δεδομένων. Τα LLMs είναι προ-εκπαιδευμένα και λεπτομερώς εκπαιδευμένα σε ένα εξαιρετικά ευρύ φάσμα δεδομένων που μπορεί και συχνά περιλαμβάνει προσωπικά δεδομένα. Αυτά τα δεδομένα συλλέγονται συνήθως από δημόσιες πηγές, αλλά όχι πάντα.
Ακόμη και όταν αυτά τα δεδομένα λαμβάνονται από δημόσιες πηγές, η συλλογή και επεξεργασία τους από ένα LLM και στη συνέχεια η ουσιαστική αναζήτηση μέσω της διεπαφής του LLM μπορεί να θεωρηθεί ως μια περαιτέρω παραβίαση της ιδιωτικότητας.
Η ενίσχυση μάθησης από ανθρώπινη ανάδραση (RLHF) περιπλέκει τα πράγματα. Σε αυτή τη φάση εκπαίδευσης, οι αληθινές αλληλεπιδράσεις με ανθρώπινους χρήστες χρησιμοποιούνται για να διορθώσουν και να βελτιώσουν τις απαντήσεις του LLM. Αυτό σημαίνει ότι μια αλληλεπίδραση του χρήστη με ένα LLM μπορεί να θεωρηθεί, να μοιραστεί και να διανεμηθεί από οποιονδήποτε έχει πρόσβαση στα δεδομένα εκπαίδευσης.
Στις περισσότερες περιπτώσεις, αυτό δεν είναι μια παραβίαση της ιδιωτικότητας, δεδομένου ότι οι περισσότεροι dévelopers LLMs περιλαμβάνουν πολιτικές ιδιωτικότητας και όρους υπηρεσίας που απαιτούν από τους χρήστες να συγκατατίθενται πριν αλληλεπιδράσουν με το LLM. Ο κίνδυνος ιδιωτικότητας εδώ liegt rather στο γεγονός ότι πολλοί χρήστες δεν είναι意識μένοι ότι έχουν συγκατατίθενται σε τέτοια συλλογή και χρήση δεδομένων. Τέτοιοι χρήστες είναι πιθανό να αποκαλύψουν ιδιωτικές και ευαίσθητες πληροφορίες κατά τη διάρκεια των αλληλεπιδράσεών τους με αυτά τα συστήματα, χωρίς να συνειδητοποιούν ότι αυτές οι αλληλεπιδράσεις δεν είναι ούτε εμπιστευτικές ούτε ιδιωτικές.
Με αυτόν τον τρόπο, φτάνουμε στα τρία κύρια σημεία με τα οποία η γεννητική ιντελιτζέντσα δημιουργεί κινδύνους ιδιωτικότητας:
- Μεγάλες αποθήκες προ-εκπαίδευσης δεδομένων που потенτικά περιέχουν προσωπικές πληροφορίες είναι ευάλωτες σε παραβίαση και εξαγωγή.
- Προσωπικές πληροφορίες που περιλαμβάνονται στα δεδομένα προ-εκπαίδευσης μπορούν να διαρρεύσουν σε άλλους χρήστες του ίδιου LLM μέσω των απαντήσεων του σε ερωτήσεις και οδηγίες.
- Προσωπικές και εμπιστευτικές πληροφορίες που παρέχονται κατά τη διάρκεια των αλληλεπιδράσεων με LLMs καταλήγουν στους υπαλλήλους των LLMs και πιθανώς σε τρίτους συμβασιούχους, από όπου μπορούν να θεωρηθούν ή να διαρρεύσουν.
Αυτά είναι όλα κίνδυνοι για την ιδιωτικότητα των χρηστών, αλλά οι πιθανότητες προσωπικά αναγνωρίσιμων πληροφοριών (PII) να καταλήξουν στα λάθος χέρια φαίνονται ακόμη αρκετά χαμηλές. Αυτό είναι, τουλάχιστον, μέχρι να εισέλθουν οι διαμεσολαβητές δεδομένων στη σκηνή. Αυτές οι εταιρείες ειδικεύονται στην ανίχνευση PII και τη συλλογή, την αγрегάτωση και τη διάθεση, αν όχι την απευθείας μετάδοση, αυτών.
Με τα PII και άλλα προσωπικά δεδομένα να έχουν γίνει κάτι σαν εμπόρευμα και τη βιομηχανία διαμεσολαβητών δεδομένων να αναδύεται για να κερδίσει από αυτό, οποιαδήποτε προσωπικά δεδομένα που «βγάζονται έξω» είναι πολύ πιθανό να συλλεχθούν από διαμεσολαβητές δεδομένων και να διανεμηθούν ευρέως.
Οι Κίνδυνοι Ιδιωτικότητας της Γεννητικής Ιντελιτζέντσας σε Πλαίσιο
Πριν από το να εξετάσουμε τους κινδύνους που η γεννητική ιντελιτζέντσα δημιουργεί για την ιδιωτικότητα των χρηστών στο πλαίσιο συγκεκριμένων προϊόντων, υπηρεσιών και εταιρικών συνεργασιών, ας πάρουμε ένα βήμα πίσω και να δούμε πιο δομημένα το πλήρες φάσμα των κινδύνων της γεννητικής ιντελιτζέντσας. Γράφοντας για το IAPP, οι Moraes και Previtali έλαβαν μια δεδομένη προσέγγιση για την εξέλιξη της «Ταξινόμησης της Ιδιωτικότητας» του Solove το 2006, μειώνοντας τις 16 κινδύνους ιδιωτικότητας που περιγράφηκαν εκεί σε 12 κινδύνους ιδιωτικότητας που σχετίζονται με την ιντελιτζέντσα.
Αυτά είναι οι 12 κίνδυνοι ιδιωτικότητας που περιλαμβάνονται στην επανασχεδιασμένη ταξινόμηση:
- Επιτήρηση: Η ιντελιτζέντσα εξαγριάζει τους κινδύνους επιτήρησης αυξάνοντας την κλίμακα και τη πανταχού παρούσα συλλογή προσωπικών δεδομένων.
- Ταυτοποίηση: Οι τεχνολογίες της ιντελιτζέντσας επιτρέπουν την αυτοματοποιημένη σύνδεση ταυτοτήτων σε διάφορες πηγές δεδομένων, αυξάνοντας τους κινδύνους που σχετίζονται με την έκθεση προσωπικών ταυτοτήτων.
- Αγрегάτωση: Η ιντελιτζέντσα συνδυάζει διάφορα κομμάτια δεδομένων για ένα άτομο για να κάνει εικασίες, δημιουργώντας κινδύνους εισβολής στην ιδιωτικότητα.
- Φренολογία και φυσιογνωμία: Η ιντελιτζέντσα υποδηλώνει προσωπικότητα ή κοινωνικές ιδιότητες από φυσικά χαρακτηριστικά, μια νέα κατηγορία κινδύνου που δεν περιλαμβάνεται στην ταξινόμηση του Solove.
- Δευτερεύουσα χρήση: Η ιντελιτζέντσα εξαγριάζει τη χρήση προσωπικών δεδομένων για σκοπούς άλλους από τους αρχικά προβλεπόμενους μέσω της επαναχρήσης δεδομένων.
- Αποκλεισμός: Η ιντελιτζέντσα κάνει την αποτυχία να ενημερώσει ή να δώσει έλεγχο στους χρήστες για το πώς χρησιμοποιούνται τα δεδομένα τους χειρότερη μέσω αδιαφανών πρακτικών δεδομένων.
- Ανασφάλεια: Οι απαιτήσεις δεδομένων της ιντελιτζέντσας και οι πρακτικές αποθήκευσής της κινδυνεύουν από διαρροές δεδομένων και άσχετη πρόσβαση.
- Έκθεση: Η ιντελιτζέντσα μπορεί να αποκαλύψει ευαίσθητες πληροφορίες, όπως μέσω τεχνικών γεννητικής ιντελιτζέντσας.
- Διαστρέβλωση: Η ικανότητα της ιντελιτζέντσας να δημιουργήσει πραγματιστικά αλλά ψευδή περιεχόμενο αυξάνει τη διάδοση ψευδών ή παραπλανητικών πληροφοριών.
- Αποκάλυψη: Η ιντελιτζέντσα μπορεί να προκαλέσει άσχετη κοινοποίηση δεδομένων όταν υποδηλώνει πρόσθετες ευαίσθητες πληροφορίες από ακατέργαστα δεδομένα.
- Αύξηση της Προσβασιμότητας: Η ιντελιτζέντσα κάνει ευαίσθητες πληροφορίες πιο προσβάσιμες σε ένα ευρύτερο κοινό από ό,τι προορίζεται.
- Εισβολή: Οι τεχνολογίες της ιντελιτζέντσας εισβάλλουν στην προσωπική ζωή ή την ησυχία, συχνά μέσω μέτρων επιτήρησης.
Αυτό κάνει για κάτι khá ανησυχητικό. Είναι σημαντικό να σημειωθεί ότι αυτή η ταξινόμηση, προς το συμφέρον της, λαμβάνει υπόψη την τάση της γεννητικής ιντελιτζέντσας να οραματίζεται – να δημιουργήσει και να παρουσιάσει με σιγουριά ανακριβείς πληροφορίες. Αυτό το φαινόμενο, ακόμη και αν σπάνια αποκαλύπτει πραγματικές πληροφορίες, είναι επίσης ένας κίνδυνος ιδιωτικότητας. Η διάδοση ψευδών και παραπλανητικών πληροφοριών επηρεάζει την ιδιωτικότητα του υποκειμένου με τρόπους που είναι πιο υπονωτικοί από ό,τι στην περίπτωση ακριβών πληροφοριών, αλλά επηρεάζει την ιδιωτικότητα.
Ας κατεβούμε σε κάποια συγκεκριμένα παραδείγματα για το πώς αυτοί οι κίνδυνοι ιδιωτικότητας έρχονται σε παιχνίδι στο πλαίσιο πραγματικών προϊόντων ιντελιτζέντσας.
Απευθείας Αλληλεπιδράσεις με Συστήματα Γεννητικής Ιντελιτζέντσας
Η πιο απλή περίπτωση είναι αυτή που περιλαμβάνει έναν χρήστη που αλληλεπιδρά απευθείας με ένα σύστημα γεννητικής ιντελιτζέντσας, όπως το ChatGPT, το Midjourney ή το Gemini. Οι αλληλεπιδράσεις του χρήστη με πολλά από αυτά τα προϊόντα καταγράφονται, αποθηκεύονται και χρησιμοποιούνται για RLHF (ενίσχυση μάθησης από ανθρώπινη ανάδραση), επιτήρηση οδηγιών και λεπτομέρειες και ακόμη και για την προ-εκπαίδευση άλλων LLMs.
Μια ανάλυση των politikών ιδιωτικότητας πολλών υπηρεσιών όπως αυτές αποκαλύπτει επίσης άλλες δραστηριότητες κοινής χρήσης δεδομένων που βασίζονται σε διαφορετικούς σκοπούς, όπως η διαφήμιση και η διαμεσολάβηση δεδομένων. Αυτό είναι ένας άλλος τύπος κινδύνου ιδιωτικότητας που δημιουργείται από τη γεννητική ιντελιτζέντσα: αυτά τα συστήματα μπορούν να χαρακτηριστούν ως τεράστιες διοχετεύσεις δεδομένων, συλλέγοντας δεδομένα που παρέχονται από τους χρήστες καθώς και αυτά που δημιουργούνται μέσω των αλληλεπιδράσεών τους με το υποκείμενο LLM.
Αλληλεπιδράσεις με Ενσωματωμένα Συστήματα Γεννητικής Ιντελιτζέντσας
Κάποιοι χρήστες μπορεί να αλληλεπιδρούν με διεπαφές γεννητικής ιντελιτζέντσας που είναι ενσωματωμένες σε οποιοδήποτε προϊόν χρησιμοποιούν. Ο χρήστης μπορεί να γνωρίζει ότι χρησιμοποιεί μια «ιντελιτζέντσα» λειτουργία, αλλά είναι λιγότερο πιθανό να γνωρίζει τι αυτό σημαίνει σε σχέση με κινδύνους ιδιωτικότητας δεδομένων. Αυτό που έρχεται στο προσκήνιο με τα ενσωματωμένα συστήματα είναι η έλλειψη εκτίμησης του γεγονότος ότι προσωπικά δεδομένα που μοιράζονται με το LLM θα μπορούσαν να καταλήξουν στα χέρια των dévelopers και πιθανώς σε τρίτους συμβασιούχους.
Υπάρχουν δύο βαθμοί έλλειψης επίγνωσης εδώ: κάποιοι χρήστες συνειδητοποιούν ότι αλληλεπιδρούν με ένα προϊόν γεννητικής ιντελιτζέντσας· και κάποιοι πιστεύουν ότι χρησιμοποιούν οποιοδήποτε προϊόν η γεννητική ιντελιτζέντσα είναι ενσωματωμένη ή προσεγγίζεται μέσω. Σε οποιαδήποτε περίπτωση, ο χρήστης μπορεί να έχει (και πιθανότατα είχε) τεχνικά συγκατατίθενται στις όρους και προϋποθέσεις που σχετίζονται με τις αλληλεπιδράσεις του με το ενσωματωμένο σύστημα.
Άλλες Συνεργασίες που Εκθέτουν τους Χρήστες σε Συστήματα Γεννητικής Ιντελιτζέντσας
Κάποιες εταιρείες ενσωματώνουν ή περιλαμβάνουν διεπαφές γεννητικής ιντελιτζέντσας στα λογισμικά τους με τρόπους που είναι λιγότερο φανεροί, αφήνοντας τους χρήστες να αλληλεπιδρούν – και να μοιράζονται πληροφορίες – με τρίτους χωρίς να το συνειδητοποιούν. Ευτυχώς, η «ιντελιτζέντσα» έχει γίνει τόσο αποτελεσματικός πωλητής που είναι απίθανο μια εταιρεία να κρατήσει τέτοιες υλοποιήσεις μυστικές.
Ένα άλλο φαινόμενο σε αυτό το контέκστ είναι η αυξανόμενη αντίδραση που τέτοιες εταιρείες έχουν βιώσει μετά από απόπειρες να μοιράσουν δεδομένα χρηστών με εταιρείες γεννητικής ιντελιτζέντσας όπως η OpenAI. Η εταιρεία διαγραφής δεδομένων Optery, για παράδειγμα, πρόσφατα ανέστρεψε μια απόφαση να μοιράσει δεδομένα χρηστών με την OpenAI με βάση την εξαίρεση, που σημαίνει ότι οι χρήστες ήταν εγγεγραμμένοι στο πρόγραμμα από προεπιλογή.
Δεν ήταν μόνο οι πελάτες γρήγοροι να εκφράσουν την απογοήτευσή τους, αλλά η υπηρεσία διαγραφής δεδομένων της εταιρείας απομακρύνθηκε επίσης από τη λίστα συστημάτων υπηρεσιών διαγραφής δεδομένων της Privacy Guides. Η Optery ανέστρεψε την απόφασή της, αλλά η γενική αντίδραση είναι σημαντική εδώ: οι άνθρωποι αρχίζουν να εκτιμούν τους κινδύνους της μοιράσματος δεδομένων με «ιντελιτζέντσα» εταιρείες.
Η περίπτωση της Optery αποτελεί ένα καλό παράδειγμα εδώ γιατί οι χρήστες της είναι, σε κάποιο βαθμό, στην αιχμή της αυξανόμενης σκεπτικιστικής στάσης που περιβάλλει τις υλοποιήσεις της «ιντελιτζέντσας». Οι τύποι ανθρώπων που επιλέγουν μια υπηρεσία διαγραφής δεδομένων είναι επίσης, συνήθως, εκείνοι που θα προσεχθούν τις αλλαγές στις όρους και προϋποθέσεις και τις πολιτικές ιδιωτικότητας.
Απόδειξη μιας Αυξανόμενης Αντιδράσεως κατά της Χρήσης Δεδομένων της Γεννητικής Ιντελιτζέντσας
Οι συνειδητοί καταναλωτές ιδιωτικότητας δεν ήταν οι μόνοι που ανέβηκαν τις ανησυχίες για τα συστήματα γεννητικής ιντελιτζέντσας και τους σχετικούς κινδύνους ιδιωτικότητας δεδομένων. Στο νομοθετικό επίπεδο, η Νομοθεσία για την Ιντελιτζέντσα της ΕΕ κατηγοριοποιεί τους κινδύνους σύμφωνα με τη σοβαρότητά τους, με την ιδιωτικότητα δεδομένων να είναι το ρητά ή σιωπηρά κριτήριο για την απόδοση σοβαρότητας σε hầu hết τις περιπτώσεις. Ο νόμος επίσης αντιμετωπίζει τα ζητήματα της ενημερωμένης συγκατάθεσης που συζητήσαμε νωρίτερα.
Οι Ηνωμένες Πολιτείες, που είναι γνωστές για την αργή υιοθέτηση ολοκληρωμένης, ομοσπονδιακής νομοθεσίας για την ιδιωτικότητα δεδομένων, έχουν τουλάχιστον κάποια φράγματα σε θέση χάρη στην Εκτελεστική Διάταξη 14110. Πάλι, οι ανησυχίες για την ιδιωτικότητα δεδομένων είναι στην πρώτη γραμμή των σκοπών που δίνονται για τη Διάταξη: «η ασεβής χρήση [των τεχνολογιών της ιντελιτζέντσας] θα μπορούσε να εξαγριώσει τους κοινωνικούς ζημιές όπως η απάτη, η διάκριση, η προκατάληψη και η παραπληροφόρηση» – όλα σχετικά με τη διαθεσιμότητα και τη διάδοση προσωπικών δεδομένων.
Επιστρέφοντας στο επίπεδο του καταναλωτή, δεν είναι μόνο οι ιδιαίτερα συνειδητοί καταναλωτές ιδιωτικότητας που έχουν αντιδράσει στις εισβολικές υλοποιήσεις της γεννητικής ιντελιτζέντσας. Η «αισθαντική» λειτουργία «Ανάκληση» της Microsoft, που προοριζόταν για το λειτουργικό σύστημα Windows 11, είναι ένα πρωτοφανές παράδειγμα. Μόλις αποκαλύφθηκαν οι κίνδυνοι ιδιωτικότητας και ασφάλειας, η αντίδραση ήταν αρκετή για να κάνει την εταιρεία να πάρει πίσω. Δυστυχώς, η Microsoft φαίνεται να μην έχει εγκαταλείψει την ιδέα, αλλά η αρχική δημόσια αντίδραση είναι Tuy nhiên ενθαρρυντική.
Μένουμε στη Microsoft, το πρόγραμμα Copilot της έχει επικριθεί ευρέως για και προβλήματα ιδιωτικότητας δεδομένων και ασφάλειας. Όπως το Copilot εκπαιδεύτηκε σε δεδομένα GitHub (κυρίως πηγαίο κώδικα), η διαμάχη ανέκυψε επίσης γύρω από τις υποτιθέμενες παραβιάσεις της Microsoft των συμφωνιών αδειών λογισμικού των προγραμματιστών και των dévelopers. Είναι σε περιπτώσεις όπως αυτή που οι γραμμές μεταξύ ιδιωτικότητας δεδομένων και πνευματικών δικαιωμάτων αρχίζουν να θολώνουν, δίνοντας στην ιδιωτικότητα μια νομισματική αξία – κάτι που δεν είναι εύκολο να γίνει.
Ίσως η μεγαλύτερη ένδειξη ότι η «ιντελιτζέντσα» γίνεται μια κόκκινη σημαία στα μάτια των καταναλωτών είναι η ψύχρα έως την απροθυμή αντίδραση που η Apple έλαβε στην αρχική της εκτόξευση «ιντελιτζέντσας», ιδιαίτερα σε σχέση με τις συμφωνίες μοιράσματος δεδομένων με την OpenAI.
Οι Αναλυτικές Λύσεις
Υπάρχουν βήματα που οι νομοθέτες, οι dévelopers και οι εταιρείες μπορούν να λάβουν για να μετριάσουν κάποιους από τους κινδύνους που δημιουργούνται από τη γεννητική ιντελιτζέντσα. Αυτά είναι οι εξειδικευμένες λύσεις σε συγκεκριμένα μέρη του ευρύτερου προβλήματος, καμία από αυτές τις λύσεις δεν αναμένεται να είναι αρκετή, αλλά όλες μαζί, θα μπορούσαν να κάνουν μια πραγματική διαφορά.
- Ελαχιστοποίηση δεδομένων. Η ελαχιστοποίηση της ποσότητας των δεδομένων που συλλέγονται και αποθηκεύονται είναι ένα λογικό στόχο, αλλά είναι απευθείας αντίθετο με την επιθυμία των dévelopers της γεννητικής ιντελιτζέντσας για δεδομένα εκπαίδευσης.
- Διαφάνεια. Λόγω της τρέχουσας κατάστασης της τεχνολογίας ML, αυτό μπορεί να μην είναι ακόμη τεχνικά εφικτό σε πολλές περιπτώσεις. Η είσοδος στα δεδομένα που επεξεργάζονται και πώς όταν δημιουργείται μια δεδομένη έξοδος είναι ένας τρόπος για να διασφαλιστεί η ιδιωτικότητα στις αλληλεπιδράσεις με τη γεννητική ιντελιτζέντσα.
- Ανωνυμοποίηση. Οποιαδήποτε PII που δεν μπορεί να εξαχθεί από τα δεδομένα εκπαίδευσης (μέσω ελαχιστοποίησης δεδομένων) πρέπει να ανωνυμοποιηθεί. Το πρόβλημα είναι ότι πολλές δημοφιλείς τεχνικές ανωνυμοποίησης και ψευδωνυμοποίησης είναι εύκολα νικημένες.
- Συγκατάθεση χρήστη. Η απαίτηση από τους χρήστες να συγκατατίθενται στη συλλογή και τη μοιράσματος των δεδομένων τους είναι απαραίτητη, αλλά είναι πολύ ανοιχτή στην κακοποίηση και πολύ ευάλωτη στην καταναλωτική αδιαφορία για να είναι αποτελεσματική. Είναι η ενημερωμένη συγκατάθεση που χρειάζεται εδώ και οι περισσότεροι καταναλωτές, σωστά ενημερωμένοι, δεν θα συγκατατίθενταν σε τέτοια μοιράσματος δεδομένων, οπότε οι κίνητρες είναι ανταγωνιστικές.
- Ασφάλεια δεδομένων κατά τη μεταφορά και την αποθήκευση. Ένα άλλο θεμέλιο τόσο της ιδιωτικότητας όσο και της ασφάλειας δεδομένων, η προστασία δεδομένων μέσω κρυπτογραφικών και άλλων μέσων μπορεί πάντα να γίνει πιο αποτελεσματική. Ωστόσο, τα συστήματα γεννητικής ιντελιτζέντσας έχουν την τάση να διαρρέουν δεδομένα μέσω των διεπαφών τους, καθιστώντας το μόνο μέρος της λύσης.
- Επιβολή πνευματικών δικαιωμάτων και νομών πνευματικής ιδιοκτησίας στο контέκστ της «ιντελιτζέντσας». Η ML μπορεί να λειτουργήσει σε «μαύρο κουτί», καθιστώντας δύσκολο αν όχι αδύνατο να ανιχνευθεί ποιο πνευματικά δικαιώματα και πνευματική ιδιοκτησία καταλήγουν σε ποια έξοδος της γεννητικής ιντελιτζέντσας.
- Ελέγχοι. Ένα άλλο κρίσιμο μέτρο φραγμών που αποτρέπει η φύση «μαύρου κουτιού» των LLMs και των συστημάτων γεννητικής ιντελιτζέντσας που υποστηρίζουν. Αυτό το εγγενές περιορισμό ενισχύεται από την κλειστή φύση της πλειοψηφίας των προϊόντων γεννητικής ιντελιτζέντσας, η οποία περιορίζει τους ελέγχους μόνο σε εκείνους που πραγματοποιούνται στη διακριτική ευχέρεια του dévelopera.
Όλες αυτές οι προσεγγίσεις στο πρόβλημα είναι έγκυρες και απαραίτητες, αλλά καμία δεν είναι αρκετή. Απαιτούν όλες νομοθετική υποστήριξη για να έρθουν σε σημαντική επίδραση, που σημαίνει ότι είναι καταδικασμένες να μείνουν πίσω από την εξέλιξη του δυναμικού αυτού πεδίου.
Η Σαφής Λύση
Η λύση στους κινδύνους ιδιωτικότητας που δημιουργούνται από τη γεννητική ιντελιτζέντσα δεν είναι επαναστατική ούτε ενθουσιώδης, αλλά όταν ληφθεί στο λογικό της σύμπερασμα, τα αποτελέσματα θα μπορούσαν να είναι και τα δύο. Η σαφής λύση περιλαμβάνει τους καθημερινούς καταναλωτές να γίνονται ενήμεροι για την αξία των δεδομένων τους στις εταιρείες και την ανεκτίμητη αξία της ιδιωτικότητας δεδομένων για τον εαυτό τους.
Οι καταναλωτές είναι οι πηγές και οι κινητήρες πίσω από τις ιδιωτικές πληροφορίες που τροφοδοτούν την moderne επιτήρηση οικονομίας. Μόλις μια κρίσιμη μάζα καταναλωτών αρχίσει να ελέγχει τη ροή ιδιωτικών δεδομένων στο δημόσιο χώρο και αρχίσει να απαιτεί λογοδοσία από τις εταιρείες που διακινούν προσωπικά δεδομένα, το σύστημα θα πρέπει να αυτοδιορθωθεί.
Το ενθαρρυντικό για τη γεννητική ιντελιτζέντσα είναι ότι, αντίθετα με τα τρέχοντα μοντέλα διαφήμισης και μάρκετινγκ, δεν χρειάζεται να περιλαμβάνει προσωπικές πληροφορίες σε κανένα στάδιο. Τα δεδομένα προ-εκπαίδευσης και λεπτομέρειες δεν χρειάζεται να περιλαμβάνουν PII ή άλλα προσωπικά δεδομένα και οι χρήστες δεν χρειάζεται να εκθέσουν τα ίδια κατά τη διάρκεια των αλληλεπιδράσεών τους με συστήματα γεννητικής ιντελιτζέντσας.
Για να αφαιρέσουν τα προσωπικά δεδομένα τους από τα δεδομένα εκπαίδευσης, οι άνθρωποι μπορούν να πάνε στη πηγή και να αφαιρέσουν τα προφίλ τους από τις διάφορες εταιρείες διαμεσολαβητών δεδομένων (συμπεριλαμβανομένων των ιστοσελίδων αναζήτησης ανθρώπων) που συλλέγουν δημόσιους καταλόγους, φέρνοντας τους στην κυκλοφορία στην ανοιχτή αγορά. Υπηρεσίες διαγραφής προσωπικών δεδομένων αυτοματοποιούν τη διαδικασία, καθιστώντας την γρήγορη και εύκολη. Φυσικά, η αφαίρεση προσωπικών δεδομένων από τις βάσεις δεδομένων αυτών των εταιρειών έχει πολλά άλλα οφέλη και κανένα μειονέκτημα.
Οι άνθρωποι επίσης δημιουργούν προσωπικά δεδομένα όταν αλληλεπιδρούν με λογισμικό, συμπεριλαμβανομένης της γεννητικής ιντελιτζέντσας. Για να ελέγξουν τη ροή αυτών των δεδομένων, οι χρήστες θα πρέπει να είναι πιο προσεκτικοί ότι οι αλληλεπιδράσεις τους καταγράφονται, αναθεωρούνται, αναλύονται και μοιράζονται. Οι επιλογές τους για την αποφυγή αυτού περιορίζονται στο να περιορίσουν τι αποκαλύπτουν σε διαδικτυακά συστήματα και να χρησιμοποιούν τοπικές, ανοιχτές LLMs όπου είναι δυνατόν. Οι άνθρωποι, γενικά, ήδη κάνουν μια καλή δουλειά στη ρύθμιση του τι συζητούν δημόσια – απλώς χρειάζεται να επεκτείνουμε αυτές τις ενστικτώδεις σκέψεις στο πεδίο της γεννητικής ιντελιτζέντσας.












