στέλεχος Οι κίνδυνοι των AI Chatbots - Και πώς να τους αντιμετωπίσετε - Unite.AI
Συνδεθείτε μαζί μας

Ηγέτες της σκέψης

Οι κίνδυνοι των AI Chatbots – Και πώς να τους αντιμετωπίσετε

mm

Δημοσιευμένα

 on

Κάποτε θεωρούνταν απλώς αυτοματοποιημένα προγράμματα ομιλίας, τα chatbot AI μπορούν τώρα να μαθαίνουν και να διεξάγουν συνομιλίες που δεν διακρίνονται σχεδόν από τους ανθρώπους. Ωστόσο, οι κίνδυνοι των chatbot AI είναι εξίσου διαφορετικοί.

Αυτά μπορεί να κυμαίνονται από άτομα που τα κάνουν κατάχρηση έως πραγματικούς κινδύνους για την ασφάλεια στον κυβερνοχώρο. Καθώς οι άνθρωποι βασίζονται όλο και περισσότερο στην τεχνολογία AI, η γνώση των πιθανών επιπτώσεων από τη χρήση αυτών των προγραμμάτων είναι απαραίτητη. Είναι όμως επικίνδυνα τα bots;

1. Μεροληψία και Διακρίσεις

Ένας από τους μεγαλύτερους κινδύνους των chatbot AI είναι η τάση τους προς επιβλαβείς προκαταλήψεις. Επειδή η τεχνητή νοημοσύνη δημιουργεί συνδέσεις μεταξύ σημείων δεδομένων που συχνά χάνουν οι άνθρωποι, μπορεί να εντοπίσει λεπτές, σιωπηρές προκαταλήψεις στα δεδομένα εκπαίδευσης για να διδάξει τον εαυτό της να κάνει διακρίσεις. Ως αποτέλεσμα, τα chatbots μπορούν γρήγορα να μάθουν να εκπέμπουν ρατσιστικό, σεξιστικό ή με άλλο τρόπο περιεχόμενο που εισάγει διακρίσεις, ακόμα κι αν δεν υπήρχε τίποτα τόσο ακραίο στα δεδομένα εκπαίδευσής τους.

Ένα χαρακτηριστικό παράδειγμα είναι το ρομπότ προσλήψεων της Amazon που έχει καταργηθεί. Το 2018, προέκυψε ότι η Amazon είχε εγκαταλείψει ένα έργο AI προοριζόταν να αξιολογήσει εκ των προτέρων τα βιογραφικά των υποψηφίων, επειδή τιμωρούσε τις αιτήσεις από γυναίκες. Επειδή τα περισσότερα από τα βιογραφικά στα οποία εκπαιδεύτηκε το bot ήταν ανδρικά, έμαθε ότι οι άνδρες υποψήφιοι ήταν προτιμότεροι, ακόμα κι αν τα δεδομένα εκπαίδευσης δεν το έλεγαν ρητά.

Τα chatbot που χρησιμοποιούν περιεχόμενο Διαδικτύου για να διδάξουν τον εαυτό τους πώς να επικοινωνούν φυσικά τείνουν να επιδεικνύουν ακόμη πιο ακραίες προκαταλήψεις. Το 2016, η Microsoft παρουσίασε ένα chatbot με το όνομα Tay που έμαθε να μιμείται τις αναρτήσεις στα μέσα κοινωνικής δικτύωσης. Μέσα σε λίγες ώρες, αυτό άρχισε να δημοσιεύει άκρως προσβλητικό περιεχόμενο στο Twitter, με αποτέλεσμα η Microsoft να αναστείλει τον λογαριασμό σύντομα.

Εάν οι εταιρείες δεν είναι προσεκτικές κατά την κατασκευή και την ανάπτυξη αυτών των bot, ενδέχεται να οδηγήσουν κατά λάθος σε παρόμοιες καταστάσεις. Τα chatbots θα μπορούσαν να κακομεταχειριστούν τους πελάτες ή να διαδώσουν επιβλαβές μεροληπτικό περιεχόμενο που υποτίθεται ότι θα αποτρέψουν.

2. Κίνδυνοι κυβερνοασφάλειας

Οι κίνδυνοι της τεχνολογίας chatbot AI μπορεί επίσης να αποτελέσουν μια πιο άμεση απειλή για την ασφάλεια στον κυβερνοχώρο για τους ανθρώπους και τις επιχειρήσεις. Μία από τις πιο παραγωγικές μορφές κυβερνοεπιθέσεων είναι το phishing και οι απάτες vishing. Αυτά περιλαμβάνουν εισβολείς στον κυβερνοχώρο που μιμούνται αξιόπιστους οργανισμούς όπως τράπεζες ή κρατικοί φορείς.

Οι απάτες ηλεκτρονικού "ψαρέματος" (phishing) συνήθως λειτουργούν μέσω email και μηνυμάτων κειμένου — κάνοντας κλικ στη σύνδεση επιτρέπει την είσοδο κακόβουλου λογισμικού στο σύστημα του υπολογιστή. Μόλις εισέλθει, ο ιός μπορεί να κάνει οτιδήποτε, από την κλοπή προσωπικών πληροφοριών έως τη διατήρηση του συστήματος για λύτρα.

Το ποσοστό των επιθέσεων phishing αυξάνεται σταθερά κατά τη διάρκεια και μετά την πανδημία COVID-19. Ο Οργανισμός Κυβερνοασφάλειας & Ασφάλειας Υποδομών βρήκε το 84% των ατόμων απάντησε σε μηνύματα ηλεκτρονικού ψαρέματος με ευαίσθητες πληροφορίες ή έκανε κλικ στον σύνδεσμο.

Οι phishers χρησιμοποιούν τεχνολογία chatbot AI για να αυτοματοποιήσουν την αναζήτηση για θύματα, να τα πείσουν να κάνουν κλικ σε συνδέσμους και να παραιτηθούν από προσωπικές πληροφορίες. Τα chatbots χρησιμοποιούνται από πολλά χρηματοπιστωτικά ιδρύματα — όπως οι τράπεζες — για να βελτιστοποιήσουν την εμπειρία εξυπηρέτησης πελατών.

Οι phishers των Chatbots μπορούν να μιμηθούν τις ίδιες αυτοματοποιημένες προτροπές που χρησιμοποιούν οι τράπεζες για να ξεγελάσουν τα θύματα. Μπορούν επίσης να καλούν αυτόματα αριθμούς τηλεφώνου ή να επικοινωνούν απευθείας με τα θύματα σε διαδραστικές πλατφόρμες συνομιλίας.

3. Δηλητηρίαση δεδομένων

Η δηλητηρίαση δεδομένων είναι μια νέα κυβερνοεπίθεση που στοχεύει άμεσα την τεχνητή νοημοσύνη. Η τεχνολογία AI μαθαίνει από σύνολα δεδομένων και χρησιμοποιεί αυτές τις πληροφορίες για να ολοκληρώσει εργασίες. Αυτό ισχύει για όλα τα προγράμματα AI, ανεξάρτητα από το σκοπό ή τις λειτουργίες τους.

Για τεχνητές νοημοσύνης chatbot, αυτό σημαίνει ότι μαθαίνουν πολλαπλές απαντήσεις σε πιθανές ερωτήσεις που μπορούν να τους κάνουν οι χρήστες. Ωστόσο, αυτός είναι επίσης ένας από τους κινδύνους της τεχνητής νοημοσύνης.

Αυτά τα σύνολα δεδομένων είναι συχνά εργαλεία και πόροι ανοιχτού κώδικα διαθέσιμα σε οποιονδήποτε. Αν και οι εταιρείες τεχνητής νοημοσύνης κρατούν συνήθως ένα αυστηρά προστατευμένο μυστικό των πηγών δεδομένων τους, οι εισβολείς στον κυβερνοχώρο μπορούν να προσδιορίσουν ποιες χρησιμοποιούν και να χειριστούν τα δεδομένα.

Οι επιτιθέμενοι στον κυβερνοχώρο μπορούν να βρουν τρόπους παραβιάσει τα σύνολα δεδομένων χρησιμοποιείται για την εκπαίδευση AI, επιτρέποντάς τους να χειραγωγούν τις αποφάσεις και τις απαντήσεις τους. Η τεχνητή νοημοσύνη θα χρησιμοποιήσει τις πληροφορίες από τα τροποποιημένα δεδομένα και θα εκτελέσει ενέργειες που θέλουν οι επιτιθέμενοι.

Για παράδειγμα, μία από τις πιο συχνά χρησιμοποιούμενες πηγές για σύνολα δεδομένων είναι οι πόροι του Wiki, όπως η Wikipedia. Αν και τα δεδομένα δεν προέρχονται από το ζωντανό άρθρο της Wikipedia, προέρχονται από στιγμιότυπα δεδομένων που λαμβάνονται σε συγκεκριμένες ώρες. Οι χάκερ μπορούν να βρουν έναν τρόπο να επεξεργαστούν τα δεδομένα για να τους ωφελήσουν.

Στην περίπτωση των τεχνητών νοημοσύνης chatbot, οι χάκερ μπορούν να καταστρέψουν τα σύνολα δεδομένων που χρησιμοποιούνται για την εκπαίδευση των chatbot που λειτουργούν για ιατρικά ή χρηματοπιστωτικά ιδρύματα. Μπορούν να χειριστούν προγράμματα chatbot για να δώσουν στους πελάτες ψευδείς πληροφορίες που θα μπορούσαν να τους οδηγήσουν να κάνουν κλικ σε έναν σύνδεσμο που περιέχει κακόβουλο λογισμικό ή έναν δόλιο ιστότοπο. Μόλις το AI αρχίσει να αντλεί από δηλητηριασμένα δεδομένα, είναι δύσκολο να εντοπιστεί και μπορεί να οδηγήσει σε σημαντική παραβίαση της κυβερνοασφάλειας που περνά απαρατήρητη για μεγάλο χρονικό διάστημα.

Πώς να αντιμετωπίσετε τους κινδύνους των AI Chatbots

Αυτοί οι κίνδυνοι είναι ανησυχητικοί, αλλά δεν σημαίνουν ότι τα bots είναι εγγενώς επικίνδυνα. Αντίθετα, θα πρέπει να τα προσεγγίσετε προσεκτικά και να λάβετε υπόψη αυτούς τους κινδύνους κατά τη δημιουργία και τη χρήση chatbot.

Το κλειδί για την πρόληψη της προκατάληψης της τεχνητής νοημοσύνης είναι η αναζήτηση της κατά τη διάρκεια της εκπαίδευσης. Φροντίστε να το εκπαιδεύσετε σε διάφορα σύνολα δεδομένων και να το προγραμματίσετε συγκεκριμένα για να αποφύγετε να παραγοντοποιήσετε πράγματα όπως η φυλή, το φύλο ή ο σεξουαλικός προσανατολισμός στη λήψη των αποφάσεών του. Είναι επίσης καλύτερο να έχετε μια διαφορετική ομάδα επιστημόνων δεδομένων που θα εξετάζουν τις εσωτερικές λειτουργίες των chatbot και θα διασφαλίζουν ότι δεν παρουσιάζουν προκαταλήψεις, όσο λεπτές κι αν είναι.

Η καλύτερη άμυνα ενάντια στο phishing είναι η εκπαίδευση. Εκπαιδεύστε όλους τους υπαλλήλους να εντοπίζουν κοινά σημάδια απόπειρας phishing για να μην πέφτουν σε αυτές τις επιθέσεις. Η διάδοση της ευαισθητοποίησης των καταναλωτών γύρω από το ζήτημα θα βοηθήσει επίσης.

Μπορείτε να αποτρέψετε τη δηλητηρίαση δεδομένων περιορίζοντας την πρόσβαση στα δεδομένα εκπαίδευσης των chatbots. Μόνο άτομα που χρειάζονται πρόσβαση σε αυτά τα δεδομένα για να κάνουν σωστά τη δουλειά τους θα πρέπει να έχουν εξουσιοδότηση — μια έννοια που ονομάζεται αρχή του ελάχιστου προνομίου. Μετά την εφαρμογή αυτών των περιορισμών, χρησιμοποιήστε ισχυρά μέτρα επαλήθευσης, όπως έλεγχο ταυτότητας πολλαπλών παραγόντων ή βιομετρικά στοιχεία, για να αποτρέψετε τους κινδύνους εισβολής εγκληματιών στον κυβερνοχώρο σε έναν εξουσιοδοτημένο λογαριασμό.

Μείνετε σε επαγρύπνηση ενάντια στους κινδύνους της AI Reliance

Η τεχνητή νοημοσύνη είναι μια πραγματικά εκπληκτική τεχνολογία με σχεδόν ατελείωτες εφαρμογές. Ωστόσο, οι κίνδυνοι της τεχνητής νοημοσύνης μπορεί να είναι σκοτεινοί. Είναι επικίνδυνα τα bots; Όχι εγγενώς, αλλά οι εγκληματίες του κυβερνοχώρου μπορούν να τα χρησιμοποιήσουν με διάφορους διασπαστικούς τρόπους. Εναπόκειται στους χρήστες να αποφασίσουν ποιες είναι οι εφαρμογές αυτής της νέας τεχνολογίας.

Ο Zac Amos είναι συγγραφέας τεχνολογίας που εστιάζει στην τεχνητή νοημοσύνη. Είναι επίσης ο Επεξεργαστής Χαρακτηριστικών στο Rehack, όπου μπορείτε να διαβάσετε περισσότερα από τη δουλειά του.