Connect with us

Εкспέρτες του AI Κατατάσσουν τις Deepfakes και 19 Άλλες Εγκλήματα Βασισμένα στο AI Με Βάση το Επίπεδο Κινδύνου

Τεχνητή νοημοσύνη

Εкспέρτες του AI Κατατάσσουν τις Deepfakes και 19 Άλλες Εγκλήματα Βασισμένα στο AI Με Βάση το Επίπεδο Κινδύνου

mm

Một νέα αναφορά που δημοσιεύθηκε από το Πανεπιστήμιο του Λονδίνου είχε ως στόχο να αναγνωρίσει τους πολλούς διαφορετικούς τρόπους με τους οποίους το AI θα μπορούσε να βοηθήσει τους εγκληματίες τα επόμενα 15 χρόνια. Η αναφορά είχε 31 διαφορετικούς εμπειρογνώμονες του AI να λάβουν 20 διαφορετικές μεθόδους χρήσης του AI για την διέπραξη εγκλημάτων και να τις κατατάξουν με βάση διάφορους παράγοντες. Οι εμπειρογνώμονες του AI κατέταξαν τα εγκλήματα σύμφωνα με μεταβλητές όπως η ευκολία με την οποία θα μπορούσε να διαπραχθεί το έγκλημα, ο potεντικός κοινωνικός κίνδυνος που θα μπορούσε να προκαλέσει το έγκλημα, το ποσό χρημάτων που θα μπορούσε να κερδίσει ένας εγκληματίας και πόσο δύσκολο θα ήταν να σταματήσει το έγκλημα. Σύμφωνα με τα αποτελέσματα της αναφοράς, οι Deepfakes αποτέλεσαν την μεγαλύτερη απειλή για τους νομότυπους πολίτες και την κοινωνία γενικά, καθώς η δυνατότητά τους για εκμετάλλευση από εγκληματίες και τρομοκράτες είναι υψηλή.

Οι εμπειρογνώμονες του AI κατέταξαν τις Deepfakes στην κορυφή της λίστας των potεντικών απειλών του AI, επειδή οι Deepfakes είναι δύσκολο να αναγνωριστούν και να αντιμετωπιστούν. Οι Deepfakes συνεχίζουν να βελτιώνονται στο να εξαπατούν ακόμη και τα μάτια των εμπειρογνώμονων των Deepfakes και ακόμη και άλλες μεθόδους ανίχνευσης των Deepfakes με βάση το AI είναι συχνά αναξιόπιστες. Όσον αφορά την ικανότητά τους να προκαλέσουν ζημιά, οι Deepfakes μπορούν εύκολα να χρησιμοποιηθούν από κακόβουλους ηθοποιούς για να διακρίνουν αξιόπιστους, εμπειρογνώμονες ή να προσπαθήσουν να απάτησουν ανθρώπους υποδυόμενοι αγαπημένα πρόσωπα ή άλλα αξιόπιστα άτομα. Εάν οι Deepfakes είναι άφθονες, οι άνθρωποι θα μπορούσαν να αρχίσουν να χάνουν την εμπιστοσύνη τους σε οποιοδήποτε ήχο ή βίντεο, το οποίο θα μπορούσε να τους κάνει να χάσουν την πίστη στη νομιμότητα των πραγματικών γεγονότων και γεγονότων.

Ο Δρ Matthew Caldwell, από το Τμήμα Πληροφορικής του UCL, ήταν ο πρώτος συγγραφέας του εγγράφου. Ο Caldwell υπογραμμίζει την αυξανόμενη απειλή των Deepfakes καθώς και περισσότερη δραστηριότητα μεταφέρεται στο διαδίκτυο. Όπως ο Caldwell αναφέρθηκε από το UCL News:

“Σε αντίθεση με πολλά παραδοσιακά εγκλήματα, τα εγκλήματα στο ψηφιακό χώρο μπορούν να μοιραστούν εύκολα, να επαναληφθούν και ακόμη και να πουληθούν, επιτρέποντας στις εγκληματικές τεχνικές να αγοραστούν και να προσφερθούν ως υπηρεσία. Αυτό σημαίνει ότι οι εγκληματίες μπορεί να είναι σε θέση να εξαγοράσουν τα πιο δύσκολα μέρη του εγκλήματός τους με βάση το AI.”

Η ομάδα των εμπειρογνώμονων κατέταξε πέντε άλλες αναδυόμενες τεχνολογίες του AI ως υψηλά προβληματικές potεντικές αιτίες για νέους τύπους εγκλημάτων: οχήματα χωρίς οδηγό που χρησιμοποιούνται ως όπλα, επιθέσεις χάκερ σε συστήματα και συσκευές ελεγχόμενες από το AI, συλλογή δεδομένων στο διαδίκτυο για σκοπούς εκβίασης, φишινγκ με βάση το AI που περιλαμβάνει προσωποποιημένα μηνύματα και ψευδείς ειδήσεις/ψευδείς πληροφορίες γενικά.

Σύμφωνα με τον Shane Johnson, τον Διευθυντή του Κέντρου Dawes για τα Μελλοντικά Εγκλήματα στο UCL, ο στόχος της μελέτης ήταν να αναγνωρίσει πιθανές απειλές που συνδέονται με νεοεμφανιζόμενες τεχνολογίες και να υποθέσει τρόπους για να προηγηθούμε αυτών των απειλών. Ο Johnson λέει ότι καθώς η ταχύτητα της τεχνολογικής αλλαγής αυξάνεται, είναι απαραίτητο να “προβλέψουμε τις μελλοντικές απειλές εγκλημάτων, ώστε οι φορείς χάριν των οποίων έχουν την ικανότητα να ενεργήσουν να μπορέσουν να το κάνουν πριν από την εμφάνιση νέων ‘συνόδων εγκλημάτων'”.

Όσον αφορά τα άλλα 14 πιθανά εγκλήματα στη λίστα, αυτά χωρίστηκαν σε δύο κατηγορίες: μέτρια ανησυχία και χαμηλή ανησυχία.

Τα εγκλήματα του AI που προκαλούν μέτρια ανησυχία περιλαμβάνουν την κακοποίηση των στρατιωτικών ρομπότ, τη δηλητηρίαση δεδομένων, τα αυτόματα drones επιθέσεων, τις κυβερνοεπιθέσεις με βάση τη μάθηση, τις επιθέσεις άρνησης υπηρεσίας για δραστηριότητες στο διαδίκτυο, τη χειραγώγηση των χρηματαγορών/μετοχών, το “snake oil” (πώληση ψευδών υπηρεσιών με τη μάσκα της ορολογίας του AI/ML) και την απάτη της αναγνώρισης προσώπου.

Τα εγκλήματα του AI που προκαλούν χαμηλή ανησυχία περιλαμβάνουν την πλαστογράφηση τέχνης ή μουσικής, την παρενόχληση με τη βοήθεια του AI, τις ψευδείς κριτικές που γράφονται από το AI, την αποφυγή μεθόδων ανίχνευσης του AI και τα “μπουργκλαρ μπότ” (ρόμποτ που μπαίνουν στα σπίτια για να κλέψουν πράγματα).

Φυσικά, τα μοντέλα του AI μπορούν να χρησιμοποιηθούν για να βοηθήσουν στην καταπολέμηση κάποιων από αυτά τα εγκλήματα. Πρόσφατα, μοντέλα του AI έχουν αναπτυχθεί για να βοηθήσουν στην ανίχνευση σχημάτων πλύσης χρημάτων, ανιχνεύοντας ύποπτες χρηματοοικονομικές συναλλαγές. Τα αποτελέσματα αναλύονται από ανθρώπινους χειριστές που στη συνέχεια εγκρίνουν ή απορρίπτουν την ειδοποίηση, και η ανατροφοδότηση χρησιμοποιείται για να βελτιώσει το μοντέλο. Φαίνεται πιθανό ότι το μέλλον θα περιλαμβάνει AIs που θα πιέζονται ο ένας τον άλλον, με εγκληματίες που θα προσπαθούν να σχεδιάσουν τα καλύτερα εργαλεία τους με βάση το AI και ασφάλεια, επιβολή του νόμου και άλλοι ηθικοί σχεδιαστές του AI που θα προσπαθούν να σχεδιάσουν τα καλύτερα συστήματα του AI.

Blogger και προγραμματιστής με ειδικότητες στα Machine Learning και Deep Learning θέματα. Ο Daniel ελπίζει να βοηθήσει τους άλλους να χρησιμοποιήσουν τη δύναμη του AI για κοινωνικό καλό.