Connect with us

Ηγέτες σκέψης

Πώς να Ενεργοποιήσουμε την Ηθική του AI;

mm

Το AI αφορά την βελτιστοποίηση των διαδικασιών, όχι την εξάλειψη των ανθρώπων από αυτές. Η ευθύνη παραμένει κρίσιμη στην υπέρτατη ιδέα ότι το AI μπορεί να αντικαταστήσει τους ανθρώπους. Ενώ η τεχνολογία και οι αυτοματοποιημένοι συστήματα μας έχουν βοηθήσει να επιτύχουμε καλύτερα οικονομικά αποτελέσματα τον τελευταίο αιώνα, μπορούν πραγματικά να αντικαταστήσουν τις υπηρεσίες, τη δημιουργικότητα και τη βαθιά γνώση; Πιστεύω ακόμη ότι δεν μπορούν, αλλά μπορούν να βελτιστοποιήσουν τον χρόνο που dànhεται στην ανάπτυξη αυτών των τομέων.

Η ευθύνη εξαρτάται σε μεγάλο βαθμό από τα δικαιώματα πνευματικής ιδιοκτησίας, την πρόβλεψη του αντικτύπου της τεχνολογίας στα συλλογικά και ατομικά δικαιώματα και την εγγύηση της ασφάλειας και προστασίας των δεδομένων που χρησιμοποιούνται στην εκπαίδευση και διαμοιρασμό ενώ αναπτύσσουμε νέα μοντέλα. Καθώς συνεχίζουμε να προχωράμε στην τεχνολογία, το θέμα της ηθικής του AI έχει γίνει ολοένα και πιο σχετικό. Αυτό θέτει σημαντικά ερωτήματα σχετικά με το πώς να ρυθμίζουμε και να ενσωματώνουμε το AI στην κοινωνία ενώ ελαχιστοποιούμε τους πιθανούς κινδύνους.

Συνεργάζομαι στενά με ένα аспект του AI – την κλωνοποίηση φωνής. Η φωνή είναι ένα σημαντικό μέρος της ομοιότητας και των βιομετρικών δεδομένων που χρησιμοποιούνται για την εκπαίδευση μοντέλων φωνής. Η προστασία της ομοιότητας (νομικά και πολιτικά ερωτήματα), η ασφάλεια των δεδομένων φωνής (πολιτικές ιδιωτικού απορρήτου και κυβερνοασφάλειας) και η καθορισμένη των ορίων της εφαρμογής της κλωνοποίησης φωνής (ηθικά ερωτήματα που μετρούν την επίδραση) είναι απαραίτητα να ληφθούν υπόψη ενώ κατασκευάζουμε το προϊόν.

Πρέπει να αξιολογήσουμε πώς το AI ευθυγραμμίζεται με τα πρότυπα και τις αξίες της κοινωνίας. Το AI πρέπει να προσαρμοστεί για να ταιριάξει μέσα στο υπάρχον ηθικό πλαίσιο της κοινωνίας, εξασφαλίζοντας ότι δεν επιβάλλει πρόσθετους κινδύνους ή απειλεί τα καθιερωμένα κοινωνικά πρότυπα. Η επίδραση της τεχνολογίας καλύπτει περιοχές όπου το AI ενδυναμώνει μια ομάδα ατόμων ενώ εξαφανίζει άλλους. Αυτό το υπαρξιακό δίλημμα προκύπτει σε κάθε στάδιο της ανάπτυξής μας και της κοινωνικής ανάπτυξης ή παρακμής. Μπορεί το AI να εισαγάγει περισσότερη παραπληροφόρηση στα οικοσυστήματα πληροφόρησης; Ναι. Πώς διαχειριζόμαστε αυτό τον κίνδυνο στο επίπεδο του προϊόντος και πώς εκπαιδεύουμε τους χρήστες και τους πολιτικούς για αυτό; Οι απαντήσεις δεν βρίσκονται στα خودά της τεχνολογίας, αλλά στο πώς τα συσκευάζουμε σε προϊόντα και υπηρεσίες. Αν δεν έχουμε αρκετό ανθρώπινο δυναμικό στις ομάδες προϊόντων για να κοιτάξουμε πέρα και να αξιολογήσουμε την επίδραση της τεχνολογίας, θα μείνουμε σε einen κύκλο διόρθωσης του χάους.

Η ενσωμάτωση του AI στα προϊόντα θέτει ερωτήματα σχετικά με την ασφάλεια του προϊόντος και την πρόληψη της ζημιάς που σχετίζεται με το AI. Η ανάπτυξη και εφαρμογή του AI πρέπει να προτεραιοποιήσει την ασφάλεια και τις ηθικές σκέψεις, το οποίο απαιτεί την κατανομή πόρων σε σχετικές ομάδες.

Για να διευκολύνουμε την αναδυόμενη συζήτηση για την ενεργοποίηση της ηθικής του AI, προτείνω αυτόν τον βασικό κύκλο για να κάνουμε το AI ηθικό στο επίπεδο του προϊόντος:

1. Ερευνήστε τα νομικά аспекта του AI και πώς το ρυθμίζουμε, αν υπάρχουν κανονισμοί. Αυτά περιλαμβάνουν τον νόμο της ΕΕ για το AI, τον νόμο για τις ψηφιακές υπηρεσίες, τον νόμο του Ηνωμένου Βασιλείου για την ασφάλειαออนไลน, και τον GDPR για την ιδιωτικότητα των δεδομένων. Τα πλαίσια είναι έργα σε εξέλιξη και χρειάζονται εισαγωγή από τους ηγέτες της βιομηχανίας (εμφερίζουσα τεχνολογία) και τους ηγέτες. Δείτε το σημείο (4) που ολοκληρώνει τον προτεινόμενο κύκλο.

2. Σκεφτείτε πώς να προσαρμόσετε τα προϊόντα που βασίζονται στο AI στα πρότυπα της κοινωνίας χωρίς να επιβάλλουν περισσότερους κινδύνους. Μήπως επηρεάζει την ασφάλεια των πληροφοριών ή τον τομέα εργασίας, ή μήπως παραβιάζει τα πνευματικά δικαιώματα και τα δικαιώματα πνευματικής ιδιοκτησίας; Δημιουργήστε μια матриξ βασισμένη σε σενάρια κρίσης. Το αντλώ από το διεθνές υπόβαθρο ασφαλείας.

3. Καθορίστε πώς να ενσωματώσετε τα παραπάνω στα προϊόντα που βασίζονται στο AI. Καθώς το AI γίνεται πιο εξελιγμένο, πρέπει να διασφαλίσουμε ότι ευθυγραμμίζεται με τα πρότυπα και τις αξίες της κοινωνίας. Πρέπει να είμαστε προδραστικοί στην αντιμετώπιση των ηθικών σκέψεων και στην ενσωμάτωση τους στην ανάπτυξη και εφαρμογή του AI. Αν τα προϊόντα που βασίζονται στο AI, όπως το γεννητικό AI, απειλούν να διαδώσουν περισσότερη παραπληροφόρηση, πρέπει να εισαγάγουμε χαρακτηριστικά μείωσης, μεσολάβηση, περιορισμό της πρόσβασης στην πυρήνα τεχνολογίας και επικοινωνία με τους χρήστες. Είναι ζωτικό να έχουμε ομάδες ηθικής και ασφάλειας του AI στα προϊόντα που βασίζονται στο AI, το οποίο απαιτεί πόρους και όραμα εταιρείας.

Σκεφτείτε πώς μπορούμε να συνεισφέρουμε και να διαμορφώσουμε τα νομικά πλαίσια. Οι καλύτερες πρακτικές και τα πλαίσια πολιτικής δεν είναι απλές μόδες, αλλά πρακτικά εργαλεία που βοηθούν την καινούρια τεχνολογία να λειτουργεί ως βοηθητικά εργαλεία και όχι ως απειλές. Η συνάθροιση των πολιτικών, ερευνητών, μεγάλης τεχνολογίας και εμφερίζουσας τεχνολογίας σε ένα δωμάτιο είναι απαραίτητη για την ισορροπία των κοινωνικών και επιχειρηματικών συμφεροντων γύρω από το AI. Τα νομικά πλαίσια πρέπει να προσαρμοστούν στην εμφερίζουσα τεχνολογία του AI, εξασφαλίζοντας ότι προστατεύουν τα άτομα και την κοινωνία ενώ επίσης προάγουν την καινοτομία και την πρόοδο.

4. Σκεφτείτε πώς μπορούμε να συνεισφέρουμε στα νομικά πλαίσια και να τα διαμορφώσουμε. Οι καλύτερες πρακτικές και τα πλαίσια πολιτικής δεν είναι κενά λόγια, αλλά πολύ πρακτικά εργαλεία για να κάνουν την καινούρια τεχνολογία να λειτουργεί ως βοηθητικά εργαλεία και όχι ως απειλές. Η συνάθροιση των πολιτικών, ερευνητών, μεγάλης τεχνολογίας και εμφερίζουσας τεχνολογίας σε ένα δωμάτιο είναι απαραίτητη για την ισορροπία των κοινωνικών και επιχειρηματικών συμφεροντων γύρω από το AI. Τα νομικά πλαίσια πρέπει να προσαρμοστούν στην εμφερίζουσα τεχνολογία του AI. Πρέπει να διασφαλίσουμε ότι αυτά τα πλαίσια προστατεύουν τα άτομα και την κοινωνία ενώ επίσης προάγουν την καινοτομία και την πρόοδο.

Περίληψη

Αυτή είναι μια πολύ βασική κυκλική διαδικασία για την ενσωμάτωση της τεχνολογίας AI σε κοινωνίες. Καθώς συνεχίζουμε να παλέψουμε με τις сложότητες της ηθικής του AI, είναι απαραίτητο να παραμείνουμε δεσμευμένοι στην αναζήτηση λύσεων που προτεραιοποιούν την ασφάλεια, την ηθική και την κοινωνική ευημερία. Και αυτά δεν είναι κενά λόγια, αλλά η σκληρή δουλειά του να βάλουμε όλα τα κομμάτια μαζί καθημερινά.

Αυτά τα λόγια βασίζονται στην δική μου εμπειρία και συμπεράσματα.

Η Άννα είναι Διευθύντρια Ηθικής και Συνεργασιών στο Respeecher, μια τεχνολογία κλωνοποίησης φωνής που έχει κερδίσει Emmy και εδρεύει στην Ουκρανία. Η Άννα είναι πρώην Σύμβουλος Πολιτικής στο Reface, μια εφαρμογή συνθετικού μέσου που βασίζεται σε τεχνητή νοημοσύνη και συνιδρύτρια της τεχνολογίας Cappture, που χρηματοδοτείται από το πρόγραμμα επιτάχυνσης Startup Wise Guys. Η Άννα έχει 11 χρόνια εμπειρίας στις πολιτικές ασφάλειας και άμυνας, τις τεχνολογίες και την ανάπτυξη ανθεκτικότητας. Είναι πρώην Ερευνήτρια στο Διεθνές Κέντρο Άμυνας και Ασφάλειας στο Τάλιν και στο Ινστιτούτο Μελετών Ασφάλειας της Πράγας. Έχει επίσης συμβουλεύσει μεγάλες ουκρανικές εταιρείες για την ανάπτυξη ανθεκτικότητας ως μέρος της Ομάδας Εργασίας για τον Υβριδικό Πόλεμο στο Οικονομικό Σχολείο του Κιέβου.