Connect with us

AI vs AI: Όταν η Κυβερνοασφάλεια Γίνεται Ένας Αλγοριθμικός Αγώνας Οπλοστασίου

Κυβερνοασφάλεια

AI vs AI: Όταν η Κυβερνοασφάλεια Γίνεται Ένας Αλγοριθμικός Αγώνας Οπλοστασίου

mm
AI vs AI: When Cybersecurity Becomes an Algorithmic Arms Race

Κυβερνοασφάλεια έχει εισέλθει σε μια νέα εποχή. Στο παρελθόν, οι επιτιθέμενοι και οι αμυνόμενοι βασίζονταν σε ανθρώπινες δεξιότητες και τυποποιημένα εργαλεία, όπως τείχη προστασίας και συστήματα ανίχνευσης εισβολών. Σήμερα, η κατάσταση έχει αλλάξει δραματικά. Τεχνητή Νοημοσύνη (AI) παίζει τώρα ένα σημαντικό ρόλο και στις δύο πλευρές. Οι επιτιθέμενοι χρησιμοποιούν εργαλεία κυβερνοασφάλειας AI για να εκτοξεύσουν ταχύτερες και πιο προηγμένες απειλές. Οι αμυνόμενοι βασίζονται σε συστήματα που ενισχύονται με AI για να ανιχνεύσουν και να αποκλείσουν αυτές τις επιθέσεις σε πραγματικό χρόνο.

Αυτός ο αγώνας συχνά αναφέρεται ως αλγοριθμικός αγώνας οπλοστασίου. Κάθε επίθεση που βασίζεται σε AI προκαλεί τους αμυνόμενους να ενισχύσουν την προστασία τους· tương tự, κάθε νέα στρατηγική άμυνας υποχρεώνει τους επιτιθέμενους να επινοήσουν καινοτόμες στρατηγικές. Ως αποτέλεσμα, και οι δύο πλευρές συνεχίζουν να προοδεύουν γρήγορα. Αυτές οι συναντήσεις συμβαίνουν με ταχύτητες πέρα από τις ανθρώπινες ικανότητες. Ταυτόχρονα, οι κίνδυνοι για τις επιχειρήσεις, τις κυβερνήσεις και τους ατόμους αυξάνονται σημαντικά. Επομένως, η κατανόηση αυτού του αγώνα AI vs AI είναι απαραίτητη για οποιονδήποτε ασχολείται με την ψηφιακή ασφάλεια.

Από Τείχη Προστασίας σε Αυτοματοποιημένο Πόλεμο

Η κυβερνοασφάλεια αρχικά βασίζονταν σε στατικές άμυνες. Τα τείχη προστασίας διαχειρίζονταν τη ροή δεδομένων μέσω σταθερών κανόνων. Το λογισμικό αντί-ιού ήταν σε χρήση για να σκανάρει αρχεία και να ανιχνεύει γνωστές απειλές. Αυτές οι μεθόδοι λειτουργούσαν καλά όταν οι επιθέσεις ήταν προβλέψιμες και απλές.

Με τον καιρό, ωστόσο, οι απειλές έγιναν πιο οργανωμένες και σύνθετες. Οι επιτιθέμενοι εξαπέλυσαν μεγάλης κλίμακας επιθέσεις φισινγκ, επιθέσεις ransomware και στοχευμένες εισβολές. Ως αποτέλεσμα, οι στατικές άμυνες δεν μπορούσαν να跟πουν το ρυθμό και την ποικιλία αυτών των επιθέσεων. Έτσι, οι αμυνόμενοι άρχισαν να χρησιμοποιούν μηχανική μάθηση για να ενισχύσουν την προστασία τους.

Ωστόσο, η Τεχνητή Νοημοσύνη εισήγαγε μια διαφορετική προσέγγιση στην ασφάλεια. Αντί να περιμένουν γνωστές υπογραφές, οι αλγόριθμοι μελέτησαν τη φυσιολογική δραστηριότητα και σημείωσαν ασυνήθιστη συμπεριφορά. Ως αποτέλεσμα, οι αμυνόμενοι μπορούσαν να ανιχνεύουν απειλές σε πραγματικό χρόνο σε δίκτυα και συστήματα χρηστών. Αυτό έκανε την προστασία ταχύτερη και πιο προσαρμοστική.

Οι επιτιθέμενοι, με τη σειρά τους, στράφηκαν επίσης στην Τεχνητή Νοημοσύνη. Τα γεννητικά μοντέλα τους βοήθησαν να δημιουργήσουν πειστικές ηλεκτρονικές επιστολές φισινγκ, ψεύτικες φωνές και ψεύτικα βίντεο. Τương tự, το κακόβουλο λογισμικό έγινε προσαρμοστικό και μπορούσε να αλλάξει τη μορφή του για να αποφύγει την ανίχνευση. Μέχρι το 2023, τέτοιες μεθόδοι που οδηγούνται από Τεχνητή Νοημοσύνη είχαν ήδη γίνει μέρος μεγάλων κυβερνοεγκλήματων.

Αυτή η εξέλιξη άλλαξε τη φύση της κυβερνοασφάλειας. Δεν ήταν πλέον ένα ζήτημα στατικών εργαλείων εναντίον επιτιθέμενων. Αντίθετα, έγινε ένας άμεσος αγώνας μεταξύ αλγορίθμων, όπου και η επίθεση και η άμυνα συνεχίζουν να προσαρμόζονται με ταχύτητα μηχανής. Ως αποτέλεσμα, η κυβερνοασφάλεια εισήλθε σε μια νέα εποχή, συχνά αναφερόμενη ως αυτοματοποιημένος πόλεμος.

Επιθετικές Εφαρμογές της Τεχνητής Νοημοσύνης στην Κυβερνοασφάλεια

Ενώ οι αμυνόμενοι χρησιμοποιούν Τεχνητή Νοημοσύνη για να ενισχύσουν την προστασία, οι επιτιθέμενοι επινοούν καινοτόμους τρόπους για να εκμεταλλευτούν την Τεχνητή Νοημοσύνη. Μια από τις πιο ορατές τακτικές είναι η χρήση γεννητικής Τεχνητής Νοημοσύνης για κοινωνικό μηχανισμό. Οι ηλεκτρονικές επιστολές φισινγκ, που ήταν κάποτε άκομψες και γεμάτες λάθη, μπορούν τώρα να παραχθούν σε άψογη γλώσσα που αντανακλά την επαγγελματική επικοινωνία. Πρόσφατες ενδείξεις δείχνουν ότι οι προσπάθειες φισινγκ που παράγονται από Τεχνητή Νοημοσύνη είναι αρκετές φορές πιο επιτυχείς από αυτές που γράφονται από ανθρώπους, με αποτέλεσμα μετρήσιμοι αντίκτυποι στην κυβερνοασφάλεια.

Πέρα από το κείμενο, οι εγκληματίες έχουν αρχίσει να χρησιμοποιούν συνθετικές φωνές και οπτικά για να διεξάγουν απάτη. Η κλωνοποίηση φωνής τους επιτρέπει να μιμούνται εμπιστευτικές προσωπικότητες με εντυπωσιακή ακρίβεια. Ένα παρατηρήσιμο περιστατικό το 2023 αφορούσε απάτες που использовали μια φωνή που παράγεται από Τεχνητή Νοημοσύνη για να μιμηθούν einen ανώτερο εκτελεστικό στην Χονγκ Κονγκ, πείθοντας το προσωπικό να μεταφέρει 25,6 εκατομμύρια δολάρια. Παρόμοια περιστατικά έχουν αναφερθεί σε άλλες περιοχές, υποδεικνύοντας ότι η απειλή δεν περιορίζεται σε ένα μόνο контекст. Τα deepfake βίντεο είναι άλλος ένας κίνδυνος. Οι επιτιθέμενοι έχουν καταφέρει να εισαγάγουν ψεύτικους συμμετέχοντες σε εικονικές συναντήσεις, υποδυόμενοι διευθυντές εταιρειών. Τέτοιες παρεμβάσεις υπονομεύουν την εμπιστοσύνη και μπορούν να προκαλέσουν βλαβερές αποφάσεις εντός οργανισμών.

Επιπλέον, η αυτοματοποίηση έχει επεκτείνει σημαντικά την εμβέλεια των επιτιθέμενων. Τα συστήματα Τεχνητής Νοημοσύνης μπορούν τώρα να σκανάρουν συνεχώς δίκτυα και να αναγνωρίζουν weak points πολύ γρήγορα από τις χειροκίνητες μεθόδοι. Μόλις εισέλθουν σε ένα σύστημα, το προηγμένο κακόβουλο λογισμικό προσαρμόζεται στο περιβάλλον του. Ορισμένα στελέχη αλλάζουν τον κώδικά τους κάθε φορά που εξαπλώνονται, μια τεχνική που ονομάζεται πολυμορφισμός, η οποία τα κάνει πιο δύσκολο για τα παραδοσιακά εργαλεία αντί-ιού να τα ανιχνεύσουν. Σε ορισμένες περιπτώσεις, ενισχυτική μάθηση είναι ενσωματωμένη στο κακόβουλο λογισμικό, επιτρέποντάς του να δοκιμάζει διαφορετικές στρατηγικές και να βελτιώνεται με την πάροδο του χρόνου. Αυτές οι αυτοβελτιώσιμες επιθέσεις απαιτούν ελάχιστη ανθρώπινη επιτήρηση και συνεχίζουν να εξελίσσονται ανεξάρτητα.

Η Τεχνητή Νοημοσύνη χρησιμοποιείται επίσης για να δημιουργήσει και να διαδώσει ψευδείς πληροφορίες. Ψευδείς ειδήσεις, επεξεργασμένες εικόνες και deepfake βίντεο μπορούν να παραχθούν σε μεγάλες ποσότητες και να διακινούνται γρήγορα μέσω πλατφορμών κοινωνικών μέσων. Τέτοιος περιεχόμενο έχει χρησιμοποιηθεί για να επηρεάσει εκλογές, να βλάψει την εμπιστοσύνη στις θεσμούς και ακόμη και να χειριστεί τις χρηματιστηριακές αγορές. Μια ψευδής δήλωση ή ψεύτικο βίντεο που συνδέεται με έναν επιχειρηματικό ηγέτη μπορεί να βλάψει τη φήμη μιας εταιρείας ή να αλλάξει τις τιμές μετοχών μέσα σε λίγες ώρες. Με αυτόν τον τρόπο, η αξιοπιστία των ψηφιακών μέσων γίνεται ακόμη πιο εύθραυστη όταν συνθετικό περιεχόμενο κυκλοφορεί ευρέως και πειστικά.

Τεχνητή Νοημοσύνη ως Κυβερνοασπίδα

Η αμυντική κυβερνοασφάλεια έχει γίνει πιο δυναμική με την εισαγωγή της Τεχνητής Νοημοσύνης. Αντί να μπλοκάρουν μόνο τις επιθέσεις, τα σύγχρονα συστήματα τώρα τονίζουν τη συνεχή παρακολούθηση, τη γρήγορη απόκριση και την μάθηση από προηγούμενα περιστατικά. Αυτή η ευρύτερη προσέγγιση αντανακλά την ανάγκη να αντιμετωπιστούν απειλές που αλλάζουν πολύ γρήγορα για στατικά εργαλεία.

Μια από τις κύριες δυνάμεις της Τεχνητής Νοημοσύνης είναι η ικανότητά της να επεξεργάζεται τεράστιες ποσότητες δεδομένων δικτύου και συστήματος σε πραγματικό χρόνο. Δραστηριότητες που θα υπερφορτώσουν μια ανθρώπινη ομάδα, όπως η ανίχνευση ασυνήθιστων μοτίβων σύνδεσης ή η ανίχνευση κρυφών συνδέσεων μεταξύ συμβάντων, μπορούν να χειριστούν αυτόματα. Ως αποτέλεσμα, οι πιθανές παραβιάσεις ανιχνεύονται νωρίτερα, και ο χρόνος που οι επιτιθέμενοι περνούν μέσα στα συστήματα μειώνεται. Οι οργανισμοί που βασίζονται σε αυτά τα εργαλεία αναφέρουν συχνά ταχύτερες απαντήσεις και λιγότερα περιστατικά που διαρκούν πολύ.

Πώς η Επίθεση και η Άμυνα της Τεχνητής Νοημοσύνης Συγκρούονται στη Σύγχρονη Κυβερνοασφάλεια

Η κυβερνοασφάλεια σήμερα μοιάζει λιγότερο με einen ασπίδα και περισσότερο με έναν αγώνα που δεν σταματά. Οι επιτιθέμενοι χρησιμοποιούν εργαλεία Τεχνητής Νοημοσύνης για να δοκιμάσουν νέες τακτικές, και οι αμυνόμενοι απαντούν αναβαθμόνοντας τα δικά τους συστήματα. Η μια πλευρά κερδίζει έδαφος, και η άλλη γρήγορα προσαρμόζεται σε αυτό. Δεν είναι ένα αργό κύκλο που μετράται σε μήνες, αλλά ένας ταχύς ανταλλαγός που μετράται σε δευτερόλεπτα.

Το κακόβουλο λογισμικό ακολουθεί ένα παρόμοιο μοτίβο. Οι επιτιθέμενοι χρησιμοποιούν Τεχνητή Νοημοσύνη για να αναπτύξουν προγράμματα που αλλάζουν τη δομή τους και αποφεύγουν την ανίχνευση. Οι αμυνόμενοι ανταποκρίνονται με συστήματα ανίχνευσης ανωμαλιών που παρακολουθούν ασυνήθιστα μοτίβα συμπεριφοράς. Η επίθεση αντιδρά ξανά με την εκπαίδευση του κακόβουλου λογισμικού για να μιμηθεί το φυσιολογικό трафик δικτύου, καθιστώντας το πιο δύσκολο να διακρίνει από τη νόμιμη δραστηριότητα.

Αυτή η αντιπαράθεση δείχνει ότι οι αλγόριθμοι της Τεχνητής Νοημοσύνης δεν είναι στατικοί. Εξελίσσονται γρήγορα ο ένας εναντίον του άλλου, με κάθε πλευρά να δοκιμάζει και να βελτιώνει μεθόδοι σε πραγματικό χρόνο. Ο ρυθμός είναι πέρα από τις ανθρώπινες ικανότητες, που σημαίνει ότι οι απειλές συχνά προκαλούν ζημιά πριν ακόμη αναγνωριστούν.

Αυτές οι δυναμικές ανεβάζουν ένα κρίσιμο ζήτημα: Οι αμυνόμενοι πρέπει να περιοριστούν σε αντιδραστικές μεθόδοι ή να υιοθετήσουν προδραστικές προσεγγίσεις; Ορισμένοι υποστηρίζουν ότι τα μελλοντικά συστήματα μπορεί να περιλαμβάνουν αυτοματοποιημένη απάτη, ψηφιακές παγίδες και ακόμη και ελεγχόμενες αντεπιθέσεις εναντίον εχθρικών εργαλείων Τεχνητής Νοημοσύνης. Αν και τέτοιες μεθόδοι φέρουν νομικές και ηθικές ανησυχίες, αντιπροσωπεύουν πιθανές στρατηγικές για να παραμείνουν μπροστά σε αυτόν τον αγώνα.

Η κυβερνοασφάλεια στην εποχή της Τεχνητής Νοημοσύνης δεν είναι πλέον μόνο για την κατασκευή εμποδίων. Απαιτεί ενεργή συμμετοχή, όπου και η επίθεση και η άμυνα ανταγωνίζονται με την ταχύτητα των αλγορίθμων. Οι οργανισμοί που κατανοούν και προετοιμάζονται για αυτήν την πραγματικότητα θα είναι καλύτερα εξοπλισμένοι για να προστατεύσουν τα συστήματά τους στα χρόνια που έρχονται.

Τομείς που Έχουν Μεγαλύτερη Εκθεση σε Κυβερνοαπειλές που Οδηγούνται από Τεχνητή Νοημοσύνη

Ορισμένοι τομείς αντιμετωπίζουν μεγαλύτερη έκθεση σε κυβερνοαπειλές που οδηγούνται από Τεχνητή Νοημοσύνη λόγω της αξίας των δεδομένων τους και της κρίσιμης φύσης των λειτουργιών τους. Αυτές οι περιοχές υπογραμμίζουν τη σοβαρότητα των κινδύνων και δείχνουν την ανάγκη για συνεχείς αμυντικές να εξελίσσονται.

Χρηματοοικονομικά

Τράπεζες και χρηματοοικονομικές πλατφόρμες είναι συχνά στόχοι κυβερνοαπειλών. Οι επιτιθέμενοι χρησιμοποιούν Τεχνητή Νοημοσύνη για να δημιουργήσουν ψεύτικες συναλλαγές και να μιμηθούν πελάτες, συχνά παρακάμπτοντας παλαιότερα συστήματα ανίχνευσης απάτης. Τα weak points σε υπάρχοντα μοντέλα μηχανικής μάθησης cũng εκμεταλλεύονται.

Συστήματα συναλλαγών είναι ευάλωτα σε κίνδυνο όταν σήματα που παράγονται από Τεχνητή Νοημοσύνη προκαλούν απροσδόκητη δραστηριότητα στην αγορά. Τέτοιες διαταραχές οδηγούν σε σύγχυση και οικονομικές απώλειες. Οι αμυνόμενοι απαντούν με εργαλεία Τεχνητής Νοημοσύνης που σκανάρουν δισεκατομμύρια συναλλαγές και σημείωναν ασυνήθιστη συμπεριφορά, όπως ασυνήθιστες μεταφορές ή προσπάθειες σύνδεσης. Αλλά οι επιτιθέμενοι συνεχίζουν να επανακαταρτίζουν τα συστήματά τους για να αποφύγουν την ανίχνευση, διατηρώντας την απειλή ενεργή.

Υγεία

Νοσοκομεία και παρόχοι υγειονομικής περίθαλψης αντιμετωπίζουν αυξανόμενους κινδύνους λόγω της ευαίσθητης φύσης των ιατρικών αρχείων και της ευρείας χρήσης συνδεδεμένων ιατρικών συσκευών. Πολλές συσκευές IoMT (Internet of Medical Things) λείπουν των κατάλληλων μέτρων ασφαλείας.

Το 2024, συστήματα υγείας παγκοσμίως έγιναν αντικείμενο εκατοντάδων εκατομμυρίων επιθέσεων την ημέρα, με ορισμένα περιστατικά να διαταράσσουν τις λειτουργίες και να危ουν την ασφάλεια των ασθενών. Εργαλεία Τεχνητής Νοημοσύνης βοηθούν τώρα τα νοσοκομεία να παρακολουθούν την κίνηση, να ασφαλίζουν τα αρχεία και να ανιχνεύουν εισβολές. Ωστόσο, οι επιτιθέμενοι συνεχίζουν να βελτιώνουν τις μεθόδοι τους, αναγκάζοντας τις άμυνες να προσαρμοστούν συνεχώς.

Ενέργεια και Τηλεπικοινωνίες

Δίκτυα ενέργειας και τηλεπικοινωνιών είναι βασικά μέρη της εθνικής υποδομής. Στόχοι συχνά από κρατικά υποστηριζόμενες ομάδες που χρησιμοποιούν Τεχνητή Νοημοσύνη για να σχεδιάσουν λεπτομερείς επιθέσεις. Επιτυχημένες απόπειρες θα μπορούσαν να προκαλέσουν μαύρες και τηλεπικοινωνιακές αποτυχίες.

Για να μειώσουν αυτούς τους κινδύνους, οι αμυνόμενοι βασίζονται σε συστήματα Τεχνητής Νοημοσύνης που επεξεργάζονται μεγάλους όγκους δραστηριότητας δικτύου. Αυτά τα εργαλεία μπορούν να προβλέψουν απειλές και να αποκλείσουν βλαβερές εντολές πριν που распространθούν, βοηθώντας στην διατήρηση κρίσιμων υπηρεσιών.

Κυβέρνηση και Άμυνα

Κυβερνητικές και αμυντικές οργανώσεις αντιμετωπίζουν προηγμένες μορφές απειλών που οδηγούνται από Τεχνητή Νοημοσύνη. Οι αντίπαλοι χρησιμοποιούν Τεχνητή Νοημοσύνη για επιτήρηση, διάδοση ψευδών πληροφοριών και επηρεασμό λήψης αποφάσεων. Επιπλέον, deepfakes και ψεύτικες ειδήσεις έχουν χρησιμοποιηθεί για να επηρεάσουν την κοινή γνώμη και τις εκλογές.

Αυτόνομο κακόβουλο λογισμικό έχει επίσης αναπτυχθεί για να παρεμβαίνει στα αμυντικά συστήματα. Οι ειδικοί ασφαλείας προειδοποιούν ότι μελλοντικοί конфλικτοι μπορεί να περιλαμβάνουν κυβερνοεπιχειρήσεις που οδηγούνται από Τεχνητή Νοημοσύνη, ικανές να προκαλούν σοβαρές εθνικές διαταραχές.

Στρατηγικές για Κυβερνοασφάλεια που Οδηγείται από Τεχνητή Νοημοσύνη

Ενίσχυση των Αμυντικών Συστημάτων

Οι οργανισμοί πρέπει να αρχίσουν με ισχυρές άμυνες. Μπορούν να χρησιμοποιήσουν κέντρα επιχειρήσεων ασφαλείας (SOC) που βασίζονται σε Τεχνητή Νοημοσύνη για συνεχή παρακολούθηση, να διεξάγουν ασκήσεις red team για να δοκιμάσουν ευπάθειες και να εφαρμόσουν μοντέλα zero-trust που απαιτούν κάθε χρήστη και συσκευή να πιστοποιήσει την ταυτότητά τους. Αυτά τα βήματα σχηματίζουν μια στερεή βάση, αλλά πρέπει να ενημερώνονται τακτικά, καθώς οι επιτιθέμενοι συνεχίζουν να αλλάζουν τις μεθόδοι τους.

Συνδυασμός Ανθρώπινης Κρίσης με Τεχνητή Νοημοσύνη

Τα συστήματα Τεχνητής Νοημοσύνης παράγουν ένα υψηλό όγκο ενεργειών. Ωστόσο, οι άνθρωποι πρέπει να ερμηνεύουν αυτές τις ενέργειες. Οι αναλυτές ασφαλείας φέρνουν την απαραίτητη κρίση και το контекст που τα αυτόματα εργαλεία δεν μπορούν να παρέχουν, καθιστώντας τις απαντήσεις πιο αξιόπιστες και αποτελεσματικές. Οι εργαζόμενοι επίσης υπηρετούν ως το πρώτο στρώμα προστασίας. Τακτική εκπαίδευση τους ermögňuje να αναγνωρίσουν μηνύματα φισινγκ που παράγονται από Τεχνητή Νοημοσύνη, συνθετικές φωνές και deepfake περιεχόμενο. Χωρίς αυτή την ευαισθητοποίηση, ακόμη και οι πιο προηγμένα άμυνες παραμένουν ευάλωτες σε κοινωνικούς μηχανισμούς.

Προώθηση Συνεργασίας και Συνεργασιών

Το κυβερνοέγκλημα εκτείνεται πέρα από εθνικά σύνορα, που σημαίνει ότι καμία οργάνωση δεν μπορεί να διαχειριστεί την απειλή μόνη της. Η συνεργασία μεταξύ ιδιωτικών εταιρειών, κυβερνητικών υπηρεσιών και πανεπιστημίων είναι απαραίτητη. Αν και οι διεθνείς συμφωνίες συχνά χρειάζονται χρόνο, αυτές οι συνεργασίες μπορούν να βοηθήσουν με την ταχύτερη ανταλλαγή γνώσεων και πληροφοριών για τις απειλές. Ως αποτέλεσμα, οι οργανισμοί μπορούν να ενισχύσουν τις άμυνές τους πιο αποτελεσματικά, αν και η συνεργασία δεν μπορεί να αντικαταστήσει πλήρως την ανάγκη για ανεξάρτητες μέτρα ασφαλείας.

Η Κύρια Συμπέρασμα

Η αυξανόμενη χρήση της Τεχνητής Νοημοσύνης και στην κυβερνοεπίθεση και στην άμυνα δείχνει ότι η ψηφιακή ασφάλεια δεν είναι πλέον một στατικό πρόκληση. Οι επιθέσεις προσαρμόζονται γρήγορα, και οι άμυνες πρέπει να κάνουν το ίδιο. Ισχυρά εργαλεία είναι απαραίτητα, αλλά η τεχνολογία μόνο δεν μπορεί να εγγυηθεί την ασφάλεια των οργανισμών. Η ανθρώπινη εμπειρία, η συνεχής εκπαίδευση και η συνεργασία μεταξύ τομέων είναι επίσης απαραίτητες σε αυτό το контέκστ.

Ταυτόχρονα, η συζήτηση για προδραστικά μέτρα δείχνει ότι η ανθεκτικότητα δεν είναι μόνο για το μπλοκάρισμα απειλών, αλλά και για το να παραμείνει μπροστά τους. Σε αυτόν τον αλγοριθμικό αγώνα οπλοστασίου, οι νικητές θα είναι εκείνοι που συνδυάζουν έξυπνα συστήματα με ανθρώπινη κρίση, προετοιμαζόμενοι για ένα μέλλον όπου η ταχύτητα και η προσαρμοστικότητα θα καθορίσουν το αποτέλεσμα.

Ο Δρ Assad Abbas, ένας Καθηγητής στο COMSATS University Islamabad, Πακιστάν, απέκτησε το διδακτορικό του από το North Dakota State University, ΗΠΑ. Η έρευνά του επικεντρώνεται σε προηγμένα τεχνολογικά μέσα, συμπεριλαμβανομένων cloud, fog και edge computing, big data analytics και AI. Ο Δρ Abbas έχει κάνει σημαντικές συνεισφορές με δημοσιεύσεις σε αξιόπιστες επιστημονικές περιοδικές εκδόσεις και συνέδρια. Είναι επίσης ο ιδρυτής του MyFastingBuddy.