Είναι η τεχνητή νοημοσύνη η λύση στις απειλές για την ασφάλεια στον κυβερνοχώρο;

By | January 16, 2024

Η τεχνολογία τεχνητής νοημοσύνης είναι ένα τσιτάτο στην κυβερνοασφάλεια εδώ και μια δεκαετία – αναφέρεται ως τρόπος επισήμανσης τρωτών σημείων και αναγνώρισης απειλών εκτελώντας αναγνώριση προτύπων σε μεγάλες ποσότητες δεδομένων. Τα προϊόντα προστασίας από ιούς, για παράδειγμα, χρησιμοποιούν εδώ και καιρό την τεχνητή νοημοσύνη για τη σάρωση για κακόβουλο κώδικα ή κακόβουλο λογισμικό και την αποστολή ειδοποιήσεων σε πραγματικό χρόνο.

Ωστόσο, η έλευση της γενετικής τεχνητής νοημοσύνης, η οποία επιτρέπει στους υπολογιστές να δημιουργούν σύνθετο περιεχόμενο –όπως κείμενο, ήχο και βίντεο– από απλές ανθρώπινες παρεμβάσεις, προσφέρει νέες ευκαιρίες στους υπερασπιστές του κυβερνοχώρου. Οι υποστηρικτές του υπόσχονται ότι θα βελτιώσει την αποτελεσματικότητα της κυβερνοασφάλειας, θα βοηθήσει τους υπερασπιστές να ξεκινήσουν μια απάντηση σε πραγματικό χρόνο στις απειλές και ακόμη θα τους βοηθήσει να προλάβουν τους αντιπάλους τους συνολικά.

«Οι ομάδες ασφαλείας χρησιμοποιούν την τεχνητή νοημοσύνη εδώ και χρόνια για να ανιχνεύουν τρωτά σημεία και να δημιουργούν ειδοποιήσεις απειλών, αλλά η γενετική τεχνητή νοημοσύνη το πηγαίνει σε άλλο επίπεδο», λέει ο Sam King, διευθύνων σύμβουλος του Veracode Security Group.

«Τώρα μπορούμε να χρησιμοποιήσουμε την τεχνολογία όχι μόνο για να ανιχνεύσουμε προβλήματα, αλλά και για να τα λύσουμε και τελικά να τα αποτρέψουμε. »

Η γενετική τεχνολογία AI βρέθηκε για πρώτη φορά στο προσκήνιο με την κυκλοφορία του ChatGPT του OpenAI, ενός chatbot για καταναλωτές που απαντά σε ερωτήσεις και προτροπές των χρηστών. Σε αντίθεση με την τεχνολογία που προηγήθηκε, η γενετική τεχνητή νοημοσύνη «έχει προσαρμοστική ταχύτητα μάθησης, κατανόηση των συμφραζομένων και πολυτροπική επεξεργασία δεδομένων και αποβάλλει τον πιο άκαμπτο, βασισμένο σε κανόνες φάκελο της παραδοσιακής τεχνητής νοημοσύνης, ενισχύοντας έτσι τις δυνατότητές της ασφαλείας», λέει ο ευαγγελιστής της επιθετικής έρευνας Andy Thompson. . στα CyberArk Labs.

Έτσι, μετά από ένα χρόνο διαφημιστικής εκστρατείας γύρω από τη γενετική τεχνητή νοημοσύνη, τηρούνται αυτές οι υποσχέσεις;

Το Generative AI χρησιμοποιείται ήδη για τη δημιουργία συγκεκριμένων μοντέλων, chatbots ή βοηθών τεχνητής νοημοσύνης που μπορούν να βοηθήσουν τους ανθρώπινους αναλυτές να εντοπίσουν και να ανταποκριθούν σε hacks – παρόμοια με το ChatGPT, αλλά για την ασφάλεια στον κυβερνοχώρο. Η Microsoft έχει ξεκινήσει μια τέτοια προσπάθεια, που ονομάζεται Security Copilot, ενώ η Google προσφέρει ένα μοντέλο που ονομάζεται SEC Pub.

«Εκπαιδεύοντας το μοντέλο σε όλα τα δεδομένα απειλών, όλες τις βέλτιστες πρακτικές ασφαλείας, όλες τις γνώσεις μας σχετικά με τον τρόπο δημιουργίας ασφαλούς λογισμικού και ασφαλών διαμορφώσεων, έχουμε ήδη πελάτες που το χρησιμοποιούν για να αυξήσουν την ικανότητά τους να αναλύουν επιθέσεις και κακόβουλο λογισμικό για να δημιουργήσουν αυτοματοποιημένες λύσεις. άμυνες», λέει ο Phil Venables, επικεφαλής της ασφάλειας πληροφοριών του Google Cloud.

Και υπάρχουν πολλές πιο συγκεκριμένες περιπτώσεις χρήσης, λένε οι ειδικοί. Για παράδειγμα, η τεχνολογία μπορεί να χρησιμοποιηθεί για την προσομοίωση επιθέσεων ή για τη διασφάλιση της ασφάλειας του κώδικα μιας εταιρείας. Ο King of Veracode λέει: «Μπορείτε τώρα να πάρετε ένα μοντέλο GenAI και να το εκπαιδεύσετε ώστε να προτείνει αυτόματα διορθώσεις για μη ασφαλή κώδικα, να δημιουργεί εκπαιδευτικό υλικό για τις ομάδες ασφαλείας σας και να εντοπίζει μετριασμούς όταν εντοπίζεται μια απειλή, πέρα ​​από την απλή αναζήτηση τρωτών σημείων.

Το Generative AI μπορεί επίσης να χρησιμοποιηθεί για να «δημιουργήσει [and] συνθέτουν δεδομένα» με τα οποία θα εκπαιδεύονται μοντέλα μηχανικής μάθησης, λέει ο Gang Wang, αναπληρωτής καθηγητής επιστήμης υπολογιστών στο Grainger College of Engineering του Πανεπιστημίου του Ιλινόις. «Αυτό είναι ιδιαίτερα χρήσιμο για εργασίες ασφαλείας όπου τα δεδομένα είναι αραιά ή στερούνται ποικιλομορφίας», σημειώνει.

Η δυνατότητα ανάπτυξης συστημάτων κυβερνοασφάλειας που βασίζονται σε τεχνητή νοημοσύνη οδηγεί τώρα στη σύναψη συμφωνιών στον τομέα της κυβερνοασφάλειας – όπως η εξαγορά 28 δισεκατομμυρίων δολαρίων της Cisco της αμερικανικής εταιρείας παραγωγής λογισμικού ασφαλείας Splunk τον Σεπτέμβριο. «Αυτή η εξαγορά αντανακλά μια ευρύτερη τάση και δείχνει την αυξανόμενη υιοθέτηση της τεχνητής νοημοσύνης από τη βιομηχανία για βελτιωμένη άμυνα στον κυβερνοχώρο», δήλωσε ο King.

Επισημαίνει ότι αυτές οι δεσμεύσεις επιτρέπουν στον αγοραστή να επεκτείνει γρήγορα τις δυνατότητές του σε τεχνητή νοημοσύνη, δίνοντάς του επίσης πρόσβαση σε περισσότερα δεδομένα, για να εκπαιδεύσει αποτελεσματικά τα μοντέλα τεχνητής νοημοσύνης του.

Ωστόσο, ο Wang προειδοποιεί ότι η κυβερνοασφάλεια που βασίζεται σε AI δεν μπορεί να «αντικαταστήσει πλήρως τις υπάρχουσες παραδοσιακές μεθόδους». Για να είναι επιτυχής, «διαφορετικές προσεγγίσεις αλληλοσυμπληρώνονται για να παρέχουν μια πιο ολοκληρωμένη εικόνα των απειλών στον κυβερνοχώρο και να προσφέρουν προστασία από διαφορετικές οπτικές γωνίες», εξηγεί.

Για παράδειγμα, τα εργαλεία AI μπορεί να έχουν υψηλά ποσοστά ψευδώς θετικών, που σημαίνει ότι δεν είναι αρκετά ακριβή για να είναι αξιόπιστα. Αν και είναι σε θέση να εντοπίσουν γρήγορα και να σταματήσουν τις γνωστές επιθέσεις, ενδέχεται να αντιμετωπίσουν νέες απειλές, όπως οι λεγόμενες επιθέσεις zero-day, οι οποίες είναι διαφορετικές από αυτές που εξαπολύθηκαν στο παρελθόν.

Καθώς η διαφημιστική εκστρατεία για την τεχνητή νοημοσύνη συνεχίζει να σαρώνει τον τεχνολογικό τομέα, οι επαγγελματίες του κυβερνοχώρου πρέπει να την αναπτύξουν προσεκτικά, προειδοποιούν οι ειδικοί, όπως η τήρηση των προτύπων απορρήτου και προστασίας δεδομένων. Σύμφωνα με δεδομένα από το Netskope Threat Labs, ευαίσθητα δεδομένα μοιράζονται σε ένα γενετικό ερώτημα AI κάθε ώρα της εργάσιμης ημέρας σε μεγάλους οργανισμούς, οι οποίοι θα μπορούσαν να παρέχουν στους χάκερ υλικό για να στοχεύουν επιθέσεις.

Ο Steve Stone, επικεφαλής του Rubrik Zero Labs στην ομάδα ασφάλειας δεδομένων Rubrik, σημειώνει επίσης την εμφάνιση ρομπότ τεχνητής νοημοσύνης που είναι φιλικά προς τους χάκερ, όπως τα «FraudGPT» και «WormGPT», τα οποία έχουν σχεδιαστεί για να επιτρέπουν «ακόμα και σε εκείνους με ελάχιστες τεχνικές δεξιότητες» να ξεκίνα. εξελιγμένες κυβερνοεπιθέσεις.

Μερικοί χάκερ χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης για να γράψουν και να αναπτύξουν απάτες κοινωνικής μηχανικής σε μεγαλύτερη κλίμακα και με πιο στοχευμένους τρόπους, για παράδειγμα αντιγράφοντας το στυλ γραφής ενός ατόμου. Σύμφωνα με τον Max Heinemeyer, chief product officer στην Darktrace, μια εταιρεία τεχνητής νοημοσύνης στον κυβερνοχώρο, οι «νέες επιθέσεις κοινωνικής μηχανικής» αυξήθηκαν κατά 135% μεταξύ Ιανουαρίου και Φεβρουαρίου 2023, μετά την εισαγωγή του ChatGPT.

«Το 2024 θα δείξει πόσο πιο προχωρημένοι παίκτες αρέσουν τα APT [advanced persistent threats], επιτιθέμενοι εθνικών κρατών και προηγμένες συμμορίες ransomware έχουν αρχίσει να υιοθετούν την τεχνητή νοημοσύνη», λέει. «Το αποτέλεσμα θα είναι ακόμη πιο γρήγορο, πιο επεκτάσιμο, πιο εξατομικευμένες και προσαρμοσμένες στα συμφραζόμενα επιθέσεις, με μειωμένο χρόνο διακοπής λειτουργίας. »

Παρόλα αυτά, πολλοί ειδικοί στον κυβερνοχώρο παραμένουν αισιόδοξοι ότι η τεχνολογία θα είναι ένα όφελος για όλους τους επαγγελματίες του κυβερνοχώρου. «Τελικά, οι υποστηρικτές είναι αυτοί που έχουν το πάνω χέρι, δεδομένου ότι κατέχουμε την τεχνολογία και επομένως μπορούμε να κατευθύνουμε την ανάπτυξή της έχοντας κατά νου συγκεκριμένες περιπτώσεις χρήσης», λέει ο Venables. «Ουσιαστικά, έχουμε πλεονέκτημα εντός έδρας και σκοπεύουμε να το χρησιμοποιήσουμε στο έπακρο».

Βίντεο: Μπορεί η γενετική τεχνητή νοημοσύνη να ανταποκριθεί στη διαφημιστική εκστρατεία; | Τεχνολογία FT
Category: A.I

Leave a Reply

Your email address will not be published. Required fields are marked *