Μια ομάδα που έχει αγκαλιάσει την τεχνητή νοημοσύνη (AI): Οι εγκληματικές οργανώσεις

Από τα deepfakes μέχρι το βελτιωμένο σπάσιμο κωδικών πρόσβασης (μας), οι χάκερ ανακαλύπτουν τη δύναμη της AI – για κακόβουλη χρήση. Οι νομοθέτες (lawmakers) προσπαθούν να καταλάβουν με ποιο τρόπο να κάνουν βέλτιστη χρήση της AI. Οι παραβάτες (lawbreakers) κάνουν το ίδιο.

Η κακόβουλη χρήση της AI αυξάνεται καθημερινά και οι αξιωματούχοι προειδοποιούν για επιθέσεις που χρησιμοποιούν τεχνολογία deepfake και καμπάνιες «phishing», με βελτιωμένη τεχνολογία AI και λογισμικό που μαντεύει τους κωδικούς πρόσβασης, βάσει μεγάλης ανάλυσης δεδομένων.

Έχουμε πλέον το έγκλημα ως υπηρεσία, και έχουμε την AI ως υπηρεσία», λέει ο Philipp Amann, επικεφαλής στρατηγικής στο ευρωπαϊκό κέντρο εγκλήματος στον κυβερνοχώρο της Europol, οργανισμού επιβολής του νόμου. «Σε λίγο, θα έχουμε το AI – για έγκλημα ως υπηρεσία, επίσης», προσθέτει.

Η πιο ανησυχητική εξέλιξη για τους εργαζόμενους, στην ασφάλεια του κυβερνοχώρου, είναι η τεχνολογία deepfake – η οποία χρησιμοποιεί δέσμες φωτογραφιών και βίντεο για να αναπτύξει ασυνήθιστες ομοιότητες ή εντελώς νέα avatars. Η τεχνολογία έχει τη δύναμη να δημιουργεί εικόνες και βίντεο που εξαπατούν τους ανθρώπους πείθοντας τους ότι βλέπουν «το αυθεντικό», και αυτό ακριβώς είναι που ανησυχεί τους ειδικούς στην κυβερνοασφάλεια.

«Εάν οι εγκληματίες στον κυβερνοχώρο καταφέρουν να βρουν τρόπους να υποθέσουν την ταυτότητά σας ή την δική μου ή να δημιουργήσουν, από το μηδέν, κάποιον που δεν υπάρχει και στη συνέχεια καταφέρουν να τα περάσουν μέσω των διαδικτυακών διαδικασιών επαλήθευσης, αυτός είναι ένας τεράστιος κίνδυνος», λεει ο Amann.

«Μόλις σπάσει κάνεις τη διαδικασία, μπορεί να δημιουργήσει  γρήγορα, μεγάλο αριθμό λογαριασμών», προσθέτει.  Αυτό θα διευκόλυνε τη νομιμοποίηση εσόδων από παράνομες δραστηριότητες και θα βοηθούσε τους εγκληματίες να πραγματοποιούν απάτες σε διαδικτυακές πλατφόρμες.

Σε κάποιες περιπτώσεις, η τεχνολογία deepfake πιστεύεται ότι χρησιμοποιήθηκε για την πλαστοπροσωπία ενός διευθύνοντος συμβούλου για σημαντική εταιρική απάτη. Σε άλλες περιπτώσεις, οι τεχνικές έχουν χρησιμοποιηθεί για τη δημιουργία πλαστών προφίλ ως μέρος περίπλοκων απατών ηλεκτρονικού phishing.

Ο φόβος της εξαπάτησης από deepfakes είναι τόσο έντονος, ώστε έχει χρησιμοποιηθεί μερικές φορές ως κάλυψη – όταν κάποιος έχει ξεγελαστεί με άλλους τρόπους. Ορισμένοι ευρωπαίοι πολιτικοί κατηγόρησαν τα deepfakes, όταν εξαπατήθηκαν προκειμένου να συναντήσουν κάποιον που παρουσιάστηκε ως ο Leonid Volkov – εκπρόσωπος του Alexei Navalny. Οι Ρώσοι φαρσέρ δήλωσαν ότι το κόλπο ήταν δικό τους και δεν περιελάμβανε τεχνολογία deepfake.

«Ποια τεχνολογία χρησιμοποιείται σε ποιο βαθμό, συχνά δεν ξέρουμε. Αλλά συνεχώς ψάχνουμε και αναρωτιόμαστε ποιον μπορούμε να εμπιστευτούμε», λέει η Agnes Venema, ερευνήτρια τεχνολογίας και εθνικής ασφάλειας στο Πανεπιστήμιο της Μάλτας. «Μερικές φορές ο σκοπός είναι απλός: να διασπαρούν αμφιβολίες και να τεθούν ερωτήματα», προσθέτει.

Η απειλή υπερβαίνει τα deepfakes. Οι κακοήθεις χρήσεις τεχνητής νοημοσύνης μπορούν να κυμαίνονται από κακόβουλο λογισμικό AI, καλλιέργεια ψεύτικων λογαριασμών μέσων κοινωνικής δικτύωσης με χρήση AI, κατανεμημένες επιθέσεις άρνησης υπηρεσιών που υποστηρίζονται από AI, βαθιά παραγωγικά μοντέλα για τη δημιουργία ψευδών δεδομένων και σπάσιμο κωδικών πρόσβασης που υποστηρίζεται από AI, σύμφωνα με έκθεση του οργανισμού της ΕΕ για την ασφάλεια στον κυβερνοχώρο που δημοσιεύθηκε τον Δεκέμβριο.

Η Europol, σε συνεργασία με την εταιρεία κυβερνοασφάλειας Trend Micro και το ερευνητικό ινστιτούτο των Ηνωμένων Εθνών UNICRI, βρήκαν λογισμικό που μαντεύει τους κωδικούς πρόσβασης βάσει ανάλυσης με χρήση AI, 1,4 δισεκατομμυρίων κωδικών πρόσβασης που είχαν διαρρεύσει, επιτρέποντας στους χάκερ να αποκτήσουν πρόσβαση σε συστήματα γρηγορότερα.

Βρήκαν επίσης φθηνές προσφορές λογισμικού που μπορούν να παραπλανήσουν πλατφόρμες όπως υπηρεσίες streaming και δίκτυα μέσων κοινωνικής δικτύωσης, προκειμένου να δημιουργήσουν έξυπνους λογαριασμούς bot. Στη Γαλλία, μια ομάδα ανεξάρτητων μουσικών δισκογραφικών εταιρειών, εταιρειών συλλογής και παραγωγών κατήγγειλαν στην κυβέρνηση «ψεύτικα plays», σύμφωνα με τις οποίες τα κομμάτια φαίνεται να παίζονται από bots ή να ακούγονται από πραγματικούς ανθρώπους που προσλαμβάνονται για να αυξήσουν τεχνητά τα views, ωφελώντας τον καλλιτέχνη του οποίου τα κομμάτια παίζονται.

Άλλοι απατεώνες αναπτύσσουν εργαλεία AI για τη δημιουργία καλύτερου «phishing» περιεχομένου email, για να εξαπατήσουν ανθρώπους να τους παραδώσουν διαπιστευτήρια σύνδεσης (login) ή τραπεζικές πληροφορίες.

«Τα εργαλεία βελτιώνονται ποιοτικά συνεχώς. Υπάρχουν επίσης περισσότερα εργαλεία διαθέσιμα για τον εντοπισμό και την ανάλυση (κακόβουλης χρήσης του AI), αλλά το ερώτημα είναι αν η μέση επιχείρηση έχει πρόσβαση σε αυτά, καθώς προετοιμαζόμαστε για την καταπολέμηση της νέας απειλής», λεει η Marietje Schaake, διευθύντρια πολιτικής στο Cyber ​​Policy Center του Πανεπιστημίου του Στάνφορντ και πρώην μέλος του Ευρωπαϊκού Κοινοβουλίου.

Οι κυβερνοεγκληματίες «στοχεύουν στο μέγεθος και τη κλίμακα», προσθέτει η Schaake. Στην περίπτωση phishing ηλεκτρονικών μηνυμάτων για παράδειγμα, «μπορεί να στείλουν εκατομμύρια μηνύματα μέσω email και να επωφεληθούν από ένα μόνο από αυτά», συμπληρώνει.

Πηγή

Σχολιάστε

Εισάγετε τα παρακάτω στοιχεία ή επιλέξτε ένα εικονίδιο για να συνδεθείτε:

Λογότυπο WordPress.com

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό WordPress.com. Αποσύνδεση /  Αλλαγή )

Φωτογραφία Google

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό Google. Αποσύνδεση /  Αλλαγή )

Φωτογραφία Twitter

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό Twitter. Αποσύνδεση /  Αλλαγή )

Φωτογραφία Facebook

Σχολιάζετε χρησιμοποιώντας τον λογαριασμό Facebook. Αποσύνδεση /  Αλλαγή )

Σύνδεση με %s