ΠΙΕΡΙΚΗ - Η δύναμή μας είστε εσείς... - Στείλτε παράπονα και καταγγελίες στο pierikinews@gmail.com ή επικοινωνήστε στο 6989725883
ΕΚΤΑΚΤΟ ⚡
Φορτώνει...

13/3/26

Οι απάτες με deepfakes γίνονται όλο και πιο αληθοφανείς – Οι παγίδες που στήνουν σε επιχειρήσεις


Στις αρχές του έτους, ένα βίντεο εμφανίστηκε στα μέσα κοινωνικής δικτύωσης στην Ινδία, στο οποίο ο διευθύνων σύμβουλος του Χρηματιστηρίου της Βομβάης, Sundararaman Ramamurthy, έδινε συμβουλές στους επενδυτές για το ποιες μετοχές να αγοράσουν. Υποσχόταν μάλιστα υψηλές αποδόσεις αν ακολουθούσαν τις συμβουλές του.

Με τη μόνη διαφορά ότι στην πραγματικότητα δεν μιλούσε ο Ramamurthy. Ήταν ένα deepfake βίντεο που είχε δημιουργηθεί με τη χρήση τεχνητής νοημοσύνης, το οποίο ήταν δημόσια προσβάσιμο, όπου πολλοί άνθρωποι μπορούσαν να το δουν και να εξαπατηθούν ώστε να αγοράσουν ή να πουλήσουν μετοχές, σαν να τις είχε συστήσει ο Ramamurthy.


«Όταν βλέπουμε ένα περιστατικό όπως αυτό, υποβάλλουμε αμέσως καταγγελία. Πηγαίνουμε στο Instagram και σε άλλα μέρη όπου έχει αναρτηθεί για να ζητήσουμε την κατάργηση του βίντεο. Και γράφουμε τακτικά στην αγορά προειδοποιώντας τους ανθρώπους να μην πιστεύουν σε ψεύτικα βίντεο», τονίζει ο CEO του Χρηματιστηρίου της Βομβάης.

Ο ίδιος ανέφερε ότι δεν γνωρίζουν πόσοι άνθρωποι έχουν δει αυτό το βίντεο, οπότε δεν μπορούν να κρίνουν αν είχε μεγάλο αντίκτυπο ή όχι. «Αυτό που θέλουμε είναι να μην είχε κανένα αντίκτυπο. Κανείς δεν πρέπει να υποστεί ζημιά επειδή πιστεύει κάτι που δεν είναι αλήθεια», τόνισε.


Παρ’ ολίγον θύματα

Ο Ramamurthy και το Χρηματιστήριο της Βομβάης δεν είναι οι μόνοι που έχουν χρησιμοποιηθεί για deepfakes με σκοπό την απάτη. «Τα τελευταία στοιχεία δείχνουν ότι τα τελευταία περίπου δύο χρόνια, έχουμε δει μια αύξηση σχεδόν 3.000% στον αριθμό των deepfakes που χρησιμοποιούνται», λέει ο Karim Toubba, διευθύνων σύμβουλος της αμερικανικής εταιρείας ασφάλειας κωδικών πρόσβασης LastPass. Ο ίδιος ο Toubba έπεσε θύμα deepfake το 2024.

«Ένας από τους υπαλλήλους μας στην Ευρώπη έλαβε ένα ηχητικό μήνυμα και ένα γραπτό μήνυμα από κάποιον που ισχυριζόταν ότι ήταν εγώ, ζητώντας επειγόντως βοήθεια», αναφέρει.


Ευτυχώς για τον Toubba – και το LastPass – ο υπάλληλος ήταν καχύποπτος. «Το μήνυμα ήταν στο WhatsApp, το οποίο για εμάς δεν είναι ένα εγκεκριμένο κανάλι επικοινωνίας», λέει ο Toubba. «Επίσης, έχουμε εταιρικά εγκεκριμένες κινητές συσκευές και αυτό ήρθε μέσω του προσωπικού του τηλεφώνου, οπότε σκέφτηκε ότι ήταν πιθανώς λίγο ύποπτο, λίγο περίεργο», προσθέτει. Ο υπάλληλος ανέφερε το περιστατικό στην ομάδα κυβερνοασφάλειας της LastPass και δεν προκλήθηκε καμία ζημιά.

Εξελιγμένες επιθέσεις

Η βρετανική εταιρεία μηχανικών Arup, ωστόσο, δεν στάθηκε τόσο τυχερή. Το 2024, έπεσε θύμα μιας από τις πιο εξελιγμένες επιθέσεις deepfake που έχουν σημειωθεί ποτέ στον επιχειρηματικό κόσμο.


Σύμφωνα με την αστυνομία του Χονγκ Κονγκ, ένας υπάλληλος της Arup που εργαζόταν εκεί έλαβε ένα μήνυμα που υποτίθεται ότι προήλθε από τον οικονομικό διευθυντή (CFO) της εταιρείας, ο οποίος εδρεύει στο Λονδίνο, σχετικά με μια «εμπιστευτική συναλλαγή». Ο υπάλληλος πραγματοποίησε βιντεοκλήση με τον CFO και άλλα μέλη του προσωπικού. Με βάση την κλήση αυτή, ο υπάλληλος μεταβίβασε 25 εκατομμύρια δολάρια (18,5 εκατομμύρια λίρες) από τα χρήματα της Arup σε πέντε διαφορετικούς τραπεζικούς λογαριασμούς, σύμφωνα με τις οδηγίες. Μόνο αργότερα αποκαλύφθηκε ότι τα άτομα που συμμετείχαν στην κλήση, συμπεριλαμβανομένου του CFO, ήταν deepfakes.


Ως εκ τούτου, οι εταιρείες πρέπει να λαμβάνουν επιπλέον μέτρα για να εξασφαλίσουν την ασφάλεια αυτού του είδους των επικοινωνιών, καθώς η ραγδαία εξέλιξη της τεχνητής νοημοσύνης επιτρέπει στα βίντεο αυτά να γίνονται όλο και πιο ρεαλιστικά. Επιπλέον δημιουργούνται ταχύτατα, μέσα σε λίγα λεπτά και γίνονται όλο και φθηνότερα.

Για παράδειγμα, για μια απλή, μεμονωμένη επίθεση, το κόστος κυμαίνεται από 500 έως 1.000 δολάρια με τη χρήση εργαλείων που είναι σε μεγάλο βαθμό δωρεάν. Για μια πιο εξελιγμένη επίθεση, το κόστος κυμαίνεται από 5.000 έως 10.000 δολάρια.


Εργαλεία επαλήθευσης

Μπορεί οι επιθέσεις να γίνονται όλο και πιο εξελιγμένες, παράλληλα όμως εξελίσσονται και τα εργαλεία που χρησιμοποιούνται για την αποτροπή τους. Οι εταιρείες μπορούν πλέον να χρησιμοποιούν λογισμικό επαλήθευσης που αξιολογεί τις εκφράσεις του προσώπου ενός ατόμου, τον τρόπο που γυρίζει το κεφάλι του και ακόμη και τον τρόπο που ρέει το αίμα στο πρόσωπό του, για να διαπιστώσει αν είναι πραγματικά αυτός ή μια deepfake εκδοχή του.

Ωστόσο, οι εταιρείες βρίσκονται σε συνεχή μάχη για να παραμείνουν ένα βήμα μπροστά από τους απατεώνες. Είναι ένας αγώνας μεταξύ εκείνων που μπορούν να αναπτύξουν μια τεχνολογία και εκείνων που μπορούν να την εξουδετερώσουν το συντομότερο δυνατό. «Ευτυχώς, φαίνεται ότι επενδύονται αρκετά χρήματα σε αυτόν τον τομέα, κάτι που θα επιταχύνει τον ρυθμό με τον οποίο οι οργανισμοί θα αναπτύξουν τεχνολογίες για την ανίχνευση και, τελικά, τον αποκλεισμό αυτών των φαινομένων», επισημαίνει ο Toubba της LastPass.


Στην CloudGuard, ο διευθύνων σύμβουλος Matt Lovell είναι πιο απαισιόδοξος. «Οι διαύλοι επίθεσης επιταχύνονται ταχύτερα από ό,τι μπορούμε να επιταχύνουμε την αυτοματοποίηση της άμυνας και την προστασία», όπως λέει. «Κινούνται οι άνθρωποι αρκετά γρήγορα για να ανταποκριθούν στην ταχύτητα με την οποία αναπτύσσεται η απειλή; Απολύτως όχι», τονίζει.

Οι εταιρείες έχουν αρχίσει να συνειδητοποιούν την απειλή, έστω και αργά, με την ασφάλεια των λειτουργιών τους να θεωρείται πλέον προτεραιότητα. Στη μάχη για την αναχαίτιση των επιθέσεων deepfake χρειάζονται επαγγελματίες στον τομέα της κυβερνοασφάλειας σε όλο τον κόσμο, οι οποίοι έχουν μεγάλη ζήτηση αλλά και έλλειψη.


moneyreview.gr με πληροφορίες από BBC

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου