Φανταστείτε να χτυπάει το κινητό σας στις 3 τα χαράματα και ένας άγνωστος αριθμός ή απόκρυψη να εμφανίζεται στην οθόνη. Το σηκώνετε και είναι ένας κοντινός σας άνθρωπος, ο πατέρας, ο/η αδελφός/ή σας, και κλαίει, είναι σε σοκ και σας παρακαλάει να στείλετε χρήματα σε έναν λογαριασμό ή ακόμα και να πάτε σε συγκεκριμένο σημείο με τα χρήματα.
Ακούγεται σαν σκηνή από ταινία; “Έλα σίγουρα είναι απάτη” θα πείτε. Αν όμως η φωνή ήταν ίδια με του συγγενή σας; Αν σας λέγαμε ότι χτυπούσε το κινητό σας για βιντεοκλήση και όντως εμφανιζόταν το πρόσωπο του αδελφού, του παιδιού ή του εγγονιού σας; Τρομακτικό;
Στη σημερινή ψηφιακή εποχή, όπου η τεχνολογία προχωρά με πρωτοφανή ρυθμό, οι απατεώνες βρίσκουν όλο και πιο εξελιγμένους τρόπους για να εκμεταλλεύονται ανυποψίαστα άτομα.
Έχουμε περάσει από εποχές που μέσω email, πρίγκιπες από τη Νιγηρία μας προσέφεραν τον πλούτο τους, αρκεί να τους στέλναμε τους κωδικούς πρόσβασης και τα στοιχεία μας. Ή πόσες φορές άνθρωποι μεγαλύτερης συνήθως ηλικίας δεν δέχτηκαν κλήση από κάποιον που παρίστανε τον γιατρό ή τον αστυνομικό και ζητούσε χρηματικά ποσά προκειμένου να βοηθήσει το παιδί, εγγόνι, ή κάποιο μέλος της οικογένειας.
Τα τεχνάσματα όμως εξελίσσονται, και γίνονται πιο περίπλοκα και πολύ πιο πειστικά και πλέον η τεχνολογία μπορεί να βοηθήσει σημαντικά το παράνομο αυτό έργο.
Μία από τις αναδυόμενες απειλές στον ορίζοντα είναι η χρήση της τεχνολογίας deepfake στις τηλεφωνικές κλήσεις, μια τεχνική που μπορεί να την κάνει να φαίνεται σαν η επόμενη κλήση από την οικογένειά σας είναι στην πραγματικότητα ένας κακόβουλος απατεώνας.
Χάρη στη συνεχιζόμενη έκρηξη της τεχνητής νοημοσύνης (AI), οι απατεώνες είναι πλέον σε θέση να αναπαράγουν τη φωνή κάποιου που γνωρίζετε, και σε ορισμένες περιπτώσεις, ακόμη και τα πρόσωπά τους.
Πώς λειτουργεί λοιπόν αυτή η τεχνολογία της τεχνητής νοημοσύνης;
Δεν χρειάζεται ειδικά μηχανήματα και servers εκατομμυρίων για να καταφέρει κάποιος κάτι τέτοιο. Η τεχνητή νοημοσύνη είναι πλέον τόσο προσβάσιμη που οποιοσδήποτε με έναν αξιοπρεπή υπολογιστή και σύνδεση στο διαδίκτυο μπορεί να το καταφέρει.
Η τεχνολογία Deepfake είναι ένα εργαλείο αιχμής που χρησιμοποιεί αλγόριθμους τεχνητής νοημοσύνης για τον επηρεασμό εγγραφών ήχου και βίντεο. Χρησιμοποιώντας τεχνικές βαθιάς μάθησης, οι απατεώνες μπορούν να δημιουργήσουν εξαιρετικά ρεαλιστικό, αλλά εξ ολοκλήρου κατασκευασμένο περιεχόμενο.
Αυτές οι ηχογραφήσεις μπορούν να μιμηθούν τη φωνή, την εμφάνιση και τους τρόπους πραγματικών ατόμων, καθιστώντας εξαιρετικά δύσκολη τη διάκριση μεταξύ του γνήσιου και του ψεύτικου.
«Χρησιμοποιώντας έναν αλγόριθμο τεχνητής νοημοσύνης, δημιουργούν περιεχόμενο που φαίνεται ή ακούγεται ρεαλιστικό. Αυτό θα μπορούσε να είναι βίντεο ή ακόμα και μόνο ήχος», εξηγεί ο Oli Buckley, καθηγητή κυβερνοασφάλειας στο Πανεπιστήμιο της East Anglia
«Χρειάζονται πολύ λίγα δεδομένα εκπαίδευσης και μπορούν να δημιουργήσουν κάτι αρκετά πειστικό με έναν τυπικό φορητό υπολογιστή που μπορεί να αγοράσει ο καθένας.
Το λογισμικό μπορεί να κατεβαστεί εύκολα και ο καθένας μπορεί να κάνει εύκολα ένα πειστικό deepfake. Χρειάζονται δευτερόλεπτα και όχι λεπτά ή ώρες και οποιοσδήποτε έχει λίγο χρόνο και πρόσβαση στο YouTube θα μπορούσε να καταλάβει πώς να το κάνει», εξηγεί ο Buckley.
Για να δημιουργήσετε ένα ρεαλιστικό deepfake, χρειάζεται πραγματικά μια εκπληκτικά μικρή ποσότητα ήχου ή πλάνα.
Στο παρελθόν, αυτό μπορεί να μην ήταν τέτοιο πρόβλημα, αλλά τώρα για τους περισσότερους ανθρώπους, υπάρχει άφθονο υλικό και ήχος από βίντεο και φωτογραφίες που ανεβάζουμε όλοι στα social media.
Πώς να αντιμετωπίσετε τα deepfakes
Ο εντοπισμός μιας Deepfake κλήσης μπορεί να είναι δύσκολος, αλλά ορισμένα red flags μπορούν να σας βοηθήσουν να παραμείνετε σε εγρήγορση:
Είναι εύκολο να είσαι επικριτικός όταν συμβαίνει σε άλλους, αλλά είναι πολύ δύσκολο αν το θύμα είσαι εσύ. Όταν είσαι σε σοκ, η λογική δεν λειτουργεί με τον ίδιο τρόπο.
Να έχετε λοιπόν πάντα στο μυαλό σας κάποια βασικά βήματα.
Ασυνήθιστα αιτήματα: Εάν ο καλών κάνει απροσδόκητα και επείγοντα αιτήματα για χρήματα ή ευαίσθητες πληροφορίες, μην ενδώσετε απευθείας. Ρωτήστε πιο προσωπικές λεπτομέρειες και πάρτε τον άνθρωπο αυτό τηλέφωνο στο προσωπικό του κινητό, ακόμα και αν είναι αργά.
Αλλοιωμένη φωνή: Ακούστε προσεκτικά τη φωνή του καλούντος. Δώστε προσοχή σε τυχόν αφύσικες διακυμάνσεις, παραμορφώσεις ή ασυνήθιστες παύσεις στην ομιλία τους.
Έλλειψη οπτικής επιβεβαίωσης: Εάν είναι δυνατόν, ζητήστε μια βιντεοκλήση για να επαληθεύσετε οπτικά την ταυτότητα του καλούντος. Ο Deepfake ήχος μπορεί να είναι πιο δύσκολο να εντοπιστεί από το Deepfake βίντεο.
Επαλήθευση πληροφοριών: Ελέγξτε ξανά τα στοιχεία που παρέχονται από τον καλούντα. Επικοινωνήστε με άλλα μέλη της οικογένειας ή φίλους για να επιβεβαιώσετε την ιστορία πριν προβείτε σε οποιαδήποτε ενέργεια.
Συμπερασματικά, ενώ η τεχνολογία deepfake παρουσιάζει νέες προκλήσεις στον τομέα των τηλεφωνικών απατών, το να παραμείνετε ενημερωμένοι και σε εγρήγορση είναι το κλειδί για την προστασία σας από πιθανή ζημιά.
Η κριτική σκέψη είναι ο πιο σημαντικός παράγοντας όταν αντιμετωπίζουμε deepfakes ή οποιαδήποτε απάτη όπως αυτή. Να θυμάστε ότι δεν είναι κάθε κλήση από ένα μέλος της οικογένειας όπως φαίνεται και ότι αφιερώνοντας χρόνο για να επαληθεύσετε την αυθεντικότητα τέτοιων κλήσεων μπορεί να σας σώσει από το να πέσετε θύματα απατεώνων.
➳ Πηγή: BBC, Medium