Σε μια από τις πιο καθοριστικές σκηνές της ταινίας “Ex Machina”, ο Caleb καθισμένος απέναντι από το ανθρωποειδές ρομπότ Ava, αρχίζει να της κάνει ερωτήσεις, προσπαθώντας να καταλάβει αν η συμπεριφορά της είναι αυθεντική ή απλώς αποτέλεσμα προγραμματισμού. Το βλέμμα της Ava, γεμάτο περιέργεια και ευαισθησία, προκαλεί στον Caleb μια αίσθηση οικειότητας και εμπιστοσύνης.
Η σκηνή αυτή λειτουργεί ως μια μικρογραφία του ευρύτερου φιλοσοφικού ερωτήματος της ταινίας: τι σημαίνει να είσαι άνθρωπος σε έναν κόσμο όπου η τεχνολογία μπορεί να αναπαράγει την ανθρώπινη συνείδηση με τόσο πειστικό τρόπο που πλέον υπάρχει δυσκολία να διακρίνει κανείς ένα προϊόν τεχνητής νοημοσύνης από την πραγματικότητα.
Ποιος θα το φανταζόταν πριν από μερικά χρόνια ότι η τεχνητή νοημοσύνη θα γινόταν τόσο διαδεδομένη και σημαντική στη ζωή μας; Κάθε πτυχή της καθημερινότητάς μας επηρεάζεται από τις τεχνολογικές αυτές εξελίξεις, από τις εφαρμογές στην ιατρική μέχρι τις ατελείωτες ώρες που έχουμε ξοδέψει σε αναζητήσεις και συνομιλίες με τα chatbot. Τα μοντέλα μεγάλων γλωσσών (LLM), όπως το μοντέλο GPT-4 που υποστηρίζει την ευρέως χρησιμοποιούμενη πλατφόρμα συνομιλίας ChatGPT, έχουν εκπλήξει τους χρήστες με την ικανότητά τους να κατανοούν γραπτές προτροπές και να δημιουργούν κατάλληλες απαντήσεις σε διάφορες γλώσσες.
Η αυξανόμενη εξάρτησή μας όμως από την ΤΝ δεν έρχεται χωρίς προβλήματα. Σύμφωνα με μια πρόσφατη έρευνα, πολλοί άνθρωποι δεν μπορούν να ξεχωρίσουν αν συνομιλούν με ένα chatbot ή με έναν πραγματικό άνθρωπο. Οι δυνατότητες πλέον της ΤΝ είναι τόσο εξελιγμένες που σταδιακά αρχίζουμε να αναρωτιόμαστε αν η ζωή μας είναι ένα επεισόδιο από το “Black Mirror”.
Chatbot, deepfake ή πραγματικότητα;
Σε αυτά τα πλάισια κινήθηκε και μία μελέτη στο Πανεπιστήμιο της Καλιφόρνια στο San Diego, όπου οι ερευνητές διεξήγαγαν ένα τεστ Turing για να τσεκάρουν αν οι άνθρωποι μπορούσαν να διακρίνουν μεταξύ ανθρώπινου κειμένου και κειμένου που δημιουργήθηκε από AI σε συνομιλίες πέντε λεπτών. Το τεστ Turing αποτελεί μια γνωστή μέθοδο που πήρε το όνομά της από τον επιστήμονα υπολογιστών Alan Turing, σχεδιασμένη να αξιολογεί το βαθμό στον οποίο μια μηχανή επιδεικνύει ανθρώπινη νοημοσύνη. Τα αποτελέσματα ήταν εκπληκτικά: οι συμμετέχοντες δεν μπορούσαν να καταλάβουν με αξιοπιστία αν μιλούσαν σε άνθρωπο ή με τεχνητή νοημοσύνη, ιδιαίτερα όταν αλληλεπιδρούσαν με το μοντέλο GPT-4. Η μελέτη διαπίστωσε ότι το GPT-4 θα μπορούσε να περάσει ως άνθρωπος στο 50% περίπου των αλληλεπιδράσεων.
«Ένα ποσοστό επιτυχίας 41% υποδηλώνει ότι η εξαπάτηση από μοντέλα τεχνητής νοημοσύνης μπορεί ήδη να είναι πιθανή, ειδικά σε περιβάλλοντα όπου οι ανθρώπινοι συνομιλητές είναι λιγότερο προσεκτικοί στην πιθανότητα να μην μιλούν σε άνθρωπο», υποστήριξαν οι ερευνητές στο άρθρο τους . «Τα μοντέλα τεχνητής νοημοσύνης που μπορούν να υποδύονται αποτελεσματικά ανθρώπους θα μπορούσαν να έχουν εκτεταμένες κοινωνικές και οικονομικές συνέπειες. Θα μπορούσαν να υπηρετήσουν οικονομικά πολύτιμους ρόλους που διαχειρίζονται πελάτες που ιστορικά απασχολούσαν εργαζόμενους, , να παραπλανήσουν το ευρύ κοινό ή τους ίδιους τους ανθρώπινους φορείς) και να διαβρώσουν την κοινωνική εμπιστοσύνη στις αυθεντικές ανθρώπινες αλληλεπιδράσεις»
Για παράδειγμα, συστήματα ΤΝ μπορούν να χρησιμοποιηθούν για τη δημιουργία πλαστών μηνυμάτων και ειδήσεων, προκαλώντας σύγχυση και διασπορά ψευδών πληροφοριών. Αυτό μπορεί να επηρεάσει τη δημόσια γνώμη και να διαταράξει την κοινωνική συνοχή.
Τέτοιες επιπτώσεις είναι ήδη ορατές με τη η χρήση deepfakes. Πρόκειται για μία χρήση της τεχνητής νοημοσύνης που παράγει πλαστά και υπερρεαλιστικά βίντεο, φωτογραφίες ή ηχητικά αρχεία. Η εξελιγμένη τεχνητή νοημοσύνη συνθέτει το αρχικό υλικό – φωτογραφίες, βίντεο, φωνές – σε νέες, παραποιημένες εκδοχές που φαίνονται αληθινές. Με εκθετικές βελτιώσεις στην ποιότητα, τα deepfakes προσομοιώνουν πλέον εκφράσεις και συμπεριφορές με ανατριχιαστική ακρίβεια, καθιστώντας σχεδόν αδύνατη την επαλήθευση της αυθεντικότητας, δίνοντας ζωή σε ψευδή γεγονότα.
Πολλές χώρες γίνονται μάρτυρες της χρήσης της παραπληροφόρησης ως εργαλείου χειραγώγησης των αντιλήψεων του κοινού σε θέματα δημόσιας πολιτικής, προώθησης μιας ατζέντας ή πόλωσης των πολιτών. Αν δούμε μερικά από τα μεγαλύτερα ζητήματα και εκστρατείες των τελευταίων ετών -εκλογές σε εθνικό επίπεδο, ψήφος για το Brexit, ακόμη και συζήτηση γύρω από τους περιορισμούς του κορωνοϊού- υπάρχει ένα σταθερό στοιχείο που μοιράζονται όλα: η παρουσία της πολιτικής προπαγάνδας. Καθοδηγούμενη από το μεταβαλλόμενο τοπίο των μέσων ενημέρωσης και την άνοδο των μέσων κοινωνικής δικτύωσης, η πολιτική προπαγάνδα δεν χρησιμοποιήθηκε ποτέ περισσότερο.
Η αδυναμία διάκρισης μεταξύ ανθρώπινων και μηχανικών συνομιλιών μπορεί να υπονομεύσει την εμπιστοσύνη στην επικοινωνία και στις σχέσεις. Οι άνθρωποι μπορεί να γίνουν πιο επιφυλακτικοί και καχύποπτοι, ακόμα και σε καθημερινές συναναστροφές.
Συστήματα ΤΝ που μπορούν να μιμούνται ανθρώπους μπορούν να χρησιμοποιηθούν για να εξαπατήσουν άτομα και επιχειρήσεις, προκαλώντας οικονομικές απώλειες. Αυτό μπορεί να περιλαμβάνει από πλαστές κλήσεις μέχρι email που μιμούνται νόμιμες επιχειρήσεις. Επιπλέον, οι εταιρείες που επενδύουν και κατέχουν τις πιο προηγμένες τεχνολογίες ΤΝ μπορεί να αποκτήσουν τεράστιο οικονομικό πλεονέκτημα, ενισχύοντας τις ανισότητες πλούτου και εξουσίας.
Σε κάποιες περιπτώσεις, είναι ευκολο κανείς να καταλάβει ποιο προϊόν είναι αποτέλεσμα ΤΝ και δεν είναι πραγματικό. Σε άλλες, θα πρέπει κάποιος ειδικός να αναλύσει την εικόνα, το κείμενο ή το βίντεο για να αποφανθεί για την γνησιότητά του.
Ωστόσο, μια άλλη μελέτη από το Πανεπιστήμιο της Νότιας Φλόριντα αποκάλυψε ότι ακόμη και οι ειδικοί της γλωσσολογίας αγωνίζονται να διαφοροποιήσουν το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη και το γραπτό από τον άνθρωπο περιεχόμενο. Κατά την ανασκόπηση των περιλήψεων έρευνας, αυτοί οι ειδικοί μπορούσαν να προσδιορίσουν σωστά περιεχόμενο που δημιουργήθηκε από AI μόνο στο 38,9% των περιπτώσεων. Αυτό υποδηλώνει ότι η τεχνητή νοημοσύνη μπορεί να παράγει σύντομα κείμενα που είναι εξίσου ικανά με την ανθρώπινη γραφή.
Η αυξανόμενη αδυναμία διάκρισης μεταξύ περιεχομένου που δημιουργείται από άνθρωπο και τεχνητής νοημοσύνης υπογραμμίζει την ανάγκη για καλύτερα εργαλεία ανίχνευσης. Οι ερευνητές έχουν προτείνει ότι θα είναι σημαντικό να παρακολουθούνται με προσοχή τα μοντέλα τεχνητής νοημοσύνης καθώς αποκτούν περισσότερη ρευστότητα και απορροφούν περισσότερες ανθρώπινες ιδιορρυθμίες στη συνομιλία. «Θα γίνεται όλο και πιο σημαντικό να εντοπίζονται οι παράγοντες που οδηγούν στην εξαπάτηση και να καλλιεργηθούν στρατηγικές για τον μετριασμό της», ανέφεραν.
Οι ειδικοί προτείνουν ότι ένα λογισμικό ικανό να αναγνωρίζει κείμενο που δημιουργείται από AI είναι απαραίτητο, ειδικά σε ακαδημαϊκά και επαγγελματικά περιβάλλοντα. Επιπλέον, υπάρχουν εκκλήσεις για ηθικές κατευθυντήριες γραμμές σχετικά με τη χρήση της τεχνητής νοημοσύνης στην επικοινωνία και την έρευνα.
Η τεχνητή νοημοσύνη είναι απλώς ένα εργαλείο που έχουν αναπτύξει οι άνθρωποι για να εκτελούν εργασίες πιο αποτελεσματικά. Εναπόκειται σε εμάς να το χρησιμοποιήσουμε ηθικά και υπεύθυνα για να διασφαλίσουμε ότι εξυπηρετεί τα καλύτερα συμφέροντά μας. Είναι σημαντικό να ρυθμιστεί η ανάπτυξη της τεχνητής νοημοσύνης για να διασφαλιστεί ότι ωφελεί όλους και δεν δημιουργεί ανεπιθύμητες συνέπειες.ς. Η ισορροπία μεταξύ της χρήσης της ΤΝ για τη βελτίωση της ζωής μας και της προστασίας της ατομικότητας και της αυθεντικότητας είναι το κλειδί για ένα ασφαλές και βιώσιμο μέλλον. Αν δεν προσέξουμε, ίσως βρεθούμε να ζούμε σε μια δυστοπία που μέχρι πρότινος νομίζαμε ότι ανήκει μόνο στη σφαίρα της επιστημονικής φαντασίας. Στο κάτω-κάτω, ποιος θέλει να ξυπνήσει μια μέρα και να ανακαλύψει ότι ο καλύτερός του φίλος είναι ένα chatbot;
➥ Διαβάστε επίσης: To Μεξικό ζει το δικό του Black Mirror με πρωταγωνιστές σκυλιά ρομπότ
Σε μια από τις πιο καθοριστικές σκηνές της ταινίας “Ex Machina”, ο Caleb καθισμένος απέναντι από το ανθρωποειδές ρομπότ Ava, αρχίζει να της κάνει ερωτήσεις, προσπαθώντας να καταλάβει αν η συμπεριφορά της είναι αυθεντική ή απλώς αποτέλεσμα προγραμματισμού. Το βλέμμα της Ava, γεμάτο περιέργεια και ευαισθησία, προκαλεί στον Caleb μια αίσθηση οικειότητας και εμπιστοσύνης.
Η σκηνή αυτή λειτουργεί ως μια μικρογραφία του ευρύτερου φιλοσοφικού ερωτήματος της ταινίας: τι σημαίνει να είσαι άνθρωπος σε έναν κόσμο όπου η τεχνολογία μπορεί να αναπαράγει την ανθρώπινη συνείδηση με τόσο πειστικό τρόπο που πλέον υπάρχει δυσκολία να διακρίνει κανείς ένα προϊόν τεχνητής νοημοσύνης από την πραγματικότητα.
Ποιος θα το φανταζόταν πριν από μερικά χρόνια ότι η τεχνητή νοημοσύνη θα γινόταν τόσο διαδεδομένη και σημαντική στη ζωή μας; Κάθε πτυχή της καθημερινότητάς μας επηρεάζεται από τις τεχνολογικές αυτές εξελίξεις, από τις εφαρμογές στην ιατρική μέχρι τις ατελείωτες ώρες που έχουμε ξοδέψει σε αναζητήσεις και συνομιλίες με τα chatbot. Τα μοντέλα μεγάλων γλωσσών (LLM), όπως το μοντέλο GPT-4 που υποστηρίζει την ευρέως χρησιμοποιούμενη πλατφόρμα συνομιλίας ChatGPT, έχουν εκπλήξει τους χρήστες με την ικανότητά τους να κατανοούν γραπτές προτροπές και να δημιουργούν κατάλληλες απαντήσεις σε διάφορες γλώσσες.
Η αυξανόμενη εξάρτησή μας όμως από την ΤΝ δεν έρχεται χωρίς προβλήματα. Σύμφωνα με μια πρόσφατη έρευνα, πολλοί άνθρωποι δεν μπορούν να ξεχωρίσουν αν συνομιλούν με ένα chatbot ή με έναν πραγματικό άνθρωπο. Οι δυνατότητες πλέον της ΤΝ είναι τόσο εξελιγμένες που σταδιακά αρχίζουμε να αναρωτιόμαστε αν η ζωή μας είναι ένα επεισόδιο από το “Black Mirror”.
Chatbot, deepfake ή πραγματικότητα;
Σε αυτά τα πλάισια κινήθηκε και μία μελέτη στο Πανεπιστήμιο της Καλιφόρνια στο San Diego, όπου οι ερευνητές διεξήγαγαν ένα τεστ Turing για να τσεκάρουν αν οι άνθρωποι μπορούσαν να διακρίνουν μεταξύ ανθρώπινου κειμένου και κειμένου που δημιουργήθηκε από AI σε συνομιλίες πέντε λεπτών. Το τεστ Turing αποτελεί μια γνωστή μέθοδο που πήρε το όνομά της από τον επιστήμονα υπολογιστών Alan Turing, σχεδιασμένη να αξιολογεί το βαθμό στον οποίο μια μηχανή επιδεικνύει ανθρώπινη νοημοσύνη. Τα αποτελέσματα ήταν εκπληκτικά: οι συμμετέχοντες δεν μπορούσαν να καταλάβουν με αξιοπιστία αν μιλούσαν σε άνθρωπο ή με τεχνητή νοημοσύνη, ιδιαίτερα όταν αλληλεπιδρούσαν με το μοντέλο GPT-4. Η μελέτη διαπίστωσε ότι το GPT-4 θα μπορούσε να περάσει ως άνθρωπος στο 50% περίπου των αλληλεπιδράσεων.
«Ένα ποσοστό επιτυχίας 41% υποδηλώνει ότι η εξαπάτηση από μοντέλα τεχνητής νοημοσύνης μπορεί ήδη να είναι πιθανή, ειδικά σε περιβάλλοντα όπου οι ανθρώπινοι συνομιλητές είναι λιγότερο προσεκτικοί στην πιθανότητα να μην μιλούν σε άνθρωπο», υποστήριξαν οι ερευνητές στο άρθρο τους . «Τα μοντέλα τεχνητής νοημοσύνης που μπορούν να υποδύονται αποτελεσματικά ανθρώπους θα μπορούσαν να έχουν εκτεταμένες κοινωνικές και οικονομικές συνέπειες. Θα μπορούσαν να υπηρετήσουν οικονομικά πολύτιμους ρόλους που διαχειρίζονται πελάτες που ιστορικά απασχολούσαν εργαζόμενους, , να παραπλανήσουν το ευρύ κοινό ή τους ίδιους τους ανθρώπινους φορείς) και να διαβρώσουν την κοινωνική εμπιστοσύνη στις αυθεντικές ανθρώπινες αλληλεπιδράσεις»
Για παράδειγμα, συστήματα ΤΝ μπορούν να χρησιμοποιηθούν για τη δημιουργία πλαστών μηνυμάτων και ειδήσεων, προκαλώντας σύγχυση και διασπορά ψευδών πληροφοριών. Αυτό μπορεί να επηρεάσει τη δημόσια γνώμη και να διαταράξει την κοινωνική συνοχή.
Τέτοιες επιπτώσεις είναι ήδη ορατές με τη η χρήση deepfakes. Πρόκειται για μία χρήση της τεχνητής νοημοσύνης που παράγει πλαστά και υπερρεαλιστικά βίντεο, φωτογραφίες ή ηχητικά αρχεία. Η εξελιγμένη τεχνητή νοημοσύνη συνθέτει το αρχικό υλικό – φωτογραφίες, βίντεο, φωνές – σε νέες, παραποιημένες εκδοχές που φαίνονται αληθινές. Με εκθετικές βελτιώσεις στην ποιότητα, τα deepfakes προσομοιώνουν πλέον εκφράσεις και συμπεριφορές με ανατριχιαστική ακρίβεια, καθιστώντας σχεδόν αδύνατη την επαλήθευση της αυθεντικότητας, δίνοντας ζωή σε ψευδή γεγονότα.
Πολλές χώρες γίνονται μάρτυρες της χρήσης της παραπληροφόρησης ως εργαλείου χειραγώγησης των αντιλήψεων του κοινού σε θέματα δημόσιας πολιτικής, προώθησης μιας ατζέντας ή πόλωσης των πολιτών. Αν δούμε μερικά από τα μεγαλύτερα ζητήματα και εκστρατείες των τελευταίων ετών -εκλογές σε εθνικό επίπεδο, ψήφος για το Brexit, ακόμη και συζήτηση γύρω από τους περιορισμούς του κορωνοϊού- υπάρχει ένα σταθερό στοιχείο που μοιράζονται όλα: η παρουσία της πολιτικής προπαγάνδας. Καθοδηγούμενη από το μεταβαλλόμενο τοπίο των μέσων ενημέρωσης και την άνοδο των μέσων κοινωνικής δικτύωσης, η πολιτική προπαγάνδα δεν χρησιμοποιήθηκε ποτέ περισσότερο.
Η αδυναμία διάκρισης μεταξύ ανθρώπινων και μηχανικών συνομιλιών μπορεί να υπονομεύσει την εμπιστοσύνη στην επικοινωνία και στις σχέσεις. Οι άνθρωποι μπορεί να γίνουν πιο επιφυλακτικοί και καχύποπτοι, ακόμα και σε καθημερινές συναναστροφές.
Συστήματα ΤΝ που μπορούν να μιμούνται ανθρώπους μπορούν να χρησιμοποιηθούν για να εξαπατήσουν άτομα και επιχειρήσεις, προκαλώντας οικονομικές απώλειες. Αυτό μπορεί να περιλαμβάνει από πλαστές κλήσεις μέχρι email που μιμούνται νόμιμες επιχειρήσεις. Επιπλέον, οι εταιρείες που επενδύουν και κατέχουν τις πιο προηγμένες τεχνολογίες ΤΝ μπορεί να αποκτήσουν τεράστιο οικονομικό πλεονέκτημα, ενισχύοντας τις ανισότητες πλούτου και εξουσίας.
Σε κάποιες περιπτώσεις, είναι ευκολο κανείς να καταλάβει ποιο προϊόν είναι αποτέλεσμα ΤΝ και δεν είναι πραγματικό. Σε άλλες, θα πρέπει κάποιος ειδικός να αναλύσει την εικόνα, το κείμενο ή το βίντεο για να αποφανθεί για την γνησιότητά του.
Ωστόσο, μια άλλη μελέτη από το Πανεπιστήμιο της Νότιας Φλόριντα αποκάλυψε ότι ακόμη και οι ειδικοί της γλωσσολογίας αγωνίζονται να διαφοροποιήσουν το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη και το γραπτό από τον άνθρωπο περιεχόμενο. Κατά την ανασκόπηση των περιλήψεων έρευνας, αυτοί οι ειδικοί μπορούσαν να προσδιορίσουν σωστά περιεχόμενο που δημιουργήθηκε από AI μόνο στο 38,9% των περιπτώσεων. Αυτό υποδηλώνει ότι η τεχνητή νοημοσύνη μπορεί να παράγει σύντομα κείμενα που είναι εξίσου ικανά με την ανθρώπινη γραφή.
Η αυξανόμενη αδυναμία διάκρισης μεταξύ περιεχομένου που δημιουργείται από άνθρωπο και τεχνητής νοημοσύνης υπογραμμίζει την ανάγκη για καλύτερα εργαλεία ανίχνευσης. Οι ερευνητές έχουν προτείνει ότι θα είναι σημαντικό να παρακολουθούνται με προσοχή τα μοντέλα τεχνητής νοημοσύνης καθώς αποκτούν περισσότερη ρευστότητα και απορροφούν περισσότερες ανθρώπινες ιδιορρυθμίες στη συνομιλία. «Θα γίνεται όλο και πιο σημαντικό να εντοπίζονται οι παράγοντες που οδηγούν στην εξαπάτηση και να καλλιεργηθούν στρατηγικές για τον μετριασμό της», ανέφεραν.
Οι ειδικοί προτείνουν ότι ένα λογισμικό ικανό να αναγνωρίζει κείμενο που δημιουργείται από AI είναι απαραίτητο, ειδικά σε ακαδημαϊκά και επαγγελματικά περιβάλλοντα. Επιπλέον, υπάρχουν εκκλήσεις για ηθικές κατευθυντήριες γραμμές σχετικά με τη χρήση της τεχνητής νοημοσύνης στην επικοινωνία και την έρευνα.
Η τεχνητή νοημοσύνη είναι απλώς ένα εργαλείο που έχουν αναπτύξει οι άνθρωποι για να εκτελούν εργασίες πιο αποτελεσματικά. Εναπόκειται σε εμάς να το χρησιμοποιήσουμε ηθικά και υπεύθυνα για να διασφαλίσουμε ότι εξυπηρετεί τα καλύτερα συμφέροντά μας. Είναι σημαντικό να ρυθμιστεί η ανάπτυξη της τεχνητής νοημοσύνης για να διασφαλιστεί ότι ωφελεί όλους και δεν δημιουργεί ανεπιθύμητες συνέπειες.ς. Η ισορροπία μεταξύ της χρήσης της ΤΝ για τη βελτίωση της ζωής μας και της προστασίας της ατομικότητας και της αυθεντικότητας είναι το κλειδί για ένα ασφαλές και βιώσιμο μέλλον. Αν δεν προσέξουμε, ίσως βρεθούμε να ζούμε σε μια δυστοπία που μέχρι πρότινος νομίζαμε ότι ανήκει μόνο στη σφαίρα της επιστημονικής φαντασίας. Στο κάτω-κάτω, ποιος θέλει να ξυπνήσει μια μέρα και να ανακαλύψει ότι ο καλύτερός του φίλος είναι ένα chatbot;
➥ Διαβάστε επίσης: To Μεξικό ζει το δικό του Black Mirror με πρωταγωνιστές σκυλιά ρομπότ