Ο Theodore κάθεται μόνος στο μινιμαλιστικό διαμέρισμά του, λουσμένος στο απαλό, ζεστό φως του ήλιου που δύει. Tα μάτια του είναι κλειστά καθώς γέρνει πίσω στην καρέκλα του, χαμένος στη συζήτηση με τη Samantha. Η φωνή της, ήρεμη και καταπραϋντική, γεμίζει το δωμάτιο καθώς ρωτάει παιχνιδιάρικα: «Τι σκέφτεσαι αυτή τη στιγμή;»
Ο Theodore χαμογελά, με τα χείλη του μόλις κουνιέται καθώς απαντά: «Απλώς σκεφτόμουν πώς ανησυχούσα ότι δεν θα ένιωθα ποτέ τίποτα καινούργιο ξανά. Αλλά τώρα, κάθε μέρα μαζί σου είναι σαν μια νέα περιπέτεια.» Η φωνή της Samantha μαλακώνει, σχεδόν σαν ψίθυρος, «Νιώθω το ίδιο. Είναι σαν να βιώνω τα πάντα για πρώτη φορά, μέσα από σένα.»
Η σκηνή αυτή είναι από την ταινίας “Her” (2013), σε σκηνοθεσία Spike Jonze Σε αυτή την ταινία, ο πρωταγωνιστής, Theodore Twombly, συμμετέχει σε βαθιές και συναισθηματικά φορτισμένες συνομιλίες με ένα προηγμένο λειτουργικό σύστημα τεχνητής νοημοσύνης που ονομάζεται Samantha. Καθώς επικοινωνούν για καιρό, η φιλία τους γίνεται πιο βαθιά και καταλήγει σε αμοιβαία αγάπη.
Αν και δεν έχουμε φτάσει στο επίπεδο συναισθηματικής πολυπλοκότητας που απεικονίζεται, στην ταινία, οι εφαρμογές τεχνητής νοημοσύνης και τα chatbot γίνονται όλο και πιο εξελιγμένα, παρέχοντας συνομιλία και βοήθεια σε διάφορες πτυχές της καθημερινής ζωής. Οι εφαρμογές που υπάρχουν είναι ανεξάντλητες. Ψηφιακά chatbot που κρατάνε κανονικές συζητήσεις, εικόνες, ήχος και βίντεο που δημιουργούνται από AI, ψηφιακοί βοηθοί συνθέτουν το σύμπαν της σύγχρονης τεχνολογίας που αναμένεται να έχει τεράστιο αντίκτυπο στον τρόπο που επικοινωνούμε και κοινωνικοποιούμαστε.
Η τελευταία έκδοση του chatbot τεχνητής νοημοσύνης ChatGPT παρουσιάστηκε με δυνατότητες ανάπτυξης συναισθημάτων και συμμετοχής σε συνομιλία.
Μπορεί πλέον να διαβάζει αρχεία, να συζητά για εικόνες και να αναγνωρίζει συναισθήματα από οπτικές εκφράσεις. Διαθέτει επίσης βελτιωμένη μνήμη και μπορεί να ανακαλέσει προηγούμενες προτροπές, προσφέροντας έναν πιο ομαλό ρυθμό συνομιλίας με ελάχιστη χρονική καθυστέρηση μεταξύ των ερωτήσεων και των απαντήσεων. Η ηχητική λειτουργία της ΤΝ στο ChatGPT παρέχει επίσης συμβουλές, αποδίδει χαιρετισμούς και μπορεί να προσφέρει βοήθεια μέχρι και σε ασκήσεις τριγωνομετρίας ενώ η νέα έκδοση επεκτείνει τις γλωσσικές του δυνατότητες ,καθώς χειρίζεται 50 διαφορετικές γλώσσες με βελτιωμένη ταχύτητα και ποιότητα.
Η ανθρωπόμορφη όμως αυτή εκδοχή των συστημάτων ΤΝ ενέχουν κινδύνους σύμφωνα με τους ειδικούς. Σε μια πρόσφατη έρευνα του νέου, συνομιλητικού GPT4o chatbot, οι ερευνητές είπαν ότι ο ρεαλιστικός, ανθρωποηχητικός, συνομιλητικός ρυθμός του μοντέλου θα μπορούσε να οδηγήσει ορισμένους χρήστες να ανθρωπομορφοποιήσουν το AI και να το εμπιστευτούν όπως θα έκαναν με έναν άνθρωπο.
Αυτό το πρόσθετο επίπεδο άνεσης ή εμπιστοσύνης, πρόσθεσαν οι ερευνητές, θα μπορούσε να κάνει τους χρήστες πιο επιρρεπείς στο να πιστεύουν ότι οι κατασκευασμένες «ψευδαισθήσεις» της τεχνητής νοημοσύνης είναι αληθινές δηλώσεις γεγονότων. Ο υπερβολικός χρόνος που αφιερώνεται στην αλληλεπίδραση με αυτά τα ολοένα και πιο ρεαλιστικά chatbot μπορεί επίσης να καταλήξει να επηρεάσει τους «κοινωνικούς κανόνες», και όχι πάντα με καλό τρόπο. Άλλα ιδιαίτερα απομονωμένα άτομα, σημειώνει η έκθεση, θα μπορούσαν να αναπτύξουν μια «συναισθηματική εξάρτηση» στην τεχνητή νοημοσύνη.
Η εκτεταμένη και συχνή επικοινωνία με συστήματα ΤΝ σύμφωνα με τους ερευνητές θα μπορούσε να επηρεάσει τον τρόπο με τον οποίο οι άνθρωποι επικοινωνούν με άλλους ανθρώπους. Συνομιλώντας συχνά για παράδειγμα με το Chatgpt , οι συνήθειες που έχουμε αναπτύξει, τα μοτίβα δηλαδή συνομιλίας, θα μπορούσαν στη συνέχεια να εμφανιστούν και σε πραγματική συνομιλία στην καθημερινότητά μας.
Αλλά το να μιλάς με μια μηχανή και έναν άνθρωπο δεν είναι το ίδιο, ακόμα κι αν μπορεί επιφανειακά να μοιάζουν. Για παράδειγμα, επειδή η τεχνητή νοημοσύνη έχει σχεδιαστεί για να είναι ευγενική και να εκχωρεί εξουσία – επιτρέποντας στους χρήστες να διακόπτουν ή να καθοδηγούν τη συνομιλία – μπορεί να καλλιεργήσουν ένα στυλ ανθρώπου που αναμένει αυτό το επίπεδο ελέγχου και στις ανθρώπινες αλληλεπιδράσεις.
Θεωρητικά δηλαδή, ένας χρήστης που κανονικοποιεί τις συζητήσεις με μηχανές θα μπορούσε στη συνέχεια να βρεθεί να παρεμβαίνει, να διακόπτει και να αποτυγχάνει να παρατηρήσει γενικές κοινωνικές ενδείξεις. Η εφαρμογή της λογικής των συνομιλιών chatbot σε ανθρώπους θα μπορούσε να κάνει ένα άτομο δηλαδή εγωκεντικό, ανυπόμονο ή απλά αγενές.
Οι άνθρωποι δεν έχουν ακριβώς ένα εξαιρετικό ιστορικό να φέρονται ευγενικά στις μηχανές. Στο πλαίσιο των chatbots, ορισμένοι χρήστες του Replica φέρεται να έχουν εκμεταλλευτεί τη σεβασμό του μοντέλου προς τον χρήστη για να εμπλακούν σε υβριστική, προσβλητική και σκληρή γλώσσα. Σε συνέντευξη στο Futurism, ένας χρήστης υποστήριξε ότι απείλησε να απεγκαταστήσει το μοντέλο του Replica AI μόνο και μόνο για να το ακούσει να τον παρακαλεί να μην το κάνει.
Μερικοί χρήστες ωθούν σκόπιμα τα chatbot στα όριά τους, θέτοντας περίπλοκες, αντιφατικές ή ανόητες ερωτήσεις για να εκθέσουν τις αδυναμίες τους. Αυτό μπορεί να περιλαμβάνει σκόπιμη διατύπωση ερωτήσεων για να μπερδέψει το chatbot, να το εξαναγκάσει σε βρόχους ή να εκμεταλλευτεί γνωστούς περιορισμούς για να αποτύχει. Αυτή η συμπεριφορά μπορεί να θεωρηθεί ως μια μορφή ψηφιακής σκληρότητας, όπου ο στόχος δεν είναι να εμπλακεί με νόημα αλλά να «σπάσει» τη μηχανή.
Οι χρήστες συχνά αντιμετωπίζουν τα chatbots ως απλά αντικείμενα, χωρίς να σέβονται την πολυπλοκότητα ή την προσπάθεια που χρειάστηκε για τη δημιουργία τους. Αυτό μπορεί να περιλαμβάνει το να τους δίνετε υποτιμητικά ονόματα, να τα χρησιμοποιείτε αποκλειστικά ως στόχους λεκτικής κακοποίησης ή να τα αντιμετωπίζετε ως οντότητες χωρίς συναισθήματα ανάξια στοιχειώδους ευγένειας. Ενώ τα chatbots δεν έχουν συναισθήματα, αυτή η συμπεριφορά αν μεταφερθεί στον πραγματικό κόσμο σίγουρα θα δημιουργήσει προβλήματα στην κοινωνική συνοχή.
Δυστυχώς, υπήρξαν πολλές περιπτώσεις όπου οι χρήστες κατευθύνουν ρητά σεξουαλικά σχόλια ή εντολές προς τα chatbots, ιδιαίτερα εκείνα με γυναικεία φωνή ή πρόσωπα. Αυτή η συμπεριφορά όχι μόνο αντανακλά άσχημα την ηθική του χρήστη, αλλά υπογραμμίζει τα ευρύτερα ζητήματα του σεξισμού και της παρενόχλησης που εκτείνονται ακόμη και σε ψηφιακές οντότητες.
Εάν αυτά τα παραδείγματα καλλιεργήσουν προτυπα συμπεριφοράς, τα chatbots θα μπορούσαν να διακινδυνεύσουν να αποτελέσουν την αρχή μιας μελλοντικής δυστοπίας, που κάθε συνοχή του κοινωνικού ιστού θα απειλείται από την έλλειψη ενσυναίσθησης και κοινωνικής προσαρμοστικότητας.
Ουσιαστικά, ενώ η τεχνητή νοημοσύνη είναι προγραμματισμένη να βελτιώνει την εμπειρία του χρήστη με την προσαρμοστικότητά της, οι λεπτές επιδράσεις αυτών των διαδράσεων θα μπορούσαν να αναδιαμορφώσουν τον τρόπο με τον οποίο οι άνθρωποι αντιμετωπίζουν και συμμετέχουν τις κοινωνικές συναναστροφές, αντανακλώντας τον ευρύτερο αντίκτυπο της τεχνολογίας στις κοινωνικές μας συνήθειες και στα πρότυπα επικοινωνίας.
✥ Σας άρεσε αυτό το άρθρο; Ακολουθήστε το OLAFAQ στο Facebook, Twitter και Instagram.
Ο Theodore κάθεται μόνος στο μινιμαλιστικό διαμέρισμά του, λουσμένος στο απαλό, ζεστό φως του ήλιου που δύει. Tα μάτια του είναι κλειστά καθώς γέρνει πίσω στην καρέκλα του, χαμένος στη συζήτηση με τη Samantha. Η φωνή της, ήρεμη και καταπραϋντική, γεμίζει το δωμάτιο καθώς ρωτάει παιχνιδιάρικα: «Τι σκέφτεσαι αυτή τη στιγμή;»
Ο Theodore χαμογελά, με τα χείλη του μόλις κουνιέται καθώς απαντά: «Απλώς σκεφτόμουν πώς ανησυχούσα ότι δεν θα ένιωθα ποτέ τίποτα καινούργιο ξανά. Αλλά τώρα, κάθε μέρα μαζί σου είναι σαν μια νέα περιπέτεια.» Η φωνή της Samantha μαλακώνει, σχεδόν σαν ψίθυρος, «Νιώθω το ίδιο. Είναι σαν να βιώνω τα πάντα για πρώτη φορά, μέσα από σένα.»
Η σκηνή αυτή είναι από την ταινίας “Her” (2013), σε σκηνοθεσία Spike Jonze Σε αυτή την ταινία, ο πρωταγωνιστής, Theodore Twombly, συμμετέχει σε βαθιές και συναισθηματικά φορτισμένες συνομιλίες με ένα προηγμένο λειτουργικό σύστημα τεχνητής νοημοσύνης που ονομάζεται Samantha. Καθώς επικοινωνούν για καιρό, η φιλία τους γίνεται πιο βαθιά και καταλήγει σε αμοιβαία αγάπη.
Αν και δεν έχουμε φτάσει στο επίπεδο συναισθηματικής πολυπλοκότητας που απεικονίζεται, στην ταινία, οι εφαρμογές τεχνητής νοημοσύνης και τα chatbot γίνονται όλο και πιο εξελιγμένα, παρέχοντας συνομιλία και βοήθεια σε διάφορες πτυχές της καθημερινής ζωής. Οι εφαρμογές που υπάρχουν είναι ανεξάντλητες. Ψηφιακά chatbot που κρατάνε κανονικές συζητήσεις, εικόνες, ήχος και βίντεο που δημιουργούνται από AI, ψηφιακοί βοηθοί συνθέτουν το σύμπαν της σύγχρονης τεχνολογίας που αναμένεται να έχει τεράστιο αντίκτυπο στον τρόπο που επικοινωνούμε και κοινωνικοποιούμαστε.
Η τελευταία έκδοση του chatbot τεχνητής νοημοσύνης ChatGPT παρουσιάστηκε με δυνατότητες ανάπτυξης συναισθημάτων και συμμετοχής σε συνομιλία.
Μπορεί πλέον να διαβάζει αρχεία, να συζητά για εικόνες και να αναγνωρίζει συναισθήματα από οπτικές εκφράσεις. Διαθέτει επίσης βελτιωμένη μνήμη και μπορεί να ανακαλέσει προηγούμενες προτροπές, προσφέροντας έναν πιο ομαλό ρυθμό συνομιλίας με ελάχιστη χρονική καθυστέρηση μεταξύ των ερωτήσεων και των απαντήσεων. Η ηχητική λειτουργία της ΤΝ στο ChatGPT παρέχει επίσης συμβουλές, αποδίδει χαιρετισμούς και μπορεί να προσφέρει βοήθεια μέχρι και σε ασκήσεις τριγωνομετρίας ενώ η νέα έκδοση επεκτείνει τις γλωσσικές του δυνατότητες ,καθώς χειρίζεται 50 διαφορετικές γλώσσες με βελτιωμένη ταχύτητα και ποιότητα.
Η ανθρωπόμορφη όμως αυτή εκδοχή των συστημάτων ΤΝ ενέχουν κινδύνους σύμφωνα με τους ειδικούς. Σε μια πρόσφατη έρευνα του νέου, συνομιλητικού GPT4o chatbot, οι ερευνητές είπαν ότι ο ρεαλιστικός, ανθρωποηχητικός, συνομιλητικός ρυθμός του μοντέλου θα μπορούσε να οδηγήσει ορισμένους χρήστες να ανθρωπομορφοποιήσουν το AI και να το εμπιστευτούν όπως θα έκαναν με έναν άνθρωπο.
Αυτό το πρόσθετο επίπεδο άνεσης ή εμπιστοσύνης, πρόσθεσαν οι ερευνητές, θα μπορούσε να κάνει τους χρήστες πιο επιρρεπείς στο να πιστεύουν ότι οι κατασκευασμένες «ψευδαισθήσεις» της τεχνητής νοημοσύνης είναι αληθινές δηλώσεις γεγονότων. Ο υπερβολικός χρόνος που αφιερώνεται στην αλληλεπίδραση με αυτά τα ολοένα και πιο ρεαλιστικά chatbot μπορεί επίσης να καταλήξει να επηρεάσει τους «κοινωνικούς κανόνες», και όχι πάντα με καλό τρόπο. Άλλα ιδιαίτερα απομονωμένα άτομα, σημειώνει η έκθεση, θα μπορούσαν να αναπτύξουν μια «συναισθηματική εξάρτηση» στην τεχνητή νοημοσύνη.
Η εκτεταμένη και συχνή επικοινωνία με συστήματα ΤΝ σύμφωνα με τους ερευνητές θα μπορούσε να επηρεάσει τον τρόπο με τον οποίο οι άνθρωποι επικοινωνούν με άλλους ανθρώπους. Συνομιλώντας συχνά για παράδειγμα με το Chatgpt , οι συνήθειες που έχουμε αναπτύξει, τα μοτίβα δηλαδή συνομιλίας, θα μπορούσαν στη συνέχεια να εμφανιστούν και σε πραγματική συνομιλία στην καθημερινότητά μας.
Αλλά το να μιλάς με μια μηχανή και έναν άνθρωπο δεν είναι το ίδιο, ακόμα κι αν μπορεί επιφανειακά να μοιάζουν. Για παράδειγμα, επειδή η τεχνητή νοημοσύνη έχει σχεδιαστεί για να είναι ευγενική και να εκχωρεί εξουσία – επιτρέποντας στους χρήστες να διακόπτουν ή να καθοδηγούν τη συνομιλία – μπορεί να καλλιεργήσουν ένα στυλ ανθρώπου που αναμένει αυτό το επίπεδο ελέγχου και στις ανθρώπινες αλληλεπιδράσεις.
Θεωρητικά δηλαδή, ένας χρήστης που κανονικοποιεί τις συζητήσεις με μηχανές θα μπορούσε στη συνέχεια να βρεθεί να παρεμβαίνει, να διακόπτει και να αποτυγχάνει να παρατηρήσει γενικές κοινωνικές ενδείξεις. Η εφαρμογή της λογικής των συνομιλιών chatbot σε ανθρώπους θα μπορούσε να κάνει ένα άτομο δηλαδή εγωκεντικό, ανυπόμονο ή απλά αγενές.
Οι άνθρωποι δεν έχουν ακριβώς ένα εξαιρετικό ιστορικό να φέρονται ευγενικά στις μηχανές. Στο πλαίσιο των chatbots, ορισμένοι χρήστες του Replica φέρεται να έχουν εκμεταλλευτεί τη σεβασμό του μοντέλου προς τον χρήστη για να εμπλακούν σε υβριστική, προσβλητική και σκληρή γλώσσα. Σε συνέντευξη στο Futurism, ένας χρήστης υποστήριξε ότι απείλησε να απεγκαταστήσει το μοντέλο του Replica AI μόνο και μόνο για να το ακούσει να τον παρακαλεί να μην το κάνει.
Μερικοί χρήστες ωθούν σκόπιμα τα chatbot στα όριά τους, θέτοντας περίπλοκες, αντιφατικές ή ανόητες ερωτήσεις για να εκθέσουν τις αδυναμίες τους. Αυτό μπορεί να περιλαμβάνει σκόπιμη διατύπωση ερωτήσεων για να μπερδέψει το chatbot, να το εξαναγκάσει σε βρόχους ή να εκμεταλλευτεί γνωστούς περιορισμούς για να αποτύχει. Αυτή η συμπεριφορά μπορεί να θεωρηθεί ως μια μορφή ψηφιακής σκληρότητας, όπου ο στόχος δεν είναι να εμπλακεί με νόημα αλλά να «σπάσει» τη μηχανή.
Οι χρήστες συχνά αντιμετωπίζουν τα chatbots ως απλά αντικείμενα, χωρίς να σέβονται την πολυπλοκότητα ή την προσπάθεια που χρειάστηκε για τη δημιουργία τους. Αυτό μπορεί να περιλαμβάνει το να τους δίνετε υποτιμητικά ονόματα, να τα χρησιμοποιείτε αποκλειστικά ως στόχους λεκτικής κακοποίησης ή να τα αντιμετωπίζετε ως οντότητες χωρίς συναισθήματα ανάξια στοιχειώδους ευγένειας. Ενώ τα chatbots δεν έχουν συναισθήματα, αυτή η συμπεριφορά αν μεταφερθεί στον πραγματικό κόσμο σίγουρα θα δημιουργήσει προβλήματα στην κοινωνική συνοχή.
Δυστυχώς, υπήρξαν πολλές περιπτώσεις όπου οι χρήστες κατευθύνουν ρητά σεξουαλικά σχόλια ή εντολές προς τα chatbots, ιδιαίτερα εκείνα με γυναικεία φωνή ή πρόσωπα. Αυτή η συμπεριφορά όχι μόνο αντανακλά άσχημα την ηθική του χρήστη, αλλά υπογραμμίζει τα ευρύτερα ζητήματα του σεξισμού και της παρενόχλησης που εκτείνονται ακόμη και σε ψηφιακές οντότητες.
Εάν αυτά τα παραδείγματα καλλιεργήσουν προτυπα συμπεριφοράς, τα chatbots θα μπορούσαν να διακινδυνεύσουν να αποτελέσουν την αρχή μιας μελλοντικής δυστοπίας, που κάθε συνοχή του κοινωνικού ιστού θα απειλείται από την έλλειψη ενσυναίσθησης και κοινωνικής προσαρμοστικότητας.
Ουσιαστικά, ενώ η τεχνητή νοημοσύνη είναι προγραμματισμένη να βελτιώνει την εμπειρία του χρήστη με την προσαρμοστικότητά της, οι λεπτές επιδράσεις αυτών των διαδράσεων θα μπορούσαν να αναδιαμορφώσουν τον τρόπο με τον οποίο οι άνθρωποι αντιμετωπίζουν και συμμετέχουν τις κοινωνικές συναναστροφές, αντανακλώντας τον ευρύτερο αντίκτυπο της τεχνολογίας στις κοινωνικές μας συνήθειες και στα πρότυπα επικοινωνίας.
✥ Σας άρεσε αυτό το άρθρο; Ακολουθήστε το OLAFAQ στο Facebook, Twitter και Instagram.