Όταν συζητάμε για τα δικαιώματα και την ευημερία των ζώων, συχνά αναφερόμαστε σε δύο χαρακτηριστικά: την ευφυΐα (σύνθετη νοημοσύνη) και την αισθαντικότητα (την ικανότητα κάποιου να έχει υποκειμενικές εμπειρίες ή «συναισθήματα»). Ωστόσο, όταν συζητάμε για τα ρομπότ και την προηγμένη τεχνητή νοημοσύνη, αυτές οι δύο ιδέες περιέργως απουσιάζουν από τη συζήτηση. Ίσως βρισκόμαστε σε ένα τεχνολογικό κατώφλι μεταξύ της «τεχνητής νοημοσύνης» και της «αξιοπρεπούς τεχνητής νοημοσύνης». Ίσως όμως ήρθε η ώρα να μιλήσουμε περισσότερο για τα δικαιώματα των ρομπότ.

Το 2010, η ΕΕ εξέδωσε μια νομική οδηγία που προβλέπει μέτρα τα οποία αποσκοπούν στην «προστασία των ζώων που χρησιμοποιούνται για επιστημονικούς σκοπούς». Περιγράφει και εξηγεί ποια ζώα θα έπρεπε να προστατεύονται, και επιβάλλει στα 27 κράτη μέλη της ΕΕ να ακολουθούν ορισμένους κανόνες για τη αιχμαλωσία και τα πειράματα στα ζώα. Απαγορεύει κάθε ενέργεια που θα προκαλούσε στα ζώα αυτά «σοβαρό πόνο, ταλαιπωρία ή αγωνία, η οποία ενδέχεται να τους προκαλέσει σοβαρή και μη αναστρέψιμη βλάβη». Επιπλέον, όλες οι δοκιμές χρειάζονται ανεξάρτητες μελέτες που να αποδεικνύουν ότι τα ζώα ήταν απολύτως απαραίτητα για τη συγκεκριμένη έρευνα. Η οδηγία εφαρμόζεται σε όλα τα ζώντα σπονδυλωτά ζώα πλην του ανθρώπου, καθώς και σε ορισμένα ασπόνδυλα τα οποία είναι πιθανό να αισθανθούν πόνο (σουπιά, χταπόδι κ.λπ.). Η χρήση για δοκιμές πρωτευόντων πλην του ανθρώπου υπόκειται σε περιορισμούς, ενώ απαγορεύεται η χρήση ανθρωποειδών πιθήκων (χιμπατζήδων, μπονόμπο, γοριλλών και ουραγκοτάγκων).

Ενώ η οδηγία αναφέρει ρητά ότι «όλα τα ζώα έχουν εγγενή αξία», το έγγραφο είναι ουσιαστικά μια προσπάθεια  για να δικαιολογήσει πώς ορισμένα ζώα είναι πιο πολύτιμα από άλλα. Αλλά ποια κριτήρια πρέπει να επιστρατεύσουμε αν πρόκειται να κατατάξουμε τα διαφορετικά είδη; Αν φανταστούμε μια μακρά λίστα ζώων από την αμοιβάδα μέχρι τον άνθρωπο, σε ποιο σημείο τραβάμε μια γραμμή για να πούμε: «Ποιο είναι το χαρακτηριστικό που προσδίδει δικαιώματα σε ένα υποκείμενο»;

Πρόκειται για ένα ζήτημα που εφαρμόζεται όλο και περισσότερο σε έναν άλλο ευαίσθητο τομέα: τα δικαιώματα των ρομπότ. Και εδώ, επίσης, μπορούμε να τραβήξουμε μια παρόμοια γραμμή. Στο ένα άκρο βρίσκονται οι αριθμομηχανές και στο άλλο άκρο οι προηγμένες μηχανές τεχνητής νοημοσύνης που κατανοούν και προσαρμόζονται στο περιβάλλον τους. Πού βρίσκεται τώρα η γραμμή μας; Πότε ένα ρομπότ έχει δικαιώματα; Και πότε, ένα ρομπότ μπορεί να γίνει άνθρωπος;

Μελλοντικοί σκλάβοι

Στις περισσότερες απεικονίσεις  επιστημονικής φαντασίας, τα ρομπότ παρουσιάζονται ως σκλάβοι ή πόροι προς εκμετάλλευση. Σε περίπτωση που έχουν δικαιώματα, είναι πάντα πολύ λιγότερα από αυτά των ανθρώπων. Στον Πόλεμο των Άστρων, τα ανδροειδή μπορούν να μιλούν, σχεδιάζουν, και φαίνεται να αγωνιούν για διάφορα πράγματα. Παρόλα αυτά, τους φέρονται χειρότερα κι από σκλάβους. Τα ομοιώματα του Blade Runner – που δεν διακρίνονται από τους «πραγματικούς» ανθρώπους – αναγκάζονται να εργάζονται ως στρατιώτες ή πόρνες. Ακόμη, το Star Trek αφιερώνει ένα ολόκληρο επεισόδιο στο ερώτημα αν ο «Data» μπορεί να επιλέξει το δικό του μονοπάτι ζωής. Η επιστημονική φαντασία απεικονίζει κόσμους στους οποίους τα ρομπότ δεν έχουν κανενός είδους δικαιώματα.

Αυτό οφείλεται στο γεγονός ότι όλοι μας μεγαλώνουμε με ένα είδος συναισθηματικής αποσύνδεσης από τα ρομπότ. Είναι ξεχωριστά και διαφορετικά είδη από εμάς. Είναι ο κανόνας της εποχής μας να αντιμετωπίζουμε τους υπολογιστές και την τεχνητή νοημοσύνη ως αντικείμενα προς χρήση. Η ευημερία τους, οι επιλογές τους και οι «ζωές» τους είναι ασήμαντα ζητήματα.

Όλα αυτά αποτελούν μια περίεργη ηθική ασυνέπεια. Στα νομικά και ηθικά μας έγγραφα (όπως η παραπάνω οδηγία της ΕΕ για τα ζώα), συχνά αναφερόμαστε σε δύο χαρακτηριστικά: την ευφυΐα (σύνθετη νοημοσύνη) και την αισθαντικότητα (την ικανότητα κάποιου να έχει υποκειμενικές εμπειρίες ή «συναισθήματα»), τις οποίες αποδίδουμε στα ζώα σε διάφορους βαθμούς. Δεν γνωρίζουμε με σιγουριά ότι διαθέτουν και τα δύο, αλλά υποθέτουμε ότι τα διαθέτουν. Ακόμα και η οδηγία της ΕΕ μας λέει: «Τα ζώα πρέπει πάντα να αντιμετωπίζονται ως πλάσματα που αισθάνονται». Αυτό δεν σημαίνει ότι είναι, αλλά ότι οφείλουμε να τους συμπεριφερόμαστε σαν να είναι.

Το αντίστροφο τεστ Turing

Το τεστ Turing είναι ένα διάσημο πείραμα στο οποίο οι ανθρώπινοι χρήστες θέτουν σε ένα ρομπότ μια σειρά ερωτήσεων για να διαπιστώσουν αν διαφέρει από έναν άνθρωπο ή όχι. Τι θα γινόταν όμως αν το αντιστρέφαμε αυτό και φτιάχναμε ένα Turing Test για τα δικαιώματα τον ρομπότ; Τι θα γινόταν αν θέταμε το ερώτημα: «Τι είναι αυτό που αποκλείει  ένα ρομπότ από τα δικαιώματα, την προστασία και τον σεβασμό;». Τι κάνει τα ρομπότ να διαφέρουν από τους ανθρώπους;

Ακολουθούν τρεις προτάσεις και οι απαντήσεις τους.

1. Τα ρομπότ δεν διαθέτουν προηγμένη, γενικευμένη νοημοσύνη (ευφυΐα). Αυτό σίγουρα ισχύει, για την ώρα τουλάχιστον. Η αριθμομηχανή σας είναι εξαιρετική στο να δουλεύει με το π και το cos(x), αλλά δεν μπορεί να σας βοηθήσει να διαβάσετε οδικές πινακίδες. Η Siri είναι καλή στο να σας λέει τον καιρό, αλλά δεν μπορεί να ανοίξει μια συζήτηση. Υπάρχουν όμως τρία προβληματικά σημεία σε αυτή την άποψη. Πρώτον, υπάρχουν πάρα πολλά ζώα χωρίς ιδιαίτερα υψηλή νοημοσύνη, στα οποία εξακολουθούμε να σεβόμαστε και να τους φερόμαστε με καλό τρόπο. Δεύτερον, υπάρχουν κάποιοι άνθρωποι που δεν διαθέτουν προηγμένη νοημοσύνη – όπως για παράδειγμα τα μωρά ή άτομα με σοβαρές νοητικές αναπηρίες – στους οποίους η κοινωνία μας εξακολουθεί να παρέχει δικαιώματα. Τρίτον, δεδομένης της ταχύτητας με την οποία αναπτύσσεται η Τεχνητή Νοημοσύνη, αυτό είναι ένα όριο που ίσως μπορέσουμε σύντομα να ξεπεράσουμε. Είμαστε πραγματικά έτοιμοι να απελευθερώσουμε τους υπολογιστές και να τους αντιμετωπίζουμε ως ισότιμους ανθρώπους;

2. Τα ρομπότ δεν μπορούν να νιώσουν συναισθήματα όπως ο πόνος ή η αγάπη (αισθαντικότητα). Πρόκειται για έναν δύσκολο τομέα, όχι μόνο επειδή δεν γνωρίζουμε πλήρως τι είναι τα συναισθήματα. Αν αναγάγουμε τα συναισθήματα σε ορμόνες ή ηλεκτροχημικές αντιδράσεις του εγκεφάλου, τότε φαίνεται εύλογο ότι μπορούμε να τα αναπαράγουμε σε μια τεχνητή νοημοσύνη. Σε αυτό το πλαίσιο, θα τους δοθούν νομικά/ηθικά δικαιώματα; Το άλλο ζήτημα, όμως, είναι ότι εδώ εξακολουθούμε να αντιμετωπίζουμε μια ανθρωποκεντρική προκατάληψη. Αν ο φίλος σας κλαίει, υποθέτετε ότι είναι λυπημένος – όχι ότι μιμείται τη λύπη. Αν η μητέρα σας βγάλει το μπουφάν της, υποθέτετε ότι ζεσταίνεται. Όταν όμως ένα ρομπότ επιδεικνύει ένα συναίσθημα (αυτό συμβαίνει περισσότερο στις απεικονίσεις της επιστημονικής φαντασίας παρά στην πραγματικότητα), γιατί υποθέτουμε ότι απλώς μιμείται την ανθρώπινη συμπεριφορά;

3. Τα ρομπότ κατασκευάζονται και προγραμματίζονται από ανθρώπους (εξάρτηση). Ακόμη και όταν μια πιο προηγμένη μορφή Τεχνητής Νοημοσύνης μπορεί να «μάθει» από το περιβάλλον της, εξακολουθεί να χρειάζεται πολλή ανθρώπινη καθοδήγηση με τη μορφή του προγραμματισμού. Κάτι που εξαρτάται τόσο πολύ από την ανθρώπινη δράση δεν μπορεί να θεωρηθεί άξιο δικαιωμάτων. Από αυτό το επιχείρημα προκύπτουν δύο ζητήματα. Πρώτον, αν και δεν μιλάμε για ανθρώπους που «προγραμματίζονται», δεν είναι υπερβολικό να πούμε ότι αυτό ακριβώς κάνουν τα γονίδιά μας. Αν το σκεφτείτε λίγο καλύτερα, είμαστε απλώς το αποτέλεσμα της γενετικής μας καλωδίωσης και της κοινωνικής-γονικής συμβολής. Λίγο αν αλλάξουμε τις λέξεις, ελάχιστα διαφέρουμε ως προς αυτό. Επιπλέον, γιατί η εξάρτηση πρέπει να μας αποκλείει από τα δικαιώματα; Τα σκυλιά, τα παιδιά και οι πολύ ηλικιωμένοι εξαρτώνται επίσης από τους άλλους ανθρώπους, αλλά δεν τους κακομεταχειριζόμαστε ή τους αφήνουμε να ταλαιπωρούνται.

Η λάθος πλευρά της ιστορίας

Στο σημείο αυτό προκύπτουν δύο βασικά ερωτήματα. Το πρώτο είναι αν ένα ρομπότ μπορεί να θεωρηθεί ως οντότητα– αυτό είναι, ίσως, ένα πολύ μεγάλο ερώτημα για την ώρα (και ίσως κάτι που μπορεί να μην απαντηθεί ποτέ ικανοποιητικά). Το δεύτερο ερώτημα είναι μέχρι ποιο βαθμό δικαιούται ένα ρομπότ να αντιμετωπίζεται με σεβασμό και φροντίδα; Μέχρι ποιο σημείο μπορούμε  να εκμεταλλευόμαστε ή να κακομεταχειριζόμαστε τα ρομπότ προηγμένης τεχνολογίας;

Μπορεί κάλλιστα οι μελλοντικές γενιές να κοιτάξουν πίσω με αποτροπιασμό τη συμπεριφορά μας. Αν φανταστούμε ένα μέλλον όπου τα ρομπότ αντιμετωπίζονται όπως ακριβώς και οι άνθρωποι, μπορούμε επίσης να φανταστούμε πόσο σοκαρισμένοι θα είναι η μέλλουσα γενιά από τη συμπεριφορά μας. Αν οι υπολογιστές Τεχνητής Νοημοσύνης του 22ου αιώνα είναι οι φίλοι, οι συνάδελφοι και οι παρτενέρ μας, το θέμα της εκμετάλλευσης του 21ου αιώνα σίγουρα θα αποτελεί μια σκοτεινή περίοδο της ιστορίας.

Ίσως βρισκόμαστε στο χείλος του γκρεμού της «αξιοπρεπούς τεχνητής νοημοσύνης». Κανείς δεν κάνει καμπάνια για τα δικαιώματα των ρομπώτ, αλλά ίσως θα πρέπει να αρχίσουμε να επανεξετάζουμε την ηθική που συνδέεται με την γενικευμένη, προηγμένη τεχνητή νοημοσύνη που δημιουργούμε. Βρισκόμαστε με το ένα πόδι εντός ενός τεχνολογικού ορίου και είναι καιρός να επανεξετάσουμε τις ηθικές και κοινωνικές μας αξίες.