Η ιδέα της τεχνητής νοημοσύνης που ανατρέπει όσα ξέραμε μέχρι τώρα σχετικά με την τεχνολογία και την ανθρωπότητα έχει συζητηθεί εδώ και δεκαετίες – και προγράμματα όπως το ChatGPT έχουν ενισχύσει τις ανησυχίες σχετικά με την δύναμη και την επιρροή της .
Ως «superintelligence», ή αλλιώς υπερδιάνοια, ορίζεται ένας νους που διαθέτει νοημοσύνη που ξεπερνά κατά πολύ τις διανοητικές δυνατότητες των πιο λαμπρών και ταλαντούχων ανθρώπινων μυαλών. Υπό το φως των πρόσφατων προόδων στη νοημοσύνη των μηχανών, αρκετοί επιστήμονες, φιλόσοφοι και τεχνολόγοι έχουν αναζωπυρώσει τη συζήτηση σχετικά με τους δυνητικά καταστροφικούς κινδύνους που συνεπάγεται μια τέτοια οντότητα.
Τα συστήματα Τεχνητής Νοημοσύνης θα μπορούν να μαθαίνουν, να λύνουν προβλήματα, να προσαρμόζονται και να αυτοβελτιώνονται.
Στο μέλλον, ίσως και στα μέσα του αιώνα που διανύουμε, η εξέλιξη της τεχνολογίας ίσως να μπορεί να υποστηρίξει την ανάπτυξη μηχανών εφάμιλλων των ανθρώπινων διανοητικών δυνατοτήτων, ικανές να κάνεουν ακόμη και εργασίες πέρα από αυτές για τις οποίες σχεδιάστηκαν Μόλις συμβεί αυτό, η έλευση μιας μηχανής υψηλής ευφυίας και νοημοσύνης θα είναι υπόθεση δευτερολέπτων.
Πόσο πιθανό όμως θα ήταν να μπορέσουμε να ελέγξουμε μία τέτοια υψηλού επιπέδου Υπερ-Νοημοσύνη υπολογιστών;
Ο έλεγχος και ο πλήρης περιορισμός της μοιάζει, αδύνατος, λόγω των θεμελιωδών ορίων που μία τέτοια οντότητα εγγενώς δημιουργεί. Σύμφωνα με τους συντάκτες σχετικής έρευνας στο Journal of Artificial Intelligence Research, ο αυστηρός περιορισμός απαιτεί προσομοιώσεις ενός τέτοιου προγράμματος, κάτι θεωρητικά (και πρακτικά) αδύνατο.
Ήδη, στο επίπεδο που η σημερινή τεχνολογία έχει φτάσει, υπάρχουν έντονες συζητήσεις σχετικά με την ανθρώπινη αδυναμία να κατανοήσει τον τρόπο που οι μηχανές τεχνητής νοημοσύνης λειτουργούν. Η εξέλιξη της τεχνολογίας και η πολυπλοκότητα των συστημάτων της, χτίζουν ένα δίκτυο με κρυφές πτυχές και άγνωστους κόσμους ακόμα και για τους δημιουργούς του
Πώς λοιπόν θα προσομοιώσουμε κάτι που δεν μπορούμε να κατανοήσουμε; Και πώς θα το ελέγξουμε αν δεν κατανοούμε τον τρόπο με τον οποίο λειτουργεί;
Κανόνες όπως «να μην προκαλέσετε κακό στους ανθρώπους» δεν θα μπορούν να τεθούν εάν δεν κατανοούμε το είδος των σεναρίων που πρόκειται να δημιουργήσει μια τεχνητή νοημοσύνη. Από τη στιγμή που ένα σύστημα υπολογιστή λειτουργεί σε επίπεδο μεγαλύτερο από το πεδίο εφαρμογής των προγραμματιστών μας, δεν μπορούμε πλέον να θέσουμε όρια.
«Μια υπερ-νοημοσύνη θέτει ένα θεμελιωδώς διαφορετικό πρόβλημα από αυτά που συνήθως μελετώνται κάτω από το έμβλημα της “ηθικής των ρομπότ” », έγραψαν οι ερευνητές. «Αυτό συμβαίνει επειδή μια υπερευφυΐα είναι πολύπλευρη και επομένως δυνητικά ικανή να κινητοποιήσει μια ποικιλία πόρων προκειμένου να επιτύχει στόχους που είναι θεωρητικά ακατανόητοι για τον άνθρωπο, πόσο μάλλον ελεγχόμενοι.»
Οποιοδήποτε πρόγραμμα που έχει γραφτεί για να σταματήσει η τεχνητή νοημοσύνη να βλάπτει τους ανθρώπους και να καταστρέφει τον κόσμο, για παράδειγμα, θα μπορούσε να υπερκεραστεί από τη δυνατότητα της υπερ-νοημοσύνης να παίρνει αποφάσεις και να παρακάμπτει εντολές.
«Στην πραγματικότητα, αυτό καθιστά τον αλγόριθμο περιορισμού άχρηστο», δήλωσε ο επιστήμονας υπολογιστών Iyad Rahwan, από το Ινστιτούτο Max-Planck για την Ανθρώπινη Ανάπτυξη στη Γερμανία.
Η εναλλακτική λύση στο να διδάξετε την τεχνητή νοημοσύνη κάποια ηθική και να της πείτε να μην καταστρέφει τον κόσμο –κάτι που κανένας αλγόριθμος δεν μπορεί να είναι απολύτως βέβαιος ότι θα κάνει, λένε οι ερευνητές– είναι ο περιορισμός των δυνατοτήτων της υπερ-νοημοσύνης. Θα μπορούσε να αποκοπεί από μέρη του Διαδικτύου ή από ορισμένα δίκτυα, για παράδειγμα.
Η μελέτη απορρίπτει και αυτή την ιδέα, υποδηλώνοντας ότι θα περιόριζε την εμβέλεια της τεχνητής νοημοσύνης – το επιχείρημα λέει ότι αν δεν πρόκειται να τη χρησιμοποιήσουμε για να λύσουμε προβλήματα πέρα από το πεδίο των ανθρώπων, τότε γιατί να τη δημιουργήσουμε και καθόλου;
Αν πρόκειται να προχωρήσουμε με την τεχνητή νοημοσύνη, ακριβώς επειδή τα συστήματα είναι τόσο περίπλοκα και ο τρόπος λειτουργίας του σκοτεινός, σημαίνει ότι δεν έχουμε ιδέα του πότε θα βρεθούμε σε μία κατάσταση που το δημιούργημά μας, θα μας ξεπεράσει.
Αυτό σημαίνει ότι πρέπει να αρχίσουμε να κάνουμε κάποιες σοβαρές ερωτήσεις σχετικά με τις κατευθύνσεις στις οποίες πηγαίνουμε και τους σκοπούς τους οποίους μία τέτοια δύναμη υπηρετεί.
Νωρίτερα φέτος, τεχνολογικοί γίγαντες, συμπεριλαμβανομένου του Elon Musk και του συνιδρυτή της Apple, Steve Wozniak, υπέγραψαν μια ανοιχτή επιστολή ζητώντας από την ανθρωπότητα να διακόψει τις εργασίες για την τεχνητή νοημοσύνη για τουλάχιστον 6 μήνες, ώστε να διερευνηθεί η ασφάλειά της και να δώσουμε χρόνο στους επιστήμονες να αναπτύξουν ένα “σχέδιο δράσης”.
«Τα συστήματα τεχνητής νοημοσύνης με ανθρώπινη-ανταγωνιστική νοημοσύνη μπορούν να θέτουν σοβαρούς κινδύνους για την κοινωνία και την ανθρωπότητα», ανέφερε η ανοιχτή επιστολή με τίτλο «Παύση γιγαντιαίων πειραμάτων AI».
Τα ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτυχθούν μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους θα είναι διαχειρίσιμοι.