Ο CEO της OpenAI, Σαμ Άλτμαν εκτιμά ότι η AGI — η Τεχνητή Νοημοσύνη που θα ξεπερνά τους ανθρώπους στις περισσότερες εργασίες — θα εμφανιστεί γύρω στο 2027 ή 2028. Ο Έλον Μασκ προβλέπει ότι αυτό θα συμβεί είτε το 2025 είτε το 2026 και έχει δηλώσει ότι «χάνει τον ύπνο του εξαιτίας της απειλής της Τεχνητής Νοημοσύνης». Τέτοιες προβλέψεις είναι μάλλον λανθασμένες, καθώς η πλειοψηφία των ερευνητών AI πιστεύει ότι απλώς η κατασκευή μεγαλύτερων και πιο ισχυρών chatbots δεν θα οδηγήσει στην AGI.
Η Τεχνητή Νοημοσύνη το 2025 θα εξακολουθεί να αποτελεί «τεράστιο κίνδυνο»: όχι από την τεχνητή υπερ-νοημοσύνη, αλλά από την ανθρώπινη «κακή χρήση». Αυτή η κακή χρήση μπορεί να είναι ακούσια. Για παράδειγμα μετά την κυκλοφορία του ChatGPT, αρκετοί δικηγόροι έχουν υποστεί κυρώσεις για τη χρήση της Τεχνητής Νοημοσύνης για τη σύνταξη εσφαλμένων νομικών υπομνημάτων, διότι δε γνωρίζουν την τάση των chatbots να «εφευρίσκουν» δεδομένα. Η δικηγόρος Chong Ke διατάχθηκε να πληρώσει τα δικαστικά έξοδα της αντίπαλης πλευράς, αφού συμπεριέλαβε φανταστικές υποθέσεις που δημιουργήθηκαν από την Τεχνητή Νοημοσύνη σε νομική της κατάθεση. Στη Νέα Υόρκη, οι Steven Schwartz και Peter LoDuca τιμωρήθηκαν με πρόστιμο 5.000 δολαρίων για την παροχή ψευδών παραπομπών. Στο Κολοράντο ο Zachariah Crabill τέθηκε σε αναστολή για έναν χρόνο για τη χρήση ανύπαρκτων δικαστικών υποθέσεων που δημιουργήθηκαν με το ChatGPT, ρίχνοντας την ευθύνη σε έναν «νομικό ασκούμενο» για τα λάθη.
Και άλλες περιπτώσεις κακής χρήσης είναι εσκεμμένες. Τον Ιανουάριο του 2024 deepfake εικόνες της Taylor Swift κατέκλυσαν τις πλατφόρμες κοινωνικής δικτύωσης. Αυτές οι εικόνες δημιουργήθηκαν με τη χρήση του εργαλείου Τεχνητής Νοημοσύνης “Designer” της Microsoft. Παρόλο που η εταιρεία είχε εφαρμόσει μέτρα ασφαλείας για την αποφυγή δημιουργίας εικόνων πραγματικών ατόμων μία απλή παραλλαγή του ονόματος της Swift ήταν αρκετή για να παρακάμψει αυτά τα μέτρα. Η Microsoft από τότε διόρθωσε αυτό το λάθος. Η περίπτωση της Taylor Swift είναι μόνο η κορυφή του παγόβουνου και τα deepfake χωρίς συναίνεση διαδίδονται ευρέως εν μέρει λόγω της δημόσιας διαθεσιμότητας εργαλείων ανοιχτού κώδικα για τη δημιουργία τους. Η νομοθεσία που εξελίσσεται παγκοσμίως επιχειρεί να καταπολεμήσει τα deepfake με την ελπίδα να περιορίσει τη ζημιά. Το αν θα είναι αποτελεσματική αναμένουμε να αποδειχθεί στην πράξη.
Το 2025 θα είναι ακόμη πιο δύσκολο να ξεχωρίσει κανείς τι είναι πραγματικό και τι είναι ψεύτικο. Η πιστότητα του AI σε ήχο, κείμενο και εικόνες είναι εντυπωσιακή και το βίντεο θα είναι το επόμενο βήμα που καθόλου δεν αργεί. Αυτό θα μπορούσε να οδηγήσει σε μία «πραγματικότητα διαδοχικών αμφιβολιών»: Άτομα σε θέσεις εξουσίας θα μπορούν να απορρίπτουν στοιχεία για κακή τους συμπεριφορά, ισχυριζόμενοι ότι είναι ψεύτικα. Το 2023 η Tesla ισχυρίστηκε ότι ένα βίντεο του 2016 με τον Έλον Μασκ θα μπορούσε να είναι deepfake ως απάντηση σε κατηγορίες ότι ο CEO είχε υπερβάλλει σχετικά με την ασφάλεια του αυτόματου πιλότου της Tesla που οδήγησε σε ατύχημα. Ένας Ινδός πολιτικός ισχυρίστηκε ότι ηχητικά αποσπάσματα στα οποία αναγνώριζε διαφθορά στο κόμμα του είχαν αλλοιωθεί (τουλάχιστον ένα από τα ηχητικά επαληθεύτηκε ως πραγματικό από δημοσιογραφικό μέσο).
Ταυτόχρονα, εταιρείες εκμεταλλεύονται τη δημόσια σύγχυση για να πουλήσουν προϊόντα αμφίβολης αξιοπιστίας με την ετικέτα “AI”. Αυτό μπορεί να έχει καταστροφικά αποτελέσματα όταν τέτοια εργαλεία χρησιμοποιούνται για την «κατηγοριοποίηση ανθρώπων» και τη λήψη σημαντικών αποφάσεων γι’ αυτούς. Η εταιρεία προσλήψεων Retorio ισχυρίζεται ότι η AI της προβλέπει την καταλληλότητα υποψηφίων για εργασία βασισμένη σε βιντεοσυνεντεύξεις, αλλά μια μελέτη έδειξε ότι το σύστημα μπορεί να ξεγελαστεί απλώς από την παρουσία γυαλιών ή την αντικατάσταση ενός απλού φόντου με μια βιβλιοθήκη δείχνοντας ότι βασίζεται σε επιφανειακές συσχετίσεις.
Υπάρχουν επίσης δεκάδες εφαρμογές στην υγειονομική περίθαλψη, την εκπαίδευση, τα οικονομικά, τη δικαιοσύνη και την ασφάλιση όπου η AI χρησιμοποιείται σήμερα για να στερήσει από ανθρώπους σημαντικές ευκαιρίες ζωής. Στην Ολλανδία, η φορολογική αρχή χρησιμοποίησε έναν αλγόριθμο AI για να εντοπίσει άτομα που διέπραξαν απάτη στην παιδική πρόνοια. Κατηγόρησε εσφαλμένα χιλιάδες γονείς, απαιτώντας συχνά να επιστρέψουν δεκάδες χιλιάδες ευρώ. Ως αποτέλεσμα, ο Πρωθυπουργός και όλο το υπουργικό του συμβούλιο παραιτήθηκαν.
Το 2025, αναμένουμε ότι οι κίνδυνοι από την Τεχνητή Νοημοσύνη θα προκύψουν όχι από την ίδια την AI, αλλά από το πώς την χρησιμοποιούν οι άνθρωποι. Η μείωση των κινδύνων που αναλύθηκαν διεξοδικά παραπάνω αποτελεί τιτάνια πρόκληση για εταιρείες, κυβερνήσεις και την κοινωνία. Τι μας ξημερώνει για το παρόν και το μέλλον;
*Με στοιχεία από το Wired.
➳ Διαβάστε ακόμα: Chatbot ή άνθρωπος; Τεχνητή Νοημοσύνη ή πραγματικότητα;
Ο CEO της OpenAI, Σαμ Άλτμαν εκτιμά ότι η AGI — η Τεχνητή Νοημοσύνη που θα ξεπερνά τους ανθρώπους στις περισσότερες εργασίες — θα εμφανιστεί γύρω στο 2027 ή 2028. Ο Έλον Μασκ προβλέπει ότι αυτό θα συμβεί είτε το 2025 είτε το 2026 και έχει δηλώσει ότι «χάνει τον ύπνο του εξαιτίας της απειλής της Τεχνητής Νοημοσύνης». Τέτοιες προβλέψεις είναι μάλλον λανθασμένες, καθώς η πλειοψηφία των ερευνητών AI πιστεύει ότι απλώς η κατασκευή μεγαλύτερων και πιο ισχυρών chatbots δεν θα οδηγήσει στην AGI.
Η Τεχνητή Νοημοσύνη το 2025 θα εξακολουθεί να αποτελεί «τεράστιο κίνδυνο»: όχι από την τεχνητή υπερ-νοημοσύνη, αλλά από την ανθρώπινη «κακή χρήση». Αυτή η κακή χρήση μπορεί να είναι ακούσια. Για παράδειγμα μετά την κυκλοφορία του ChatGPT, αρκετοί δικηγόροι έχουν υποστεί κυρώσεις για τη χρήση της Τεχνητής Νοημοσύνης για τη σύνταξη εσφαλμένων νομικών υπομνημάτων, διότι δε γνωρίζουν την τάση των chatbots να «εφευρίσκουν» δεδομένα. Η δικηγόρος Chong Ke διατάχθηκε να πληρώσει τα δικαστικά έξοδα της αντίπαλης πλευράς, αφού συμπεριέλαβε φανταστικές υποθέσεις που δημιουργήθηκαν από την Τεχνητή Νοημοσύνη σε νομική της κατάθεση. Στη Νέα Υόρκη, οι Steven Schwartz και Peter LoDuca τιμωρήθηκαν με πρόστιμο 5.000 δολαρίων για την παροχή ψευδών παραπομπών. Στο Κολοράντο ο Zachariah Crabill τέθηκε σε αναστολή για έναν χρόνο για τη χρήση ανύπαρκτων δικαστικών υποθέσεων που δημιουργήθηκαν με το ChatGPT, ρίχνοντας την ευθύνη σε έναν «νομικό ασκούμενο» για τα λάθη.
Και άλλες περιπτώσεις κακής χρήσης είναι εσκεμμένες. Τον Ιανουάριο του 2024 deepfake εικόνες της Taylor Swift κατέκλυσαν τις πλατφόρμες κοινωνικής δικτύωσης. Αυτές οι εικόνες δημιουργήθηκαν με τη χρήση του εργαλείου Τεχνητής Νοημοσύνης “Designer” της Microsoft. Παρόλο που η εταιρεία είχε εφαρμόσει μέτρα ασφαλείας για την αποφυγή δημιουργίας εικόνων πραγματικών ατόμων μία απλή παραλλαγή του ονόματος της Swift ήταν αρκετή για να παρακάμψει αυτά τα μέτρα. Η Microsoft από τότε διόρθωσε αυτό το λάθος. Η περίπτωση της Taylor Swift είναι μόνο η κορυφή του παγόβουνου και τα deepfake χωρίς συναίνεση διαδίδονται ευρέως εν μέρει λόγω της δημόσιας διαθεσιμότητας εργαλείων ανοιχτού κώδικα για τη δημιουργία τους. Η νομοθεσία που εξελίσσεται παγκοσμίως επιχειρεί να καταπολεμήσει τα deepfake με την ελπίδα να περιορίσει τη ζημιά. Το αν θα είναι αποτελεσματική αναμένουμε να αποδειχθεί στην πράξη.
Το 2025 θα είναι ακόμη πιο δύσκολο να ξεχωρίσει κανείς τι είναι πραγματικό και τι είναι ψεύτικο. Η πιστότητα του AI σε ήχο, κείμενο και εικόνες είναι εντυπωσιακή και το βίντεο θα είναι το επόμενο βήμα που καθόλου δεν αργεί. Αυτό θα μπορούσε να οδηγήσει σε μία «πραγματικότητα διαδοχικών αμφιβολιών»: Άτομα σε θέσεις εξουσίας θα μπορούν να απορρίπτουν στοιχεία για κακή τους συμπεριφορά, ισχυριζόμενοι ότι είναι ψεύτικα. Το 2023 η Tesla ισχυρίστηκε ότι ένα βίντεο του 2016 με τον Έλον Μασκ θα μπορούσε να είναι deepfake ως απάντηση σε κατηγορίες ότι ο CEO είχε υπερβάλλει σχετικά με την ασφάλεια του αυτόματου πιλότου της Tesla που οδήγησε σε ατύχημα. Ένας Ινδός πολιτικός ισχυρίστηκε ότι ηχητικά αποσπάσματα στα οποία αναγνώριζε διαφθορά στο κόμμα του είχαν αλλοιωθεί (τουλάχιστον ένα από τα ηχητικά επαληθεύτηκε ως πραγματικό από δημοσιογραφικό μέσο).
Ταυτόχρονα, εταιρείες εκμεταλλεύονται τη δημόσια σύγχυση για να πουλήσουν προϊόντα αμφίβολης αξιοπιστίας με την ετικέτα “AI”. Αυτό μπορεί να έχει καταστροφικά αποτελέσματα όταν τέτοια εργαλεία χρησιμοποιούνται για την «κατηγοριοποίηση ανθρώπων» και τη λήψη σημαντικών αποφάσεων γι’ αυτούς. Η εταιρεία προσλήψεων Retorio ισχυρίζεται ότι η AI της προβλέπει την καταλληλότητα υποψηφίων για εργασία βασισμένη σε βιντεοσυνεντεύξεις, αλλά μια μελέτη έδειξε ότι το σύστημα μπορεί να ξεγελαστεί απλώς από την παρουσία γυαλιών ή την αντικατάσταση ενός απλού φόντου με μια βιβλιοθήκη δείχνοντας ότι βασίζεται σε επιφανειακές συσχετίσεις.
Υπάρχουν επίσης δεκάδες εφαρμογές στην υγειονομική περίθαλψη, την εκπαίδευση, τα οικονομικά, τη δικαιοσύνη και την ασφάλιση όπου η AI χρησιμοποιείται σήμερα για να στερήσει από ανθρώπους σημαντικές ευκαιρίες ζωής. Στην Ολλανδία, η φορολογική αρχή χρησιμοποίησε έναν αλγόριθμο AI για να εντοπίσει άτομα που διέπραξαν απάτη στην παιδική πρόνοια. Κατηγόρησε εσφαλμένα χιλιάδες γονείς, απαιτώντας συχνά να επιστρέψουν δεκάδες χιλιάδες ευρώ. Ως αποτέλεσμα, ο Πρωθυπουργός και όλο το υπουργικό του συμβούλιο παραιτήθηκαν.
Το 2025, αναμένουμε ότι οι κίνδυνοι από την Τεχνητή Νοημοσύνη θα προκύψουν όχι από την ίδια την AI, αλλά από το πώς την χρησιμοποιούν οι άνθρωποι. Η μείωση των κινδύνων που αναλύθηκαν διεξοδικά παραπάνω αποτελεί τιτάνια πρόκληση για εταιρείες, κυβερνήσεις και την κοινωνία. Τι μας ξημερώνει για το παρόν και το μέλλον;
*Με στοιχεία από το Wired.
➳ Διαβάστε ακόμα: Chatbot ή άνθρωπος; Τεχνητή Νοημοσύνη ή πραγματικότητα;