Περιγράφοντάς την ως μία από τις «τεχνολογίες του αύριο», η κυβέρνηση είπε ότι η τεχνητή νοημοσύνη συνεισέφερε 3,7 δισεκατομμύρια λίρες  στην οικονομία του Ηνωμένου Βασιλείου πέρυσι.

Οι επικριτές ωστόσο, φοβούνται ότι η ταχεία ανάπτυξη της τεχνητής νοημοσύνης θα μπορούσε να απειλήσει θέσεις εργασίας ή να χρησιμοποιηθεί για κακόβουλους σκοπούς.

Ο όρος AI – Τεχνητή Νοημοσύνη, καλύπτει συστήματα υπολογιστών ικανά να κάνουν εργασίες που κανονικά θα χρειάζονταν ανθρώπινη νοημοσύνη.

Μια νέα λευκή βίβλος από το Τμήμα Επιστήμης, Καινοτομίας και Τεχνολογίας προτείνει κανόνες για την τεχνητή νοημοσύνη γενικού σκοπού, τα συστήματα της οποίας μπορούν να χρησιμοποιηθούν για διαφορετικούς σκοπούς.

Αυτό περιλαμβάνει chatbots ικανά να κατανοούν ερωτήσεις και να απαντούν με ανθρώπινες απαντήσεις, και συστήματα ικανά να αναγνωρίζουν αντικείμενα σε εικόνες.

Μελλοντικοί κίνδυνοι της Τεχνητής Νομοσύνης

Καθώς η τεχνητή νοημοσύνη συνεχίζει να αναπτύσσεται με ταχείς ρυθμούς, έχουν τεθεί ερωτήματα σχετικά με τους μελλοντικούς κινδύνους που θα μπορούσε να θέσει για την ιδιωτική ζωή των ανθρώπων, τα ανθρώπινα δικαιώματά τους ή την ασφάλειά τους.

Υπάρχει ανησυχία ότι η τεχνητή νοημοσύνη μπορεί να εμφανίσει προκαταλήψεις εναντίον συγκεκριμένων ομάδων εάν εκπαιδευτεί σε μεγάλα σύνολα δεδομένων που έχουν αφαιρεθεί από το Διαδίκτυο, τα οποία μπορεί να περιλαμβάνουν ρατσιστικό, σεξιστικό και άλλο ανεπιθύμητο υλικό.

Η τεχνητή νοημοσύνη θα μπορούσε επίσης να χρησιμοποιηθεί για τη δημιουργία και τη διάδοση παραπληροφόρησης.

Ως αποτέλεσμα, πολλοί ειδικοί λένε ότι η τεχνητή νοημοσύνη χρειάζεται ρύθμιση.

Τι λένε οι υποστηρικτές της;

Ωστόσο, οι θιασώτες της τεχνητής νοημοσύνης λένε ότι η τεχνολογία προσφέρει ήδη πραγματικά κοινωνικά και οικονομικά οφέλη για τους ανθρώπους.

Η βρετανική κυβέρνηση φοβάται ότι οι οργανισμοί μπορεί να εμποδίσουν τη χρήση της τεχνητής νοημοσύνης στο μέγιστο των δυνατοτήτων της, επειδή ένα συνονθύλευμα νομικών καθεστώτων θα μπορούσε να προκαλέσει σύγχυση στις επιχειρήσεις που προσπαθούν να συμμορφωθούν με τους κανόνες.

Αντί να αναθέσει την ευθύνη για τη διακυβέρνηση της τεχνητής νοημοσύνης σε μια νέα ενιαία ρυθμιστική αρχή, η κυβέρνηση θέλει τις υπάρχουσες ρυθμιστικές αρχές – όπως η Υγεία και Ασφάλεια, η Επιτροπή Ισότητας και Ανθρωπίνων Δικαιωμάτων και η Αρχή Ανταγωνισμού και Αγορών – να καταλήξουν στις δικές τους προσεγγίσεις που ταιριάζουν με τον τρόπο με τον οποίο η τεχνητή νοημοσύνη στην πραγματικότητα χρησιμοποιείται στους τομείς τους.

Αυτές οι ρυθμιστικές αρχές θα χρησιμοποιούν τους υπάρχοντες νόμους αντί να τους δίνονται νέες εξουσίες.

Ο Michael Birtwistle, αναπληρωτής διευθυντής από το Ινστιτούτο Ada Lovelace, διεξάγει ανεξάρτητη έρευνα και είπε ότι χαιρετίζει την ιδέα της ρύθμισης, αλλά προειδοποίησε για «σημαντικά κενά» στην προσέγγιση του Ηνωμένου Βασιλείου που θα μπορούσαν να αφήσουν ανεπανόρθωτες βλάβες.

«Αρχικά, οι προτάσεις στη Λευκή Βίβλο θα στερούνται νομοθετικής βάσης. Αυτό σημαίνει ότι δεν υπάρχουν νέες νομικές υποχρεώσεις για ρυθμιστικές αρχές, προγραμματιστές ή χρήστες συστημάτων τεχνητής νοημοσύνης, με την προοπτική μόνο ενός ελάχιστου καθήκοντος για τις ρυθμιστικές αρχές στο μέλλον. Το Ηνωμένο Βασίλειο θα αγωνιστεί επίσης να ρυθμίσει αποτελεσματικά τις διαφορετικές χρήσεις της τεχνητής νοημοσύνης σε όλους τους τομείς χωρίς σημαντικές επενδύσεις στις υπάρχουσες ρυθμιστικές αρχές του», είπε.

Η Λευκή Βίβλος περιγράφει πέντε αρχές που πρέπει να λάβουν υπόψη οι ρυθμιστικές αρχές για να επιτρέψουν την ασφαλή και καινοτόμο χρήση της τεχνητής νοημοσύνης στις βιομηχανίες που παρακολουθούν:

  • Ασφάλεια και ευρωστία: οι εφαρμογές της τεχνητής νοημοσύνης θα πρέπει να λειτουργούν με ασφαλή και στιβαρό τρόπο όπου οι κίνδυνοι θα μπορούν να αντιμετωπίζονται προσεκτικά
  • Διαφάνεια : οι οργανισμοί που αναπτύσσουν και δημιουργούν τεχνητή νοημοσύνη θα πρέπει να είναι σε θέση να επικοινωνούν πότε και πώς χρησιμοποιείται και να εξηγούν τη διαδικασία λήψης αποφάσεων ενός συστήματος με κατάλληλο επίπεδο λεπτομέρειας που να ταιριάζει με τους κινδύνους που ενέχει η χρήση της τεχνητής νοημοσύνης
  • Δικαιοσύνη: Η τεχνητή νοημοσύνη θα πρέπει να χρησιμοποιείται κατά τρόπο που να συμμορφώνεται με τους υφιστάμενους νόμους του Ηνωμένου Βασιλείου, για παράδειγμα για την ισότητα ή την προστασία δεδομένων, και δεν πρέπει να κάνει διακρίσεις σε βάρος ατόμων ή να δημιουργεί άδικα εμπορικά αποτελέσματα
  • Λογοδοσία και διακυβέρνηση: απαιτούνται μέτρα για να διασφαλιστεί ότι υπάρχει κατάλληλη εποπτεία του τρόπου με τον οποίο χρησιμοποιείται η τεχνητή νοημοσύνη και σαφής λογοδοσία για τα αποτελέσματα
  • Δυνατότητα αμφισβήτησης και επανόρθωση: οι άνθρωποι πρέπει να έχουν σαφείς τρόπους και διαδικασίες για να αμφισβητήσουν τα επιβλαβή αποτελέσματα ή τις αποφάσεις που παράγονται από την τεχνητή νοημοσύνη

Κατά τη διάρκεια του επόμενου έτους, οι ρυθμιστικές αρχές θα εκδώσουν πρακτικές οδηγίες στους οργανισμούς για να καθορίσουν πώς να εφαρμόσουν αυτές τις αρχές στους τομείς τους.

Η υπουργός Επιστήμης, Καινοτομίας και Τεχνολογίας Michelle Donelan δήλωσε: «Η τεχνητή νοημοσύνη δεν είναι πλέον θέμα επιστημονικής φαντασίας και ο ρυθμός ανάπτυξης της τεχνητής νοημοσύνης είναι εκπληκτικός, επομένως πρέπει να έχουμε κανόνες για να διασφαλίσουμε ότι αναπτύσσεται με ασφάλεια».

Ωστόσο, ο Simon Elliott, συνεργάτης της δικηγορικής εταιρείας Dentons είπε στο BBC ότι η προσέγγιση της κυβέρνησης ήταν μια «ελαφριά πινελιά» που κάνει το Ηνωμένο Βασίλειο «απομακρυσμένο» έναντι των παγκόσμιων τάσεων γύρω από τη ρύθμιση της τεχνητής νοημοσύνης.

Η Κίνα, για παράδειγμα, έχει πρωτοστατήσει στη μετακίνηση των κανονισμών τεχνητής νοημοσύνης πέρα από το στάδιο της πρότασης με κανόνες που υποχρεώνουν τις εταιρείες να ειδοποιούν τους χρήστες όταν ένας αλγόριθμος τεχνητής νοημοσύνης παίζει ρόλο.

«Πολλές χώρες παγκοσμίως αναπτύσσουν ή ψηφίζουν συγκεκριμένους νόμους για την αντιμετώπιση των αντιληπτών κινδύνων της τεχνητής νοημοσύνης – συμπεριλαμβανομένων των αλγοριθμικών κανόνων που ψηφίστηκαν στην Κίνα ή τις ΗΠΑ», συνέχισε ο κ. Elliott.

Ανησυχεί επίσης ότι οι ρυθμιστικές αρχές του Ηνωμένου Βασιλείου θα μπορούσαν να επιβαρυνθούν με «ένα όλο και πιο μεγάλο και ποικίλο» φάσμα παραπόνων, όταν η «ταχέως αναπτυσσόμενη και προκλητική» τεχνητή νοημοσύνη προστίθεται στον φόρτο εργασίας τους.

Στην ΕΕ, η Ευρωπαϊκή Επιτροπή έχει δημοσιεύσει προτάσεις για κανονισμούς με τίτλο Artificial Intelligence Act, οι οποίοι θα έχουν πολύ ευρύτερο πεδίο εφαρμογής από τον κανονισμό που θεσπίστηκε από την Κίνα.

Περιλαμβάνουν “βαθμολόγηση” προϊόντων τεχνητής νοημοσύνης σύμφωνα με το πόσο δυνητικά επιβλαβή μπορεί να είναι και αναλόγως συγκλονιστικές ρυθμίσεις. Έτσι, για παράδειγμα, ένα φίλτρο ανεπιθύμητης αλληλογραφίας θα ρυθμίζεται πιο ελαφρά από κάτι που έχει σχεδιαστεί για τη διάγνωση ιατρικών παθήσεων – και ορισμένες χρήσεις τεχνητής νοημοσύνης, όπως η κοινωνική βαθμολόγηση από τις κυβερνήσεις, θα απαγορευόταν εντελώς.

«Η τεχνητή νοημοσύνη υπάρχει εδώ και δεκαετίες, αλλά έχει φτάσει σε νέες ικανότητες που τροφοδοτούνται από την υπολογιστική ισχύ», δήλωσε ο Thierry Breton, Επίτροπος της ΕΕ για την Εσωτερική Αγορά, σε δήλωση.

Ο νόμος AI στοχεύει να «ενισχύει τη θέση της Ευρώπης ως παγκόσμιου κόμβου αριστείας στην τεχνητή νοημοσύνη από το εργαστήριο στην αγορά, να διασφαλίσει ότι η τεχνητή νοημοσύνη στην Ευρώπη σέβεται τις αξίες και τους κανόνες μας και να αξιοποιήσει τις δυνατότητες της τεχνητής νοημοσύνης για βιομηχανική χρήση», πρόσθεσε ο κ. Breton.

Εν τω μεταξύ, στις ΗΠΑ, ο νόμος για την αλγοριθμική λογοδοσία του 2022 απαιτεί από τις εταιρείες να αξιολογούν τις επιπτώσεις της τεχνητής νοημοσύνης, αλλά το πλαίσιο τεχνητής νοημοσύνης της χώρας είναι μέχρι στιγμής εθελοντικό.