Μια νεαρή, τραυματισμένη Ισραηλινή προσκολλάται με αγωνία στην αγκαλιά ενός στρατιώτη.

Ένα αγόρι και ένα κορίτσι από την Ουκρανία, πιασμένα χέρι χέρι, μόνα τους στα ερείπια μιας βομβαρδισμένης πόλης.

Παιδιά να παίζουν ποδόσφαιρo στα χαλάσματα της Γάζας.

Με μια ματιά, οι τρεις αυτές φωτογραφίες θα μπορούσαν να περάσουν ως εμβληματικά έργα πολεμικού φωτορεπορτάζ. Με την διαφορά ότι δεν είναι αληθινές, αλλά το προϊόν ενός λογισμικού τεχνητής νοημοσύνης -μέρος μιας τεράστιας και ολοένα και αυξανόμενης ψηφιακής «βιβλιοθήκης» φωτορεαλιστικών απομιμήσεων που πωλούνται σε έναν από τους μεγαλύτερους ιστότοπους εικόνων στο διαδίκτυο.

«Οι τεχνητά παραγόμενες εικόνες πραγματικών ειδησεογραφικών γεγονότων πολλαπλασιάζονται στους ιστοτόπους, κρύβοντας την αλήθεια», προειδοποιεί σε εκτενές ρεπορτάζ της η Washington Post.

Μετά από το εν λόγω ρεπορτάζ, η ιστοσελίδα Adobe Stock δήλωσε ότι «θα αποσύρει τις εικόνες που δημιουργούνται με ΤΝ και φαίνεται να απεικονίζουν πραγματικά γεγονότα, ενώ θα λάβει νέα μέτρα για να αποτρέψει τη χρήση των εικόνων της με παραπλανητικούς τρόπους».

Oι ειδικοί λένε ότι ο πολλαπλασιασμός των φωτογραφιών και εικόνων αυτών σε ιστοτόπους όπως το Adobe Stock και το Shutterstock απειλεί να επιταχύνει την εξάπλωσή τους, θολώνοντας τα όρια μεταξύ μυθοπλασίας και πραγματικότητας.

Η υπηρεσία Adobe Stock, στην οποία φωτογράφοι και καλλιτέχνες μπορούν να ανεβάζουν εικόνες ώστε να τις κατεβάζουν και να τις δημοσιεύουν αλλού οι πελάτες της υπηρεσίας, έγινε πέρυσι η πρώτη μεγάλη πλατφόρμα που αποφάσισε να αποδέχεται τις εικόνες που δημιουργούνται με τη χρήση Α.Ι. -μια αμφιλεγόμενη απόφαση που δέχθηκε κριτική μετά την εμφάνιση μιας εικόνας Α.Ι. που απεικόνιζε μια έκρηξη στη Γάζα, η οποία εμφανίστηκε σε διάφορους ιστοτόπους, χωρίς ωστόσο να συνοδεύεται από καμία ένδειξη ότι στην πραγματικότητα ήταν ψεύτικη.

Η Washington Post πάντως σημειώνει ότι μια πρόσφατη αναζήτηση με τη λέξη «Γάζα» στο Adobe Stock εμφάνιζε περισσότερες από 3.000 εικόνες που χαρακτηρίστηκαν «AI-generated», ανάμεσα στα 13.000 συνολικά αποτελέσματα. Στις εικόνες που δημιουργήθηκαν με την βοήθεια Α.Ι. υπήρχε μια συγκεκριμένη σειρά που απεικόνιζε μικρά παιδιά να κουβαλούν τα πράγματά τους καθώς απομακρύνονταν από τα καπνισμένα ερείπια μιας ρημαγμένης γειτονιάς.

Το ίδιο ακριβώς συμβαίνει και με την αναζήτηση φωτογραφιών για τον «πόλεμο στην Ουκρανία». Το Adobe Stock περιείχε περισσότερες από 15.000 ψεύτικες εικόνες της σύγκρουσης, συμπεριλαμβανομένης μιας εικόνας ενός μικρού κοριτσιού που κρατάει ένα αρκουδάκι μπροστά σε ένα σκηνικό από ερείπια.

«Είναι οι φωτογραφίες αληθινές;»

«Έχουμε μπει πλέον σε έναν κόσμο στον οποίον, όταν κοιτάζετε μια εικόνα, πρέπει να κάνετε την ερώτηση: “Είναι αληθινή;”» δήλωσε στην αμερικανική εφημερίδα ο Κρεγκ Πίτερς, διευθύνων σύμβουλος της Getty Images, ενός από τους μεγαλύτερους προμηθευτές φωτογραφιών παγκοσμίως.

Κάπως έτσι, η εταιρεία Adobe Stock παρουσίασε την Τρίτη 21 Νοεμβρίου κάποιους πολύ αυστηρότερους κανόνες για το ζήτημα, όπως π.χ. την απαγόρευση εικόνων Α.Ι. των οποίων οι τίτλοι υπονοούν ότι απεικονίζουν γεγονότα που έχουν ειδησεογραφικό ενδιαφέρον, και την τοποθέτηση νέων, σαφέστερων ετικετών στο περιεχόμενο που παράγεται με Α.Ι.

«Η Adobe δεσμεύεται να καταπολεμήσει την παραπληροφόρηση στο διαδίκτυο» δήλωσε ο εκπρόσωπος της εταιρείας, Κέβιν Φου.

Ωστόσο, το ρεπορτάζ της Washington Post σημειώνει εμφατικά ότι «την Τετάρτη 22/11 χιλιάδες εικόνες που δημιουργήθηκαν με Α.Ι. παρέμεναν στον ιστότοπο της εταιρείας».

Οι «ύποπτες» φωτογραφίες στο Shutterstock

Στον ιστότοπο του Shutterstock πάλι, η λέξη «Γάζα» έδωσε περισσότερες από 130 εικόνες που χαρακτηρίστηκαν «AI-generated». «Η Shutterstock δεν απάντησε σε αιτήματα για σχόλια» σημειώνει η αμερικανική εφημερίδα.

Από την πλευρά του, ο Τόνι Ελκινς, μέλος του αμερικανικού μη κερδοσκοπικού οργανισμού Poynter, ο οποίος ασχολείται με τις πρακτικές των ΜΜΕ, δήλωσε πως είναι βέβαιος ότι ορισμένα μέσα ενημέρωσης θα χρησιμοποιήσουν εικόνες που δημιουργούνται με ΤΝ στο μέλλον, για έναν λόγο: τα χρήματα.

«Οι φθηνές εικόνες αρχείου έχουν αποδειχθεί εδώ και καιρό ένας οικονομικά αποδοτικός τρόπος για την παροχή εικόνων μαζί με άρθρα κειμένου», τονίζει ο Ελκινς.

«Τώρα που η Α.Ι. καθιστά ολοένα και πιο εύκολο για σχεδόν τον οποιονδήποτε να δημιουργήσει μια υψηλής ποιότητας εικόνα για ένα πραγματικό γεγονός, θα είναι ακόμη πιο δελεαστικό για κάποια ΜΜΕ να τις χρησιμοποιούν», προσθέτει το άρθρο της Wshington Post.

«Αν είστε το μόνο άτομο που διευθύνει ένα ειδησεογραφικό ιστολόγιο ή ιστότοπο, ή ακόμη και αν είστε ένας σπουδαίος και έμπειρος δημοσιογράφος, νομίζω ότι ο πειρασμός [για την τεχνητή νοημοσύνη] να μου δώσει μια φωτορεαλιστική εικόνα του κέντρου του Σικάγο, θα βρίσκεται ακριβώς εκεί, και νομίζω ότι οι άνθρωποι θα χρησιμοποιούν στο μέλλον πολύ αυτά τα εργαλεία», είπε ο Ελκινς.

Πολλοί, ωστόσο, συνεχίζουν να πέφτουν στην παγίδα: Η ηθοποιός Rosie O’Donnell μοιράστηκε πρόσφατα στο Instagram μια εικόνα μιας Παλαιστίνιας μητέρας που μεταφέρει τρία παιδιά και τα πράγματά τους σε έναν δρόμο γεμάτο σκουπίδια, με τη λεζάντα «μητέρες και παιδιά – σταματήστε να βομβαρδίζετε τη Γάζα». Όταν ένας ακόλουθός της σχολίασε ότι η εικόνα ήταν ψεύτικη, η O’Donnell απάντησε «όχι δεν είναι». Αλλά αργότερα τη διέγραψε επειδη μάλλον διαπίστωσε και η ίδια ότι ο ακόλουθός της είχε δίκιο.

Η Getty Images έχει υιοθετήσει μια διαφορετική προσέγγιση από την Adobe Stock ή τη Shutterstock, απαγορεύοντας εντελώς τις εικόνες που δημιουργούνται με Α.Ι. Η εταιρεία έχει μηνύσει μια μεγάλη εταιρεία Α.Ι., τη Stable Diffusion, ισχυριζόμενη ότι το δικό της σύστημα παραγωγής εικόνων Τεχνητής Νοημοσύνης παραβιάζει τα πνευματικά δικαιώματα των πραγματικών φωτογραφιών τα οποία κατέχει η Getty.

Ο Πίτερς πάντως επέκρινε την προσέγγιση της Adobe λέγοντας ότι «δεν αρκεί να βασίζεται στους μεμονωμένους καλλιτέχνες και τους παραγωγούς περιεχομένου ώστε να επισημαίνουν εκείνοι τις εικόνες τους ως «AI-generated». Οι τεχνολογικές εταιρείες που κατασκευάζουν εργαλεία Α.Ι. εικόνων θα πρέπει να ενσωματώσουν ανεξίτηλα σημάδια στις ίδιες εικόνες τους, μια πρακτική που είναι γνωστή ως «υδατογράφημα», ώστε να υποδεικνύουν ότι φτιάχτηκαν με τη χρήση ΤΝ, χωρίς να μπορεί κάποιος να αφαιρέσει αυτή την «ετικέτα».