Σε μια κρίσιμη εκλογική χρονιά για τον κόσμο, με το Ηνωμένο Βασίλειο, τις ΗΠΑ και τη Γαλλία να είναι μεταξύ των χωρών που προσήλθαν ή θα προσέλθουν στις κάλπες, η παραπληροφόρηση στροβιλίζεται στα μέσα κοινωνικής δικτύωσης.

Υπάρχει μεγάλη ανησυχία σχετικά με τα deepfakes, ή τις εικόνες ή τον ήχο κορυφαίων πολιτικών προσώπων που δημιουργούνται από τεχνητή νοημοσύνη και έχουν σχεδιαστεί για να παραπλανήσουν τους ψηφοφόρους, και κατά πόσον θα επηρεάσουν τα αποτελέσματα.

Μέχρι στιγμής δεν αποτέλεσαν τεράστιο χαρακτηριστικό των εκλογών στο Ηνωμένο Βασίλειο ή τη Γαλλία, αλλά υπάρχουν συνεχώς παραδείγματα από όλο τον κόσμο, συμπεριλαμβανομένων των ΗΠΑ, όπου επίκεινται προεδρικές εκλογές και ο κίνδυνος προσπάθειας παραπλάνησης του εκλογικού κοινού.

Ακολουθούν τα οπτικά στοιχεία που πρέπει να προσέξετε σε ένα video για να καταλάβετε αν είναι ψεύτικο – όπως τα παρουσιάζει σε ρεπορτάζ του ο Guardian.

Περίεργα σημεία γύρω από το πηγούνι ή το στόμα

Στα video με deepfake η περιοχή γύρω από το στόμα μπορεί να είναι η μεγαλύτερη προδοσία. Μπορεί να υπάρχουν λιγότερες ρυτίδες στο δέρμα, λιγότερες λεπτομέρειες γύρω από το στόμα ή το πηγούνι να φαίνεται θολό ή μουτζουρωμένο. Ο κακός συγχρονισμός μεταξύ της φωνής και του στόματος ενός ατόμου μπορεί να είναι ένα άλλο κύριο σημάδι ένδειξης ενός ψεύτικου video. Την ίδια στιγμή μπορεί οι ρυτίδες του προσώπου να μην είναι σωστές ή τα χαρακτηριστικά να δείχνουν παράξενα.

Ανακολουθίες στην εκφορά του λόγου

Αν παρατηρήσετε ανακολουθίες ή συντακτικά και γραμματικά λάθη ή τη η φωνή και το στόμα να μην συγχρονίζονται και η κάτω περιοχή του προσώπου να είναι θολή μιλάμε για fake video.

«Αυτό είναι πιθανότατα μια ένδειξη ότι έχει χρησιμοποιηθεί ένα εργαλείο για τη μετατροπή των γραπτών λέξεων σε ομιλία, χωρίς να ελεγχθεί ότι αυτό αντικατοπτρίζει τα τυπικά μοτίβα προφορικού λόγου», λέει η Dr. Mhairi Aitken, συνεργάτης ηθικής στο Ινστιτούτο Alan Turing, το εθνικό ινστιτούτο τεχνητής νοημοσύνης του Ηνωμένου Βασιλείου. «Υπάρχουν επίσης κάποιες ενδείξεις στον τονισμό, ο οποίος διατηρεί έναν αρκετά μονότονο ρυθμό και μοτίβο καθ’ όλη τη διάρκεια. Για να ελέγξετε το κατά πόσο ένα video είναι αληθινό, καλό είναι να συγκρίνετε τη φωνή, τους τρόπους και τις εκφράσεις με πραγματικές ηχογραφήσεις του ατόμου για να δείτε αν είναι συνεπείς».

Συνοχή μεταξύ προσώπου και σώματος

Τον Μάρτιο του 2022 κυκλοφόρησε ένα video με τον Ουκρανό Πρόεδρο, Volodymyr Zelenskiy, να ζητά από τον λαό του να παραδώσει τα όπλα στον ρωσικό στρατό. Σε αυτό το κεφάλι έχει δυσανάλογο μέγεθος σε σχέση με το υπόλοιπο σώμα και υπάρχει διαφορά μεταξύ των αποχρώσεων του δέρματος του λαιμού και του προσώπου. Ο Hany Farid, καθηγητής στο Πανεπιστήμιο της Καλιφόρνιας στο Μπέρκλεϊ και ειδικός στην ανίχνευση των deepfake, λέει ότι πρόκειται για ένα «deepfake της παλιάς σχολής. Το ακίνητο σώμα είναι που προδίδει το ψέμα», λέει. «Το αποκαλυπτικό σημάδι σε αυτό το λεγόμενο puppet-master deepfake είναι ότι το σώμα κάτω από το λαιμό δεν κινείται καθόλου και ο λαιμός έχει διαφορετικό χρώμα από το πρόσωπο».

Επιπλέον δάχτυλα, χέρια, άκρα

Προσέξτε για ένα πλεόνασμα από δάχτυλα, πόδια, χέρια και παράξενα σημεία στο σώμα σε εικόνες που δημιουργούνται από τεχνητή νοημοσύνη.

«Τον Απρίλιο του 2023 κυκλοφόρησε στο Twitter μια εικόνα που φέρεται να δείχνει τον πρόεδρο των ΗΠΑ, Joe Biden, και την αντιπρόεδρο, Kamala Harris, να πανηγυρίζουν για την παραπομπή του Donald Trump σε δίκη. Στα σημάδια που δείχνουν ότι η εικόνα θα μπορούσε να έχει δημιουργηθεί από τεχνητή νοημοσύνη περιλαμβάνεται το δεξί χέρι της Kamala Harris που έχει έξι δάχτυλα. Η κορυφή της σημαίας είναι παραμορφωμένη και το μοτίβο στο χαλί που είναι επίσης στραβό.

Η ομάδα τεχνητής νοημοσύνης της Reality Defender, μιας εταιρείας ανίχνευσης deepfake, λέει ότι οι προτροπές που πληκτρολογούνται σε εργαλεία δημιουργίας εικόνων μπορούν να επικεντρωθούν σε πρόσωπα, συνήθως γνωστών ατόμων. Ως αποτέλεσμα, το ψέμα στη φωτογραφία να αποκαλύπτεται συχνά σε άλλες λεπτομέρειες, όπως τα χέρια ή το φυσικό υπόβαθρο».

Μπερδεμένα γράμματα και αριθμοί

Οι γεννήτριες εικόνων τεχνητής νοημοσύνης δυσκολεύονται να αναπαράγουν αριθμούς και κείμενο. «Οι αριθμοί και το κείμενο στο φόντο των φωτογραφιών είναι προδότες», λέει η Aitken. «Οι γεννήτριες εικόνων τεχνητής νοημοσύνης δυσκολεύονται πραγματικά με την παραγωγή κειμένου ή αριθμών. Δεν έχουν κατανόηση της σημασίας των συμβόλων που παράγουν, οπότε συνήθως παράγουν αλλοιωμένο ή δυσανάγνωστο κείμενο και αριθμούς. Εάν υπάρχει κείμενο ή αριθμοί σε μια εικόνα, η μεγέθυνση σε αυτά μπορεί να είναι ένας πολύ καλός τρόπος για να εντοπίσετε εάν πρόκειται για τεχνητή νοημοσύνη ή όχι».

Unsplash.com

Ερασιτεχνική επεξεργασία

Ορισμένες επεξεργασμένες εικόνες ή video έχουν συναρμολογηθεί τόσο ερασιτεχνικά που είναι εύκολο να εντοπιστούν. Γνωστές ως «φτηνές απομιμήσεις», αυτές χρησιμοποιούν συχνά απλό λογισμικό επεξεργασίας βίντεο και άλλες lo-fi τεχνικές. Για παράδειγμα, λίγο πριν από τις εκλογές στο Μεξικό, ένα βίντεο της τότε υποψήφιας για την προεδρία Κλαούντια Σέινμπαουμ είχε υποστεί επεξεργασία, ώστε να την δείξει να λέει ότι θα έκλεινε τις εκκλησίες αν εκλεγόταν. Το απόσπασμα είχε συναρμολογηθεί με σκόπιμα παραπλανητικό τρόπο από ένα βίντεο όπου στην πραγματικότητα δήλωνε: «Λένε, τόσο ψέμα πια, ότι θα κλείσουμε τις εκκλησίες». Προστέθηκε επίσης ένα εναλλακτικό φόντο που έδειχνε σατανιστικά σύμβολα σε μια προσπάθεια να γίνει το κλιπ ακόμη πιο επιζήμιο για την υποψήφια.

Advertisement - Continue Reading Below
Advertisement - Continue Reading Below