Όταν οι διαδηλώσεις στο Πακιστάν νωρίτερα φέτος κλιμακώθηκαν σε συγκρούσεις μεταξύ φιλοκυβερνητικών δυνάμεων και υποστηρικτών του πρώην πρωθυπουργού Ιμράν Χαν, ο φυλακισμένος πλέον ηγέτης στράφηκε στα μέσα κοινωνικής δικτύωσης για να ενισχύσει το μήνυμά του. Ο Χαν μοιράστηκε αυτό το σύντομο βίντεο στο Twitter που δείχνει τους υποστηρικτές του να κρατούν πινακίδες με το πρόσωπό του και να φωνάζουν το όνομά του. Το κλιπ τελειώνει με ένα στιγμιότυπο μιας γυναίκας με πορτοκαλί φόρεμα που στέκεται με θάρρος πρόσωπο με πρόσωπο με μια σειρά βαριά θωρακισμένων αστυνομικών των ΜΑΤ.
“Αυτό που δεν θα ξεχαστεί ποτέ είναι η κτηνωδία των δυνάμεων ασφαλείας μας και ο ξεδιάντροπος τρόπος με τον οποίο έκαναν τα πάντα για να κακοποιήσουν, να πληγώσουν και να ταπεινώσουν τις γυναίκες μας”, έγραψε ο Χαν στο Twitter. Το μόνο πρόβλημα: Η εικόνα που έδειχνε τη γυναίκα να στέκεται γενναία μπροστά στην αστυνομία δεν ήταν πραγματική. Δημιουργήθηκε χρησιμοποιώντας μία από τις πολλές νέες γεννήτριες εικόνων τεχνητής νοημοσύνης.
The way Pakistani women stood up for Haqeeqi Azadi, they will be remembered and become part of our democratic history.
Also what will never be forgotten is the brutality of our security forces and the shameless way they went out of their way to abuse, hurt and humiliate our… pic.twitter.com/Ea1lzBCh1Q
— Imran Khan (@ImranKhanPTI) May 19, 2023
Ο Khan δεν είναι ο μόνος πολιτικός ηγέτης που στρέφεται σε AI deepfakes, για πολιτικό όφελος. Μια νέα έκθεση του Freedom House που μοιράστηκε με το Gizmodo διαπίστωσε ότι πολιτικοί ηγέτες σε τουλάχιστον 16 χώρες κατά το τελευταίο έτος χρησιμοποίησαν deep fakes για να “σπείρουν αμφιβολίες, να συκοφαντήσουν αντιπάλους ή να επηρεάσουν τη δημόσια συζήτηση”. Αν και μια χούφτα από αυτά τα παραδείγματα συνέβησαν σε λιγότερο ανεπτυγμένες χώρες στην Υποσαχάρια Αφρική και τη Νοτιοδυτική Ασία, τουλάχιστον δύο προέρχονταν από τις Ηνωμένες Πολιτείες.
Τόσο ο πρώην πρόεδρος Ντόναλντ Τραμπ όσο και ο κυβερνήτης της Φλόριντα Ρον ΝτεΣάντις χρησιμοποίησαν βίντεο και ήχο με βαθιά πλαστά στοιχεία για να προσπαθήσουν να συκοφαντήσουν ο ένας τον άλλον ενόψει του επερχόμενου προεδρικού χρίσματος των Ρεπουμπλικανών. Στην περίπτωση του Τραμπ, χρησιμοποίησε deep-faked ήχο που μιμείται τον Τζορτζ Σόρος, τον Αδόλφο Χίτλερ και τον ίδιο τον Διάβολο για να κοροϊδέψει την επισφαλή ανακοίνωση της εκστρατείας του DeSantis στο Twitter Spaces. Ο DeSantis ανταπέδωσε με deepfake εικόνες που υποτίθεται ότι δείχνουν τον Trump να αγκαλιάζει τον πρώην διευθυντή του Εθνικού Ινστιτούτου Υγείας Anthony Fauci. Το να δείξει κανείς καλοσύνη στον Fauci στο σημερινό GOP ισοδυναμεί με πολιτική αυτοκτονία.
“Η τεχνητή νοημοσύνη μπορεί να χρησιμεύσει ως ενισχυτής της ψηφιακής καταστολής, καθιστώντας τη λογοκρισία, την επιτήρηση και τη δημιουργία και διάδοση της παραπληροφόρησης ευκολότερη, ταχύτερη, φθηνότερη και αποτελεσματικότερη”, σημειώνει το Freedom House στην έκθεσή του “Freedom on the Net”.
Η έκθεση περιγράφει λεπτομερώς πολυάριθμους ανησυχητικούς τρόπους με τους οποίους τα προοδευτικά εργαλεία τεχνητής νοημοσύνης χρησιμοποιούνται για την ενίσχυση της πολιτικής καταστολής σε όλο τον κόσμο. Κυβερνήσεις σε τουλάχιστον 22 από τις 70 χώρες που αναλύθηκαν στην έκθεση είχαν νομικά πλαίσια που επέβαλαν στις εταιρείες μέσων κοινωνικής δικτύωσης να αναπτύσσουν τεχνητή νοημοσύνη για να κυνηγούν και να απομακρύνουν δυσμενή πολιτικό, κοινωνικό και θρησκευτικό λόγο. Αυτά τα πλαίσια υπερβαίνουν τις συνήθεις πολιτικές συγκράτησης περιεχομένου στις μεγάλες τεχνολογικές πλατφόρμες. Σε αυτές τις χώρες, το Freedom House υποστηρίζει ότι οι ισχύοντες νόμοι υποχρεώνουν τις εταιρείες να αφαιρούν πολιτικό, κοινωνικό ή θρησκευτικό περιεχόμενο που “θα έπρεπε να προστατεύεται από τα πρότυπα της ελεύθερης έκφρασης στο πλαίσιο των διεθνών νόμων για τα ανθρώπινα δικαιώματα”. Εκτός από την αύξηση της αποτελεσματικότητας της λογοκρισίας, η χρήση της τεχνητής νοημοσύνης για την αφαίρεση πολιτικού περιεχομένου δίνει επίσης στο κράτος περισσότερη κάλυψη για να συγκαλύπτει τον εαυτό του.
“Αυτή η χρήση της ΤΝ συγκαλύπτει επίσης τον ρόλο του κράτους στη λογοκρισία και μπορεί να διευκολύνει το λεγόμενο δίλημμα του ψηφιακού δικτάτορα, στο οποίο οι αντιδημοκρατικοί ηγέτες πρέπει να ζυγίζουν τα οφέλη από την επιβολή διαδικτυακών ελέγχων έναντι του κόστους της οργής του κοινού για τους περιορισμούς αυτούς”, προσθέτει η έκθεση.
Σε άλλες περιπτώσεις, οι κρατικοί φορείς φέρονται να στρέφονται σε ιδιωτικές εταιρείες “AI for hire” που ειδικεύονται στη δημιουργία προπαγάνδας που δημιουργείται με τεχνητή νοημοσύνη και έχει σκοπό να μιμηθεί πραγματικούς παρουσιαστές ειδήσεων. Οι ειδησεογραφικοί σταθμοί που υποστηρίζονται από το κράτος στη Βενεζουέλα, για παράδειγμα, άρχισαν να μοιράζονται περίεργα βίντεο με κυρίως λευκούς, αγγλόφωνους παρουσιαστές ειδήσεων που αντιμετωπίζουν τις δυτικές επικρίσεις για τη χώρα. Αυτοί οι περίεργοι ομιλητές ήταν στην πραγματικότητα avatars που δημιουργήθηκαν από τεχνητή νοημοσύνη και δημιουργήθηκαν από μια εταιρεία που ονομάζεται Synthesia. Λογαριασμοί bot της φιλοκινεζικής κυβέρνησης μοιράστηκαν παρόμοια αποσπάσματα από ειδησεογράφους που δημιουργήθηκαν από τεχνητή νοημοσύνη στα μέσα κοινωνικής δικτύωσης, αυτή τη φορά εμφανιζόμενοι να αποκρούουν τους επικριτές. Τα άβαταρ της τεχνητής νοημοσύνης υπέρ της Κίνας ήταν μέρος ενός εντελώς κατασκευασμένου ειδησεογραφικού τμήματος τεχνητής νοημοσύνης που υποτίθεται ότι ονομάζεται “Wolf News”.
Οι ερευνητές του Freedom House βλέπουν αυτές τις νέες προσπάθειες για τη δημιουργία deepfake newscasters ως μια τεχνική και τακτική εξέλιξη των κυβερνήσεων που αναγκάζουν ή πληρώνουν ειδησεογραφικούς σταθμούς για να προωθήσουν προπαγάνδα.
“Αυτές οι χρήσεις των deepfakes συνάδουν με τους τρόπους με τους οποίους αδίστακτοι πολιτικοί παράγοντες χρησιμοποιούν εδώ και καιρό χειραγωγημένο ειδησεογραφικό περιεχόμενο και bots των μέσων κοινωνικής δικτύωσης για τη διάδοση ψευδών ή παραπλανητικών πληροφοριών”, σημειώνει η έκθεση.
Ίσως το πιο ανησυχητικό από όλα, η έκθεση του Freedom House δείχνει μια αύξηση των πολιτικών παραγόντων που αποκαλούν βίντεο και ήχο deepfakes που στην πραγματικότητα είναι γνήσια. Σε ένα παράδειγμα, ένας διακεκριμένος κρατικός αξιωματούχος στην Ινδία με το όνομα Palanivel Thiagarajan φέρεται να προσπάθησε να παραμερίσει τον ήχο που διέρρευσε και τον δείχνει να υποτιμά τους συναδέλφους του, ισχυριζόμενος ότι ήταν προϊόν τεχνητής νοημοσύνης. Ήταν αληθινό. Οι ερευνητές πιστεύουν ότι μια λανθασμένη υπόθεση ότι ένα βίντεο του πρώην προέδρου της Γκαμπόν Αλί Μπόνγκο ήταν ψεύτικο μπορεί να βοήθησε στην πυροδότηση μιας πολιτικής εξέγερσης.
Αν και η πλειονότητα των προσπαθειών πολιτικής χειραγώγησης και παραπληροφόρησης που ανακαλύφθηκαν από το Freedom House κατά το περασμένο έτος εξακολουθούν να βασίζονται κυρίως σε χαμηλότερης τεχνολογίας ανάπτυξη bots και πληρωμένων trolls, η εξίσωση αυτή θα μπορούσε να ανατραπεί καθώς τα γεννητικά εργαλεία ΤΝ συνεχίζουν να γίνονται πιο πειστικά και να πέφτουν στην τιμή. Ακόμα και η κάπως μη πειστική ή εύκολα διαψεύσιμη χειραγώγηση με τεχνητή νοημοσύνη, υποστηρίζει ο Freedom House, εξακολουθεί να “υπονομεύει την εμπιστοσύνη του κοινού στη δημοκρατική διαδικασία”.
gizmodo.com
Επιλεξτε να γινετε οι πρωτοι που θα εχετε προσβαση στην Πληροφορια του Stranger Voice