Οι εξελίξεις στην τεχνητή νοημοσύνη έχουν επιτρέψει τη δημιουργία συνθετικών μέσων – περιεχομένου που παράγεται ή τροποποιείται από τεχνητή νοημοσύνη – σε πρωτοφανή κλίμακα. Καθώς τα δημοκρατικά έθνη οδεύουν προς τον εκλογικό κύκλο του 2025, αξιωματούχοι και ειδικοί κρούουν τον κώδωνα του κινδύνου για τη διασπορά παραπληροφόρησης μέσω της τεχνητής νοημοσύνης. Σε μια πρόσφατη έρευνα, το 85% των Αμερικανών εξέφρασε ανησυχία για “παραπλανητικά βίντεο και ηχητικά deepfakes” που θα μπορούσαν να επηρεάσουν τις εκλογές brennancenter.org. Οι ειδήσεις προειδοποιούν ότι τα deepfakes που δημιουργούνται από τεχνητή νοημοσύνη μπορούν να προκαλέσουν χάος στις καμπάνιες και να κλονίσουν την εμπιστοσύνη των ψηφοφόρων brennancenter.org, υπογραμμίζοντας την επείγουσα ανάγκη για προστασία της εκλογικής ακεραιότητας. Αυτή η έκθεση εξετάζει τι είναι τα συνθετικά μέσα και τα deepfakes, πώς απειλούν τη δημοκρατία και τι μπορεί να γίνει – από τεχνολογικές λύσεις έως πολιτικές – για να διασφαλιστούν οι εκλογές το 2025 και στο μέλλον.
Τι είναι τα Συνθετικά Μέσα και τα Deepfakes;
Τα συνθετικά μέσα είναι ένας γενικός όρος για ψηφιακό περιεχόμενο (εικόνες, βίντεο, ήχος, κείμενο) που παράγεται ή αλλοιώνεται τεχνητά, κυρίως από αλγορίθμους τεχνητής νοημοσύνης en.wikipedia.org. Τα σημερινά συστήματα γενετικής τεχνητής νοημοσύνης μπορούν να δημιουργήσουν ρεαλιστική, ανθρωπόμορφη έξοδο σε κάθε μέσο – από φωτογραφίες ρεαλιστικών ανθρώπων που δεν υπήρξαν ποτέ, έως κλωνοποιημένες φωνές και άρθρα γραμμένα από AI. Τα deepfakes είναι μια συγκεκριμένη υποκατηγορία συνθετικών μέσων: εξαιρετικά ρεαλιστικές ψεύτικες εικόνες, βίντεο ή ηχητικά που κατασκευάζονται με τεχνητή νοημοσύνη (“deep” learning + “fake”) για να μιμηθούν πραγματικά άτομα encyclopedia.kaspersky.com. Στην πράξη, ένα deepfake μπορεί να είναι ένα βίντεο όπου το πρόσωπο ενός πολιτικού αντικαθίσταται πειστικά στο σώμα κάποιου άλλου, ή ένα ηχητικό κλιπ που μιμείται τη φωνή ενός υποψηφίου λέγοντας πράγματα που δεν έχει πει ποτέ στην πραγματικότητα.
Πώς δημιουργούνται τα deepfakes; Τα περισσότερα δημιουργούνται με προχωρημένες τεχνικές deep learning. Μια συνηθισμένη προσέγγιση χρησιμοποιεί γενετικά ανταγωνιστικά δίκτυα (GANs) – δύο νευρωνικά δίκτυα που εκπαιδεύονται το ένα “εναντίον” του άλλου icct.nl. Το ένα δίκτυο (ο γεννήτορας) κατασκευάζει ψεύτικα μέσα (π.χ. μια εικόνα προσώπου) και το άλλο (ο διακρίνων) προσπαθεί να ανιχνεύσει αν είναι ψεύτικα. Μέσα από χιλιάδες επαναλήψεις, ο γεννήτορας μαθαίνει να παράγει όλο και πιο ρεαλιστικό αποτέλεσμα έως ότου ο διακρίνων δεν μπορεί πλέον να ξεχωρίσει το αληθινό από το ψεύτικο icct.nl. Αρχικά, η δημιουργία ενός ρεαλιστικού deepfake απαιτούσε μεγάλο όγκο δεδομένων και ισχυρό υλικό – για παράδειγμα, ένα πείραμα deepfake του ηθοποιού Tom Cruise απαίτησε δύο μήνες εκπαίδευσης σε ισχυρές κάρτες γραφικών icct.nl. Όμως, τα εργαλεία εξελίχθηκαν ραγδαία. Προηγμένο λογισμικό deepfake είναι πλέον ευρέως προσβάσιμο και ταχύτερο, σε ορισμένες περιπτώσεις λειτουργεί και σε πραγματικό χρόνο (π.χ. τροποποιώντας ζωντανή ροή βίντεο ή ηχητική κλήση καθώς συμβαίνει) encyclopedia.kaspersky.com. Εκτός από τα GANs, άλλα αρχιτεκτονικά μοντέλα AI παίζουν ρόλο: τα μοντέλα transformer μπορούν να παράγουν deepfake κείμενο ή να βοηθήσουν στην κλωνοποίηση ηχητικής φωνής encyclopedia.kaspersky.com. Συνοψίζοντας, οι πρόσφατες καινοτομίες στην τεχνητή νοημοσύνη έχουν καταστήσει εύκολη και φθηνή τη δημιουργία παραπλανητικού οπτικοακουστικού περιεχομένου για σχεδόν κάθε άτομο – μειώνοντας δραστικά τον πήχη για εκστρατείες παραπληροφόρησης.
Είναι σημαντικό να σημειωθεί ότι δεν είναι όλα τα συνθετικά μέσα κακόβουλα. Περιεχόμενο που παράγεται από τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για αθώες και δημιουργικές χρήσεις – εξατομικευμένα avatars, αυτόματη μεταγλώττιση φωνής, σάτιρα και ψυχαγωγία κ.ά. Στην πραγματικότητα, κατά τις παγκόσμιες εκλογικές διαδικασίες του 2024, σχεδόν οι μισές τεκμηριωμένες χρήσεις AI σε πολιτικό περιεχόμενο ήταν μη παραπλανητικές (π.χ. ένας υποψήφιος χρησιμοποιεί AI φωνή ανοιχτά λόγω απώλειας της δικής του, ή δημοσιογράφοι χρησιμοποιούν avatar AI για προστασία ταυτότητας) knightcolumbia.org knightcolumbia.org. Η παρούσα έκθεση όμως επικεντρώνεται στη σκοτεινή πλευρά των συνθετικών μέσων – deepfakes που έχουν ως στόχο να παραπλανήσουν, εξαπατήσουν ή χειραγωγήσουν τους ψηφοφόρους και τη δημόσια άποψη.
Κίνδυνοι για τις Δημοκρατικές Διαδικασίες
Τα συνθετικά μέσα και τα deepfakes δημιουργούν σημαντικούς κινδύνους για τη δημοκρατία, ειδικά κατά την προεκλογική περίοδο όπου η ενημερωμένη εκλογική βάση και η εμπιστοσύνη στην πληροφορία είναι καθοριστικής σημασίας. Οι βασικές απειλές είναι:
- Παραπληροφόρηση και Χειραγώγηση Ψηφοφόρων: Ψεύτικα βίντεο, εικόνες ή ηχητικά που παράγονται με AI μπορούν να διαδώσουν ψευδείς πληροφορίες για υποψηφίους ή θέματα, παραπλανώντας τους ψηφοφόρους. Για παράδειγμα, ένα deepfake μπορεί να δείχνει έναν υποψήφιο να κάνει προκλητικές δηλώσεις που ποτέ δεν έκανε. Τέτοιο κατασκευασμένο περιεχόμενο μπορεί να διοχετεύσει τοξικά ψεύδη στη δημόσια συζήτηση. Οι ειδικοί προειδοποιούν ότι τα deepfakes “αποτελούν υψηλό κίνδυνο” για τους ψηφοφόρους εισάγοντας ψεύτικο περιεχόμενο στις καμπάνιες και διαβρώνοντας την εμπιστοσύνη του κοινού aljazeera.com. Ένα πειστικά αλλοιωμένο βίντεο που κυκλοφορεί λίγο πριν την Ημέρα των Εκλογών – χωρίς χρόνο για να το διαψεύσουν οι ελεγκτές γεγονότων – μπορεί ακόμη και να επηρεάσει αναποφάσιστους ή να αποθαρρύνει τη συμμετοχή, ενδεχομένως αλλάζοντας το αποτέλεσμα citizen.org. Αυτός ο κίνδυνος δεν είναι θεωρητικός: όπως αναλύεται παρακάτω, ένα deepfake ηχητικό το 2024 μιμήθηκε τον Πρόεδρο των ΗΠΑ προτρέποντας τους υποστηρικτές του να μη ψηφίσουν, με στόχο να αποδυναμωθεί η συμμετοχή aljazeera.com aljazeera.com.
- Διάβρωση Εμπιστοσύνης (“Όφελος του Ψεύτη”): Πέρα από κάθε συγκεκριμένο ψεύτικο, η απλή ύπαρξη των deepfakes μπορεί να υπονομεύσει τη δημόσια εμπιστοσύνη στην αληθινή πληροφορία. Οι ψηφοφόροι μπορεί να αρχίσουν να αμφισβητούν αυθεντικά τεκμήρια, αβέβαιοι αν ένα viral βίντεο είναι πραγματικό ή πλαστό από AI. Ακόμη χειρότερα, οι διεφθαρμένοι μπορούν να εκμεταλλευτούν αυτή την αμφιβολία: αληθινά σκάνδαλα ή γνήσιες ηχογραφήσεις μπορούν να απορριφθούν ως “απλά deepfake”, επιτρέποντας στους ενόχους να διαφύγουν της λογοδοσίας. Ακαδημαϊκοί έχουν χαρακτηρίσει αυτό το φαινόμενο ως “όφελος του ψεύτη” (liar’s dividend), όπου η αυξημένη επίγνωση των deepfakes διευκολύνει τους ψεύτες να ισχυριστούν ότι αυθεντικά πλάνα είναι πλαστά brennancenter.org. Η αυξημένη κοινωνική συνείδηση για τη δύναμη της AI συνεπάγεται ότι ένας πολιτικός που πραγματικά διαπράττει καταχρηστική πράξη μπορεί να παραπλανήσει το κοινό χαρακτηρίζοντας καταδικαστικά ηχητικά ή βίντεο ως πλαστογραφία της τεχνητής νοημοσύνης brennancenter.org. Αυτή η δυναμική απειλεί τη θεμελιώδη εμπιστοσύνη πάνω στην οποία στηρίζεται ο δημοκρατικός διάλογος. Παρατηρητές των εκλογών σημείωσαν ότι το 2024 μερικοί υποψήφιοι και οι υποστηρικτές τους προληπτικά φώναζαν “τεχνητή νοημοσύνη/πλαστό” για να απορρίψουν δυσάρεστες ιστορίες brennancenter.org brennancenter.org. Μακροπρόθεσμα, αν οι πολίτες νιώθουν πως “τίποτα δεν είναι αξιόπιστο”, διαβρώνεται η κοινή πραγματικότητα που απαιτείται για ελεύθερες και δίκαιες εκλογές cetas.turing.ac.uk cetas.turing.ac.uk.
- Ενίσχυση Πόλωσης και Συγκρούσεων: Μέχρι στιγμής, τα δεδομένα δείχνουν ότι η προπαγάνδα deepfake συχνά ενισχύει τις ήδη υπάρχουσες προκαταλήψεις των ανθρώπων και όχι τόσο να πείθει όσους διαφωνούν cetas.turing.ac.uk. Το κακόβουλο περιεχόμενο με τεχνητή νοημοσύνη αγκαλιάζεται και διαδίδεται συχνότερα από όσους ήδη έχουν ακραίες απόψεις, με αποτέλεσμα την ενίσχυση των “ηχοθαλάμων”. Στις προεδρικές εκλογές των ΗΠΑ το 2024, οι ερευνητές διαπίστωσαν ότι τα ψευδή μηνύματα που δημιούργησε η AI ενδυνάμωναν κυρίως διχαστικά αφηγήματα και διόγκωναν τοξικούς διαλόγους, παρά μετέπειθαν νέα ακροατήρια cetas.turing.ac.uk. Π.χ., ψεύτικα βίντεο που στοχοποιούσαν τον Πρόεδρο Μπάιντεν ή την Αντιπρόεδρο Χάρις συγκέντρωσαν εκατομμύρια θεάσεις στο διαδίκτυο και διαδόθηκαν κυρίως από ήδη εχθρικούς προς αυτούς χρήστες cetas.turing.ac.uk cetas.turing.ac.uk. Προσφέροντας “αποδεικτικά ψεύτικα στοιχεία” για την ατιμία των “άλλων”, τα deepfakes μπορούν να διαχωρίσουν ακόμη περισσότερο τις κοινότητες, τοξικοποιώντας το προεκλογικό κλίμα. Επιπλέον, η σύγχυση και η δυσπιστία που σπέρνουν τα deepfakes παρέχουν πρόσφορο έδαφος για συνωμοσιολογία cetas.turing.ac.uk, εφόσον πλέον κάθε δυσάρεστη πραγματικότητα μπορεί να απορριφθεί ως προϊόν τεχνητής νοημοσύνης.
- Υπονόμευση της Εκλογικής Διοίκησης: Ο κίνδυνος ξεπερνά τα ψεύδη για υποψηφίους – deepfakes θα μπορούσαν να διαταράξουν και την ίδια τη διαδικασία των εκλογών. Αξιωματούχοι έχουν φανταστεί σενάρια όπου κλώνοι φωνής ή ψεύτικα μηνύματα από AI παρουσιάζονται ως επίσημες οδηγίες προς εργαζόμενους στα εκλογικά τμήματα να κλείσουν νωρίτερα οι κάλπες ή δίνουν λάθος πληροφορίες στους ψηφοφόρους (π.χ. “οι εκλογές αναβλήθηκαν”) aljazeera.com. Ένας επιδέξιος αντίπαλος θα μπορούσε να προσομοιώσει εντολή εκλογικής επιτροπής ή φωνή τοπικού αξιωματούχου για να σαμποτάρει τις διαδικασίες ψηφοφορίας. Αυτές οι τακτικές θα μπορούσαν να μειώσουν τη συμμετοχή ή να προκαλέσουν χάος την Ημέρα των Εκλογών. Το Brennan Center των ΗΠΑ σημειώνει ότι τα παραποιημένα μέσα μπορούν να παραπλανήσουν όχι μόνο το κοινό, αλλά και τους εργαζόμενους και τους υπευθύνους εκλογών, απαιτώντας νέα εκπαίδευση και πρωτόκολλα αντίδρασης aljazeera.com.
- Παρενοχλήσεις και Δολοφονία Χαρακτήρα: Τα deepfakes αποτελούν επίσης ένα ισχυρό όπλο προσωπικών επιθέσεων σε υποψηφίους, ακτιβιστές ή δημοσιογράφους. Μια ιδιαίτερα διαβρωτική κατηγορία είναι η μη συναινετική συνθετική πορνογραφία – ένθεση προσώπου κάποιου σε άσεμνο περιεχόμενο. Αυτή η τακτική ήδη χρησιμοποιείται για να εκφοβίσει γυναίκες δημοσιογράφους ή πολιτικούς διεθνώς. Η ακραία μορφή deepfake παρενόχλησης είναι “ψεύτικες οικείες εικόνες” που χρησιμοποιούνται για εξευτελισμό ή εκβιασμό weforum.org. Σε εκλογικό πλαίσιο, αντίπαλοι μπορούν να διαρρεύσουν ψευδή, επιλήψιμα βίντεο ενός υποψηφίου (π.χ. deepfake sex tape ή πλαστή ηχογράφηση για παρανομίες) λίγο πριν τις εκλογές. Ακόμη και αν αποδειχθούν ως πλαστά σχετικά γρήγορα, η ζημιά στη φήμη ενδέχεται να έχει γίνει. Γυναίκες και μειονότητες μπαίνουν στο στόχαστρο δυσανάλογα από αυτές τις “συνθετικές εκστρατείες σπίλωσης”, κάτι που αποθαρρύνει διαφορετικούς υποψηφίους από τη συμμετοχή policyoptions.irpp.org policyoptions.irpp.org. Συνοψίζοντας, τα deepfakes προσθέτουν νέο “καύσιμο” σε παλιές, βρώμικες μεθόδους – από ψευδή σκάνδαλα ως πλαστές δηλώσεις – και ενισχύουν τις απόπειρες δολοφονίας χαρακτήρα στις εκλογές.
Τέλος, πρέπει να σημειώσουμε ότι μέχρι σήμερα δεν έχουμε δει εκλογική καταστροφή λόγω deepfakes. Συστηματικές αναλύσεις εκλογών του 2024 σε όλο τον κόσμο έδειξαν ελάχιστα στοιχεία ότι η παραπληροφόρηση από AI άλλαξε το αποτέλεσμα κάποιας εκλογής cetas.turing.ac.uk weforum.org. Η παραδοσιακή “φτηνή” παραπληροφόρηση (επεξεργασμένα βίντεο, φήμες, προπαγάνδα κόμματος) παρέμεινε πολύ πιο διαδεδομένη σε σχέση με τα εξελιγμένα deepfakes knightcolumbia.org knightcolumbia.org. Ωστόσο, οι ειδικοί προειδοποιούν ότι η απουσία καταστροφής έως τώρα δεν δικαιολογεί εφησυχασμό cetas.turing.ac.uk weforum.org. Η τεχνολογία εξελίσσεται ραγδαία και οι επιτιθέμενοι εκπαιδεύονται. Ακόμη και αν τα deepfakes δεν άλλαξαν δραστικά μια μεγάλη εκλογική αναμέτρηση το 2024, διαμόρφωσαν τον δημόσιο διάλογο – για παράδειγμα, viral ψεύδη που παρήγαγε το AI για υποψηφίους αποτέλεσαν σημείο αναφοράς σε κεντρικές συζητήσεις cetas.turing.ac.uk. Επιπλέον, η αντιληπτή απειλή των deepfakes συνέβαλε στην κοινωνική ανησυχία και στη δυσπιστία απέναντι στις εκλογές cetas.turing.ac.uk cetas.turing.ac.uk. Το ενδεχόμενο για κάτι πιο επιζήμιο παραμένει υπαρκτό, ειδικά καθώς πλησιάζουν οι κρίσιμες εκλογές του 2025. Οι δημοκρατικές κοινωνίες οφείλουν να αντιμετωπίσουν τα deepfakes ως ζήτημα ασφάλειας και ακεραιότητας, λαμβάνοντας υπόψη τόσο τον άμεσο κίνδυνο ψευδώς παραγόμενων μέσων όσο και τη γενικότερη διάβρωση της αλήθειας στον εκλογικό χώρο.
Πρόσφατα Περιστατικά: Deepfakes που Διαταράσσουν την Πολιτική
Πραγματικές περιπτώσεις τα τελευταία χρόνια δείχνουν πώς τα συνθετικά μέσα έχουν ήδη μετατραπεί σε όπλο σε πολιτικά πλαίσια. Παρακάτω εξετάζουμε ορισμένα σημαντικά περιστατικά και μελέτες περίπτωσης deepfakes και παραπληροφόρησης που παράγεται από AI, τα οποία επηρέασαν εκλογές ή τον δημόσιο διάλογο:
- Ουκρανία (Μάρτιος 2022) – Βίντεο “Παράδοσης”: Στις πρώτες μέρες του πολέμου της Ρωσίας κατά της Ουκρανίας, κυκλοφόρησε ένα βίντεο που φαινόταν να δείχνει τον Ουκρανό Πρόεδρο Βολοντίμιρ Ζελένσκι να προτρέπει τα στρατεύματά του να καταθέσουν τα όπλα και να παραδοθούν. Το βίντεο ήταν deepfake, με την εικόνα και τη φωνή του Ζελένσκι να έχουν αλλοιωθεί συνθετικά icct.nl. Χαρακτηριστικά ελαττώματα (θολές άκρες, ασύμφωνος τόνος λαιμού) το πρόδωσαν και τα ουκρανικά μέσα ενημέρωσης γρήγορα ξεσκέπασαν την απάτη. Αυτό το περιστατικό – η πρώτη γνωστή χρήση deepfake σε πολεμική σύγκρουση – προμήνυσε το πώς η προπαγάνδα μέσω AI θα μπορούσε να χρησιμοποιηθεί για την υπονόμευση ηγετών κατά τη διάρκεια κρίσεων icct.nl. Αν και το ψεύτικο βίντεο Ζελένσκι δεν κατάφερε να αποθαρρύνει την ουκρανική αντίσταση, έδειξε την πρόθεση και τη δυνατότητα κακόβουλων παραγόντων (στην προκειμένη περίπτωση Ρώσων χειριστών) να χρησιμοποιήσουν deepfakes για πολεμικές επιχειρήσεις πληροφορίας.
- Σλοβακία (Σεπτέμβριος 2023) – Εκλογική Παραπληροφόρηση: Λίγες μέρες πριν από τις κοινοβουλευτικές εκλογές της Σλοβακίας, deepfake ηχητικά ντοκουμέντα έγιναν viral, υποστηρίζοντας ότι περιείχαν τον ηγέτη του κόμματος Progressive Slovakia, Michal Šimečka, να ομολογεί εκλογική απάτη και να προτείνει ακόμη και τον διπλασιασμό της τιμής της μπύρας brennancenter.org. Σε κάποιες εκδοχές υπήρχε αχνή επισήμανση ότι πρόκειται για παραγόμενο από AI υλικό, αλλά εμφανιζόταν μόνο στο τέλος του ηχητικού – πιθανώς σκόπιμη προσπάθεια παραπλάνησης των ακροατών brennancenter.org. Ο συγχρονισμός ήταν προφανώς στρατηγικός, ακριβώς πριν από τις εκλογές. Το φιλοδυτικό κόμμα του Šimečka έχασε με μικρή διαφορά από φιλο-Κρεμλινικό αντίπαλο και ορισμένοι σχολιαστές υπέθεσαν ότι το deepfake δυσφημιστικό χτύπημα της τελευταίας στιγμής ίσως επηρέασε το αποτέλεσμα brennancenter.org. Αυτή η περίπτωση επισημαίνει πώς ξένοι ή εγχώριοι παράγοντες μπορούν να αξιοποιήσουν deepfakes για να επηρεάσουν κρίσιμες εκλογικές μάχες και πόσο δύσκολο είναι να καταπολεμηθούν οι ψευδείς αφηγήσεις τις τελευταίες στιγμές μιας εκστρατείας.
- Ταϊβάν (Ιανουάριος 2024) – Επιχειρήσεις Ξένης Επιρροής: Πριν από τις προεδρικές εκλογές στην Ταϊβάν το 2024, παρατηρητές κατέγραψαν κινεζική εκστρατεία παραπληροφόρησης χρησιμοποιώντας deepfakes με στόχο την υπονόμευση του υποψηφίου Lai Ching-te. Κυκλοφόρησαν ψεύτικα βίντεο στο διαδίκτυο που έδειχναν τον Lai (του κυβερνώντος φιλοανεξαρτησιακού κόμματος) να κάνει δηλώσεις που ποτέ δεν είπε – όπως υπονοώντας ψευδώς ότι στήριζε το πρόγραμμα των αντιπάλων του policyoptions.irpp.org. Σε μία περίπτωση, δημοσιεύτηκε ήχος φτιαγμένος από AI που φαινόταν να δείχνει τον Lai να επικρίνει το ίδιο του το κόμμα policyoptions.irpp.org, επιχειρώντας να διασπάσουν τη στήριξή του. Αυτές οι επιθέσεις συνθετικών μέσων, που εντοπίστηκαν στην Κίνα, στόχευαν στο να επηρεάσουν τη δημόσια γνώμη και να σπείρουν σύγχυση στη δημοκρατία της Ταϊβάν policyoptions.irpp.org. Τελικά, ο Lai κέρδισε τις εκλογές και οι αναλυτές εκτίμησαν ότι η κινεζική καμπάνια deepfake δεν άλλαξε σημαντικά το αποτέλεσμα policyoptions.irpp.org. Ωστόσο, αποτέλεσε ένα κλασικό παράδειγμα εχθρικής ξένης δύναμης που χρησιμοποιεί προπαγάνδα AI κατά δημοκρατικών εκλογών policyoptions.irpp.org policyoptions.irpp.org. Το ανησυχητικό είναι ότι σε πιο αμφίρροπες εκλογές αλλού, τέτοιες τακτικές θα μπορούσαν να έχουν μεγαλύτερο αντίκτυπο.
- Ηνωμένες Πολιτείες (2024) – Deepfakes στην Εκλογική Καμπάνια: Ο εκλογικός κύκλος των ΗΠΑ το 2024 γνώρισε άνοδο AI-δημιουργημένου πολιτικού περιεχομένου που, αν και δεν ανέτρεψε τις εκλογές, προκάλεσε ανησυχία. Στις αρχές του 2024, ψηφοφόροι στο Νιου Χάμσαϊρ έλαβαν παραπλανητική αυτοματοποιημένη κλήση: μια φωνή που έμοιαζε με του Προέδρου Τζο Μπάιντεν να λέει στους Δημοκρατικούς «για να σώσετε την ψήφο σας, μην την χρησιμοποιήσετε σε αυτές τις εκλογές.» Η φωνή ακουγόταν αυθεντική σε κάποιους, αλλά το μήνυμα ήταν προφανώς ύποπτο – ο Μπάιντεν δεν θα ενθάρρυνε ποτέ τους υποστηρικτές του να μην ψηφίσουν. Η πραγματικότητα ήταν πως επρόκειτο για deepfake φωνητικό αντίγραφο του Μπάιντεν, που εστάλη σε χιλιάδες ψηφοφόρους σε προφανή προσπάθεια καταστολής της ψήφου aljazeera.com aljazeera.com. Αυτό το περιστατικό, που έφθασε σε περίπου 5.000 αριθμούς του Νιου Χάμσαϊρ, έδειξε πόσο φθηνά και εύκολα μπορούν να γίνουν τέτοιες σκοτεινές πρακτικές – ο σύμβουλος που έφτιαξε το deepfake της φωνής Μπάιντεν είπε ότι χρειάστηκαν μόνο 20 λεπτά και περίπου $1 σε υπολογιστική ισχύ policyoptions.irpp.org policyoptions.irpp.org. Εν τω μεταξύ, στα κοινωνικά δίκτυα, εικόνες φτιαγμένες από AI ενσωματώθηκαν σε επίσημα προεκλογικά υλικά. Ενδεικτικά, η ομάδα του Κυβερνήτη της Φλόριντα, Ρον ΝτεΣάντις, δημοσίευσε διαφημιστικό που περιείχε παραποιημένες εικόνες του Ντόναλντ Τραμπ να αγκαλιάζει τον Δρ. Άντονι Φάουτσι – υπαινισσόμενη ότι ο Τραμπ ήταν υπερβολικά φιλικός με τον πρώην σύμβουλο για την COVID, που δεν έχει δημοτικότητα στη δεξιά. Τελικά αποκαλύφθηκε ότι οι εικόνες αυτές ήταν ψεύτικες, δημιουργημένες από AI και ενσωματωμένες στο βίντεο από την καμπάνια brennancenter.org, προκαλώντας δημόσια κατακραυγή μόλις αποκαλύφθηκαν. Σε άλλη περίπτωση, ένα βίντεο τεχνητής νοημοσύνης με τον Πρόεδρο Μπάιντεν να «απευθύνεται» στο έθνος με μπερδεμένη ομιλία, διαδόθηκε στο διαδίκτυο, μέχρι να διαψευστεί. Μερικά ψεύτικα βίντεο των Μπάιντεν και Αντιπροέδρου Χάρις συγκέντρωσαν εκατομμύρια προβολές στα κοινωνικά δίκτυα cetas.turing.ac.uk, δείχνοντας πόσο γρήγορα μπορεί να εξαπλωθεί τέτοιο περιεχόμενο. Ακόμη και ισχυροί του τεχνολογικού τομέα ενεπλάκησαν: ο Ίλον Μασκ αναδημοσίευσε ένα αδρά παραποιημένο βίντεο της Χάρις (ετικέταρε ως “σατιρικό”), στο οποίο εκείνη φαίνεται να λέει ανοησίες – θολώνοντας τα όρια μεταξύ χιούμορ-meme και παραπληροφόρησης cetas.turing.ac.uk cetas.turing.ac.uk. Αν και κανένα από αυτά τα deepfakes δεν άλλαξε την πορεία των εκλογών, ενίσχυσαν ψευδείς αφηγήσεις (π.χ. για τη διανοητική ικανότητα του Μπάιντεν ή τις “απόλυτες” σχέσεις του Τραμπ) και δηλητηρίασαν περαιτέρω το περιβάλλον πληροφόρησης. Αμερικανοί αξιωματούχοι ανησυχούν επίσης για deepfakes που στοχεύουν σε εκλογικές υποδομές – π.χ. ψεύτικο ηχητικό όπου διοικητές εκλογών καθοδηγούν προσωπικό να προβεί σε παράνομες ενέργειες aljazeera.com – αν και δεν επιβεβαιώθηκε δημόσια σοβαρό περιστατικό τέτοιου τύπου το 2024.
Αυτά τα παραδείγματα αναδεικνύουν το παγκόσμιο εύρος της απειλής. Τα deepfakes έχουν χρησιμοποιηθεί από κρατικούς δρώντες σε γεωπολιτικές συγκρούσεις, από προβοκάτορες σε εσωτερικές εκλογές από την Ευρώπη ως την Ασία και από εκστρατείες και υποστηρικτές στις ΗΠΑ. Έχουν πάρει τη μορφή ψεύτικων ομιλιών, εικόνων, τηλεφωνημάτων και βίντεο — στοχεύοντας τόσο τους ψηφοφόρους όσο και τους αξιωματούχους των εκλογών. Τα περιστατικά μέχρι τώρα παρέχουν και κάποια διδάγματα: πολλά deepfakes έχουν ανιχνευθεί και αποκαλυφθεί σχετικά γρήγορα (συχνά από άγρυπνους δημοσιογράφους ή fact-checkers) και σε αρκετές περιπτώσεις η αρνητική αντίδραση κατά της χρήσης deepfakes (π.χ. στη διαφήμιση DeSantis) δημιούργησε αρνητικό αντίκτυπο στους δράστες. Αυτό δείχνει ότι η διαφάνεια και η επαγρύπνηση μπορούν να μειώσουν τη βλάβη τους. Ωστόσο, η τάση είναι σαφής – τέτοιες συνθετικές ψευδείς πληροφορίες γίνονται όλο και πιο συχνές και πιο δύσκολο να διακριθούν αμέσως από την πραγματικότητα. Κάθε εκλογική αναμέτρηση φέρνει νέα “πρώτα” (το 2024 είδαμε τα πρώτα scams AI “robocall” για επηρεασμό ψήφου, την πρώτη προεκλογική χρήση deepfake διαφημίσεων κ.ά.) και ο κίνδυνος ενός πιο καταστροφικού περιστατικού deepfake αυξάνεται όσο πλησιάζουμε προς το 2025.
Ανίχνευση και Αντιμετώπιση Deepfakes: Εργαλεία και Τεχνολογίες
Ένα κρίσιμο στοιχείο για τη διασφάλιση των εκλογών είναι η ανάπτυξη αξιόπιστων εργαλείων ανίχνευσης και αντιμετώπισης κατά των deepfakes. Ερευνητές, τεχνολογικές εταιρείες και κυβερνήσεις αγωνίζονται να δημιουργήσουν τεχνολογίες που μπορούν να εντοπίζουν πλαστογραφίες από ΑΙ και να πιστοποιούν γνήσιο περιεχόμενο. Παρακάτω παρουσιάζουμε το σημερινό τοπίο της ανίχνευσης deepfake και των σχετικών αντενεργειών:
- Αυτοματοποιημένοι Ανιχνευτές Deepfake: Η βασική γραμμή άμυνας είναι η τεχνητή νοημοσύνη που καταπολεμά την τεχνητή νοημοσύνη – αλγόριθμοι που εκπαιδεύονται να αναλύουν μέσα και να εντοπίζουν ενδείξεις χειραγώγησης. Αυτά τα συστήματα ανίχνευσης αναζητούν λεπτές λεπτομέρειες ή ασυνέπειες που αφήνουν πίσω τους μοντέλα παραγωγής. Για παράδειγμα, τα πρώιμα deepfakes συχνά είχαν ακανόνιστο ανοιγοκλείσιμο ματιών ή ατελές συγχρονισμό στα χείλη. Σήμερα, οι ανιχνευτές χρησιμοποιούν βαθιά νευρωνικά δίκτυα για να εξετάσουν θέματα όπως ο φωτισμός και οι σκιές στα πρόσωπα, τα μοτίβα συχνότητας στον ήχο ή βιολογικά σήματα (π.χ. παλμός σε βίντεο) που η τεχνητή νοημοσύνη μπορεί να αποτύχει να αναπαράγει. Οι τεχνολογικές εταιρείες έχουν δημιουργήσει εσωτερικά εργαλεία – για παράδειγμα, η Microsoft κυκλοφόρησε το “Video Authenticator” το 2020, το οποίο μπορούσε να επισημάνει ψεύτικα βίντεο με ανάλυση καρέ-καρέ. Πλατφόρμες όπως το Facebook και το X (Twitter) έχουν επενδύσει στην έρευνα ανίχνευσης και εφαρμόζουν φίλτρα για να αλιεύουν γνωστά ψευδή μέσα. Ακαδημαϊκές πρωτοβουλίες και διαγωνισμοί (όπως το Facebook Deepfake Detection Challenge και τα συνέδρια IEEE) έχουν δώσει ώθηση στην πρόοδο, ενώ startups όπως οι Sensity και Reality Defender προσφέρουν εμπορικές υπηρεσίες ανίχνευσης deepfake για πελάτες. Ωστόσο, πρόκειται για μια διαρκή κούρσα εξοπλισμών: καθώς η ανίχνευση βελτιώνεται, οι δημιουργοί deepfake προσαρμόζονται ώστε να παράγουν πιο πειστικά ψεύτικα που διαφεύγουν τον αυτοματοποιημένο έλεγχο. Ενδεικτικά, μια αναφορά της Meta το 2023 διαπίστωσε ότι από όλες τις παραπληροφορίες που επισημάνθηκαν κατά τη διάρκεια των εκλογικών κύκλων του 2024, “λιγότερο από 1%” αναγνωρίστηκε ως περιεχόμενο παραγόμενο από ΑΙ weforum.org, υποδηλώνοντας είτε ότι οι deepfakes ήταν σχετικά σπάνιες ή ότι πολλές πέρασαν απαρατήρητες από τα φίλτρα ανίχνευσης.
- Υδατογράφημα και Προέλευση Περιεχομένου: Μια άλλη στρατηγική είναι να επισημαίνεται το ΑΙ-παραγόμενο περιεχόμενο ήδη από τη δημιουργία του ώστε οι τελικοί χρήστες να το αναγνωρίζουν εύκολα ως συνθετικό. Η ΕΕ προωθεί έντονα αυτήν την προσέγγιση – ο νέος Κανονισμός AI Act της ΕΕ επιβάλλει ρητά ότι οποιοδήποτε ΑΙ-δημιουργημένο ή ΑΙ-χειραγωγημένο περιεχόμενο φέρει σαφή σήμανση ή υδατογράφημα realitydefender.com. Οι εταιρείες θα υποχρεούνται να ενσωματώνουν έναν δείκτη (ψηφιακό υδατογράφημα ή μεταδεδομένα) όταν μια εικόνα, βίντεο ή ήχος παράγεται από ΑΙ. Θεωρητικά, browsers ή κοινωνικά δίκτυα θα μπορούν στη συνέχεια να επισημαίνουν ή να φιλτράρουν αυτόματα περιεχόμενο με τέτοιους δείκτες. Τα υδατογραφήματα έχουν δυνατότητες, ιδίως για να αποτρέπουν την περιστασιακή κατάχρηση. Μεγάλοι πάροχοι μοντέλων ΑΙ (όπως OpenAI, Google κ.ά.) έχουν συζητήσει την εθελοντική επισήμανση υδατογραφημένων εικόνων ή κειμένων που παράγουν τα συστήματά τους. Επιπλέον, ένας συνασπισμός μέσων και τεχνολογικών οργανισμών αναπτύσσει πρότυπα προέλευσης (π.χ. C2PA, Coalition for Content Provenance and Authenticity) ώστε να καταγράφεται κρυπτογραφικά η προέλευση και το ιστορικό επεξεργασίας των ψηφιακών μέσων. Για παράδειγμα, μια φωτογραφία ειδήσεων ή διαφημιστικό εκστρατείας θα μπορούσε να φέρει ασφαλές πιστοποιητικό αυθεντικότητας, επιτρέποντας σε οποιονδήποτε να επαληθεύσει τον δημιουργό και την ακεραιότητα του περιεχομένου cetas.turing.ac.uk. Η κυβέρνηση των ΗΠΑ υιοθετεί αντίστοιχα μέτρα· ο Λευκός Οίκος διέταξε τις ομοσπονδιακές υπηρεσίες να αναπτύξουν κατευθυντήριες γραμμές για “την αυθεντικότητα εξ αρχής,” ενσωματώνοντας μεταδεδομένα προέλευσης σε όλο το ψηφιακό περιεχόμενο που παράγουν μέχρι το 2025 cetas.turing.ac.uk. Εφόσον υιοθετηθούν ευρέως, τέτοια μέτρα θα δυσκόλευαν πολύ τα ψευδή περιεχόμενα να περνούν ως γνήσια.
- Περιορισμοί των Επισημειώσεων: Αν και τα εργαλεία διαφάνειας είναι απαραίτητα, δεν είναι αλάνθαστα. Τα υδατογραφήματα μπορούν να αφαιρεθούν ή να αλλοιωθούν από αποφασισμένους αντιπάλους. Μάλιστα, ερευνητές έχουν ήδη δείξει μεθόδους αφαίρεσης ή απόκρυψης υδατογραφημάτων ΑΙ realitydefender.com, ενώ φυσικά, κάποιος που κατασκευάζει το δικό του μοντέλο γεννήτριας μπορεί απλώς να μην συμπεριλάβει οποιοδήποτε δείκτη. Και τα μεταδεδομένα προέλευσης, ωφελούν μόνο αν υλοποιηθούν ευρέως και αν οι πολίτες τα ελέγχουν. Ένας δημιουργός deepfake μπορεί επίσης να εφαρμόσει το τέχνασμα “διάδοσης προέλευσης” – παίρνοντας ένα αυθεντικό αρχείο και προσθέτοντας ψεύτικα στοιχεία ώστε το τελικό προϊόν να φέρει ακόμα τη γνήσια υπογραφή. Αυτές οι προκλήσεις σημαίνουν πως δεν μπορούμε να βασιστούμε αποκλειστικά στις ετικέτες περιεχομένου. Όπως σημείωσε μια εταιρεία ασφάλειας ΑΙ, οι λύσεις υδατογραφήματος και προέλευσης λειτουργούν μόνο όταν οι δημιουργοί περιεχομένου συμμορφώνονται στην επισήμανση – κάτι που δεν σταματά τους επίμονους κακόβουλους realitydefender.com. Γι’ αυτό το λόγο, η ανίχνευση βάσει ανάλυσης περιεχομένου (inference-based), δηλαδή η αναζήτηση σημείων τεχνητής χειραγώγησης στο ίδιο το περιεχόμενο, παραμένει απαραίτητη realitydefender.com. Η καλύτερη άμυνα πιθανόν να συνδυάζει και τις δύο προσεγγίσεις: ισχυρούς αυτοματοποιημένους ανιχνευτές για εντοπισμό ψευδών και συστήματα πιστοποίησης για επαλήθευση γνήσιων μέσων.
- Ανίχνευση σε Πραγματικό Χρόνο για Βίντεο/Ήχο: Εμφανίζεται όλο και πιο έντονη ανάγκη για εργαλεία που να “πιάνουν” deepfakes σε ζωντανό περιβάλλον. Σκεφτείτε ένα υποθετικό σενάριο ψεύτικης “ζωντανής” βιντεοκλήσης με υποψήφιο ή επίσημο – όπως συνέβη στο Χονγκ Κονγκ το 2023 όταν εγκληματίες deepfaked την εμφάνιση διευθυντή σε Zoom για να εγκρίνουν παρανόμως μεταφορά 25 εκατομμυρίων δολαρίων weforum.org. Στην υπόθεση αυτή, πολλοί συμμετέχοντες –συμπεριλαμβανομένου πλαστογράφου του CFO– ήταν όλοι δημιουργίες ΑΙ. Η ανίχνευση τέτοιων real-time fakes είναι εξαιρετικά δύσκολη. Εταιρείες αναπτύσσουν λύσεις, όπως plugins για video conferences που ειδοποιούν αν η εικόνα ή η φωνή φαίνονται συνθετικά αλλοιωμένα (π.χ. ανάλυση καθυστέρησης ήχου και φασματικές ανωμαλίες, ή έλεγχος εάν το πρόσωπο στην οθόνη ταιριάζει ακριβώς με τις κινήσεις κάμερας του πραγματικού προσώπου). Ορισμένα startups ισχυρίζονται πως προσφέρουν APIs real-time ανίχνευσης deepfake που μπορούν να ενσωματωθούν σε streaming πλατφόρμες ή ακόμα και να πιστοποιούν ομιλητές σε ζωντανά events. Προς το παρόν, όμως, η ανίχνευση σε πραγματικό χρόνο υστερεί συχνά έναντι των επιτιθέμενων, και η έμφαση δίνεται στα προληπτικά μέτρα (όπως χρήση κωδικών ή μυστικών λέξεων στις τηλεφωνικές κλήσεις για ταυτοποίηση, όπως συστήνουν οι αρχές weforum.org).
- Ανθρώπινη Επιβεβαίωση και Σημάνσεις Κοινότητας: Η τεχνολογία από μόνη της δεν αποτελεί πανάκεια. Ένα άγρυπνο ανθρώπινο επίπεδο παραμένει αναγκαίο. Οργανισμοί ΜΜΕ, ομάδες fact-checking και πλατφόρμες έχουν συγκροτήσει ειδικές ομάδες παρακολούθησης viral deepfakes κατά τις εκλογικές περιόδους. Αυτές χρησιμοποιούν OSINT (τεχνικές ανοιχτού κώδικα πληροφοριών) και εργαλεία εγκληματολογίας για την ανάλυση ύποπτου περιεχομένου – π.χ. ελέγχουν χρονικές σημάνσεις, αναζητούν ασυνέπειες (όπως διαφορετικά σκουλαρίκια σε πολιτικό σε βίντεο ή περίεργες κινήσεις στόματος) και δημοσιεύουν γρήγορα διαψεύσεις. Η συλλογική εγρήγορση βοηθά: στο X/Twitter, η λειτουργία “Community Notes” επισήμανε αναρτήσεις με AI-εικόνες ή βίντεο και πρόσθεσε διευκρινιστικό πλαίσιο. Σε πρόσφατες εκλογές, οι χρήστες συχνά εντόπιζαν deepfakes μέσα σε λίγες ώρες, κάνοντας συγκρίσεις και υποδεικνύοντας ατέλειες. Αυτό το είδος συλλογικής επιτήρησης, ενισχυμένο από ψηφιακή παιδεία, αποτελεί ισχυρό εργαλείο. Οι πλατφόρμες βασίζονται όλο και περισσότερο στη συνδρομή χρηστών και ανεξάρτητων fact-checkers για τον εντοπισμό αμφίβολου περιεχομένου, λόγω του όγκου που έχουν να ελέγξουν τα αυτοματοποιημένα συστήματα. Το μειονέκτημα είναι ότι ένα deepfake μπορεί να γίνει viral προτού διαψευστεί. Ωστόσο, η βελτίωση της ταχύτητας αντίδρασης και της ευαισθητοποίησης ώστε περισσότεροι χρήστες να αναγνωρίζουν ψεύτικα, θα περιορίσει τη ζημιά.
Συνοψίζοντας, η ανίχνευση deepfake είναι ένα ενεργό και εξελισσόμενο πεδίο. Σημειώνεται πρόοδος – οι ανιχνευτές σήμερα είναι πολύ καλύτεροι απ’ ό,τι το 2018, ενώ πρωτοβουλίες όπως το Content Authenticity Initiative στοχεύουν να κάνουν την επαλήθευση στάνταρ. Όμως οι προκλήσεις παραμένουν λόγω της διαρκούς “γάτας με το ποντίκι” με τους αντιπάλους και της ανάγκης ευρείας υιοθέτησης των εργαλείων. Τα επόμενα χρόνια πιθανόν η τεχνολογία ανίχνευσης θα ενσωματώνεται όλο και περισσότερο σε κοινωνικά δίκτυα, ειδησεογραφικές ροές, ακόμα και σε συσκευές (σκεφτείτε το κινητό σας να σας προειδοποιεί ότι εισερχόμενο βίντεο μπορεί να είναι ΑΙ!). Καθοριστικό όμως είναι τα εργαλεία ανίχνευσης και προέλευσης να συνοδεύονται από ενημέρωση του κοινού, ώστε όταν εμφανίζεται ειδοποίηση ή σήμανση, οι χρήστες να γνωρίζουν και να ενεργούν αντίστοιχα. Η τεχνολογική διάσταση είναι απλώς ένας πυλώνας της γενικότερης στρατηγικής ενάντια στις απειλές της συνθετικής πληροφορίας.
Πολιτικές Αντιδράσεις και Ρυθμιστικά Πλαίσια
Οι υπεύθυνοι χάραξης πολιτικής διεθνώς έχουν αφυπνιστεί για την απειλή των deepfakes και ξεκίνησαν τη θεσμοθέτηση νόμων και κανονισμών για την αντιμετώπισή της. Ενώ το ζήτημα είναι καινούριο, διαμορφώνεται ένα μωσαϊκό απαντήσεων στις μεγάλες δημοκρατίες. Παρακάτω μια επισκόπηση των νομοθετικών και ρυθμιστικών προσπαθειών που βρίσκονται σε εξέλιξη:
- Ηνωμένες Πολιτείες: Στις ΗΠΑ δεν υπάρχει αυτή τη στιγμή ενιαίος ομοσπονδιακός νόμος για πολιτικά deepfakes, αλλά αυξάνεται η πίεση για θέσπιση σχετικού πλαισίου. Έχουν κατατεθεί πολλά νομοσχέδια στο Κογκρέσο που στοχεύουν στον περιορισμό των κακόβουλων deepfakes. Για παράδειγμα, στις αρχές του 2024 κατατέθηκε το No AI FRAUD Act, ως αντίδραση σε δημοφιλή περιστατικά (όπως ψεύτικες πορνογραφικές εικόνες διάσημων μέσω ΑΙ) policyoptions.irpp.org. Το νομοσχέδιο αποσκοπεί στην δημιουργία ομοσπονδιακού πλαισίου που θα ποινικοποιεί συγκεκριμένες βλαβερές χρήσεις ΑΙ, όπως απατηλά πολιτικά deepfakes και εξαπατητικά ψευδοπορνογραφικά περιεχόμενα policyoptions.irpp.org. Μια άλλη συζήτηση αφορά την υποχρέωση αποκάλυψης ΑΙ-παραγόμενου περιεχομένου σε πολιτικές διαφημίσεις (να συμπεριλαμβάνεται ξεκάθαρη σήμανση εφόσον εμπεριέχεται συνθετικό μέσο). Παράλληλα, η Ομοσπονδιακή Επιτροπή Επικοινωνιών (FCC) προχώρησε σε στοχευμένη απαγόρευση της χρήσης AI φωνητικών κλώνων σε robocalls με σκοπό απάτη ή πρόκληση βλάβης policyoptions.irpp.org. Η κίνηση αυτή αποτέλεσε απάντηση σε απατεώνες που μιμούνταν φωνές πραγματικών ανθρώπων. Έτσι, απαγορεύεται πλέον σε telemarketers ή πολιτικούς να χρησιμοποιούν συνθετικά ηχητικά μηνύματα για παραπλάνηση. Η περισσότερη ρύθμιση deepfake στις ΗΠΑ συμβαίνει στο πολιτειακό επίπεδο. Από το 2019, πολιτείες όπως η Καλιφόρνια, το Τέξας κι άλλες έχουν περάσει νόμους για τα deepfakes στις εκλογές. Η Καλιφόρνια απαγορεύει τη διανομή ουσιωδώς απατηλων βίντεο πολιτικών εντός 60 ημερών από τις εκλογές (με εξαιρέσεις για σάτιρα/παρωδία) brennancenter.org. Το Τέξας καθιέρωσε ως έγκλημα την κατασκευή ή κοινοποίηση deepfake βίντεο που αποσκοπούν σε βλάβη υποψηφίου ή επιρροή στο εκλογικό σώμα brennancenter.org. Ως τα μέσα του 2025, τουλάχιστον δεκατέσσερις πολιτείες των ΗΠΑ έχουν θεσπίσει ή εξετάζουν νομοθεσία για τα deepfakes σε εκλογές citizen.org. Σημειώνεται ότι οι προσπάθειες έχουν διακομματική στήριξη – η απειλή των deepfake αποδεδειγμένα ανησυχεί και τα δύο κόμματα πως η ΑΙ-χειραγωγημένη εκλογική παραπληροφόρηση είναι απειλή για τη δημοκρατία citizen.org citizen.org. Οι πολιτειακοί νόμοι ποικίλουν: ορισμένοι προβλέπουν ποινικές κυρώσεις για τη δημοσίευση ψευδεπίγραφων deepfakes, άλλοι επικεντρώνονται σε προειδοποιητικές σημάνσεις σε διαφημίσεις. Επίσης, η οργάνωση Public Citizen κατέθεσε αίτημα στην Ομοσπονδιακή Εκλογική Επιτροπή να ενημερώσει τους κανόνες ώστε να απαγορευτεί στους ομοσπονδιακούς υποψηφίους η διάδοση απατηλών deepfakes σε καμπάνιες brennancenter.org. Αν και η FEC δεν έχει εκδώσει νέους κανονισμούς, το ζήτημα βρίσκεται στην ατζέντα. Στις ΗΠΑ πρέπει να εξισορροπηθούν τα ζητήματα ελευθερίας του λόγου – πολύ γενικές απαγορεύσεις στις αλλοιωμένες εικόνες ή βίντεο μπορεί να συγκρουστούν με την Πρώτη Τροπολογία. Για παράδειγμα, η σάτιρα και η παρωδία (προστατευόμενος πολιτικός λόγος) συχνά εμπεριέχουν επεξεργασμένες εικόνες ή βίντεο· οι νομοθέτες πρέπει να στοχεύουν αποκλειστικά την κακόβουλη παραπλάνηση. Αυτό φαίνεται και στη διατύπωση πολλών πολιτειακών νόμων, που περιέχουν εξαιρέσεις για σάτιρα, παρωδία ή δημοσιογραφική χρήση brennancenter.org brennancenter.org. Βέβαια, η επικρατούσα θέση παραμένει πως το ψευδές περιεχόμενο ΑΙ που στοχεύει συνειδητά στη χειραγώγηση ή πρόκληση αναστάτωσης δεν έχει θέση σε μια δημοκρατία και μπορεί να απαγορευτεί χωρίς να παραβιάζεται η ελεύθερη έκφραση brennancenter.org brennancenter.org.
- Ευρωπαϊκή Ένωση: Η ΕΕ κινείται επιθετικά σε ευρεία ρύθμιση ΑΙ, συμπεριλαμβανομένων μέτρων που αφορούν άμεσα τα deepfakes. Ο εμβληματικός Κανονισμός AI Act, ο οποίος συμφωνήθηκε το 2024 (θα ισχύσει πλήρως ως το 2026, με κάποιες διατάξεις νωρίτερα), εισάγει απαίτηση διαφάνειας για τα συνθετικά μέσα. Σύμφωνα με το AI Act, κάθε σύστημα ΑΙ που μπορεί να παράγει “deepfake” περιεχόμενο οφείλει να διασφαλίζει πως το περιεχόμενο σημειώνεται ως παραγόμενο από ΑΙ (εκτός αν χρησιμοποιείται σε εξαιρέσεις, π.χ. στην τέχνη ή στην έρευνα ασφάλειας) realitydefender.com. Πρακτικά, οι δημιουργοί μοντέλων εικόνας ή βίντεο θα είναι υποχρεωμένοι να ενσωματώνουν υδατογραφήματα ή μεταδεδομένα που δηλώνουν ότι το αποτέλεσμα είναι συνθετικό. Η μη υλοποίηση επισύρει βαριά πρόστιμα. Επίσης, ο αναθεωρημένος Κώδικας Πρακτικής για την Παραπληροφόρηση της ΕΕ (εθελοντικός για τις μεγάλες online πλατφόρμες) επισημαίνει ρητά τα deepfakes ως απειλή και δεσμεύει τις πλατφόρμες στην ανάπτυξη “πολιτικών, μέτρων και εργαλείων ενάντια στο χειραγωγημένο περιεχόμενο” brennancenter.org brennancenter.org. Π.χ., οι πλατφόρμες δεσμεύθηκαν να εφαρμόζουν συστήματα ώστε να εντοπίζουν και να επισημαίνουν ή να αφαιρούν deepfake βίντεο που θα μπορούσαν να προκαλέσουν ζημιά, και να συνεργάζονται με fact-checkers για γρήγορη διάψευση ψευδο-περιεχομένου. Με το Digital Services Act (DSA) – που τέθηκε σε ισχύ το 2023 – οι μεγάλες ηλεκτρονικές πλατφόρμες της ΕΕ υποχρεούνται να αξιολογούν και να μετριάζουν “συστημικούς κινδύνους”, μεταξύ άλλων και τη διάδοση παραπληροφόρησης με ΑΙ. Λόγω αυτού, εταιρείες όπως οι Meta, Google, TikTok ανακοίνωσαν νέα μέτρα για τις ευρωπαϊκές εκλογές 2024–2025: από καλύτερους ανιχνευτές deepfake έως επισημάνσεις συνθετικών μέσων. Συνοπτικά, η Ευρώπη υιοθετεί ρυθμιστική λογική διαφάνειας: απαιτώντας σήμανση στις εξόδους ΑΙ και επιβάλλοντας ευθύνες στις πλατφόρμες. Οι επικριτές σημειώνουν ότι η εφαρμογή θα είναι δύσκολη (πώς να εντοπιστούν όλα τα ασημείωτα deepfakes μέσα στον κυκεώνα;), όμως η ΕΕ δείχνει πως τα ανεξέλεγκτα deepfakes είναι απαράδεκτα και σε αντίθεση με τα πρότυπα διακυβέρνησής της realitydefender.com realitydefender.com.
- Ηνωμένο Βασίλειο: Το Ηνωμένο Βασίλειο δεν έχει περάσει ακόμα νομοθεσία αποκλειστικά για deepfakes σε εκλογές, αλλά το αντιμετωπίζει μέσω ευρύτερων πρωτοβουλιών διαδικτυακής ασφάλειας και ΑΙ. Το 2023, ψηφίστηκε ο Online Safety Act, νόμος για την καταπολέμηση του επιβλαβούς online περιεχομένου. Ο νόμος έθεσε ποινικοποίηση της διακίνησης μη συναινετικής deepfake πορνογραφίας – απαγορεύοντας τη δημιουργία ή διανομή ψευδοπορνογραφικών συνθετικών εικόνων χωρίς συναίνεση policyoptions.irpp.org. Αυτό αντιμετώπισε την πλευρά της παρενόχλησης των deepfakes. Για την εκλογική παραπληροφόρηση, ο νόμος δίνει αρμοδιότητα στον Ofcom (ρυθμιστική αρχή επικοινωνιών) να εκδίδει πρότυπα πρακτικής για την παραπληροφόρηση. Οι ειδικοί πιέζουν τον Ofcom να αναπτύξει Κώδικα Συμπεριφοράς για την Παραπληροφόρηση που θα ορίζει πώς πρέπει να διαχειρίζονται οι πλατφόρμες το ΑΙ-χειραγωγημένο περιεχόμενο cetas.turing.ac.uk. Ένας τέτοιος κώδικας, ίσως στα πρότυπα της ΕΕ, θα μπορούσε να ενθαρρύνει πλατφόρμες και πολιτικούς να αποφεύγουν τη διάδοση deepfakes και να επισημαίνουν ξεκάθαρα τη χρήση συνθετικών μέσων. Επίσης, καλείται η Εκλογική Επιτροπή να εκδώσει κατευθυντήριες γραμμές στα κόμματα για υπεύθυνη χρήση AI, τοποθετώντας κόκκινες γραμμές για τα απατηλά deepfakes στις εκστρατείες cetas.turing.ac.uk. Στα τέλη του 2024, επιτροπή βουλευτών πρότεινε αυστηροποίηση των εκλογικών νόμων ώστε να ποινικοποιηθεί η deepfake παραπληροφόρηση, αλλά δεν έχει κατατεθεί επίσημο νομοσχέδιο. Η κυβέρνηση εξετάζει αν οι υφιστάμενοι νόμοι (αστική δυσφήμηση, απάτη, εκλογικά αδικήματα) επαρκούν για να διώξουν κακόβουλη χρήση deepfake ή αν απαιτούνται νέες διατάξεις cetas.turing.ac.uk. Επιπλέον, το ΗΒ δημιουργεί Ινστιτούτο Ασφάλειας ΑΙ και φιλοξένησε την παγκόσμια Σύνοδο Κορυφής για την Ασφάλεια ΑΙ το 2023, όπου η χειραγώγηση πληροφορίας ήταν στη θεματολογία. Οι βρετανικές αρχές μοιάζουν να δίνουν βαρύτητα στην ενίσχυση τεχνικής άμυνας και ψηφιακής παιδείας όσο και σε νομικές απαγορεύσεις. Ωστόσο, μέτρα όπως η απαγόρευση deepfake πορνό και η ενδυνάμωση των ρυθμιστών δείχνουν πως υπάρχει συνείδηση ότι το ψεύτικο περιεχόμενο με ΑΙ απαιτεί πολιτική απάντηση.
- Καναδάς: Ως το 2024, ο Καναδάς δεν είχε συγκεκριμένο νόμο για deepfakes στις εκλογές. Ο Εκλογικός Νόμος του Καναδά δεν απαγορεύει ρητά την ΑΙ-γεννημένη παραπληροφόρηση ή τα deepfakes, άρα αυτά θα διωκόνταν βάσει γενικών διατάξεων (όπως οι νόμοι περί απάτης ή πλαστοπροσωπίας) που ενδέχεται να μην επαρκούν cef-cce.ca. Αυτό το ρυθμιστικό κενό έχουν επισημάνει ειδικοί, που προειδοποιούν ότι ο Καναδάς “είναι ένα-δύο βήματα πίσω” από άλλες δημοκρατίες policyoptions.irpp.org. Το φθινόπωρο του 2023 σημειώθηκε μικρό περιστατικό deepfake στον Καναδά με ψευδή φωνητικό κλιπ που προσποιούταν πολιτικό. Παρότι δεν προκάλεσε μεγάλη ζημιά, ανέβασε το επίπεδο συναγερμού. Η Εκλογική Επιτροπή από τότε επισημαίνει την παραπληροφόρηση με ΑΙ ως ανερχόμενη απειλή και μελετά απαντήσεις cef-cce.ca. Αναλυτές ζητούν νέα νομοθεσία “από χθες” – ενδεχομένως δίνοντας στον Επίτροπο Εκλογών τις αρμοδιότητες να περιορίσει τα απατηλά συνθετικά μέσα στις καμπάνιες policyoptions.irpp.org. Ο Καναδάς μπορεί να εμπνευστεί από συμμάχους: π.χ. υιοθετώντας κανόνες γνωστοποίησης για ΑΙ-διαφημίσεις ή καθιερώνοντας ως αδίκημα τη διάδοση deepfake με σκοπό παραπλάνησης των ψηφοφόρων. Ως τα μέσα του 2025, δεν είχε κατατεθεί σχετικό νομοσχέδιο αλλά η πίεση αυξάνεται να μπει ο Καναδάς στον χορό των δημοκρατικών χωρών με νομοθεσία κατά των deepfakes στις εκλογές policyoptions.irpp.org.
- Άλλες Δημοκρατίες: Σε παγκόσμιο επίπεδο, πολλές δημοκρατίες έχουν ξεκινήσει μέτρα:
- Αυστραλία: Η αυστραλιανή κυβέρνηση, ανησυχώντας για την “αποσάθρωση της αλήθειας” με ΑΙ λίγο πριν τις εκλογές, ανακοίνωσε σχέδια για νομοθεσία “αλήθειας στη πολιτική διαφήμιση” που θα απαγορεύει παραπλανητικά deepfake βίντεο και ήχο στην εκλογική εκστρατεία innovationaus.com. Η πρόταση, που υποβλήθηκε από την κυβέρνηση Albanese το 2023, θα απαγορεύει τη δημοσίευση συνθετικών μέσων που πλαστοπροσωπούν υποψηφίους ή μπορεί να παραπλανήσουν ψηφοφόρους κατά τις εκλογές innovationaus.com. Όμως, η διαδικασία είναι αργή – δεν αναμένεται να τεθούν σε ισχύ ως το 2026 innovationaus.com, πράγμα που σημαίνει πως οι εκλογές του 2025 θα γίνουν χωρίς πλήρως εφαρμοσμένα μέτρα. Στο μεσοδιάστημα, η Εκλογική Επιτροπή της Αυστραλίας εξέδωσε οδηγίες και τόνισε την ανάγκη προοπτικής (το να εστιάσουμε υπερβολικά στα deepfakes ίσως μειώσει την εμπιστοσύνη και στα αληθινά νέα) ia.acs.org.au. Υπάρχει διακομματική στήριξη για περιορισμό της ΑΙ παραπληροφόρησης και σε εξέλιξη βρίσκεται συζήτηση για το πώς αυτό μπορεί να συνδυαστεί με την ελευθερία του πολιτικού λόγου theguardian.com sbs.com.au.
- Ταϊβάν: Έχοντας υποστεί παρέμβαση με deepfake από την Κίνα, η Ταϊβάν αναβάθμισε τον εκλογικό της νόμο. Το 2023 προστέθηκε διάταξη που απαγορεύει ρητά τη διανομή αλλοιωμένου ήχου ή βίντεο υποψηφίων με σκοπό την παραπλάνηση του εκλογικού αποτελέσματος policyoptions.irpp.org. Αυτό έδωσε καθαρό νομικό όπλο στις αρχές για δίωξη πλαστογράφων όπως αυτούς που έδρασαν το 2024. Η Ταϊβάν επένδυσε επίσης σε ενημέρωση κοινού και γρήγορο σύστημα αντίδρασης (συνεργασία κυβέρνησης, κοινωνίας πολιτών και πλατφορμών) για την άμεση διάψευση ψευδούς περιεχομένου policyoptions.irpp.org policyoptions.irpp.org.
- Ευρωπαϊκές δημοκρατίες: Ανεξάρτητα από τα ευρωπαϊκά πλαίσια, αρκετές χώρες χρησιμοποιούν τους υπάρχοντες νόμους τους. Π.χ., ο γαλλικός νόμος κατά των “ψευδών ειδήσεων” στις εκλογές (2018) μπορεί να εφαρμοστεί σε deepfake βίντεο που επηρεάζουν εκλογές, το ίδιο και οι αυστηρές διατάξεις περί δυσφήμησης και προστασίας εκλογικού σώματος στη Γερμανία. Ωστόσο συζητούνται και νέες ρυθμίσεις: στη Γερμανία εξετάζεται να καταστούν υποχρεωτικές αποκαλύψεις συνθετικών μέσων σε εκλογικό υλικό, ενώ στο ΗΒ (βλ. παραπάνω) θα μπορούσαν να ενταχθούν αποκαλύψεις ΑΙ στα ψηφιακά αποτυπώματα καμπανιών cetas.turing.ac.uk.
- Διεθνείς πρωτοβουλίες: Αναδεικνύεται πως απαιτείται παγκόσμια συνεργασία, καθώς η παραπληροφόρηση δεν γνωρίζει σύνορα. Η Ομάδα G7 συνέστησε το 2024 ομάδα για την “Διακυβέρνηση της ΑΙ” και εξέδωσε δήλωση για την καταπολέμηση της κακόβουλης χρήσης ΑΙ στη δημόσια ενημέρωση. Η κυβέρνηση Biden εξασφάλισε εθελοντικές δεσμεύσεις από μεγάλους δημιουργούς ΑΙ (OpenAI, Google, Meta κ.ά.) για καθιέρωση υδατογραφημάτων στα ΑΙ-παραγόμενα μέσα και επένδυση στην πρόληψη κακής χρήσης. Αν και μη δεσμευτικές, σηματοδοτούν νέα διεθνή στάνταρ διαφάνειας και υπευθυνότητας στη χρήση ΑΙ.
Συνοψίζοντας, οι πολιτικές απαντήσεις στα deepfakes επιταχύνονται. Η νομοθεσία ακόμα προσπαθεί να καλύψει το τεχνολογικό χάσμα, αλλά η πορεία είναι ξεκάθαρη: οι κυβερνήσεις κινούνται στο να ποινικοποιήσουν τις πιο επιζήμιες χρήσεις συνθετικών μέσων στις εκλογές, να καθιερώσουν διαφάνεια (ετικέτες/αποκαλύψεις) για περιεχόμενο ΑΙ και να ενδυναμώσουν τις ρυθμιστικές και εκλογικές αρχές κατά των ψηφιακών πλαστογραφιών. Την ίδια στιγμή, πρέπει να διαφυλάξουν τη νόμιμη έκφραση – όπως η σάτιρα – και να αποφύγουν αυταρχικά εργαλεία που θα μπορούσαν να δώσουν πάτημα λογοκρισίας. Η ισορροπία είναι λεπτή. Οι διάφορες προσεγγίσεις – από πολιτειακούς νόμους ΗΠΑ ως πανευρωπαϊκές ρυθμίσεις – θα λειτουργήσουν ως πεδίο δοκιμής το 2025. Η πολιτική θα βελτιωθεί καθώς αξιολογούμε τί λειτουργεί στην πράξη. Η αδράνεια, ωστόσο, δεν είναι επιλογή: όπως λέει ένας παρατηρητής πολιτικής, “Χωρίς ρύθμιση, τα deepfakes κινδυνεύουν να περαιτέρω μπερδέψουν τους ψηφοφόρους και να υπονομεύσουν την εμπιστοσύνη στις εκλογές.” citizen.org citizen.org Το επόμενο τμήμα παρουσιάζει στρατηγικές συστάσεις προς όλους όσους συμμετέχουν στη δημοκρατική διαδικασία.
Στρατηγικές Συστάσεις για την Προστασία των Εκλογών
Η υπεράσπιση της ακεραιότητας των εκλογών στην εποχή της Τεχνητής Νοημοσύνης θα απαιτήσει μια πολυεπίπεδη στρατηγική. Κανένα μεμονωμένο εργαλείο ή νόμος δεν μπορεί να λύσει το πρόβλημα των deepfakes· αντιθέτως, απαιτείται ένας συντονισμένος αγώνας από κυβερνήσεις, πλατφόρμες τεχνολογίας, μέσα ενημέρωσης και την κοινωνία των πολιτών. Παρακάτω παρουσιάζονται στρατηγικές συστάσεις για όλους αυτούς τους τομείς, ώστε να περιοριστούν οι κίνδυνοι και οι ψηφοφόροι να μπορούν να λαμβάνουν ενημερωμένες αποφάσεις το 2025 και μετά:
Κυβερνήσεις και Νομοθέτες
1. Ενίσχυση των Νομικών Προστασιών και της Αποτροπής: Οι κυβερνήσεις θα πρέπει να θεσπίσουν ή να επικαιροποιήσουν νόμους ώστε να απαγορεύεται ρητά η κακόβουλη χρήση συνθετικών μέσων ενημέρωσης στις εκλογές. Αυτό περιλαμβάνει τη θέσπιση παραβατικότητας για τη δημιουργία ή διανομή οποιουδήποτε deepfake που, με πρόθεση εξαπάτησης του κοινού ή υπονόμευσης μιας εκλογικής διαδικασίας, παρουσιάζει ψεύτικα έναν υποψήφιο ή αλλοιώνει πληροφορίες σχετικές με τις εκλογές (όπως οι διαδικασίες ψηφοφορίας). Είναι σημαντικό οι νόμοι να στοχεύουν στην εσκεμμένη παραπλάνηση (παραπληροφόρηση), με σαφείς εξαιρέσεις για σάτιρα, παρωδία ή προφανή καλλιτεχνική έκφραση. Οι κυρώσεις (πρόστιμα ή ποινικές κατηγορίες) θα λειτουργήσουν αποτρεπτικά, ιδίως αν επιβληθούν άμεσα. Για παράδειγμα, η προτεινόμενη απαγόρευση της Αυστραλίας για παραπλανητικά deepfakes κατά τη διάρκεια των εκστρατειών και οι νέες διατάξεις της Ταϊβάν για περιεχόμενο εκλογών που έχει υποστεί επεξεργασία με ΤΝ μπορούν να λειτουργήσουν ως πρότυπα innovationaus.com policyoptions.irpp.org. Στις ΗΠΑ, μια ομοσπονδιακή δράση (όπως ο προτεινόμενος νόμος No AI FRAUD Act) θα μπορούσε να καθορίσει ένα εθνικό ελάχιστο πλαίσιο, συμπληρώνοντας τους πολιτειακούς νόμους. Επιπλέον, οι κυβερνήσεις θα πρέπει να επικαιροποιήσουν τους κανόνες χρηματοδότησης εκστρατειών και διαφήμισης: να απαιτείται κάθε πολιτική διαφήμιση (online ή τηλεοπτική) που περιέχει συνθετικά μέσα να φέρει σαφή αποποίηση ευθύνης (π.χ. «Αυτή η εικόνα/βίντεο δημιουργήθηκε με ΤΝ») ώστε να μην παραπλανώνται οι θεατές. Οι κανονισμοί για την αλήθεια στις διαφημίσεις θα πρέπει να επεκταθούν και στο περιεχόμενο που δημιουργείται από ΤΝ.
2. Εφαρμογή Πρωτοκόλλων Αντιμετώπισης Εκλογικών Περιστατικών: Οι εκλογικές αρχές θα πρέπει να θεσπίσουν επίσημα πρωτόκολλα για την άμεση αντιμετώπιση σοβαρών περιστατικών deepfake σε πραγματικό χρόνο. Ένα εξαιρετικό παράδειγμα είναι το Κρίσιμο Πρωτόκολλο Εκλογικού Περιστατικού του Καναδά, το οποίο συγκεντρώνει ανώτερους αξιωματούχους για να αξιολογήσουν και να ενημερώσουν το κοινό για απειλές ξένων παρεμβάσεων ή παραπληροφόρησης κατά τη διάρκεια μιας εκλογής cetas.turing.ac.uk cetas.turing.ac.uk. Άλλες δημοκρατίες θα πρέπει να υιοθετήσουν παρόμοιους μηχανισμούς. Αν εμφανιστεί ένα επικίνδυνο deepfake (π.χ. ένα κατασκευασμένο βίντεο που φαίνεται να παραδέχεται την ήττα του ένας υποψήφιος και κυκλοφορεί την ημέρα των εκλογών), το πρωτόκολλο θα ενεργοποιείται – αξιωματούχοι, ειδικοί πληροφοριών και τεχνολογικές πλατφόρμες θα επαληθεύουν ταχύτατα την αλήθεια και θα εξεδίδουν δημόσια ανακοίνωση διαψεύδοντας το ψεύτικο και διευκρινίζοντας τα γεγονότα cetas.turing.ac.uk. Αυτή η ταχεία διάψευση είναι κρίσιμη για να αμβλυνθεί η επίδραση της «πλημμύρας» παραπληροφόρησης. Οι κυβερνήσεις πρέπει να κάνουν εξάσκηση σε τέτοιες απαντήσεις εκ των προτέρων (προσομοιώνοντας διάφορα σενάρια deepfake), ώστε να μπορούν να αντιδράσουν γρήγορα και συντονισμένα όταν χρειαστεί.
3. Επένδυση σε Υποδομές Ανίχνευσης και Πιστοποίησης: Οι δημόσιοι οργανισμοί πρέπει να επενδύσουν σημαντικά στην πρόοδο της ανίχνευσης deepfake και της πιστοποίησης περιεχομένου. Αυτό περιλαμβάνει χρηματοδότηση Ε&Α (όπως προγράμματα τύπου DARPA που εστιάζουν στην παραπληροφόρηση με χρήση ΤΝ), στήριξη της ανάπτυξης εργαλείων ανίχνευσης για χρήση σε εκλογικές διαδικασίες και υιοθέτηση προτύπων πιστοποίησης στις κυβερνητικές επικοινωνίες. Ένα συγκεκριμένο μέτρο είναι τα κρατικά ΜΜΕ (κρατικοί ραδιοτηλεοπτικοί φορείς, επίσημοι λογαριασμοί στα social media κλπ.) να αρχίσουν να προσθέτουν μεταδεδομένα αποδεδειγμένης προέλευσης σε όλες τις επίσημες φωτογραφίες, βίντεο και ήχους που δημοσιεύουν cetas.turing.ac.uk. Έτσι, δημιουργούν μια βάση «επαληθευμένης γνησιότητας» πληροφοριών. Οι εκλογείς και οι δημοσιογράφοι θα μπορούν να εμπιστεύονται ότι κάθε βίντεο με κρατική σφραγίδα στα μεταδεδομένα του είναι αυθεντικό – και να είναι πιο επιφυλακτικοί απέναντι σε παρόμοιο υλικό που δεν διαθέτει αυτά τα διαπιστευτήρια. Οι κυβερνήσεις μπορούν να ηγηθούν αυτού του μοντέλου «γνησιότητας από τον σχεδιασμό» cetas.turing.ac.uk, το οποίο ήδη εξετάζουν οι ΗΠΑ και το Ηνωμένο Βασίλειο. Επίσης, οι διωκτικές αρχές και οι εκλογικοί φορείς θα πρέπει να διαθέτουν μονάδες εγκληματολογικής ανάλυσης για αξιολόγηση υπόπτων μέσων σε προεκλογικές εκστρατείες. Η γνώση ότι οι αρμόδιες αρχές διαθέτουν τεχνικά μέσα για τον εντοπισμό και την ταυτοποίηση deepfakes (και ενδεχομένως των δραστών) έχει και αποτρεπτικό αποτέλεσμα.
4. Διευκρίνιση και Εκσυγχρονισμός Υφιστάμενων Νόμων: Πολλές χώρες ίσως διαπιστώσουν ότι υπάρχουσες διατάξεις περί απάτης, κλοπής ταυτότητας, συκοφαντικής δυσφήμησης ή παρέμβασης στις εκλογές καλύπτουν μερικές περιπτώσεις deepfake – αλλά μπορεί να υπάρχουν κενά. Οι κυβερνήσεις θα πρέπει να επανεξετάσουν τη νομική τους βάση για τυχόν ανάγκη νέων κατηγοριών αδικημάτων. Για παράδειγμα, έχουμε νομικές διατάξεις που καλύπτουν την προσποίηση δημόσιου αξιωματούχου μέσω ΤΝ; Αν όχι, να εισαχθούν. Οι νόμοι περί προστασίας δεδομένων και ιδιωτικότητας θα πρέπει να περιλαμβάνουν τη μη εξουσιοδοτημένη χρήση της εικόνας/φωνής κάποιου από ΤΝ ως παραβίαση. Η επικαιροποίηση και διευκρίνιση του νομικού πλαισίου για επιβλαβή deepfakes (και η σχετική ενημέρωση του κοινού) είναι σημαντική ώστε οι εν δυνάμει κακόβουλοι να γνωρίζουν ότι μπορούν να λογοδοτήσουν. Παράλληλα, ενδυναμώνονται τα θύματα (υποψήφιοι ή πολίτες) ώστε να μπορούν να λάβουν μέτρα αν στοχοποιηθούν. Η επανεξέταση αυτή να περιλαμβάνει και τους εκλογικούς νόμους: επικαιροποίηση του ορισμού της παράνομης εκλογικής διαφήμισης ή παραπλανητικής ενημέρωσης/δημοσκόπησης ώστε να καλύπτονται ρητά οι χειραγωγήσεις από συνθετικά μέσα cetas.turing.ac.uk. Στόχος είναι να απομακρυνθεί κάθε ασάφεια – ώστε να μην ισχυριστεί ένας διασπορέας παραπληροφόρησης «τεχνικά δεν είναι παράνομο επειδή είναι ΤΝ». Οι σαφείς νόμοι διευκολύνουν την επιβολή και την απονομή δικαιοσύνης.
5. Ενίσχυση της Διεθνούς Συνεργασίας: Επειδή οι εκστρατείες παραπληροφόρησης συχνά εκκινούν στο εξωτερικό (ή διασχίζουν σύνορα), οι δημοκρατικές κυβερνήσεις πρέπει να συνεργάζονται. Οι υπηρεσίες πληροφοριών και οι μονάδες κυβερνοασφάλειας να μοιράζονται πληροφορίες για νεοεμφανιζόμενες τακτικές deepfake (π.χ. αν μια χώρα εντοπίσει ξένη επιχείρηση deepfake, να ειδοποιεί άλλες). Φόρουμ όπως η Συμμαχία για τη Διασφάλιση της Δημοκρατίας, η G7, διάλογοι ΗΠΑ-ΕΕ και άλλα, μπορούν να συντονίζουν κοινές δηλώσεις και πρότυπα κατά των deepfake στις εκλογές. Διπλωματικές πιέσεις μπορούν να ασκηθούν σε κράτη που υποστηρίζουν ή ανέχονται τέτοιες παρεμβάσεις. Υπάρχει πεδίο και για συνεργατική έρευνα – π.χ. ένα διεθνές κέντρο ανίχνευσης deepfake θα μπορούσε να συνδυάσει δεδομένα για τη βελτίωση αλγορίθμων. Οι οργανισμοί παρακολούθησης εκλογών (όπως ο ΟΑΣΕ ή διεθνείς αντιπροσωπείες παρατηρητών) να επικαιροποιήσουν τις μεθοδολογίες τους ώστε να αναζητούν επιρροή μέσω συνθετικών μέσων και τα κράτη να εντάξουν τα deepfake στα μέτρα αλληλοϋποστήριξης για τη δημοκρατική διαδικασία. Μια ενωμένη στάση θα καταστήσει δυσκολότερη την εκμετάλλευση ευαλωτοτήτων μίας χώρας από κακοπροαίρετους παράγοντες.
6. Προαγωγή της Δημόσιας Ενημέρωσης και Ψηφιακής Παιδείας: Τελικά, οι κυβερνήσεις έχουν ρόλο εκπαίδευσης των εκλογέων σχετικά με τα deepfakes. Πολλές χώρες εξετάζουν ή λανσάρουν προγράμματα ψηφιακής παιδείας σε σχολεία και το ευρύ κοινό cetas.turing.ac.uk. Τα προγράμματα αυτά διδάσκουν πώς να επαληθεύει κανείς πληροφορίες online, να εντοπίζει σημάδια χειραγώγησης μέσων και να σκέφτεται κριτικά για τις πηγές. Δεδομένου του πόσο πειστικά είναι πλέον τα deepfakes, είναι ζωτικής σημασίας κάθε ψηφοφόρος να γνωρίζει ότι υπάρχουν και να αισθάνεται ικανός να διασταυρώσει εντυπωσιακό υλικό (αντί να το πιστεύει ή να το διαδίδει χωρίς έλεγχο). Οι κυβερνήσεις να συνεργαστούν με εκπαιδευτικά ιδρύματα και ΜΚΟ ώστε η ενημέρωση για deepfake να μπει στο πρόγραμμα σπουδών και στις ενημερωτικές καμπάνιες. Π.χ. τηλεοπτικά μηνύματα όπου παρουσιάζονται πραγματικά και deepfake αποσπάσματα ενός πολιτικού και εξηγείται η διαφορά, αυξάνουν την ευαισθητοποίηση. Τα δεδομένα δείχνουν ότι όσοι έχουν υψηλότερη παιδεία στα ΜΜΕ και κριτική σκέψη αναγνωρίζουν ευκολότερα τα deepfake και αντιστέκονται στην παραπληροφόρηση cetas.turing.ac.uk. Συνεπώς, η επένδυση σε πρωτοβουλίες παιδείας στα μέσα είναι από τις πιο αποδοτικές μακροπρόθεσμες άμυνες. Όταν το κοινό λειτουργεί σαν ενεργό δίκτυο αισθητήρων – εντοπίζοντας και καταγγέλλοντας τα fake – η επίδραση της deepfake προπαγάνδας μπορεί να μειωθεί σημαντικά.
Πλατφόρμες Τεχνολογίας και Προγραμματιστές ΤΝ
1. Ενίσχυση Πολιτικών Πλατφορμών και Εφαρμογής: Τα κοινωνικά δίκτυα και οι διαδικτυακές πλατφόρμες αποτελούν τους κύριους διαύλους διανομής viral deepfakes. Οι εταιρείες αυτές πρέπει να υιοθετήσουν αυστηρές πολιτικές κατά των παραποιημένων μέσων που παραπλανούν το κοινό, ιδιαίτερα στο πλαίσιο των εκλογών. Πολλές πλατφόρμες έχουν ήδη ξεκινήσει: για παράδειγμα, το Facebook και το Twitter (X) εφαρμόζουν πολιτικές αφαίρεσης ή σήμανσης «παραποιημένων μέσων» που μπορούν να βλάψουν. Όμως, η εφαρμογή πρέπει να είναι δυναμική. Οι πλατφόρμες να βελτιώσουν την αυτόματη ανίχνευση των deepfakes (χρησιμοποιώντας τα νεότερα εργαλεία που συζητήθηκαν προηγουμένως) και να διασφαλίσουν ταχεία αξιολόγηση από ανθρώπινους συντονιστές όταν οι χρήστες καταγγέλλουν ύποπτο περιεχόμενο. Σε εκλογικές περιόδους, οι εταιρείες μπορούν να δημιουργήσουν ειδικά «war rooms» και διαύλους συνεργασίας με τις εκλογικές αρχές για την επί τόπου αντιμετώπιση δυνητικών περιστατικών deepfake. Όταν εντοπίζεται ένα ψεύτικο, οι πλατφόρμες πρέπει να το επισημαίνουν ως ψευδές ή να το αφαιρούν άμεσα και να το υποβαθμίζουν στους αλγορίθμους για να περιορίσουν τη διάδοση brennancenter.org brennancenter.org. Η διαφάνεια είναι επίσης σημαντική: οι πλατφόρμες μπορούν να δημοσιεύουν τακτικές αναφορές για τα deepfakes που εντόπισαν και ποιες δράσεις έλαβαν, ενισχύοντας την εμπιστοσύνη του κοινού. Θα πρέπει επίσης να μοιράζονται δείγματα εντοπισμένων deepfakes με τους ερευνητές για τη βελτίωση της συλλογικής γνώσης.
2. Εφαρμογή της γνωστοποίησης και ανίχνευσης deepfake: Ακολουθώντας το παράδειγμα της ΕΕ, οι πλατφόρμες παγκοσμίως θα πρέπει να απαιτούν την επισήμανση και γνωστοποίηση του AI-παραγόμενου περιεχομένου. Για παράδειγμα, αν μεταφορτωθεί μια πολιτική διαφήμιση που περιέχει AI-δημιουργημένη εικόνα ή φωνή, η πλατφόρμα θα μπορούσε να απαιτήσει από τον uploader να τσεκάρει ένα πλαίσιο που δηλώνει «αυτό το περιεχόμενο έχει συνθετικά στοιχεία» – και στη συνέχεια να εμφανίζει σχετική ειδοποίηση στους θεατές («Αυτό το βίντεο έχει αλλοιωθεί ή μερικώς παραχθεί από AI»). Ακόμη και εκτός των επίσημων διαφημίσεων, οι πλατφόρμες μπορούν να χρησιμοποιούν εργαλεία ανίχνευσης για να σημειώνουν οπτικά ύποπτα deepfake βίντεο (π.χ. επικαλυπτόμενη προειδοποίηση ότι η αυθεντικότητα του βίντεο δεν έχει επαληθευτεί). Επιπλέον, τα κοινωνικά δίκτυα και οι υπηρεσίες μηνυμάτων μπορούν να ενσωματώσουν χαρακτηριστικά αυθεντικότητας περιεχομένου: χρησιμοποιώντας πρότυπα όπως το C2PA, μπορούν να εμφανίσουν ένα εικονίδιο αν η προέλευση και το ιστορικό επεξεργασίας της εικόνας έχουν επαληθευτεί, ή, αντιθέτως, να επισημάνουν αν αυτά τα δεδομένα λείπουν. Κάποιες εταιρείες τεχνολογίας (Adobe, Microsoft, Twitter) ήδη συμμετέχουν σε τέτοιες προσπάθειες. Ενσωματώνοντας σήματα προέλευσης στη διεπαφή χρήστη τους, οι πλατφόρμες μπορούν να βοηθήσουν τους χρήστες να ξεχωρίσουν το πραγματικό από το ψεύτικο. Θα πρέπει επίσης να εργαστούν πάνω σε μηχανισμούς ανίχνευσης της αρχικής πηγής – για παράδειγμα, σε περίπτωση που διαδίδεται ένα επιβλαβές deepfake, μπορούν να ανιχνεύσουν ποιος το ανάρτησε αρχικά, ακόμη και αν έχει αναδημοσιευτεί χιλιάδες φορές; Η συνεργασία με τις διωκτικές αρχές σε σημαντικά περιστατικά (με σεβασμό βέβαια στους νόμους περί ιδιωτικότητας) θα είναι σημαντική για τον εντοπισμό των δραστών.
3. Αποκλεισμός κακόβουλων χρηστών και δικτύων deepfake: Οι πλατφόρμες πρέπει να είναι σε επαγρύπνηση απέναντι σε οργανωμένους παράγοντες που χρησιμοποιούν επανειλημμένα deepfakes. Αυτό σημαίνει όχι μόνο αφαίρεση μεμονωμένων κομματιών περιεχομένου, αλλά κλείσιμο λογαριασμών, σελίδων ή bots που συμμετέχουν σε συντονισμένες εκστρατείες deepfake. Αν υπάρχουν αποδείξεις ότι μια ενέργεια συνδέεται με κρατικά υποκινούμενη προσπάθεια ή γνωστό «troll farm», οι πλατφόρμες πρέπει να το δημοσιοποιήσουν και να εξαλείψουν την παρουσία τους. Πολλά δίκτυα παραπληροφόρησης έχουν διαλυθεί τα τελευταία χρόνια· η ίδια επιθετική προσέγγιση πρέπει να εφαρμοστεί και σε επιχειρήσεις επηρεασμού που τροφοδοτούνται από τεχνητή νοημοσύνη. Οι πλατφόρμες θα πρέπει να ενημερώσουν ρητά τους όρους χρήσης ώστε να απαγορεύεται η δόλια δημιουργία ή κοινοποίηση συνθετικών μέσων με σκοπό την παραπλάνηση. Αυτοί οι κανόνες αποτελούν τη βάση για αποκλεισμούς παραβατών. Στη πολιτική διαφήμιση, κάθε εκστρατεία ή PAC που συλλαμβάνεται να χρησιμοποιεί παραπλανητικά deepfakes θα πρέπει να αντιμετωπίζει κυρώσεις όπως απώλεια διαφημιστικών προνομίων. Οι εταιρείες τεχνολογίας μπορούν επίσης να συνεργαστούν διατηρώντας μια κοινή μαύρη λίστα γνωστών ψηφιακών υπογραφών deepfake, έτσι ώστε μόλις εντοπιστεί ένα ψεύτικο σε μια πλατφόρμα, να μπορεί να μπλοκάρεται και στις υπόλοιπες (όπως ακριβώς οι υπογραφές περιεχομένου τρομοκρατίας διαμοιράζονται μέσω κοινοπραξίας). Ουσιαστικά, να καταστήσουν ασύμφορη τη χρήση deepfakes στις κύριες πλατφόρμες – είτε το περιεχόμενο θα αφαιρεθεί άμεσα είτε ο δράστης θα χάσει τον λογαριασμό του.
4. Συνεργασία με ελεγκτές γεγονότων και Αρχές: Καμία πλατφόρμα δεν μπορεί να επιβλέψει τέλεια το περιεχόμενο μόνη της. Η συνεργασία είναι ζωτικής σημασίας. Οι εταιρείες κοινωνικής δικτύωσης θα πρέπει να ενισχύσουν τις συνεργασίες τους με ανεξάρτητους οργανισμούς ελέγχου γεγονότων για την αξιολόγηση ιογενούς περιεχομένου. Όταν οι ελεγκτές γεγονότων καταρρίπτουν ως ψεύτικο ένα βίντεο, οι πλατφόρμες πρέπει να ενισχύσουν τη διάδοση της διόρθωσης – π.χ. να προσθέτουν σύνδεσμο άρθρου ελέγχου γεγονότων όποτε κοινοποιείται το βίντεο ή να ειδοποιούν όλους τους χρήστες που το είδαν αρχικά. Εταιρείες όπως το Facebook το έχουν κάνει αυτό για την παραπληροφόρηση και πρέπει να το συνεχίσουν και για τα deepfakes. Επιπλέον, οι πλατφόρμες πρέπει να συντονίζονται με εκλογικές επιτροπές και υπηρεσίες ασφαλείας, ιδιαίτερα κατά την εκλογική περίοδο. Μπορούν να δημιουργήσουν απευθείας γραμμές επικοινωνίας ή κανάλια για να αναφέρουν οι υπεύθυνοι πιθανούς deepfakes που επηρεάζουν την ψηφοφορία, και αντίστοιχα οι πλατφόρμες να ειδοποιούν τις κυβερνήσεις αν εντοπίσουν ξένη παραπληροφόρηση που στοχεύει τη χώρα. Σε ορισμένες δικαιοδοσίες, υπάρχουν επίσημες ρυθμίσεις (π.χ. ο Κώδικας Πρακτικής της ΕΕ ενθαρρύνει την ανταλλαγή πληροφοριών με τις κυβερνήσεις για απειλές παραπληροφόρησης brennancenter.org). Ακόμη και στις ΗΠΑ, η μονάδα κυβερνοασφάλειας του Υπουργείου Εσωτερικής Ασφάλειας συνεργάζεται με πλατφόρμες για την παρακολούθηση εκλογικής παραπληροφόρησης. Βεβαίως, αυτές οι συνεργασίες πρέπει να σέβονται την ελευθερία έκφρασης και να μην φτάνουν λογοκρισία σε νόμιμο λόγο. Αλλά για εμφανώς κατασκευασμένο, επιβλαβές υλικό, μια ταχεία, συντονισμένη αντίδραση μεταξύ πλατφορμών και δημόσιων θεσμών μπορεί να σταματήσει ένα ψεύτικο πριν εξαπλωθεί. Αυτό μπορεί να περιλαμβάνει κοινές ανακοινώσεις διάψευσης ενός ιογενούς ψευδούς ή αλγορίθμους που ενισχύουν έγκυρες πηγές για την αντιμετώπιση της εξάπλωσης.
5. Ενίσχυση των μέτρων ασφαλείας AI μοντέλων: Οι εταιρείες που δημιουργούν γενετικά AI μοντέλα (OpenAI, Google, Meta, κτλ.) έχουν ευθύνη από την πηγή. Πρέπει να εφαρμόσουν μέτρα ασφαλείας ώστε να αποτρέψουν την κατάχρηση του AI τους για παρέμβαση σε εκλογές. Αυτό μπορεί να περιλαμβάνει υδατογράφημα στα παραγόμενα από AI αποτελέσματα, όπως συζητήθηκε (ώστε κάθε εικόνα που δημιουργείται π.χ. από το DALL-E ή το Midjourney να έχει ενσωματωμένη «υπογραφή»). Μπορεί επίσης να αφορά επιμέλεια των δεδομένων εκπαίδευσης – π.χ. διασφάλιση ότι τα μοντέλα έχουν εκπαιδευτεί ώστε να αρνούνται αιτήματα για βλαβερή πλαστοπροσωπία πραγματικών ατόμων. Ήδη κάποια εργαλεία AI δεν δημιουργούν deepfake εικόνες πολιτικών προσώπων εξαιτίας φίλτρων περιεχομένου. Αυτά τα προστατευτικά μέτρα θα πρέπει να βελτιώνονται συνεχώς (αν και τα open-source μοντέλα αποτελούν πρόκληση, καθώς μπορούν να προσαρμοστούν από κακόβουλους χωρίς τέτοιους περιορισμούς). Οι προγραμματιστές AI πρέπει επίσης να επενδύουν στην έρευνα τεχνικών ανίχνευσης deepfake και να τις κοινοποιούν στην κοινότητα. Θετικό σημάδι είναι ότι πολλές κορυφαίες AI εταιρείες έχουν εθελοντικά δεσμευτεί να υποστηρίξουν το υδατογράφημα και την αυθεντικότητα του περιεχομένου. Προχωρώντας, θα μπορούσαν να συνεργαστούν για ένα κοινό API που να επιτρέπει σε κάθε αρχείο βίντεο ή ήχου να ελέγχεται άμεσα αν έχει παραχθεί από κάποιο από τα μοντέλα τους. Ουσιαστικά, όσοι δημιουργούν το «πρόβλημα» (την γενετική τεχνολογία) πρέπει να βοηθήσουν και στη «λύση» (μέσα αναγνώρισης της παραγωγής της).
6. Διαφάνεια στη πολιτική διαφήμιση: Οι πλατφόρμες που φιλοξενούν πολιτικές διαφημίσεις πρέπει να εφαρμόσουν αυστηρή διαφάνεια σχετικά με τη χρήση AI. Αν μια διαφήμιση που προωθείται στο Facebook ή στη Google περιέχει στοιχεία που έχουν παραχθεί από AI, η «βιβλιοθήκη διαφημίσεων» της πλατφόρμας θα πρέπει να το αναφέρει ξεκάθαρα. Οι πλατφόρμες θα μπορούσαν ακόμη να απαιτούν από τους διαφημιζόμενους να υποβάλουν το πρωτογενές, αμοντάριστο υλικό για σύγκριση. Ακόμη πιο φιλόδοξα, τα μέσα κοινωνικής δικτύωσης θα μπορούσαν να εξετάσουν το ενδεχόμενο προσωρινής απαγόρευσης όλων των πολιτικών διαφημίσεων που περιέχουν συνθετικά μέσα τις ευαίσθητες τελευταίες ημέρες μιας καμπάνιας – παρόμοια με την απαγόρευση νέων πολιτικών διαφημίσεων ακριβώς πριν την Ημέρα των Εκλογών. Έτσι αποτρέπεται το ρίσκο μιας αιφνιδιαστικής καταιγίδας deepfake διαφημίσεων. Αν και η εφαρμογή είναι περίπλοκη, η αρχή είναι ότι η πληρωμένη προώθηση παραπλανητικού περιεχομένου είναι ιδιαίτερα επικίνδυνη και οι πλατφόρμες έχουν μεγαλύτερη ευχέρεια να ρυθμίζουν τη διαφήμιση από ό,τι τις αναρτήσεις των χρηστών. Η διασφάλιση υψηλής διαφάνειας και ταχείας αφαίρεσης στις διαφημίσεις είναι κρίσιμη, καθώς ένα deepfake μέσω πληρωμένης διαφήμισης μπορεί να φτάσει σε εκατομμύρια άτομα-στόχους, διαστρεβλώνοντας άδικα το περιβάλλον ενημέρωσης.
ΜΜΕ και Δημοσιογραφικοί Οργανισμοί
1. Αυστηρά πρωτόκολλα επαλήθευσης: Τα ειδησεογραφικά μέσα πρέπει να προσαρμόσουν τις πρακτικές επαλήθευσής τους στη νέα εποχή των deepfakes. Κάθε newsroom – από τα εθνικά τηλεοπτικά δίκτυα έως τις τοπικές εφημερίδες και τα sites ελέγχου γεγονότων – θα πρέπει να θεσπίσει επίσημες διαδικασίες πιστοποίησης οπτικοακουστικού υλικού προτού το μεταδώσει ή το δημοσιεύσει. Αυτό περιλαμβάνει εκπαίδευση των δημοσιογράφων σε εγκληματολογικά εργαλεία (π.χ. έλεγχος metadata βίντεο, ανάλυση εικόνων) και σε συνεργασία με ειδικούς όποτε χρειάζεται. Για κάθε εντυπωσιακό ή σκανδαλώδες απόσπασμα που εμφανίζεται κατά τη διάρκεια εκλογών, οι αρχισυντάκτες πρέπει να το αντιμετωπίζουν με υγιή σκεπτικισμό και να μην βιάζονται να το μεταδώσουν χωρίς επιβεβαίωση. Τα ΜΜΕ οφείλουν να διπλοεπιβεβαιώνουν κάθε περιεχόμενο που παράγεται από χρήστες: για παράδειγμα, αν προκύψει ένα βίντεο με έναν υποψήφιο να κάνει κάτι συγκλονιστικό, το μέσο πρέπει να αναζητήσει επιβεβαιωτικά στοιχεία (μάρτυρες, επίσημες δηλώσεις κτλ.) ή τουλάχιστον να προχωρήσει σε ανάλυση καρέ-καρέ για να βεβαιωθεί πως δεν πρόκειται για deepfake. Ο στόχος είναι να αποφευχθεί η μη ηθελημένη διάδοση παραπληροφόρησης. Εντυπωσιακά, ορισμένοι δημοσιογραφικοί οργανισμοί έχουν δημιουργήσει εσωτερικές ομάδες ειδικές για deepfakes. Σε μία περίπτωση, δημοσιογράφοι στην Αριζόνα δημιούργησαν οι ίδιοι deepfake (με άδεια) για να εκπαιδεύσουν το κοινό στο πόσο εύκολα μπορεί να χειραγωγηθεί ένα βίντεο knightcolumbia.org – ένας έξυπνος τρόπος για αφύπνιση του κοινού. Όλα τα newsroom θα πρέπει να εξετάσουν την ύπαρξη ενός «ειδικού deepfake» σε ετοιμότητα (ή συνεργασία με εργαστήριο τεχνολογίας) για γρήγορη ανάλυση ύποπτου υλικού. Κάνοντας την επαλήθευση το ίδιο ρουτίνα όσο τον έλεγχο γεγονότων, τα μέσα μπορούν να εντοπίσουν ψεύτικα νωρίς ή τουλάχιστον να προειδοποιήσουν το κοινό αν κάτι δεν έχει ακόμη επιβεβαιωθεί.
2. Υπεύθυνη αναφορά για deepfakes: Όταν καλύπτουν περιστατικά συνθετικών μέσων, οι δημοσιογράφοι πρέπει να το κάνουν προσεκτικά και με πλαίσιο. Αν ένα deepfake που στοχεύει υποψήφιο γίνει viral, το θέμα δεν είναι οι ίδιες οι ψεύτικες ισχυρισμοί, αλλά το γεγονός πως πρόκειται για ψευδή χειραγώγηση. Οι δημοσιογραφικές αναφορές θα πρέπει να αποφεύγουν να επαναλαμβάνουν λεπτομερώς τους ψεύτικους ισχυρισμούς ή να αναπαράγουν χωρίς σχολιασμό το ψεύτικο βίντεο, καθώς έτσι μπορεί να διαδώσουν ακούσια την παραπληροφόρηση. Αντ’ αυτού, μπορούν να το περιγράψουν γενικά και να εστιάσουν στη διάψευση (π.χ. «Ένα χειραγωγημένο βίντεο που ψευδώς απεικονίζει τον Χ να κάνει Ψ κυκλοφόρησε στο διαδίκτυο, το οποίο έχει καταρριφθεί από ειδικούς»). Τα μέσα μπορούν να επιλέξουν να θολώσουν ή να μην συνδέσουν άμεσα το deepfake περιεχόμενο στα διαδικτυακά άρθρα τους cetas.turing.ac.uk, για να αποτρέψουν την προσέλκυση επισκεψιμότητας ή να διευκολύνουν κακόβουλους να το κατεβάσουν και να το ξαναδημοσιεύσουν. Η πλαισίωση του ρεπορτάζ είναι σημαντική: να τονίζεται η απόπειρα παραπλάνησης και το γεγονός του deepfake περισσότερο από το ψεύτικο αφήγημα που περιείχε cetas.turing.ac.uk. Τα ΜΜΕ πρέπει επίσης να προβάλλουν τις διορθώσεις ή την αλήθεια (για παράδειγμα: «Όχι, ο πολιτικός Ζ δεν είπε αυτό – το βίντεο είναι AI κατασκευή, ιδού τι είπε πραγματικά για το θέμα»). Κάνοντάς το αυτό συστηματικά, τα έγκυρα μέσα μπορούν να βοηθήσουν το κοινό να γίνει πιο ανθεκτικό στην παραπληροφόρηση και να αποφύγει τη διάδοσή της. Είναι μια λεπτή ισορροπία ανάμεσα στην κάλυψη της παραπληροφόρησης (καθώς η αγνόησή της δεν την εξαφανίζει) και στη μη τυχαία ενίσχυση της διασποράς. Κατευθυντήριες γραμμές ανάλογες με αυτές για hoaxes ή μαζικές τραγωδίες (όπου κάποια στοιχεία ελαχιστοποιούνται για αποτροπή μιμητισμού) θα μπορούσαν να αναπτυχθούν και για τα ρεπορτάζ περί deepfakes. Η Ανεξάρτητη Οργάνωση Προτύπων Τύπου στο Ηνωμένο Βασίλειο έχει δεχτεί προτροπές να επικαιροποιήσει τους κώδικές της για τέτοιες περιπτώσεις cetas.turing.ac.uk.
3. Χρήση Τεχνολογίας Αυθεντικότητας στα Δημοσιογραφικά Γραφεία: Οι ειδησεογραφικοί οργανισμοί μπορούν να αξιοποιήσουν τη νέα υποδομή αυθεντικότητας. Για παράδειγμα, ένα μέσο ενημέρωσης θα μπορούσε να υιοθετήσει τα εργαλεία του Content Authenticity Initiative για να επισυνάπτει κρυπτογραφικά διαπιστευτήρια αυθεντικότητας περιεχομένου σε όλες τις πρωτότυπες φωτογραφίες και βίντεο που λαμβάνονται από τους δημοσιογράφους του. Αυτό σημαίνει ότι οποιοδήποτε υλικό τραβηγμένο από, π.χ., έναν καμεραμάν του Reuters ή του AP θα μπορούσε να φέρει μια ασφαλή σφραγίδα που να βεβαιώνει την προέλευση και οποιεσδήποτε επεξεργασίες του. Αργότερα, όταν το κοινό βλέπει ένα βίντεο που προέρχεται από το Reuters, μπορεί να ελέγξει ότι δεν έχει αλλοιωθεί. Τέτοιες ενέργειες βοηθούν να διαχωρίζεται το πραγματικό από το ψεύτικο, προσφέροντας στο κοινό μια αξιόπιστη πηγή αλήθειας. Τα μέσα ενημέρωσης πρέπει επίσης να συνεργάζονται για την οικοδόμηση βάσεων δεδομένων με γνωστά deepfakes (και γνωστό γνήσιο περιεχόμενο) που να βοηθούν τους ελεγκτές γεγονότων. Για παράδειγμα, η διατήρηση ενός αρχείου με επίσημες ομιλίες και συνεντεύξεις μπορεί να βοηθήσει στην άμεση κατάρριψη ενός παραποιημένου αποσπάσματος μέσω σύγκρισης. Μεγάλες ειδησεογραφικές υπηρεσίες και διεθνή πρακτορεία ειδήσεων μπορούν να συντονίζονται ώστε να ειδοποιούν άμεσα όλους τους συνδρομητές τους εάν εντοπιστεί ένα επικίνδυνο deepfake – όπως ακριβώς εκδίδουν ειδοποιήσεις έκτακτων ειδήσεων. Στο εσωτερικό τους, οι συντάκτες θα πρέπει να γνωρίζουν ότι πολιτικά στελέχη μπορεί να προσπαθήσουν να διοχετεύσουν ψεύτικα μέσα σε δημοσιογράφους (π.χ., μια “διαρροή” ηχητικού που έχει δημιουργηθεί από AI). Η διατήρηση υψηλού βαθμού σκεπτικισμού σε κάθε ανώνυμο ψηφιακό υλικό είναι συνετή στάση.
4. Εκπαίδευση του Κοινού: Τα μέσα ενημέρωσης μπορούν να παίξουν μεγάλο ρόλο στην εκπαίδευση των ψηφοφόρων σχετικά με τα συνθετικά μέσα. Τα ειδησεογραφικά πρακτορεία και οι δημοσιογράφοι θα πρέπει να παράγουν επεξηγηματικά άρθρα, συνεντεύξεις με ειδικούς, και αποσπάσματα που δείχνουν στο κοινό πώς δημιουργούνται τα deepfakes και πώς ανιχνεύονται. Με το να απομυθοποιείται η τεχνολογία, μειώνεται η ισχύς της. Κάποιες τηλεοπτικές εκπομπές το 2024, για παράδειγμα, έδειξαν ζωντανά κλωνοποίηση φωνής από AI ώστε να αποκαλυφθεί πώς μια τηλεφωνική απάτη μπορεί να μιμηθεί τη φωνή συγγενή. Ομοίως, η κάλυψη κατά την περίοδο των εκλογών μπορεί να περιλαμβάνει υπενθυμίσεις: “Εάν δείτε ένα εξωφρενικό βίντεο σχετικά με έναν υποψήφιο την ύστατη στιγμή, να είστε επιφυλακτικοί – μπορεί να είναι ψεύτικο. Δείτε πώς να το επαληθεύσετε…”. Εκστρατείες ενημέρωσης του κοινού υπό την ηγεσία των μέσων (ίσως και σε συνεργασία με το κράτος ή ΜΚΟ) μπορούν να ενισχύσουν σημαντικά τη ψηφιακή παιδεία. Οι δημοσιογράφοι πρέπει επίσης να χρησιμοποιούν συνεπή και ακριβή γλώσσα: χαρκατηρίζοντας κάτι ως “deepfake” ή “βίντεο ψευδώς παραγόμενο από AI” αντί για απλό “παραποιημένο βίντεο”, συμβάλλουν στην κατανόηση αυτής της νέας κατηγορίας. Με τον καιρό, ένα καλά ενημερωμένο κοινό θα είναι λιγότερο πιθανό να πεισθεί από ένα ψεύτικο και περισσότερο πιθανό να απαιτήσει αποδείξεις. Τα μέσα, ως διαμεσολαβητές πληροφοριών, έχουν καθήκον να χτίσουν αυτή την ανθεκτικότητα.
5. Λογοδοσία και Αποκάλυψη: Τέλος, οι δημοσιογράφοι πρέπει να ερευνούν και να αποκαλύπτουν ποιοι βρίσκονται πίσω από διάσημες operations deepfake. Η απόδοση ευθυνών στο δικαστήριο της κοινής γνώμης μπορεί να αποθαρρύνει τη μελλοντική κατάχρηση. Αν μια αντίπαλη εκστρατεία, μια ξένη “φάρμα τρολ”, ή μια συγκεκριμένη online ομάδα αναγνωριστεί ως πηγή ενός κακόβουλου deepfake, η εκτεταμένη δημοσιογραφική κάλυψη προσδίδει στίγμα και ρίσκο σε τέτοιες πρακτικές. Αποκαλυπτικά ρεπορτάζ γύρω από την παραγωγή και τη χρηματοδότηση εκστρατειών παραπληροφόρησης μειώνουν την αποτελεσματικότητά τους. Επιπλέον, εάν ένας πολιτικός ή δημόσιο πρόσωπο διαδώσει ο ίδιος ένα deepfake γνωρίζοντας πως είναι ψεύτικο (π.χ., ένας υποψήφιος αναρτά ψεύτικο βίντεο για τον αντίπαλο), τα μέσα θα πρέπει να το επισημαίνουν αυστηρά – αντιμετωπίζοντάς το ως σοβαρό παράπτωμα. Η απειλή αρνητικής δημοσιότητας και ζημίας φήμης μπορεί να αποθαρρύνει πολιτικούς παίκτες από “βρώμικες τακτικές” όπως η χρήση deepfake. Συνοπτικά, ο ρόλος της δημοσιογραφίας ως “σκύλου φύλακα” επεκτείνεται και στον ψηφιακό κόσμο: ερευνήστε, αποδώστε/αναγνωρίστε και αποκαλύψτε κακόβουλες επιχειρήσεις ψεύτικων μέσων όπως θα κάνατε για κάθε άλλη απάτη ή διαφθορά στην πολιτική.
Κοινωνία των Πολιτών και Πρωτοβουλίες Ψηφοφόρων
1. Ψηφιακή Παιδεία και Εκπαίδευση της Κοινότητας: Οργανώσεις της κοινωνίας των πολιτών – συμπεριλαμβανομένων μη κερδοσκοπικών φορέων, βιβλιοθηκών, πανεπιστημίων και τοπικών ομάδων – μπορούν να ηγηθούν στην εκπαίδευση των πολιτών για την αντιμετώπιση της εποχής των deepfakes. Μπορεί να προσφερθούν μαζικά προγράμματα στις κοινότητες για το πώς να ελέγχουν τα μέσα. Για παράδειγμα, ΜΚΟ μπορούν να κάνουν εργαστήρια που διδάσκουν απλά κόλπα όπως ανάποδη αναζήτηση εικόνων (για να διαπιστώσεις αν μια φωτογραφία είναι παραγόμενη από AI ή έχει παραποιηθεί), τον έλεγχο για επιβεβαιωτική ειδησεογραφία και τη χρήση ιστοσελίδων ελέγχου γεγονότων. Ήδη υπάρχουν άριστα εκπαιδευτικά πακέτα και προγράμματα που έχουν αναπτύξει ομάδες ελέγχου γεγονότων (π.χ. First Draft, Media Literacy Now), τα οποία καλύπτουν την αναγνώριση παραπληροφόρησης και deepfake – αυτά πρέπει να διαδοθούν ευρέως. Η εκπαίδευση δεν πρέπει να στοχεύει μόνο μαθητές σχολείων, αλλά και μεγαλύτερες ηλικίες, που συχνά είναι πιο ευάλωτες στην online εξαπάτηση. Εκστρατείες ψηφιακής παιδείας σε εθνικό επίπεδο μπορούν να αναπτυχθούν, ίσως με κρατική χρηματοδότηση αλλά εφαρμογή από κοινοτικές οργανώσεις για λόγους αξιοπιστίας. Στόχος είναι η ενίσχυση της “ανοσίας αγέλης” της κοινωνίας: αν κρίσιμη μάζα πολιτών μπορεί να αναγνωρίσει ένα ψεύτικο ή έστω να αναστείλει την κρίση ως ότου το επαληθεύσει, οι διακινητές παραπληροφόρησης χάνουν μεγάλο μέρος της δύναμής τους. Έρευνες δείχνουν ότι το κοινό θέλει αυτή τη γνώση – πολλοί νιώθουν άγχος που δεν ξέρουν πώς να ξεχωρίσουν το αληθινό από το ψεύτικο brennancenter.org brennancenter.org. Η κοινωνία των πολιτών μπορεί να καλύψει αυτό το κενό, ενδυναμώνοντας τους πολίτες με εκπαίδευση και πρακτικές δεξιότητες.
2. Πρωτοβουλίες Ελέγχου Γεγονότων και Κατάρριψης Ψευδών Ειδήσεων: Οι ανεξάρτητοι ελεγκτές γεγονότων και οι παρατηρητές της κοινωνίας των πολιτών παραμένουν καθοριστικοί. Πρέπει να προετοιμάζονται ειδικά για εκλογικές περιόδους με πρωτοβουλίες όπως κέντρα ελέγχου deepfake. Για παράδειγμα, συμμαχίες οργανισμών ελέγχου γεγονότων θα μπορούσαν να δημιουργήσουν δημόσιο ταμπλό κατά τη διάρκεια εκλογών που να παρακολουθεί φήμες και νέους ισχυρισμούς για deepfake, δίνοντας άμεσα διαψεύσεις/καταρρίψεις. Το News Literacy Project έκανε κάτι ανάλογο στις εκλογές των ΗΠΑ 2024, καταγράφοντας περιστατικά παραπληροφόρησης και παρατηρώντας πόσα εμπλέκουν πραγματικά το AI knightcolumbia.org knightcolumbia.org. Αυτού του τύπου η διαφανής παρακολούθηση βοηθά το κοινό και τους δημοσιογράφους να δουν το συνολικό πλαίσιο και να μην υπερβάλλουν για την απειλή, ενώ παράλληλα αντιμετωπίζονται οι πραγματικές περιπτώσεις. Οι οργανώσεις της κοινωνίας των πολιτών μπορούν επίσης να διαχέουν διορθωτικές πληροφορίες στα κοινωνικά δίκτυα – π.χ., απαντώντας σε viral δημοσιεύσεις με έγκυρη πληροφόρηση, αξιοποιώντας community notes ή άλλες δυνατότητες. Επίσης, πρέπει να προάγουμε το “προληπτικό debunking”: να προειδοποιούμε το κοινό εκ των προτέρων ότι μπορεί να εμφανιστεί κάποιο ψεύτικο. Για παράδειγμα, αν η πληροφορία ή οι προηγούμενοι συσχετισμοί δείχνουν πως ένας υποψήφιος μπορεί να στοχοποιηθεί από μια ψεύτικη σκάνδαλο, οι οργανώσεις πολιτών (σε συντονισμό με εκλογικές αρχές) μπορούν να ειδοποιούν τους ψηφοφόρους: “Να είστε επιφυλακτικοί αν δείτε ξαφνικά ένα σοκαριστικό βίντεο με τον Χ, καθώς υπάρχει ενδεχόμενο deepfake.” Έρευνες δείχνουν ότι το προληπτικό debunking μειώνει σημαντικά τη ευπιστία και τη διάδοση ψευδών ισχυρισμών cetas.turing.ac.uk cetas.turing.ac.uk. Έτσι, μια προληπτική προσέγγιση από την κοινωνία των πολιτών, που προβλέπει και προλαβαίνει εκστρατείες deepfake, μπορεί να αποδώσει καρπούς.
3. Civic Tech και Ανίχνευση με τη Δύναμη της Κοινότητας: Η τεχνολογικά καταρτισμένη κοινότητα των πολιτών μπορεί να κινητοποιηθεί ενάντια στα deepfakes. Ήδη υπάρχουν εθελοντές “κυνηγοί deepfake” που αναλύουν ύποπτα μέσα online. Η κοινωνία των πολιτών μπορεί να οργανώσει αυτές τις δράσεις μέσω πλατφορμών – ίσως με ένα αφιερωμένο portal ή εφαρμογή όπου οι πολίτες μπορούν να υποβάλλουν αμφισβητούμενα βίντεο ή ηχητικά για ανάλυση, και ένα δίκτυο ειδικών ή εργαλείων AI να παρέχει έκθεση αυθεντικότητας. Αυτή η συλλογική νοημοσύνη μπορεί να συμπληρώσει τις επίσημες προσπάθειες. Παράλληλα, ομάδες civic tech μπορούν να αναπτύξουν plugins για browsers ή εφαρμογές κινητών που βοηθούν τους χρήστες να εντοπίζουν συνθετικά μέσα. Για παράδειγμα, μια εφαρμογή θα μπορούσε να επιτρέπει στο χρήστη να επιλέξει ένα βίντεο στην οθόνη του και να λάβει άμεση ανάλυση από πολλαπλούς αλγόριθμους ανίχνευσης (σαν ένα “αντι-ιικό” για deepfakes). Δεν είναι απρόσβλητο, αλλά θα μπορούσε να κάνει εμφανή τα “καμπανάκια κινδύνου”. Οι ανοιχτού κώδικα προσπάθειες για τέτοια εργαλεία πρέπει να στηριχθούν με επιχορηγήσεις. Μια άλλη ιδέα είναι γραμμές αναφοράς πολιτών – όπως υπάρχουν γραμμές βοήθειας για εκλογικά θέματα, θα μπορούσε να υπάρχει κανάλι όπου οι πολίτες αναφέρουν ύποπτη παραπληροφόρηση ή deepfakes που συναντούν, τροφοδοτώντας έτσι αρχές ή ελεγκτές γεγονότων, που θα ανταποκρίνονται. Εντάσσοντας τους πολίτες ως ενεργούς συμμετέχοντες στο εντοπισμό και την επισήμανση αμφίβολου περιεχομένου, αυξάνεται μαζικά η κλίμακα της επιτήρησης. Αυτή η “κατανεμημένη” προσέγγιση αναγνωρίζει ότι σε μια κοινωνία εκατομμυρίων online, κάποιος συνήθως θα εντοπίσει έγκαιρα κάτι – το κλειδί είναι η ταχεία διοχέτευση των παρατηρήσεων σε όσους μπορούν να επαληθεύσουν και να διαδώσουν την αλήθεια.
4. Διεκδίκηση Λογοδοσίας από τις Πλατφόρμες: Η κοινωνία των πολιτών πρέπει να συνεχίσει να πιέζει τεχνολογικές πλατφόρμες και εταιρείες AI για υπεύθυνη στάση. Ομάδες δημόσιου ενδιαφέροντος και think tanks έχουν παίξει καθοριστικό ρόλο στην ανάδειξη των κινδύνων των deepfakes και στη διεκδίκηση μεταρρυθμίσεων (π.χ. Access Now, EFF κ.ά. έχουν εκδώσει σχετικές συστάσεις). Αυτή η διεκδίκηση πρέπει να συνεχιστεί – πιέζοντας τις πλατφόρμες για υιοθέτηση των ανωτέρω πολιτικών (καλύτερη σήμανση, άμεσες διαγραφές κτλ.), και ωθώντας τους δημιουργούς AI να ενσωματώσουν ηθικές αρχές στο σχεδιασμό τους. Η εκστρατεία του Public Citizen για παρακολούθηση νομοθεσίας περί deepfakes και αίτηση στην FEC είναι ένα παράδειγμα citizen.org citizen.org. Παρομοίως, συμμαχίες μπορούν να ζητούν διαφάνεια από τις πλατφόρμες: να απαιτούν να δημοσιεύονται στοιχεία για το πόσο περιεχόμενο AI υπάρχει στις πλατφόρμες, ή πόσο αποτελεσματικός είναι ο εντοπισμός του. Οι φωνές της κοινωνίας των πολιτών μπορούν επίσης να εξασφαλίσουν ότι νέα νομοθετήματα ή ρυθμίσεις προστατεύουν σωστά τα αστικά δικαιώματα (για παράδειγμα, αντιστεκόμενες σε υπερβολικά μέτρα που θα καταργούσαν την ελευθερία λόγου υπό το πρόσχημα της μάχης με τα deepfakes). Η εξισορρόπηση αυτή απαιτεί διαβούλευση με το κοινό, και τα οργανωμένα κινήματα εκπροσωπούν τους πολίτες σε αυτές τις διαμάχες. Τα επόμενα χρόνια ίσως προκύψουν καινούργια ρυθμιστικά πλαίσια για το AI και το online περιεχόμενο – είναι ζωτικής σημασίας να διασφαλιστούν οι δημοκρατικές αξίες και τα ανθρώπινα δικαιώματα και η κοινωνία των πολιτών παίζει καθοριστικό ρόλο ως θεματοφύλακας.
5. Υποστήριξη Θυμάτων και Στοχοποιημένων: Αν ένας υποψήφιος ή ιδιώτης διασύρεται από ένα deepfake, η κοινωνία των πολιτών μπορεί να προσφέρει στήριξη. Μη κερδοσκοπικοί οργανισμοί ίσως παρέχουν νομική βοήθεια ή συμβουλές για το πώς να αφαιρεθούν συκοφαντικά deepfakes και να λογοδοτήσουν οι δράστες. Θα μπορούσαν να υπάρχουν γραμμές βοήθειας για θύματα deepfake πορνογραφίας ή δολοφονίας χαρακτήρα, οι οποίες θα τους συνδέουν με τις αρχές επιβολής του νόμου και πόρους ψυχικής υγείας. Για υποψηφίους που δέχονται επίθεση με ψευδείς ειδήσεις, οργανώσεις πολιτών (όπως η ένωση γυναικών ψηφοφόρων ή ομάδες για την ακεραιότητα των εκλογών) μπορούν να βοηθήσουν στο να ενισχύσουν τη διάψευση και την αποκατάσταση της αλήθειας ώστε να ελαχιστοποιηθεί η ζημιά. Μια γρήγορη αντίδραση για την υπεράσπιση κάποιου που στοχοποιείται ψευδώς – φροντίζοντας η αλήθεια να ακούγεται πιο δυνατά από το ψέμα – είναι κάτι που μπορούν να συντονίσουν οι κοινότητες και οι ομάδες υπεράσπισης, όπως ήδη κάνουν απέναντι σε συκοφαντίες ή λόγο μίσους. Σε ευρύτερο επίπεδο, η κοινωνία των πολιτών μπορεί να διευκολύνει διακομματικές δεσμεύσεις ώστε αν εμφανιστεί οποιοδήποτε deepfake, όλες οι πλευρές να το καταδικάσουν. Φανταστείτε μια δέσμευση που τα μεγάλα κόμματα μιας χώρας υπογράφουν, υποσχόμενα να μην χρησιμοποιήσουν deepfakes και να καταδικάσουν άμεσα κακόβουλες παραποιήσεις που θα εμφανιστούν. Τέτοιες νόρμες, που προωθούνται από επιτροπές διακομματικών εκλογών ή ΜΚΟ ηθικής, θα μείωναν την πιθανότητα ένα “ράλι προς τον πάτο” όπου τα κόμματα αισθάνονται ότι πρέπει να απαντήσουν με το ίδιο νόμισμα. Δημιουργείται έτσι ένα ενιαίο μέτωπο που δηλώνει ότι οι επιθέσεις στην αλήθεια δεν θα γίνουν ανεκτές, ανεξαρτήτως στόχου.
Συμπερασματικά, η αντιμετώπιση της πρόκλησης των deepfake απαιτεί την αξιοποίηση όλων των αμυνών της κοινωνίας – τεχνολογικών, νομικών, θεσμικών και ανθρώπινων. Εκτελώντας τα παραπάνω βήματα, οι κυβερνήσεις μπορούν να θωρακίσουν το εκλογικό σύστημα απέναντι στην πλαστότητα της τεχνητής νοημοσύνης, οι πλατφόρμες τεχνολογίας να περιορίσουν τη διάδοση ψευδούς περιεχομένου, τα μέσα ενημέρωσης να διασφαλίσουν ότι η αλήθεια κυριαρχεί στην ενημέρωση, και οι πολίτες να γίνουν ενημερωμένοι φύλακες της πραγματικότητας. Δεν υπάρχει χρόνος για χάσιμο: καθώς η γενετική τεχνητή νοημοσύνη συνεχίζει να εξελίσσεται, ο εκλογικός κύκλος του 2025 θα δοκιμάσει την ανθεκτικότητα των δημοκρατιών απέναντι σε συνθετικά ψέματα. Το ενθαρρυντικό είναι ότι δεν είμαστε ανυπεράσπιστοι. Με προετοιμασία, διαφάνεια και συνεργασία, μπορούμε να υπερνικήσουμε και να οργανώσουμε καλύτερα τις εκστρατείες deepfake, διατηρώντας την ακεραιότητα των εκλογών μας. Όπως κατέληξε μια έκθεση έρευνας της CETaS για την τεχνητή νοημοσύνη και τις εκλογές, «η αδράνεια δεν πρέπει να εισχωρήσει στη λήψη αποφάσεων» – αντίθετα, πρέπει να εκμεταλλευτούμε τη σημερινή συγκυρία για να ενισχύσουμε την ανθεκτικότητα cetas.turing.ac.uk cetas.turing.ac.uk. Με αυτόν τον τρόπο, τηρούμε την αρχή ότι όσο κι αν εξελίσσεται η τεχνολογία, οι δημοκρατικές αξίες της αλήθειας και της εμπιστοσύνης θα αντέξουν.
Πηγές
- Stockwell, Sam et al. «AI-Enabled Influence Operations: Safeguarding Future Elections.» CETaS (Alan Turing Institute) Research Report, 13 Νοε 2024. cetas.turing.ac.uk cetas.turing.ac.uk
- Stockwell, Sam et al. Οπ. π. (CETaS Report, 2024), Ενότητα 2.1 για τα deepfakes στις εκλογές των ΗΠΑ. cetas.turing.ac.uk cetas.turing.ac.uk
- Beaumont, Hilary. «’Έλλειψη εμπιστοσύνης’: Πώς τα deepfakes και η ΤΝ θα μπορούσαν να ταράξουν τις εκλογές των ΗΠΑ.» Al Jazeera, 19 Ιουν 2024. aljazeera.com aljazeera.com
- Sze-Fung Lee. «Ο Καναδάς χρειάζεται άμεσα νομοθεσία για τα deepfake.» Policy Options, 18 Μαρ 2024. policyoptions.irpp.org policyoptions.irpp.org
- Goldstein, Josh A. & Andrew Lohn. «Deepfakes, Εκλογές και Μείωση του Μερίσματος του Ψεύτη.» Brennan Center for Justice, 23 Ιαν 2024. brennancenter.org
- «Synthetic media.» Wikipedia (προσπελάστηκε 2025). en.wikipedia.org en.wikipedia.org
- «Deepfake.» Kaspersky IT Encyclopedia (2023). encyclopedia.kaspersky.com encyclopedia.kaspersky.com
- Hamiel, Nathan. «Τα Deepfakes αποδείχτηκαν διαφορετική απειλή από το αναμενόμενο. Δείτε πώς να προστατευτείτε.» World Economic Forum, 10 Ιαν 2025. weforum.org weforum.org
- «Ρύθμιση των Deepfakes με ΤΝ και Συνθετικών Μέσων στην Πολιτική Αρένα.» Brennan Center for Justice, 4 Οκτ 2023. brennancenter.org brennancenter.org
- Colman, Ben. «Το Ευρωπαϊκό AI Act και η αυξανόμενη ανάγκη ανίχνευσης deepfake.» Reality Defender Blog, 11 Φεβ 2025. realitydefender.com realitydefender.com
- «Tracker: Νομοθεσία των Πολιτειών για τα Deepfakes στις Εκλογές.» Public Citizen, 2025. citizen.org citizen.org
- Partnership on AI. «Συνθετικά Μέσα και Deepfakes – Μελέτη Περίπτωσης: Σλοβακία 2023.» (Από Knight Columbia analysis). brennancenter.org brennancenter.org
- Kapoor, Sayash & Arvind Narayanan. «Μελετήσαμε 78 εκλογικά deepfakes. Η πολιτική παραπληροφόρηση δεν είναι πρόβλημα της ΤΝ.» Knight First Amendment Institute, 13 Δεκ 2024. knightcolumbia.org knightcolumbia.org
- Έκθεση CETaS (2024), Προτάσεις Πολιτικής (επικεντρωμένες στο Ηνωμένο Βασίλειο). cetas.turing.ac.uk cetas.turing.ac.uk
- Έκθεση CETaS (2024), Προτάσεις για ανίχνευση και προέλευση. cetas.turing.ac.uk cetas.turing.ac.uk
- Public Safety Canada. «Προστασία από Παραπληροφόρηση με ΤΝ» (σύντομο σημείωμα 2023). policyoptions.irpp.org policyoptions.irpp.org
- InnovationAus. «Η κυβερνητική απαγόρευση deepfake για τις εκλογές θα ‘σέρνεται’ έως το 2026.» (Αυστραλία) 2023. innovationaus.com
- Επιπλέον αναφορές: Άρθρα Reuters, Wired και CNN που αναφέρονται στις πηγές για συγκεκριμένα περιστατικά (π.χ. deepfake Ζελένσκι, απάτη 25 εκατ. δολ. στο Χονγκ Κονγκ μέσω deepfake στο Zoom weforum.org), και προειδοποιήσεις της FTC για απάτες με φωνητικά clones weforum.org. Αυτές είναι ενσωματωμένες στην ανάλυση και διαθέσιμες μέσω των παραπάνω συνδέσμων.