Ισως να έχετε πετύχει τη βασίλισσα Ελισάβετ στο TikTok να εκθειάζει τη συμβολή της πριγκίπισσας Νταϊάνα στη συνοχή και στη δημόσια εικόνα της βασιλικής οικογένειας, ενώ ταυτόχρονα αναφωνεί ότι αντιπαθεί την τωρινή… νύφη της, Καμίλα.

Ισως, ακόμα, να έχετε παρακολουθήσει τον Πρωθυπουργό Κυριάκο Μητσοτάκη να συμμετέχει σε οντισιόν γνωστού τηλεοπτικού talent show.

Ή τον πρόεδρο του ΣΥΡΙΖΑ Στέφανο Κασσελάκη να ερμηνεύει σε συναυλία το τραγούδι «Died in Your Arms» των Cutting Crew.

Η πρόσφατη διαδικτυακή διαπόμπευση έξι ανηλίκων κοριτσιών στη χώρα μας, τα οποία πληροφορήθηκαν πως πλαστές γυμνές φωτογραφίες τους διακινούνται μεταξύ χρηστών του Διαδικτύου, δείχνει ότι το φαινόμενο παίρνει ανησυχητικές διαστάσεις και στην Ελλάδα

Ωστόσο, κανένα από αυτά τα βίντεο δεν ανταποκρίνεται στην πραγματικότητα…

Οχι, η Ελισάβετ δεν είχε αφήσει κάποιο μαγνητοσκοπημένο μήνυμα με τον όρο να αναπαραχθεί μετά τον θάνατό της, ούτε ο Πρωθυπουργός προσπάθησε να γίνει viral με κάποιο νέο ρηξικέλευθο τηλεοπτικό τρικ και φυσικά ο αρχηγός της αξιωματικής αντιπολίτευσης δεν έχει ταλέντο (και) στο τραγούδι.

Είναι απλώς deepfakes, δηλαδή βίντεο που κατασκευάζονται με τη χρήση ψηφιακής τεχνολογίας που επιτρέπει σε άτομα να «κάνουν» ή να «λένε» πράγματα που στην πραγματικότητα δεν έχουν κάνει ή πει ποτέ.

Και αν τα παραπάνω φαντάζουν διασκεδαστικά ή χαριτωμένα, τα – σοβαρά – προβλήματα ξεκινούν όταν η χρήση τέτοιων τεχνολογιών δεν περιορίζεται απλώς σε χιουμοριστικά βιντεάκια.

Οπως έχει ήδη αποδειχθεί, στα χέρια κακόβουλων χρηστών οι απεριόριστες δυνατότητες που παρέχει η τεχνητή νοημοσύνη μπορούν να μετατραπούν σε όπλα που καταστρέφουν καριέρες, υπολήψεις, ακόμα και ζωές.

Εκδικητική πορνογραφία

Πρόσφατα έκαναν τον γύρο του κόσμου deepfakes της Τέιλορ Σουίφτ, που την απεικόνιζαν σε πορνογραφικά βίντεο, ντυμένη με τα διακριτικά των Kansas City Chiefs, της ομάδας του συντρόφου της Τράβις Κελς.

Το αποτέλεσμα ήταν πλατφόρμες, όπως το X (πρώην Τwitter), να μπλοκάρουν προσωρινά τις αναζητήσεις για την Τέιλορ Σουίφτ.

Τα deepfakes έχουν τη δυνατότητα να «απογειώσουν» τις έτσι κι αλλιώς ευρέως διαδεδομένες ψευδείς ειδήσεις, παρουσιάζοντας πολιτικούς ή διασημότητες να διαδίδουν ανυπόστατες φήμες, παραπλανητικές πληροφορίες, ή ακόμη και ανύπαρκτα συμβάντα, π.χ. τον Πύργο του Αϊφελ στις φλόγες.

Χαρακτηριστικότερο παράδειγμα των ανησυχητικών διαστάσεων που μπορεί να λάβει η νέα αυτή «τάση» στην Ελλάδα αποτέλεσε η πρόσφατη διαδικτυακή διαπόμπευση έξι ανήλικων κοριτσιών, τα οποία πληροφορήθηκαν πως γυμνές φωτογραφίες τους διακινούνταν μεταξύ χρηστών του Διαδικτύου.

Οι φωτογραφίες, βέβαια, ήταν πλαστές.

Το ακόμα πιο ανησυχητικό είναι ότι δεν είχαν κατασκευαστεί από ενήλικους προγραμματιστές με εμπειρία και ακριβό εξοπλισμό, αλλά από 13χρονους συμμαθητές τους σε ένα γυμνάσιο της Ναυπάκτου.

Οι ανήλικοι δράστες, μέσω απλών εφαρμογών τεχνητής νοημοσύνης, τις «έγδυσαν» και στη συνέχεια κυκλοφόρησαν τις πλαστές φωτογραφίες τους, αρχής γενομένης από τους συμμαθητές τους, μέσω των social media.

Σήμερα, βρίσκονται αντιμέτωποι με τις κατηγορίες της προσβολής γενετήσιας αξιοπρέπειας, της πορνογραφίας ανηλίκων και της εκδικητικής πορνογραφίας.

Το εν λόγω περιστατικό, λοιπόν, έρχεται σαν προειδοποίηση: οι «επώνυμοι», αυτοί των οποίων άφθονο προσωπικό υλικό διακινείται καθημερινά στις διαδικτυακές πλατφόρμες, δεν είναι οι μόνοι που μπορούν από τη μία στιγμή στην άλλη να βρεθούν προ δυσάρεστων εκπλήξεων.

Αντιθέτως, οποιοσδήποτε έχει παρουσία στα μέσα κοινωνικής δικτύωσης μπορεί να πέσει θύμα κακόβουλων deepfakes.

Πώς λειτουργούν τα deepfakes και ποια είναι τα στάδια της δημιουργίας τους

Η παραγωγή των deepfakes δεν είναι μια διαδικασία καινούργια.

«H τεχνολογία υπάρχει εδώ και μια πενταετία, μπορεί και παραπάνω», σημειώνει στα «ΝΕΑ» ο Φώτης Τσινόπουλος, προγραμματιστής, εξηγώντας τα στάδια της δημιουργίας τους:

«Το πρώτο είναι η συλλογή και τροφοδότηση του μοντέλου με έναν μεγάλο όγκο δεδομένων από εικόνες και βίντεο του θύματος, δηλαδή του προσώπου που θα χρησιμοποιηθεί στη δημιουργία ενός deepfake.

Ακολουθεί το στάδιο της εκπαίδευσης, κατά το οποίο το μοντέλο «μαθαίνει» μέσω νευρωνικών δικτύων autoencoders που κάνουν μια δειγματοληψία των κύριων χαρακτηριστικών από τη φωτογραφία ή το βίντεο.

Ουσιαστικά, τα νευρωνικά δίκτυα αντιγράφουν εκφράσεις, κινήσεις και ομιλία, ώστε να μπορούν να τα αναπαράγουν, να αντικαταστήσουν εκείνα μιας άλλης φωτογραφίας και να τα ευθυγραμμίσουν αποτελεσματικά για το πιο ρεαλιστικό αποτέλεσμα, βάζοντας το πρόσωπο ενός ατόμου στο σώμα ενός άλλου (ή και αντίστροφα)».

Εναλλακτικό μέσο παραγωγής deepfakes είναι τα Generative Adversarial Networks (GAN) που αποτελούνται από ένα δίκτυο παραγωγής και ένα δίκτυο διαχωρισμού, που ονομάζονται generator και discriminator αντίστοιχα.

Το πρώτο δίκτυο δημιουργεί το ψεύτικο περιεχόμενο, ενώ το δεύτερο «αξιολογεί» το δημιουργημένο περιεχόμενο σε σύγκριση με το πραγματικό.

«Εχεις τον generator που το παράγει και έχεις τον discriminator που καταλαβαίνει αν αυτό που έχει παραχθεί είναι σωστό ή ψεύτικο.

Οταν o discriminator πιάνει το λάθος, αυτός που πρέπει να αλλάξει είναι ο generator, ώστε να δημιουργήσει κάτι πιο ακριβές.

Οταν πάρει το «πράσινο φως» από τον discriminator, ο τελευταίος πρέπει να αλλάξει και να γίνει πιο έξυπνος για να βρίσκει το ψεύτικο. Ετσι το δίκτυο γίνεται πιο ακριβές και εξελίσσεται», εξηγεί ο Φώτης Τσινόπουλος.

Παράλληλα, ο ειδικός επισημαίνει ότι πλέον ο κώδικας είναι έτσι γραμμένος ώστε να είναι πολύ εύκολο για τον καθένα να φτιάξει ένα deepfake, «ακόμα και εάν δεν έχει ιδιαίτερες προγραμματιστικές γνώσεις».

Μια απλή αναζήτηση στο Διαδίκτυο οδηγεί σε προγράμματα δημιουργίας τέτοιου περιεχομένου, όπως το DeepFaceLab, με το μόνο «χρονοβόρο» κομμάτι της όλης διαδικασίας να είναι η εκπαίδευση του προαναφερθέντος μοντέλου, το οποίο πρέπει να «διαβάσει» τις χιλιάδες διαθέσιμες φωτογραφίες.

Συκοφαντική δυσφήμηση

Ωστόσο, κατά τον Βασίλη Παπακώστα, διευθυντή της Διεύθυνσης Δίωξης Ηλεκτρονικού Εγκλήματος, ο αριθμός των καταγγελιών για κακόβουλη χρήση deepfakes δεν είναι μεγάλος:

«Δεν υπάρχουν πολλές καταγγελίες, αλλά είναι κάτι που συμβαίνει. Είναι κάτι που μας απασχολεί ως έγκλημα».

Ο ίδιος επισημαίνει ότι οι καταγγελίες δεν αφορούν μόνο περιστατικά με βίντεο εκδικητικής πορνογραφίας, αλλά και περιπτώσεις συκοφαντικής δυσφήμησης, όπως αυτή που πρωταγωνίστησε στα ειδησεογραφικά μέσα και είχε θύμα τον διευθυντή ΜΕΘ του Νοσοκομείου Παπανικολάου της Θεσσαλονίκης Νίκο Καπραβέλο, που βρέθηκε εν αγνοία του να «διαφημίζει» φάρμακο για τα αγγεία:

«Τα περιστατικά συκοφαντικής δυσφήμησης, εκτός από το υποτιθέμενο πορνογραφικό υλικό, περιλαμβάνουν, μεταξύ άλλων, γιατρούς που εμφανίζονται να προβάλλουν ένα συγκεκριμένο φαρμακευτικό σκεύασμα, δημοσιογράφους που προμοτάρουν ηλεκτρονικά καζίνο κ.ο.κ.

Παρ’ όλα αυτά, δεν είναι ένα φαινόμενο που έχει μεγάλη έξαρση και καταγραφή, τουλάχιστον προσώρας.

Οταν λαμβάνουμε κάποια καταγγελία, σχηματίζεται δικογραφία για να μάθουμε ποιος είναι ο δράστης, όπως συμβαίνει με κάθε έγκλημα».

 πηγη  Premium έκδοση «ΤΑ ΝΕΑ»