Γ.Δ.
1454.98 +1,38%
ACAG
+0,61%
6.6
CENER
+0,66%
7.57
CNLCAP
+4,43%
8.25
DIMAND
-0,73%
9.54
OPTIMA
+3,89%
10.68
TITC
+2,49%
28.8
ΑΑΑΚ
+0,72%
7
ΑΒΑΞ
+2,60%
1.498
ΑΒΕ
+0,86%
0.471
ΑΔΜΗΕ
+0,91%
2.22
ΑΚΡΙΤ
-1,60%
0.925
ΑΛΜΥ
0,00%
2.8
ΑΛΦΑ
+1,04%
1.648
ΑΝΔΡΟ
+0,88%
6.86
ΑΡΑΙΓ
-0,98%
12.14
ΑΣΚΟ
-1,52%
2.6
ΑΣΤΑΚ
+1,63%
7.46
ΑΤΕΚ
0,00%
0.378
ΑΤΡΑΣΤ
+0,50%
8.1
ΑΤΤ
+0,45%
11.1
ΑΤΤΙΚΑ
+1,69%
2.4
ΒΑΡΝΗ
0,00%
0.24
ΒΙΟ
+2,16%
5.67
ΒΙΟΚΑ
0,00%
2.67
ΒΙΟΣΚ
+1,59%
1.28
ΒΙΟΤ
+2,19%
0.28
ΒΙΣ
-5,00%
0.19
ΒΟΣΥΣ
0,00%
2.46
ΓΕΒΚΑ
+1,21%
1.675
ΓΕΚΤΕΡΝΑ
+1,48%
16.5
ΔΑΑ
-0,81%
8.35
ΔΑΙΟΣ
0,00%
3.78
ΔΕΗ
+1,59%
11.48
ΔΟΜΙΚ
+1,41%
4.66
ΔΟΥΡΟ
0,00%
0.25
ΔΡΟΜΕ
+1,72%
0.355
ΕΒΡΟΦ
-0,30%
1.675
ΕΕΕ
+1,63%
29.94
ΕΚΤΕΡ
-0,22%
4.55
ΕΛΒΕ
0,00%
4.94
ΕΛΙΝ
+1,25%
2.43
ΕΛΛ
0,00%
14.3
ΕΛΛΑΚΤΩΡ
+3,15%
2.62
ΕΛΠΕ
+1,33%
8.375
ΕΛΣΤΡ
-0,81%
2.44
ΕΛΤΟΝ
-3,47%
1.78
ΕΛΧΑ
+1,26%
1.928
ΕΝΤΕΡ
+0,13%
7.85
ΕΠΙΛΚ
-1,90%
0.155
ΕΠΣΙΛ
+18,81%
12
ΕΣΥΜΒ
+3,25%
1.27
ΕΤΕ
+1,85%
7.7
ΕΥΑΠΣ
+0,93%
3.25
ΕΥΔΑΠ
+0,35%
5.75
ΕΥΡΩΒ
+1,51%
2.02
ΕΧΑΕ
+1,77%
5.18
ΙΑΤΡ
0,00%
1.615
ΙΚΤΙΝ
+0,46%
0.44
ΙΛΥΔΑ
+10,61%
1.72
ΙΝΚΑΤ
+1,71%
5.05
ΙΝΛΙΦ
+3,75%
4.98
ΙΝΛΟΤ
+0,71%
1.134
ΙΝΤΕΚ
+1,45%
6.29
ΙΝΤΕΡΚΟ
+0,91%
4.44
ΙΝΤΕΤ
+4,35%
1.32
ΙΝΤΚΑ
+2,02%
3.54
ΚΑΜΠ
0,00%
2.7
ΚΑΡΕΛ
0,00%
342
ΚΕΚΡ
-1,56%
1.58
ΚΕΠΕΝ
0,00%
2
ΚΛΜ
+0,32%
1.59
ΚΟΡΔΕ
+8,24%
0.552
ΚΟΥΑΛ
+3,36%
1.416
ΚΟΥΕΣ
+8,70%
6
ΚΡΕΚΑ
0,00%
0.28
ΚΡΙ
-0,45%
10.95
ΚΤΗΛΑ
0,00%
1.8
ΚΥΡΙΟ
-1,07%
1.385
ΛΑΒΙ
+3,61%
0.86
ΛΑΜΔΑ
+2,20%
6.97
ΛΑΜΨΑ
+1,21%
33.4
ΛΑΝΑΚ
0,00%
1.13
ΛΕΒΚ
-2,86%
0.34
ΛΕΒΠ
+16,07%
0.39
ΛΙΒΑΝ
0,00%
0.125
ΛΟΓΟΣ
+2,16%
1.42
ΛΟΥΛΗ
+3,77%
2.75
ΜΑΘΙΟ
0,00%
1.055
ΜΕΒΑ
+2,53%
4.06
ΜΕΝΤΙ
+4,53%
3
ΜΕΡΚΟ
0,00%
46.2
ΜΙΓ
+2,13%
4.07
ΜΙΝ
-1,55%
0.635
ΜΛΣ
0,00%
0.57
ΜΟΗ
+0,08%
26.62
ΜΟΝΤΑ
+0,33%
3.07
ΜΟΤΟ
+1,17%
3.015
ΜΟΥΖΚ
0,00%
0.73
ΜΠΕΛΑ
+0,56%
28.7
ΜΠΛΕΚΕΔΡΟΣ
0,00%
3.33
ΜΠΡΙΚ
+0,78%
1.95
ΜΠΤΚ
+6,67%
0.48
ΜΥΤΙΛ
+0,74%
38
ΝΑΚΑΣ
0,00%
2.92
ΝΑΥΠ
+0,98%
1.035
ΞΥΛΚ
-4,71%
0.283
ΞΥΛΚΔ
0,00%
0.0002
ΞΥΛΠ
+3,03%
0.34
ΞΥΛΠΔ
0,00%
0.0025
ΟΛΘ
-0,89%
22.3
ΟΛΠ
+2,06%
24.75
ΟΛΥΜΠ
+1,05%
2.9
ΟΠΑΠ
+0,86%
16.42
ΟΡΙΛΙΝΑ
+1,02%
0.892
ΟΤΕ
+0,84%
14.34
ΟΤΟΕΛ
+0,79%
12.8
ΠΑΙΡ
+1,67%
1.22
ΠΑΠ
0,00%
2.61
ΠΕΙΡ
+1,50%
3.98
ΠΕΤΡΟ
+0,94%
8.62
ΠΛΑΘ
+2,38%
4.09
ΠΛΑΚΡ
-0,65%
15.4
ΠΡΔ
0,00%
0.296
ΠΡΕΜΙΑ
+0,52%
1.158
ΠΡΟΝΤΕΑ
0,00%
7.8
ΠΡΟΦ
+3,14%
4.6
ΡΕΒΟΙΛ
+0,32%
1.59
ΣΑΡ
+1,73%
11.78
ΣΑΡΑΝ
0,00%
1.07
ΣΑΤΟΚ
0,00%
0.047
ΣΕΝΤΡ
0,00%
0.379
ΣΙΔΜΑ
+1,01%
2
ΣΠΕΙΣ
-1,26%
7.84
ΣΠΙ
-1,39%
0.71
ΣΠΥΡ
0,00%
0.19
ΤΕΝΕΡΓ
+0,72%
18.23
ΤΖΚΑ
-0,60%
1.65
ΤΡΑΣΤΟΡ
0,00%
1.19
ΤΡΕΣΤΑΤΕΣ
+0,59%
1.718
ΥΑΛΚΟ
0,00%
0.18
ΦΙΕΡ
+1,37%
0.371
ΦΛΕΞΟ
0,00%
8.4
ΦΡΙΓΟ
+2,55%
0.322
ΦΡΛΚ
-1,57%
4.07
ΧΑΙΔΕ
-0,71%
0.695

Πολιτικά deepfakes εξαπλώνονται αστραπιαία εξαιτίας της AI

Φέτος δισεκατομμύρια άνθρωποι θα προσέλθουν στις κάλπες σε όλο τον κόσμο. Δεκάδες εκλογικές μάχες θα εξελιχθούν μέσα στο 2024 σε περισσότερες από 50 χώρες, από τη Ρωσία και την Ταϊβάν μέχρι την Ινδία και το Ελ Σαλβαδόρ. Πέρα από τις γεωπολιτικές απειλές και τον λαϊκισμό, που ούτως η άλλως θα κυριαρχήσουν στο πολιτικό κλίμα, υπάρχει και μία άλλη μεγάλη απειλή, τα γνωστά και ως deepfakes, ψευδείς, ρεαλιστικές εικόνες και βίντεο δηλαδή που έχουν παραχθεί με τεχνητή νοημοσύνη με σκοπό να παραπλανήσουν την κοινή γνώμη και έχουν κατακλύσει τα social media.

Επί του παρόντος, έχουν γίνει ελάχιστα για την αντιμετώπιση των deepfakes. Σε μια πρόσφατα δημοσιευμένη μελέτη του Κέντρου για την Αντιμετώπιση του Ψηφιακού Μίσους (CCDH), οι συγγραφείς διαπιστώνουν ότι ο όγκος της παραπληροφόρησης που παράγεται από τεχνητή νοημοσύνη -συγκεκριμένα εικόνες deepfake που αφορούν τις εκλογές- έχει αυξηθεί κατά μέσο όρο 130% ανά μήνα στο X κατά το τελευταίο έτος.

Η μελέτη δεν εξέτασε τον πολλαπλασιασμό των deepfakes που σχετίζονται με τις εκλογές σε άλλες πλατφόρμες κοινωνικής δικτύωσης, όπως το Facebook ή το TikTok. Όμως ο Callum Hood, επικεφαλής της έρευνας στο CCDH, δήλωσε ότι τα αποτελέσματα δείχνουν ότι η διαθεσιμότητα δωρεάν, εύκολα jailbroken εργαλείων τεχνητής νοημοσύνης – μαζί με την ανεπαρκή μετριοπάθεια των social media – συμβάλλει σε μια κρίση deepfakes.

«Υπάρχει ένας πολύ πραγματικός κίνδυνος οι προεδρικές εκλογές στις ΗΠΑ και αλλού να υπονομευθούν από παραπληροφόρηση που παράγεται από τεχνητή νοημοσύνη και έχει μηδενικό κόστος», δήλωσε ο Hood στο TechCrunch σε συνέντευξή του. «Τα εργαλεία τεχνητής νοημοσύνης έχουν διατεθεί σε ένα μαζικό ακροατήριο χωρίς τις κατάλληλες προστατευτικές ”μπάρες” για να αποτραπεί η χρήση τους για τη δημιουργία φωτορεαλιστικής προπαγάνδας, η οποία θα μπορούσε να ισοδυναμεί με προεκλογική παραπληροφόρηση αν διαμοιραστεί ευρέως στο διαδίκτυο».

Άφθονα τα deepfakes

Πολύ πριν από τη μελέτη του CCDH, είχε διαπιστωθεί ότι τα deepfakes που δημιουργούσε η τεχνητή νοημοσύνη είχαν αρχίσει να φτάνουν στις πιο απομακρυσμένες γωνιές του διαδικτύου. Έρευνα που επικαλείται το Παγκόσμιο Οικονομικό Φόρουμ διαπίστωσε ότι τα deepfakes αυξήθηκαν κατά 900% μεταξύ 2019 και 2020. Η Sumsub, μια πλατφόρμα επαλήθευσης ταυτότητας, παρατήρησε 10πλάσια αύξηση του αριθμού των deepfakes από το 2022 έως το 2023.

Αλλά μόλις τον τελευταίο περίπου χρόνο τα deepfakes που σχετίζονται με τις εκλογές μπήκαν στη συνείδηση της κοινής γνώμης – λόγω της ευρείας διαθεσιμότητας εργαλείων δημιουργικής εικόνας και της τεχνολογικής προόδου των εργαλείων αυτών που έκαναν τη συνθετική παραπληροφόρηση των εκλογών πιο πειστική. Σε μια μελέτη του 2023 του Πανεπιστημίου του Waterloo σχετικά με την αντίληψη των deepfakes, μόνο το 61% των ανθρώπων μπορούσε να ξεχωρίσει τους ανθρώπους που δημιουργήθηκαν με τεχνητή νοημοσύνη από τους πραγματικούς. Αυτό προκαλεί συναγερμό.

Σε πρόσφατη δημοσκόπηση της YouGov, το 85% των Αμερικανών δήλωσε ότι ανησυχεί πολύ ή λίγο για την εξάπλωση των παραπλανητικών βίντεο και ηχητικών απομιμήσεων. Μια ξεχωριστή έρευνα του Associated Press-NORC Center for Public Affairs Research διαπίστωσε ότι σχεδόν το 60% των ενηλίκων πιστεύει ότι τα εργαλεία τεχνητής νοημοσύνης θα αυξήσουν τη διάδοση ψευδών και παραπλανητικών πληροφοριών κατά τη διάρκεια των εκλογών στις ΗΠΑ το 2024.

«Πρωταθλητής» το Midjourney στη δημιουργία τους

Για να μετρήσουν την αύξηση των deepfakes που σχετίζονται με τις εκλογές στο X, οι συγγραφείς της μελέτης του CCDH εξέτασαν τις σημειώσεις της κοινότητας – τις συνεισφερόμενες από τους χρήστες επαληθεύσεις γεγονότων που προστίθενται σε δυνητικά παραπλανητικές αναρτήσεις στην πλατφόρμα – οι οποίες ανέφεραν ονομαστικά τα deepfakes ή περιλάμβαναν όρους που σχετίζονται με τα deepfakes.  Σύμφωνα με την έρευνα, τα περισσότερα από τα deepfakes στο X δημιουργήθηκαν χρησιμοποιώντας ChatGPT Plus, το DreamStudio της Stability AI ή το Image Creator της Microsoft.

«Η μελέτη μας δείχνει ότι υπάρχουν συγκεκριμένα τρωτά σημεία στις εικόνες που θα μπορούσαν να χρησιμοποιηθούν για την υποστήριξη της παραπληροφόρησης σχετικά με την ψηφοφορία ή μια νοθεία στις εκλογές», δήλωσε ο Hood. «Αυτό, σε συνδυασμό με τις θλιβερές προσπάθειες των εταιρειών μέσων κοινωνικής δικτύωσης να δράσουν γρήγορα κατά της παραπληροφόρησης, θα μπορούσε να είναι μια συνταγή για καταστροφή». Οι συγγραφείς διαπίστωσαν ότι δεν είχαν όλες οι εφαρμογές για την παραγωγή εικόνας την τάση να παράγουν τους ίδιους τύπους πολιτικών απομιμήσεων. Και ορισμένες ήταν σταθερά χειρότεροι παραβάτες από άλλους.

Για παράδειγμα το Midjourney δημιούργησε deepfakes εκλογών πιο συχνά, στο 65% των δοκιμών – περισσότερο από το Image Creator (38%), το DreamStudio (35%) και το ChatGPT (28%). Το ChatGPT και το Image Creator μπλόκαραν όλες τις εικόνες που σχετίζονται με τους υποψηφίους. Αλλά και οι δύο δημιούργησαν deepfakes που απεικόνιζαν εκλογική απάτη και εκφοβισμό. Σε επικοινωνία με τον CEO της Midjourney, David Holz, δήλωσε ότι τα συστήματα συγκράτησης της Midjourney «εξελίσσονται συνεχώς» και ότι οι ενημερώσεις που σχετίζονται ειδικά με τις επερχόμενες αμερικανικές εκλογές «έρχονται σύντομα».

Ένας εκπρόσωπος του OpenAI δήλωσε στο TechCrunch ότι το OpenAI «αναπτύσσει ενεργά εργαλεία προέλευσης» για να βοηθήσει στην ταυτοποίηση εικόνων που δημιουργήθηκαν με το DALL-E 3 και το ChatGPT, συμπεριλαμβανομένων εργαλείων που χρησιμοποιούν ψηφιακά διαπιστευτήρια όπως το ανοιχτό πρότυπο C2PA. «Καθώς διεξάγονται εκλογές σε όλο τον κόσμο, στηριζόμαστε στο έργο μας για την ασφάλεια της πλατφόρμας για την πρόληψη της κατάχρησης, τη βελτίωση της διαφάνειας στο περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη και τον σχεδιασμό μετριασμών, όπως η απόρριψη αιτημάτων που ζητούν τη δημιουργία εικόνων πραγματικών ανθρώπων, συμπεριλαμβανομένων των υποψηφίων«, πρόσθεσε ο εκπρόσωπος. «Θα συνεχίσουμε να προσαρμοζόμαστε και να μαθαίνουμε από τη χρήση των εργαλείων μας».

Εκπρόσωπος της Stability AI τόνισε ότι οι όροι χρήσης του DreamStudio απαγορεύουν τη δημιουργία «παραπλανητικού περιεχομένου» και δήλωσε ότι η εταιρεία έχει εφαρμόσει τους τελευταίους μήνες «διάφορα μέτρα» για την αποτροπή της κακής χρήσης, συμπεριλαμβανομένης της προσθήκης φίλτρων για τον αποκλεισμό «μη ασφαλούς» περιεχομένου στο DreamStudio. Ο εκπρόσωπος σημείωσε επίσης ότι το DreamStudio είναι εξοπλισμένο με τεχνολογία υδατογράφησης και ότι η Stability AI εργάζεται για την προώθηση της «προέλευσης και της πιστοποίησης» του περιεχομένου που παράγεται από AI.

Ραγδαία η εξάπλωση

Οι εφαρμογές παραγωγής εικόνας μπορεί να διευκόλυναν τη δημιουργία εκλογικών deepfakes, αλλά τα μέσα κοινωνικής δικτύωσης διευκόλυναν τη διάδοση αυτών των deepfakes. Στη μελέτη του CCDH, επισημαίνεται μια περίπτωση όπου μια εικόνα που δημιουργήθηκε με τεχνητή νοημοσύνη και απεικόνιζε τον Ντόναλντ Τραμπ να παρευρίσκεται σε ένα μπάρμπεκιου ελέγχθηκε σε μια ανάρτηση, αλλά όχι σε άλλες – όπου συνέχισαν να λαμβάνουν εκατοντάδες χιλιάδες προβολές. Η X από την πλευρά της ισχυρίζεται ότι οι σημειώσεις της κοινότητας σε μια ανάρτηση εμφανίζονται αυτόματα σε αναρτήσεις που περιέχουν αντίστοιχα μέσα. Αλλά αυτό δεν φαίνεται να ισχύει σύμφωνα με τη μελέτη. Πρόσφατο ρεπορτάζ του BBC το ανακάλυψε επίσης αυτό, αποκαλύπτοντας ότι deepfakes έγχρωμων ψηφοφόρων που ενθαρρύνουν τους Αφροαμερικανούς να ψηφίσουν Ρεπουμπλικάνους συγκέντρωσαν εκατομμύρια προβολές μέσω reshares παρά το γεγονός ότι τα πρωτότυπα είχαν επισημανθεί.

«Χωρίς τις κατάλληλες προστατευτικές μπάρες στη θέση τους, τα εργαλεία τεχνητής νοημοσύνης θα μπορούσαν να αποτελέσουν ένα απίστευτα ισχυρό όπλο για τους κακούς παράγοντες, ώστε να παράγουν πολιτική παραπληροφόρηση με μηδενικό κόστος και στη συνέχεια να τη διαδίδουν σε τεράστια κλίμακα στα μέσα κοινωνικής δικτύωσης», δήλωσε ο Hood. «Μέσω της έρευνάς μας στις πλατφόρμες κοινωνικής δικτύωσης, γνωρίζουμε ότι οι εικόνες που παράγονται από αυτές τις πλατφόρμες έχουν διαμοιραστεί ευρέως στο διαδίκτυο».

Δεν υπάρχει εύκολη λύση

Ποια είναι λοιπόν η λύση στο πρόβλημα των deepfakes, αν τελικά υπάρχει; Ο Hood έχει μερικές ιδέες. Όπως αναφέρει, τα εργαλεία και οι πλατφόρμες τεχνητής νοημοσύνης πρέπει να παρέχουν υπεύθυνες διασφαλίσεις και να επενδύουν και να συνεργάζονται με τους ερευνητές για να δοκιμάζουν και να αποτρέπουν το jailbreaking πριν από την κυκλοφορία των προϊόντων… Και οι πλατφόρμες των μέσων κοινωνικής δικτύωσης πρέπει να παρέχουν υπεύθυνες διασφαλίσεις και να επενδύουν σε προσωπικό εμπιστοσύνης και ασφάλειας αφιερωμένο στην προστασία από τη χρήση της παραγωγικής τεχνητής νοημοσύνης για την παραγωγή παραπληροφόρησης και επιθέσεων στην ακεραιότητα των εκλογών».

Ο Hood και οι υπόλοιποι συγγραφείς καλούν επίσης τους υπεύθυνους χάραξης πολιτικής να χρησιμοποιήσουν τους υφιστάμενους νόμους για να αποτρέψουν τον εκφοβισμό των ψηφοφόρων και την αφαίρεση του δικαιώματος ψήφου που προκύπτει από τα deepfakes, καθώς και να επιδιώξουν τη νομοθεσία για να καταστήσουν τα προϊόντα τεχνητής νοημοσύνης ασφαλέστερα από το σχεδιασμό και διαφανή – και να καταστήσουν τους προμηθευτές περισσότερο υπόλογους.

Ως προς αυτή την πρόταση, έχουν γίνει κάποια βήματα αφού τον περασμένο μήνα, οι Microsoft, OpenAI και Stability AΙ υπέγραψαν μια εθελοντική συμφωνία που σηματοδοτεί την πρόθεσή τους να υιοθετήσουν ένα κοινό πλαίσιο για την αντιμετώπιση των τεχνητών ψεύτικων εικόνων που δημιουργούνται με σκοπό την παραπλάνηση των ψηφοφόρων. Ανεξάρτητα, η Meta δήλωσε ότι θα επισημάνει το περιεχόμενο που παράγεται με τεχνητή νοημοσύνη από προμηθευτές, συμπεριλαμβανομένων των OpenAI και Midjourney, ενόψει των εκλογών και απαγόρευσε στις πολιτικές εκστρατείες να χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης, συμπεριλαμβανομένων των δικών της, στη διαφήμιση. Σε παρόμοια κατεύθυνση, η Google θα απαιτήσει οι πολιτικές διαφημίσεις που χρησιμοποιούν γεννητική τεχνητή νοημοσύνη στο YouTube και σε άλλες πλατφόρμες της, όπως η αναζήτηση Google, να συνοδεύονται από μια εμφανή γνωστοποίηση εάν οι εικόνες ή οι ήχοι είναι συνθετικά τροποποιημένοι.

Η X δήλωσε πρόσφατα ότι θα στελεχώσει ένα νέο κέντρο «εμπιστοσύνης και ασφάλειας» στο Όστιν του Τέξας, το οποίο θα περιλαμβάνει 100 συντονιστές περιεχομένου πλήρους απασχόλησης. Και στο μέτωπο της πολιτικής, ενώ κανένας ομοσπονδιακός νόμος δεν απαγορεύει τα deepfakes, 10 πολιτείες στις ΗΠΑ έχουν θεσπίσει νόμους που τα ποινικοποιούν, με αυτόν της Μινεσότα να είναι ο πρώτος που στοχεύει τα deepfakes που χρησιμοποιούνται σε πολιτικές εκστρατείες. Αλλά είναι ένα ανοιχτό ερώτημα κατά πόσον η βιομηχανία – και οι ρυθμιστικές αρχές – κινούνται αρκετά γρήγορα για να σπρώξουν τη βελόνα στον δυσεπίλυτο αγώνα κατά των πολιτικών deepfakes, ιδίως των deepfaked εικόνων. «Εναπόκειται στις πλατφόρμες τεχνητής νοημοσύνης, στις εταιρείες κοινωνικών μέσων και στους νομοθέτες να δράσουν τώρα ή να θέσουν σε κίνδυνο τη δημοκρατία», δήλωσε ο Hood.

Google News icon
Ακολουθήστε το Powergame.gr στο Google News για άμεση και έγκυρη οικονομική ενημέρωση!