Γ.Δ.
1490.46 -0,08%
ACAG
+0,16%
6.14
CENER
0,00%
8.73
CNLCAP
+0,63%
8
DIMAND
-0,85%
9.3
OPTIMA
+0,69%
11.68
TITC
-0,97%
30.6
ΑΑΑΚ
0,00%
7
ΑΒΑΞ
-0,73%
1.64
ΑΒΕ
-1,44%
0.48
ΑΔΜΗΕ
0,00%
2.24
ΑΚΡΙΤ
-0,56%
0.89
ΑΛΜΥ
-0,18%
2.795
ΑΛΦΑ
+2,61%
1.71
ΑΝΔΡΟ
-1,75%
6.74
ΑΡΑΙΓ
-0,15%
13.1
ΑΣΚΟ
+0,37%
2.71
ΑΣΤΑΚ
-0,84%
7.1
ΑΤΕΚ
0,00%
0.422
ΑΤΡΑΣΤ
+2,63%
8.6
ΑΤΤ
-1,36%
10.85
ΑΤΤΙΚΑ
+0,83%
2.44
ΒΑΡΝΗ
0,00%
0.24
ΒΙΟ
+1,14%
6.2
ΒΙΟΚΑ
0,00%
2.66
ΒΙΟΣΚ
+0,72%
1.4
ΒΙΟΤ
0,00%
0.258
ΒΙΣ
0,00%
0.162
ΒΟΣΥΣ
0,00%
2.46
ΓΕΒΚΑ
+1,92%
1.595
ΓΕΚΤΕΡΝΑ
-2,15%
16.4
ΔΑΑ
+0,07%
8.356
ΔΑΙΟΣ
0,00%
3.78
ΔΕΗ
+1,63%
11.84
ΔΟΜΙΚ
-1,94%
4.56
ΔΟΥΡΟ
0,00%
0.25
ΔΡΟΜΕ
+3,53%
0.352
ΕΒΡΟΦ
+0,30%
1.69
ΕΕΕ
+0,12%
32.34
ΕΚΤΕΡ
-0,93%
4.26
ΕΛΒΕ
0,00%
5.05
ΕΛΙΝ
+0,41%
2.46
ΕΛΛ
+1,42%
14.3
ΕΛΛΑΚΤΩΡ
-0,56%
2.645
ΕΛΠΕ
-1,79%
8.5
ΕΛΣΤΡ
+0,41%
2.43
ΕΛΤΟΝ
+0,54%
1.876
ΕΛΧΑ
+3,23%
2.08
ΕΝΤΕΡ
0,00%
7.84
ΕΠΙΛΚ
0,00%
0.152
ΕΠΣΙΛ
-0,50%
12
ΕΣΥΜΒ
-0,36%
1.375
ΕΤΕ
+1,29%
8.458
ΕΥΑΠΣ
-0,91%
3.25
ΕΥΔΑΠ
+0,17%
6.03
ΕΥΡΩΒ
+0,38%
2.108
ΕΧΑΕ
-1,14%
5.19
ΙΑΤΡ
-2,32%
1.685
ΙΚΤΙΝ
-2,44%
0.4195
ΙΛΥΔΑ
-1,98%
1.735
ΙΝΚΑΤ
-0,57%
5.26
ΙΝΛΙΦ
+0,40%
4.96
ΙΝΛΟΤ
+1,89%
1.186
ΙΝΤΕΚ
-0,33%
6.05
ΙΝΤΕΡΚΟ
0,00%
4.34
ΙΝΤΕΤ
+1,19%
1.28
ΙΝΤΚΑ
+3,89%
3.74
ΚΑΜΠ
0,00%
2.7
ΚΑΡΕΛ
0,00%
342
ΚΕΚΡ
0,00%
1.505
ΚΕΠΕΝ
0,00%
2
ΚΛΜ
+2,17%
1.65
ΚΟΡΔΕ
+1,12%
0.542
ΚΟΥΑΛ
-1,10%
1.26
ΚΟΥΕΣ
-1,38%
5.71
ΚΡΕΚΑ
0,00%
0.28
ΚΡΙ
0,00%
11
ΚΤΗΛΑ
0,00%
1.84
ΚΥΡΙΟ
+2,22%
1.38
ΛΑΒΙ
+0,82%
0.978
ΛΑΜΔΑ
-2,61%
6.72
ΛΑΜΨΑ
+4,65%
36
ΛΑΝΑΚ
0,00%
1.07
ΛΕΒΚ
+0,56%
0.36
ΛΕΒΠ
+9,72%
0.316
ΛΙΒΑΝ
0,00%
0.125
ΛΟΓΟΣ
0,00%
1.45
ΛΟΥΛΗ
-1,82%
2.7
ΜΑΘΙΟ
-5,62%
0.958
ΜΕΒΑ
+0,26%
3.92
ΜΕΝΤΙ
+3,10%
2.99
ΜΕΡΚΟ
0,00%
48
ΜΙΓ
+1,01%
3.99
ΜΙΝ
-1,75%
0.56
ΜΛΣ
0,00%
0.57
ΜΟΗ
-0,72%
27.7
ΜΟΝΤΑ
-1,57%
3.14
ΜΟΤΟ
+0,99%
3.06
ΜΟΥΖΚ
0,00%
0.72
ΜΠΕΛΑ
-1,38%
27.14
ΜΠΛΕΚΕΔΡΟΣ
0,00%
3.37
ΜΠΡΙΚ
-0,25%
1.965
ΜΠΤΚ
-6,25%
0.45
ΜΥΤΙΛ
+0,21%
38.72
ΝΑΚΑΣ
0,00%
2.92
ΝΑΥΠ
+6,09%
0.976
ΞΥΛΚ
-2,04%
0.288
ΞΥΛΚΔ
0,00%
0.0002
ΞΥΛΠ
+9,09%
0.48
ΞΥΛΠΔ
0,00%
0.0025
ΟΛΘ
-0,92%
21.6
ΟΛΠ
0,00%
25.2
ΟΛΥΜΠ
+0,72%
2.79
ΟΠΑΠ
-1,54%
15.3
ΟΡΙΛΙΝΑ
+0,21%
0.937
ΟΤΕ
-0,49%
14.15
ΟΤΟΕΛ
-0,32%
12.62
ΠΑΙΡ
-1,72%
1.14
ΠΑΠ
-1,18%
2.52
ΠΕΙΡ
-0,36%
3.852
ΠΕΤΡΟ
+0,65%
9.32
ΠΛΑΘ
+0,12%
4.05
ΠΛΑΚΡ
0,00%
16
ΠΡΔ
0,00%
0.294
ΠΡΕΜΙΑ
-0,17%
1.192
ΠΡΟΝΤΕΑ
0,00%
7.8
ΠΡΟΦ
-0,37%
5.35
ΡΕΒΟΙΛ
-0,59%
1.68
ΣΑΡ
-1,58%
11.2
ΣΑΡΑΝ
0,00%
1.07
ΣΑΤΟΚ
-9,09%
0.035
ΣΕΝΤΡ
+0,26%
0.38
ΣΙΔΜΑ
+0,79%
1.925
ΣΠΕΙΣ
-0,52%
7.72
ΣΠΙ
+0,56%
0.72
ΣΠΥΡ
0,00%
0.19
ΤΕΝΕΡΓ
-1,30%
18.16
ΤΖΚΑ
+2,50%
1.64
ΤΡΑΣΤΟΡ
0,00%
1.12
ΤΡΕΣΤΑΤΕΣ
+0,92%
1.758
ΥΑΛΚΟ
0,00%
0.162
ΦΙΕΡ
0,00%
0.359
ΦΛΕΞΟ
0,00%
8.2
ΦΡΙΓΟ
+6,35%
0.268
ΦΡΛΚ
+0,98%
4.14
ΧΑΙΔΕ
0,00%
0.65

Πώς τα εργαλεία AI μπορούν να χειραγωγήσουν τις εκλογές

Πριν από έναν περίπου μήνα, στους προκριματικούς των Ρεπουμπλικανών στο Νιου Χάμσαϊρ των ΗΠΑ και καθώς οι ψηφοφόροι ετοιμάζονταν να μεταβούν στις κάλπες, αρκετοί έλαβαν μία ρομποτική κλήση δημιουργημένη από εργαλείο τεχνητής νοημοσύνης. Περιείχε ένα μήνυμα με την φωνή του προέδρου Τζο Μπάιντεν που καλούσε τους ψηφοφόρους να μην ψηφίσουν για να μην ενισχύσουν τον Ντόναλντ Τραμπ. Το ψεύτικο μήνυμα, που ακουγόταν ακριβώς σαν τον Μπάιντεν, είναι μία καλή απόδειξη της προόδου της τεχνολογίας deepfake, αλλά και μία τρομακτική ματιά στο πιθανό μέλλον των εκλογών ανά τον πλανήτη- ξεκινώντας από τις ευρωεκλογές, αλλά και τις αμερικανικές προεδρικές του Νοεμβρίου.


Το μήνυμα αναγνωρίστηκε ως ψεύτικο από το τμήμα Δικαιοσύνης της Πολιτείας του Νιου Χάμσαϊρ, το οποίο ειδοποίησε το κοινό για το πλαστό μήνυμα και κάλεσε τους πολίτες να μεταβούν στις κάλπες. Όπως αποδείχθηκε, η κλήση δημιουργήθηκε από την τεξανή εταιρεία Life Corporation, που χρησιμοποίησε μία «βιβλιοθήκη» deepfake που δημιουργήθηκε από την startup τεχνητής νοημοσύνης ElevenLabs. Στην Life Corporation απαγγέλθηκαν κατηγορίες για συμμετοχή σε καταστολή ψήφου.

Η μη κυβερνητική οργάνωση Brennan Center for Justice είχε ήδη προειδοποιήσει προ τριετίας, αναφερόμενη στη δεκαετία 2020-2030 πως «ξεκινούσε η εποχή του deepfake στις εκλογές», όχι μόνο στην Αμερική, αλλά σε ολόκληρο τον πλανήτη. «Ρεπουμπλικανοί υποψήφιοι των προκριματικών χρησιμοποιούν ήδη την τεχνητή νοημοσύνη σε διαφημιστικές καμπάνιες» ανέφερε το κέντρο. Επικαλούνταν μάλιστα το παράδειγμα της προεκλογικής εκστρατείας του κυβερνήτη της Φλόριντα, Ρον ΝτεΣάντις, ο οποίος δημοσίευσε φωτογραφίες δημιουργημένες με εργαλεία ΑΙ του πρώην προέδρου Ντόναλντ Τραμπ να αγκαλιάζει τον Άντονι Φάουτσι, ο οποίος «απορρόφησε» προσωπικά τη δυσαρέσκεια των Ρεπουμπλικανών ψηφοφόρων εξαιτίας των πολιτικών που συνέστησε να υιοθετηθούν στη διάρκεια της πανδημίας.

«Ένα πράγμα που παρατηρούμε είναι η διασταύρωση της τεχνολογίας της τεχνητής νοημοσύνης με τα δίκτυα «pink slime», που είναι κομματικά δίκτυα ενημέρωσης που παρουσιάζουν εαυτόν ως αξιόπιστα τοπικά ΜΜΕ και κάνουν άνοιγμα προς τους ψηφοφόρους με διαφήμιση στο Facebook», ανέφερε. Στόχος το διαφημιστικό κέρδος, το clickbait και η αλίευση δεδομένων, με ένα εργαλείο γενετικής τεχνητής νοημοσύνης που- όπως αναφέρει- αναπτύσσεται σε ευρεία κλίμακα χρησιμοποιώντας bots της γενετικής νοημοσύνης μέσω του Chat GPT της Open AI και του Bard της Google.

Propublica: Πώς να εντοπίσει κανείς (και να καταπολεμήσει) την εκλογική παραπληροφόρηση

Σύμφωνα με τον εκλογικό οδηγό που είχε δημοσιεύσει το κέντρο έρευνας ProPublica στις ΗΠΑ το 2020, υπάρχουν επτά μορφές διατάραξης της πληροφόρησης σχετικά με τις εκλογές.

Κατ’ αρχήν κάνει διαχωρισμό ανάμεσα στον όρο «disinformation» και «misinformation», με τον πρώτο να αναφέρεται σε περιεχόμενο που σκόπιμα επιδιώκει να παραποιήσει την αλήθεια και να βλάψει, ενώ τον δεύτερο να αναφέρεται στην αναπαραγωγή ψευδών ειδήσεων από ανθρώπους που πιστεύουν πως είναι αληθινές. Τονίζει πως το ψεύτικο περιεχόμενο συνήθως απευθύνεται στο συναίσθημά μας και συνιστά τον διπλοέλεγχο άρθρων και εικόνων, πριν την αναδημοσίευσή τους.

Συγκεκριμένα, οι επτά πιο συνηθισμένες μορφές παραπληροφόρησης είναι οι εξής:

  1. Σάτιρα ή παρωδία: Πρόκειται για περιεχόμενο που δεν έχει στόχο να παραπληροφορήσει, αλλά μπορεί να εκληφθεί ως κυριολεκτικό από το κοινό, οδηγώντας σε παραπληροφόρηση
  2. Παραπλανητικό περιεχόμενο: Παραπλανητική χρήση πληροφοριών με σκοπό την παγίδευση ενός ατόμου ή την παρουσίαση ενός θέματος υπό ορισμένη οπτική γωνία
  3. Ψεύτικο περιεχόμενο: Όταν κάποιος οικειοποιείται πραγματικά πρόσωπα/πηγές
  4. Κατασκευασμένο περιεχόμενο: Όταν οι πληροφορίες που αναπαράγονται είναι 100% ψεύτικες, με σκοπό να παραπληροφορήσουν και να βλάψουν
  5. Ψεύτικες διασυνδέσεις: Όταν οι τίτλοι, η οπτική πληροφορία ή τα αποσπάσματα που παρατίθενται δεν υποστηρίζουν το περιεχόμενο αλλά είναι παραπλανητικά
  6. Ψευδή συμφραζόμενα: Όταν αληθινό περιεχόμενο συμπληρώνεται από συμφραζόμενα τα οποία δεν είναι αληθινά
  7. Κατασκευασμένα συμφραζόμενα: Όταν αληθινή πληροφορία ή εικόνα παραποιείται, με σκοπό να παραπλανήσει

Και μόνο όλες αυτές οι διαφορετικές περιπτώσεις, καταδεικνύουν πόσοι ξεχωριστοί τρόποι και αποχρώσεις υπάρχουν στις δυνατότητες παραπληροφόρησης του ευρέως κοινού, κάτι που γίνεται ιδιαίτερα εμφανές σε προεκλογικές περιόδους.

Με ποιόν τρόπο εμπλέκεται η τεχνητή νοημοσύνη στην παραγωγή τέτοιου περιεχομένου;

Όπως εξηγεί στο Mashable η Μακένζι Σαντέγκι, συντάκτρια σε θέματα τεχνητής νοημοσύνης και ξένης επιρροής στην οργάνωση παρακολούθησης της παραπληροφόρησης NewsGuard, η NewsGuard έχει εντοπίσει την χρήση τεχνητής νοημοσύνης σε όλες τις μορφές, προκειμένου να την «εργαλειοποιήσει», από την παραγωγή ολόκληρων ειδησεογραφικων ιστοσελίδων χαμηλής ποιότητας μέχρι deepfake βίντεο, ηχητικά και φωτογραφίες.

Μέχρι σήμερα, η ομάδα της NewsGuard έχει εντοπίσει 766 περιπτώσεις αναξιόπιστων ειδήσεων και 49 ενημερωτικών ιστοσελίδων δημιουργημένων μέσω τεχνητής νοημοσύνης (UAINS ή Unreliable AI-Generated News and information websites) σε 15 γλώσσες: κινέζικα, αραβικά, τουρκικά, τσέχικα, ολλανδικά, αγγλικά, γαλλικά, γερμανικά, ιταλικά, πορτογαλικά, ισπανικά, κορεατικά, ινδονησιακά, ταϊλανδέζικα και φιλιππινέζικα.

Αυτές οι ιστοσελίδες συνήθως έχουν γενικά ονόματα που παραπέμπουν σε υπαρκτές ιστοσελίδες, π.χ. iBusiness Day, Ireland Top News, Daily Time Update, τα οποία σε κάποιον αναγνώστη μπορούν να φανούν ως υπαρκτά και καθιερωμένα. Δημοσιεύουν κείμενα με ελάχιστη ανθρώπινη επίβλεψη, γραμμένα στον μεγαλύτερο βαθμό ή εντελώς από bots. Συνήθως έχουν επεξεργαστεί δεκάδες και ενίοτε εκατοντάδες άρθρα σχετικά με ένα εύρος αντικειμένων που αφορούν την πολιτική, την τεχνολογία, τη διασκέδαση και τα ταξίδια. Κάποιες φορές περιλαμβάνουν ψεύτικες πληροφορίες που αφορούν πολιτικούς ηγέτες. Ένα τέτοιο παράδειγμα ήταν η είδηση πως ο ψυχίατρος του Μπέντζαμιν Νετανιάχου αυτοκτόνησε, την οποία στη συνέχεια αναπαρήγαγαν ιρανικά σάιτ, εμφανίζοντάς το ως απόδειξη ότι ο Ισραηλινός πρωθυπουργός είναι ψυχικά ασταθής. Άλλες ψευδείς ειδήσεις αφορούν φάρσες για θανάτους διασήμων, ψεύτικα συμβάντα και άρθρα που παρουσιάζουν παλιότερες ειδήσεις με παλιότερες φωτογραφίες, σαν να έχουν συμβεί τώρα.

Σύμφωνα με την Σαντέγκι, οι 49 ιστοσελίδες που εντόπισαν το 2023, είναι πολύ πιθανό να φτάνουν πλέον τις 1000 μέχρι τη στιγμή των αμερικανικών προεδρικών εκλογών τον Νοέμβριο. Κάποιες από αυτές, παράγουν και θα παραγάγουν, εκατοντάδες τέτοια άρθρα καθημερινά!

Ποια εργαλεία υπάρχουν για να διαφυλάξει κανείς το αληθινό περιεχόμενο και να ελέγξει το πλαστό;

Μία από τις λύσεις που επεξεργάζονται ήδη οι εταιρείες τεχνητής νοημοσύνης είναι το υδατογράφημα σε γενετικά κατασκευασμένες εικόνες και βίντεο, ώστε να πιστοποιείται η τεχνολογία προέλευσης του περιεχομένου. Έτσι κάποιος μπορεί να ελέγξει το οπτικό περιεχόμενο για την προέλευσή του. Το 2023, η OpenAI, η Alphabet και η Meta, δεσμεύθηκαν να αναπτύξουν τέτοιες τεχνολογίες υδατογράφησης. Τον Οκτώβριο, η Meta παρουσίασε την Stable Signature, τη μέθοδο προσθήκης υδατογραφημάτων σε εικόνες που δημιουργήθηκαν με τη χρήση των δικών της «ανοιχτής πηγής» (open source) εργαλείων τεχνητής νοημοσύνης. Η Stable Signature δηλαδή δεν προσθέτει υδατογράφημα σε μία ήδη δημιουργημένη εικόνα, αλλά τοποθετεί αόρατα σημάδια που μπορούν να αποδοθούν σε συγκεκριμένους χρήστες των δικών της μοντέλων γενετικής ΑΙ. Τον φετινό Φεβρουάριο, η OpenAI ανακοίνωσε ότι τοποθετεί αντίστοιχα αόρατα εντοπίσιμα υδατογραφήματα σε όλες τις εικόνες που παράγονται με το πρόγραμμα DALL-E 3, ακολουθώντας τις οδηγίες της Συμμαχίας για την Προέλευση και την Αυθεντικότητα του Περιεχομένου (C2PA), ενός τεχνικού στάνταρτ που χρησιμοποιείται από την Adobe, τη Microsoft, το BBC και άλλες εταιρείες για να εντοπίζουν τα deepfakes και την παραπληροφόρηση στο δημοσιογραφικό περιεχόμενο.

Πώς να ελέγξει ένας θεατής/αναγνώστης αν το περιεχόμενο είναι ψευδές

  1. Στις ψεύτικες ιστοσελίδες, παρατηρείται συχνά η χρήση λογοκλοπής και «παραίσθηση» (προκειται για την τάση των εργαλείων της τεχνητής νοημοσύνης να παράγουν ψευδή γεγονότα. Η επανάληψη, η αναπαραγωγή περιεχομένου χωρίς να αποδίδονται οι πηγές, η παρουσίαση γεγονότων που αψηφούν την κοινή λογική, είναι ενδείξεις παραπληροφόρησης. Ο αναγνώστης μπορεί να ελέγξει αν το όνομα του συντάκτη είναι υπαρκτό (να αναζητήσει δηλαδή αν εμφανίζεται και σε άλλα άρθρα), αν η ιστοσελίδα εμφανίζει αξιόπιστη ταυτότητα (μπορεί επίσης να ελέγξει αν διαθέτει προφίλ στην wikipedia ή όχι) και αν επαναλαμβάνονται ασυνήθιστα λέξεις και εκφράσεις μέσα στο κείμενο.
  2. Η γλώσσα της τεχνητής νοημοσύνης συνήθως αποτελείται από σύντομες προτάσεις με γλώσσα χωρίς φαντασία, επισημαίνει το Better Business Bureau. Δεν χρησιμοποιούνται ιδιώματα και μεταφορές, δεν χρησιμοποιείται στον λόγο έκθλιψη, αφαίρεση και αποκοπή, χρησιμοποιούνται αντωνυμίες και απλά ρήματα. Στατιστικά στοιχεία χρησιμοποιούνται χωρίς απόδοση σε πηγές, καμιά φορά επιλέγονται περίτεχνες λέξεις, ενώ λείπει η χρήση της καθομιλουμένης.
  3. Οι ψεύτικες εικόνες ή ηχητικά μηνύματα πολλές φορές πιέζουν επιτακτικά τον αποδέκτη να πραγματοποιήσει κάποια ενέργεια, που μοιάζει αμφιλεγόμενη: είτε πρόκειται για την αποστολή χρημάτων σε έναν ξένο, είτε- στην περίπτωση εν προκειμένω ενός πολιτικού μηνύματος- η προσπάθεια να δημιουργήσει κανείς θυμό ή να προκαλέσει συναισθηματικές αντιδράσεις στον αποδέκτη.

Σε φωτογραφίες που παράγονται με γενετική τεχνητή νοημοσύνη, μπορεί κανείς να κάνει ζουμ και να τις ερευνήσει για λογικές ασυνέπειες, όπως περίεργη ασυμμετρία μεταξύ προσώπων και αντικειμένων ή περιγράμματα, ρούχα και αντικείμενα που δεν συνεχίζονται οπτικά στην εικόνα, περίεργη υφή στο δέρμα των ανθρώπων. Αντίστοιχα στα βίντεο μπορεί να ελέγξει για αφύσικο φωτισμό ή αδικαιολόγητες σκιές, περίεργες κινήσεις σώματος ή μάτια που δεν ανοιγοκλείνουν ποτέ. Επίσης μπορεί να χρησιμοποιήσει το πρόγραμμα About This Image της Google.

Κάποια από τα διαθέσιμα δωρεάν εργαλεία ελέγχου της τεχνητής νοημοσύνης είναι τα: Origin της GPTZero, που βοηθά στον εντοπισμό του εάν ένα κείμενο είναι γραμμένο από άνθρωπο ή υπολογιστή. Copyleaks της Chrome, που σκανάρει το γενετικά παραγόμενο ΑΙ περιεχόμενο. Deepware: Ένα σκάντερ βίντεο και φωτογραφιών για deepfake.

Google News icon
Ακολουθήστε το Powergame.gr στο Google News για άμεση και έγκυρη οικονομική ενημέρωση!