Γ.Δ.
1454.98 +1,38%
ACAG
+0,61%
6.6
CENER
+0,66%
7.57
CNLCAP
+4,43%
8.25
DIMAND
-0,73%
9.54
OPTIMA
+3,89%
10.68
TITC
+2,49%
28.8
ΑΑΑΚ
+0,72%
7
ΑΒΑΞ
+2,60%
1.498
ΑΒΕ
+0,86%
0.471
ΑΔΜΗΕ
+0,91%
2.22
ΑΚΡΙΤ
-1,60%
0.925
ΑΛΜΥ
0,00%
2.8
ΑΛΦΑ
+1,04%
1.648
ΑΝΔΡΟ
+0,88%
6.86
ΑΡΑΙΓ
-0,98%
12.14
ΑΣΚΟ
-1,52%
2.6
ΑΣΤΑΚ
+1,63%
7.46
ΑΤΕΚ
0,00%
0.378
ΑΤΡΑΣΤ
+0,50%
8.1
ΑΤΤ
+0,45%
11.1
ΑΤΤΙΚΑ
+1,69%
2.4
ΒΑΡΝΗ
0,00%
0.24
ΒΙΟ
+2,16%
5.67
ΒΙΟΚΑ
0,00%
2.67
ΒΙΟΣΚ
+1,59%
1.28
ΒΙΟΤ
+2,19%
0.28
ΒΙΣ
-5,00%
0.19
ΒΟΣΥΣ
0,00%
2.46
ΓΕΒΚΑ
+1,21%
1.675
ΓΕΚΤΕΡΝΑ
+1,48%
16.5
ΔΑΑ
-0,81%
8.35
ΔΑΙΟΣ
0,00%
3.78
ΔΕΗ
+1,59%
11.48
ΔΟΜΙΚ
+1,41%
4.66
ΔΟΥΡΟ
0,00%
0.25
ΔΡΟΜΕ
+1,72%
0.355
ΕΒΡΟΦ
-0,30%
1.675
ΕΕΕ
+1,63%
29.94
ΕΚΤΕΡ
-0,22%
4.55
ΕΛΒΕ
0,00%
4.94
ΕΛΙΝ
+1,25%
2.43
ΕΛΛ
0,00%
14.3
ΕΛΛΑΚΤΩΡ
+3,15%
2.62
ΕΛΠΕ
+1,33%
8.375
ΕΛΣΤΡ
-0,81%
2.44
ΕΛΤΟΝ
-3,47%
1.78
ΕΛΧΑ
+1,26%
1.928
ΕΝΤΕΡ
+0,13%
7.85
ΕΠΙΛΚ
-1,90%
0.155
ΕΠΣΙΛ
+18,81%
12
ΕΣΥΜΒ
+3,25%
1.27
ΕΤΕ
+1,85%
7.7
ΕΥΑΠΣ
+0,93%
3.25
ΕΥΔΑΠ
+0,35%
5.75
ΕΥΡΩΒ
+1,51%
2.02
ΕΧΑΕ
+1,77%
5.18
ΙΑΤΡ
0,00%
1.615
ΙΚΤΙΝ
+0,46%
0.44
ΙΛΥΔΑ
+10,61%
1.72
ΙΝΚΑΤ
+1,71%
5.05
ΙΝΛΙΦ
+3,75%
4.98
ΙΝΛΟΤ
+0,71%
1.134
ΙΝΤΕΚ
+1,45%
6.29
ΙΝΤΕΡΚΟ
+0,91%
4.44
ΙΝΤΕΤ
+4,35%
1.32
ΙΝΤΚΑ
+2,02%
3.54
ΚΑΜΠ
0,00%
2.7
ΚΑΡΕΛ
0,00%
342
ΚΕΚΡ
-1,56%
1.58
ΚΕΠΕΝ
0,00%
2
ΚΛΜ
+0,32%
1.59
ΚΟΡΔΕ
+8,24%
0.552
ΚΟΥΑΛ
+3,36%
1.416
ΚΟΥΕΣ
+8,70%
6
ΚΡΕΚΑ
0,00%
0.28
ΚΡΙ
-0,45%
10.95
ΚΤΗΛΑ
0,00%
1.8
ΚΥΡΙΟ
-1,07%
1.385
ΛΑΒΙ
+3,61%
0.86
ΛΑΜΔΑ
+2,20%
6.97
ΛΑΜΨΑ
+1,21%
33.4
ΛΑΝΑΚ
0,00%
1.13
ΛΕΒΚ
-2,86%
0.34
ΛΕΒΠ
+16,07%
0.39
ΛΙΒΑΝ
0,00%
0.125
ΛΟΓΟΣ
+2,16%
1.42
ΛΟΥΛΗ
+3,77%
2.75
ΜΑΘΙΟ
0,00%
1.055
ΜΕΒΑ
+2,53%
4.06
ΜΕΝΤΙ
+4,53%
3
ΜΕΡΚΟ
0,00%
46.2
ΜΙΓ
+2,13%
4.07
ΜΙΝ
-1,55%
0.635
ΜΛΣ
0,00%
0.57
ΜΟΗ
+0,08%
26.62
ΜΟΝΤΑ
+0,33%
3.07
ΜΟΤΟ
+1,17%
3.015
ΜΟΥΖΚ
0,00%
0.73
ΜΠΕΛΑ
+0,56%
28.7
ΜΠΛΕΚΕΔΡΟΣ
0,00%
3.33
ΜΠΡΙΚ
+0,78%
1.95
ΜΠΤΚ
+6,67%
0.48
ΜΥΤΙΛ
+0,74%
38
ΝΑΚΑΣ
0,00%
2.92
ΝΑΥΠ
+0,98%
1.035
ΞΥΛΚ
-4,71%
0.283
ΞΥΛΚΔ
0,00%
0.0002
ΞΥΛΠ
+3,03%
0.34
ΞΥΛΠΔ
0,00%
0.0025
ΟΛΘ
-0,89%
22.3
ΟΛΠ
+2,06%
24.75
ΟΛΥΜΠ
+1,05%
2.9
ΟΠΑΠ
+0,86%
16.42
ΟΡΙΛΙΝΑ
+1,02%
0.892
ΟΤΕ
+0,84%
14.34
ΟΤΟΕΛ
+0,79%
12.8
ΠΑΙΡ
+1,67%
1.22
ΠΑΠ
0,00%
2.61
ΠΕΙΡ
+1,50%
3.98
ΠΕΤΡΟ
+0,94%
8.62
ΠΛΑΘ
+2,38%
4.09
ΠΛΑΚΡ
-0,65%
15.4
ΠΡΔ
0,00%
0.296
ΠΡΕΜΙΑ
+0,52%
1.158
ΠΡΟΝΤΕΑ
0,00%
7.8
ΠΡΟΦ
+3,14%
4.6
ΡΕΒΟΙΛ
+0,32%
1.59
ΣΑΡ
+1,73%
11.78
ΣΑΡΑΝ
0,00%
1.07
ΣΑΤΟΚ
0,00%
0.047
ΣΕΝΤΡ
0,00%
0.379
ΣΙΔΜΑ
+1,01%
2
ΣΠΕΙΣ
-1,26%
7.84
ΣΠΙ
-1,39%
0.71
ΣΠΥΡ
0,00%
0.19
ΤΕΝΕΡΓ
+0,72%
18.23
ΤΖΚΑ
-0,60%
1.65
ΤΡΑΣΤΟΡ
0,00%
1.19
ΤΡΕΣΤΑΤΕΣ
+0,59%
1.718
ΥΑΛΚΟ
0,00%
0.18
ΦΙΕΡ
+1,37%
0.371
ΦΛΕΞΟ
0,00%
8.4
ΦΡΙΓΟ
+2,55%
0.322
ΦΡΛΚ
-1,57%
4.07
ΧΑΙΔΕ
-0,71%
0.695

Πώς τα εργαλεία AI μπορούν να χειραγωγήσουν τις εκλογές

Πριν από έναν περίπου μήνα, στους προκριματικούς των Ρεπουμπλικανών στο Νιου Χάμσαϊρ των ΗΠΑ και καθώς οι ψηφοφόροι ετοιμάζονταν να μεταβούν στις κάλπες, αρκετοί έλαβαν μία ρομποτική κλήση δημιουργημένη από εργαλείο τεχνητής νοημοσύνης. Περιείχε ένα μήνυμα με την φωνή του προέδρου Τζο Μπάιντεν που καλούσε τους ψηφοφόρους να μην ψηφίσουν για να μην ενισχύσουν τον Ντόναλντ Τραμπ. Το ψεύτικο μήνυμα, που ακουγόταν ακριβώς σαν τον Μπάιντεν, είναι μία καλή απόδειξη της προόδου της τεχνολογίας deepfake, αλλά και μία τρομακτική ματιά στο πιθανό μέλλον των εκλογών ανά τον πλανήτη- ξεκινώντας από τις ευρωεκλογές, αλλά και τις αμερικανικές προεδρικές του Νοεμβρίου.


Το μήνυμα αναγνωρίστηκε ως ψεύτικο από το τμήμα Δικαιοσύνης της Πολιτείας του Νιου Χάμσαϊρ, το οποίο ειδοποίησε το κοινό για το πλαστό μήνυμα και κάλεσε τους πολίτες να μεταβούν στις κάλπες. Όπως αποδείχθηκε, η κλήση δημιουργήθηκε από την τεξανή εταιρεία Life Corporation, που χρησιμοποίησε μία «βιβλιοθήκη» deepfake που δημιουργήθηκε από την startup τεχνητής νοημοσύνης ElevenLabs. Στην Life Corporation απαγγέλθηκαν κατηγορίες για συμμετοχή σε καταστολή ψήφου.

Η μη κυβερνητική οργάνωση Brennan Center for Justice είχε ήδη προειδοποιήσει προ τριετίας, αναφερόμενη στη δεκαετία 2020-2030 πως «ξεκινούσε η εποχή του deepfake στις εκλογές», όχι μόνο στην Αμερική, αλλά σε ολόκληρο τον πλανήτη. «Ρεπουμπλικανοί υποψήφιοι των προκριματικών χρησιμοποιούν ήδη την τεχνητή νοημοσύνη σε διαφημιστικές καμπάνιες» ανέφερε το κέντρο. Επικαλούνταν μάλιστα το παράδειγμα της προεκλογικής εκστρατείας του κυβερνήτη της Φλόριντα, Ρον ΝτεΣάντις, ο οποίος δημοσίευσε φωτογραφίες δημιουργημένες με εργαλεία ΑΙ του πρώην προέδρου Ντόναλντ Τραμπ να αγκαλιάζει τον Άντονι Φάουτσι, ο οποίος «απορρόφησε» προσωπικά τη δυσαρέσκεια των Ρεπουμπλικανών ψηφοφόρων εξαιτίας των πολιτικών που συνέστησε να υιοθετηθούν στη διάρκεια της πανδημίας.

«Ένα πράγμα που παρατηρούμε είναι η διασταύρωση της τεχνολογίας της τεχνητής νοημοσύνης με τα δίκτυα «pink slime», που είναι κομματικά δίκτυα ενημέρωσης που παρουσιάζουν εαυτόν ως αξιόπιστα τοπικά ΜΜΕ και κάνουν άνοιγμα προς τους ψηφοφόρους με διαφήμιση στο Facebook», ανέφερε. Στόχος το διαφημιστικό κέρδος, το clickbait και η αλίευση δεδομένων, με ένα εργαλείο γενετικής τεχνητής νοημοσύνης που- όπως αναφέρει- αναπτύσσεται σε ευρεία κλίμακα χρησιμοποιώντας bots της γενετικής νοημοσύνης μέσω του Chat GPT της Open AI και του Bard της Google.

Propublica: Πώς να εντοπίσει κανείς (και να καταπολεμήσει) την εκλογική παραπληροφόρηση

Σύμφωνα με τον εκλογικό οδηγό που είχε δημοσιεύσει το κέντρο έρευνας ProPublica στις ΗΠΑ το 2020, υπάρχουν επτά μορφές διατάραξης της πληροφόρησης σχετικά με τις εκλογές.

Κατ’ αρχήν κάνει διαχωρισμό ανάμεσα στον όρο «disinformation» και «misinformation», με τον πρώτο να αναφέρεται σε περιεχόμενο που σκόπιμα επιδιώκει να παραποιήσει την αλήθεια και να βλάψει, ενώ τον δεύτερο να αναφέρεται στην αναπαραγωγή ψευδών ειδήσεων από ανθρώπους που πιστεύουν πως είναι αληθινές. Τονίζει πως το ψεύτικο περιεχόμενο συνήθως απευθύνεται στο συναίσθημά μας και συνιστά τον διπλοέλεγχο άρθρων και εικόνων, πριν την αναδημοσίευσή τους.

Συγκεκριμένα, οι επτά πιο συνηθισμένες μορφές παραπληροφόρησης είναι οι εξής:

  1. Σάτιρα ή παρωδία: Πρόκειται για περιεχόμενο που δεν έχει στόχο να παραπληροφορήσει, αλλά μπορεί να εκληφθεί ως κυριολεκτικό από το κοινό, οδηγώντας σε παραπληροφόρηση
  2. Παραπλανητικό περιεχόμενο: Παραπλανητική χρήση πληροφοριών με σκοπό την παγίδευση ενός ατόμου ή την παρουσίαση ενός θέματος υπό ορισμένη οπτική γωνία
  3. Ψεύτικο περιεχόμενο: Όταν κάποιος οικειοποιείται πραγματικά πρόσωπα/πηγές
  4. Κατασκευασμένο περιεχόμενο: Όταν οι πληροφορίες που αναπαράγονται είναι 100% ψεύτικες, με σκοπό να παραπληροφορήσουν και να βλάψουν
  5. Ψεύτικες διασυνδέσεις: Όταν οι τίτλοι, η οπτική πληροφορία ή τα αποσπάσματα που παρατίθενται δεν υποστηρίζουν το περιεχόμενο αλλά είναι παραπλανητικά
  6. Ψευδή συμφραζόμενα: Όταν αληθινό περιεχόμενο συμπληρώνεται από συμφραζόμενα τα οποία δεν είναι αληθινά
  7. Κατασκευασμένα συμφραζόμενα: Όταν αληθινή πληροφορία ή εικόνα παραποιείται, με σκοπό να παραπλανήσει

Και μόνο όλες αυτές οι διαφορετικές περιπτώσεις, καταδεικνύουν πόσοι ξεχωριστοί τρόποι και αποχρώσεις υπάρχουν στις δυνατότητες παραπληροφόρησης του ευρέως κοινού, κάτι που γίνεται ιδιαίτερα εμφανές σε προεκλογικές περιόδους.

Με ποιόν τρόπο εμπλέκεται η τεχνητή νοημοσύνη στην παραγωγή τέτοιου περιεχομένου;

Όπως εξηγεί στο Mashable η Μακένζι Σαντέγκι, συντάκτρια σε θέματα τεχνητής νοημοσύνης και ξένης επιρροής στην οργάνωση παρακολούθησης της παραπληροφόρησης NewsGuard, η NewsGuard έχει εντοπίσει την χρήση τεχνητής νοημοσύνης σε όλες τις μορφές, προκειμένου να την «εργαλειοποιήσει», από την παραγωγή ολόκληρων ειδησεογραφικων ιστοσελίδων χαμηλής ποιότητας μέχρι deepfake βίντεο, ηχητικά και φωτογραφίες.

Μέχρι σήμερα, η ομάδα της NewsGuard έχει εντοπίσει 766 περιπτώσεις αναξιόπιστων ειδήσεων και 49 ενημερωτικών ιστοσελίδων δημιουργημένων μέσω τεχνητής νοημοσύνης (UAINS ή Unreliable AI-Generated News and information websites) σε 15 γλώσσες: κινέζικα, αραβικά, τουρκικά, τσέχικα, ολλανδικά, αγγλικά, γαλλικά, γερμανικά, ιταλικά, πορτογαλικά, ισπανικά, κορεατικά, ινδονησιακά, ταϊλανδέζικα και φιλιππινέζικα.

Αυτές οι ιστοσελίδες συνήθως έχουν γενικά ονόματα που παραπέμπουν σε υπαρκτές ιστοσελίδες, π.χ. iBusiness Day, Ireland Top News, Daily Time Update, τα οποία σε κάποιον αναγνώστη μπορούν να φανούν ως υπαρκτά και καθιερωμένα. Δημοσιεύουν κείμενα με ελάχιστη ανθρώπινη επίβλεψη, γραμμένα στον μεγαλύτερο βαθμό ή εντελώς από bots. Συνήθως έχουν επεξεργαστεί δεκάδες και ενίοτε εκατοντάδες άρθρα σχετικά με ένα εύρος αντικειμένων που αφορούν την πολιτική, την τεχνολογία, τη διασκέδαση και τα ταξίδια. Κάποιες φορές περιλαμβάνουν ψεύτικες πληροφορίες που αφορούν πολιτικούς ηγέτες. Ένα τέτοιο παράδειγμα ήταν η είδηση πως ο ψυχίατρος του Μπέντζαμιν Νετανιάχου αυτοκτόνησε, την οποία στη συνέχεια αναπαρήγαγαν ιρανικά σάιτ, εμφανίζοντάς το ως απόδειξη ότι ο Ισραηλινός πρωθυπουργός είναι ψυχικά ασταθής. Άλλες ψευδείς ειδήσεις αφορούν φάρσες για θανάτους διασήμων, ψεύτικα συμβάντα και άρθρα που παρουσιάζουν παλιότερες ειδήσεις με παλιότερες φωτογραφίες, σαν να έχουν συμβεί τώρα.

Σύμφωνα με την Σαντέγκι, οι 49 ιστοσελίδες που εντόπισαν το 2023, είναι πολύ πιθανό να φτάνουν πλέον τις 1000 μέχρι τη στιγμή των αμερικανικών προεδρικών εκλογών τον Νοέμβριο. Κάποιες από αυτές, παράγουν και θα παραγάγουν, εκατοντάδες τέτοια άρθρα καθημερινά!

Ποια εργαλεία υπάρχουν για να διαφυλάξει κανείς το αληθινό περιεχόμενο και να ελέγξει το πλαστό;

Μία από τις λύσεις που επεξεργάζονται ήδη οι εταιρείες τεχνητής νοημοσύνης είναι το υδατογράφημα σε γενετικά κατασκευασμένες εικόνες και βίντεο, ώστε να πιστοποιείται η τεχνολογία προέλευσης του περιεχομένου. Έτσι κάποιος μπορεί να ελέγξει το οπτικό περιεχόμενο για την προέλευσή του. Το 2023, η OpenAI, η Alphabet και η Meta, δεσμεύθηκαν να αναπτύξουν τέτοιες τεχνολογίες υδατογράφησης. Τον Οκτώβριο, η Meta παρουσίασε την Stable Signature, τη μέθοδο προσθήκης υδατογραφημάτων σε εικόνες που δημιουργήθηκαν με τη χρήση των δικών της «ανοιχτής πηγής» (open source) εργαλείων τεχνητής νοημοσύνης. Η Stable Signature δηλαδή δεν προσθέτει υδατογράφημα σε μία ήδη δημιουργημένη εικόνα, αλλά τοποθετεί αόρατα σημάδια που μπορούν να αποδοθούν σε συγκεκριμένους χρήστες των δικών της μοντέλων γενετικής ΑΙ. Τον φετινό Φεβρουάριο, η OpenAI ανακοίνωσε ότι τοποθετεί αντίστοιχα αόρατα εντοπίσιμα υδατογραφήματα σε όλες τις εικόνες που παράγονται με το πρόγραμμα DALL-E 3, ακολουθώντας τις οδηγίες της Συμμαχίας για την Προέλευση και την Αυθεντικότητα του Περιεχομένου (C2PA), ενός τεχνικού στάνταρτ που χρησιμοποιείται από την Adobe, τη Microsoft, το BBC και άλλες εταιρείες για να εντοπίζουν τα deepfakes και την παραπληροφόρηση στο δημοσιογραφικό περιεχόμενο.

Πώς να ελέγξει ένας θεατής/αναγνώστης αν το περιεχόμενο είναι ψευδές

  1. Στις ψεύτικες ιστοσελίδες, παρατηρείται συχνά η χρήση λογοκλοπής και «παραίσθηση» (προκειται για την τάση των εργαλείων της τεχνητής νοημοσύνης να παράγουν ψευδή γεγονότα. Η επανάληψη, η αναπαραγωγή περιεχομένου χωρίς να αποδίδονται οι πηγές, η παρουσίαση γεγονότων που αψηφούν την κοινή λογική, είναι ενδείξεις παραπληροφόρησης. Ο αναγνώστης μπορεί να ελέγξει αν το όνομα του συντάκτη είναι υπαρκτό (να αναζητήσει δηλαδή αν εμφανίζεται και σε άλλα άρθρα), αν η ιστοσελίδα εμφανίζει αξιόπιστη ταυτότητα (μπορεί επίσης να ελέγξει αν διαθέτει προφίλ στην wikipedia ή όχι) και αν επαναλαμβάνονται ασυνήθιστα λέξεις και εκφράσεις μέσα στο κείμενο.
  2. Η γλώσσα της τεχνητής νοημοσύνης συνήθως αποτελείται από σύντομες προτάσεις με γλώσσα χωρίς φαντασία, επισημαίνει το Better Business Bureau. Δεν χρησιμοποιούνται ιδιώματα και μεταφορές, δεν χρησιμοποιείται στον λόγο έκθλιψη, αφαίρεση και αποκοπή, χρησιμοποιούνται αντωνυμίες και απλά ρήματα. Στατιστικά στοιχεία χρησιμοποιούνται χωρίς απόδοση σε πηγές, καμιά φορά επιλέγονται περίτεχνες λέξεις, ενώ λείπει η χρήση της καθομιλουμένης.
  3. Οι ψεύτικες εικόνες ή ηχητικά μηνύματα πολλές φορές πιέζουν επιτακτικά τον αποδέκτη να πραγματοποιήσει κάποια ενέργεια, που μοιάζει αμφιλεγόμενη: είτε πρόκειται για την αποστολή χρημάτων σε έναν ξένο, είτε- στην περίπτωση εν προκειμένω ενός πολιτικού μηνύματος- η προσπάθεια να δημιουργήσει κανείς θυμό ή να προκαλέσει συναισθηματικές αντιδράσεις στον αποδέκτη.

Σε φωτογραφίες που παράγονται με γενετική τεχνητή νοημοσύνη, μπορεί κανείς να κάνει ζουμ και να τις ερευνήσει για λογικές ασυνέπειες, όπως περίεργη ασυμμετρία μεταξύ προσώπων και αντικειμένων ή περιγράμματα, ρούχα και αντικείμενα που δεν συνεχίζονται οπτικά στην εικόνα, περίεργη υφή στο δέρμα των ανθρώπων. Αντίστοιχα στα βίντεο μπορεί να ελέγξει για αφύσικο φωτισμό ή αδικαιολόγητες σκιές, περίεργες κινήσεις σώματος ή μάτια που δεν ανοιγοκλείνουν ποτέ. Επίσης μπορεί να χρησιμοποιήσει το πρόγραμμα About This Image της Google.

Κάποια από τα διαθέσιμα δωρεάν εργαλεία ελέγχου της τεχνητής νοημοσύνης είναι τα: Origin της GPTZero, που βοηθά στον εντοπισμό του εάν ένα κείμενο είναι γραμμένο από άνθρωπο ή υπολογιστή. Copyleaks της Chrome, που σκανάρει το γενετικά παραγόμενο ΑΙ περιεχόμενο. Deepware: Ένα σκάντερ βίντεο και φωτογραφιών για deepfake.

Google News icon
Ακολουθήστε το Powergame.gr στο Google News για άμεση και έγκυρη οικονομική ενημέρωση!