Γ.Δ.
1448.48 -0,48%
ACAG
-0,30%
6.58
CENER
+1,15%
7.94
CNLCAP
-1,26%
7.85
DIMAND
+0,21%
9.57
OPTIMA
0,00%
10.64
TITC
+0,68%
29.75
ΑΑΑΚ
0,00%
7
ΑΒΑΞ
-0,54%
1.484
ΑΒΕ
-0,83%
0.478
ΑΔΜΗΕ
+0,68%
2.235
ΑΚΡΙΤ
+2,70%
0.95
ΑΛΜΥ
-0,69%
2.86
ΑΛΦΑ
-1,70%
1.5925
ΑΝΔΡΟ
-0,29%
6.88
ΑΡΑΙΓ
+1,94%
12.6
ΑΣΚΟ
+1,90%
2.68
ΑΣΤΑΚ
0,00%
7.44
ΑΤΕΚ
0,00%
0.378
ΑΤΡΑΣΤ
+0,25%
8.08
ΑΤΤ
0,00%
11.1
ΑΤΤΙΚΑ
-3,89%
2.47
ΒΑΡΝΗ
0,00%
0.24
ΒΙΟ
0,00%
5.8
ΒΙΟΚΑ
+0,39%
2.6
ΒΙΟΣΚ
+3,16%
1.305
ΒΙΟΤ
0,00%
0.28
ΒΙΣ
0,00%
0.18
ΒΟΣΥΣ
0,00%
2.54
ΓΕΒΚΑ
0,00%
1.675
ΓΕΚΤΕΡΝΑ
0,00%
16.78
ΔΑΑ
-0,12%
8.31
ΔΑΙΟΣ
0,00%
3.78
ΔΕΗ
-0,88%
11.24
ΔΟΜΙΚ
+3,35%
4.785
ΔΟΥΡΟ
0,00%
0.25
ΔΡΟΜΕ
-2,79%
0.349
ΕΒΡΟΦ
-1,18%
1.675
ΕΕΕ
+0,93%
30.36
ΕΚΤΕΡ
-1,69%
4.375
ΕΛΒΕ
0,00%
4.94
ΕΛΙΝ
-1,20%
2.47
ΕΛΛ
-2,09%
14.05
ΕΛΛΑΚΤΩΡ
+1,35%
2.62
ΕΛΠΕ
+2,37%
8.43
ΕΛΣΤΡ
-3,67%
2.36
ΕΛΤΟΝ
-0,67%
1.788
ΕΛΧΑ
-0,92%
1.932
ΕΝΤΕΡ
0,00%
7.85
ΕΠΙΛΚ
0,00%
0.14
ΕΠΣΙΛ
0,00%
12
ΕΣΥΜΒ
-3,62%
1.33
ΕΤΕ
-1,43%
7.56
ΕΥΑΠΣ
-0,62%
3.23
ΕΥΔΑΠ
+0,35%
5.72
ΕΥΡΩΒ
0,00%
2.01
ΕΧΑΕ
-0,19%
5.16
ΙΑΤΡ
+2,41%
1.7
ΙΚΤΙΝ
-0,57%
0.4325
ΙΛΥΔΑ
+3,59%
1.73
ΙΝΚΑΤ
+1,12%
5.4
ΙΝΛΙΦ
+1,98%
5.14
ΙΝΛΟΤ
-0,69%
1.148
ΙΝΤΕΚ
-0,79%
6.26
ΙΝΤΕΡΚΟ
+0,46%
4.4
ΙΝΤΕΤ
0,00%
1.28
ΙΝΤΚΑ
-1,88%
3.65
ΚΑΜΠ
0,00%
2.7
ΚΑΡΕΛ
0,00%
344
ΚΕΚΡ
-1,93%
1.525
ΚΕΠΕΝ
0,00%
2
ΚΛΜ
-2,68%
1.635
ΚΟΡΔΕ
-1,79%
0.55
ΚΟΥΑΛ
-6,81%
1.286
ΚΟΥΕΣ
-2,19%
5.8
ΚΡΕΚΑ
0,00%
0.28
ΚΡΙ
+0,47%
10.7
ΚΤΗΛΑ
+2,22%
1.84
ΚΥΡΙΟ
+0,70%
1.44
ΛΑΒΙ
-0,35%
0.851
ΛΑΜΔΑ
-0,43%
6.89
ΛΑΜΨΑ
0,00%
33.4
ΛΑΝΑΚ
-0,91%
1.09
ΛΕΒΚ
-1,18%
0.336
ΛΕΒΠ
+0,57%
0.35
ΛΙΒΑΝ
0,00%
0.125
ΛΟΓΟΣ
+2,08%
1.47
ΛΟΥΛΗ
0,00%
2.75
ΜΑΘΙΟ
+3,32%
1.09
ΜΕΒΑ
-2,70%
3.96
ΜΕΝΤΙ
+0,33%
3
ΜΕΡΚΟ
0,00%
46.2
ΜΙΓ
-1,97%
3.99
ΜΙΝ
0,00%
0.64
ΜΛΣ
0,00%
0.57
ΜΟΗ
-0,15%
27.16
ΜΟΝΤΑ
+0,31%
3.24
ΜΟΤΟ
-1,15%
3.015
ΜΟΥΖΚ
0,00%
0.73
ΜΠΕΛΑ
-0,14%
29.18
ΜΠΛΕΚΕΔΡΟΣ
+1,50%
3.38
ΜΠΡΙΚ
+0,25%
1.975
ΜΠΤΚ
0,00%
0.47
ΜΥΤΙΛ
+0,37%
38.2
ΝΑΚΑΣ
0,00%
2.78
ΝΑΥΠ
-1,94%
1.01
ΞΥΛΚ
-1,06%
0.28
ΞΥΛΚΔ
0,00%
0.0002
ΞΥΛΠ
+1,79%
0.342
ΞΥΛΠΔ
0,00%
0.0025
ΟΛΘ
+0,45%
22.4
ΟΛΠ
-0,60%
24.8
ΟΛΥΜΠ
0,00%
2.85
ΟΠΑΠ
-1,51%
15.61
ΟΡΙΛΙΝΑ
+0,45%
0.896
ΟΤΕ
-0,90%
14.28
ΟΤΟΕΛ
+0,16%
12.88
ΠΑΙΡ
-1,67%
1.18
ΠΑΠ
-1,13%
2.62
ΠΕΙΡ
-3,30%
3.775
ΠΕΤΡΟ
-1,89%
8.3
ΠΛΑΘ
0,00%
4
ΠΛΑΚΡ
-3,18%
15.2
ΠΡΔ
0,00%
0.296
ΠΡΕΜΙΑ
+0,70%
1.154
ΠΡΟΝΤΕΑ
0,00%
7.8
ΠΡΟΦ
+1,96%
4.69
ΡΕΒΟΙΛ
+5,59%
1.7
ΣΑΡ
-0,34%
11.9
ΣΑΡΑΝ
0,00%
1.07
ΣΑΤΟΚ
0,00%
0.047
ΣΕΝΤΡ
-0,53%
0.378
ΣΙΔΜΑ
-5,00%
1.9
ΣΠΕΙΣ
+1,04%
7.8
ΣΠΙ
+4,46%
0.75
ΣΠΥΡ
0,00%
0.19
ΤΕΝΕΡΓ
-0,71%
18.24
ΤΖΚΑ
+3,13%
1.645
ΤΡΑΣΤΟΡ
0,00%
1.19
ΤΡΕΣΤΑΤΕΣ
+0,12%
1.72
ΥΑΛΚΟ
0,00%
0.18
ΦΙΕΡ
+0,28%
0.359
ΦΛΕΞΟ
+1,86%
8.2
ΦΡΙΓΟ
+2,48%
0.33
ΦΡΛΚ
+0,85%
4.14
ΧΑΙΔΕ
0,00%
0.695

Kaspersky: Eξαπάτηση από ΑΙ εργαλεία δημιουργίας deepfake

Τον τρόπο με τον οποίο μπορούν τα ΑΙ εργαλεία δημιουργίας deepfake να σας εξαπατήσουν αναλύει η Kaspersky.

Οι Beatles ενθουσίασαν για άλλη μια φορά εκατομμύρια θαυμαστές τους σε όλον τον κόσμο κυκλοφορώντας ένα νέο τραγούδι με τη βοήθεια της τεχνητής νοημοσύνης, συνδυάζοντας μέρη μιας παλιάς ηχογράφησης και βελτιώνοντας παράλληλα την ποιότητα ήχου. Ο κόσμος υποδέχτηκε με χαρά το νέο τραγούδι της μπάντας, αλλά υπάρχει και μια πιο σκοτεινή πλευρά της χρήσης AI για τη δημιουργία deepfake φωνών και εικόνων.

Ευτυχώς, τέτοια deepfakes – και τα εργαλεία που χρησιμοποιούνται για τη δημιουργία τους – δεν είναι προς το παρόν καλά ανεπτυγμένα ή ευρέως διαδεδομένα, ωστόσο, οι δυνατότητές τους για χρήση σε συστήματα απάτης είναι εξαιρετικά υψηλές και η τεχνολογία εξελίσσεται διαρκώς.

Τι μπορούν να κάνουν τα deepfakes φωνής;

Το Open AI παρουσίασε πρόσφατα ένα μοντέλο Audio API που μπορεί να δημιουργήσει ανθρώπινη ομιλία και κείμενο με εισαγωγή φωνής. Μέχρι στιγμής, μόνο αυτό το λογισμικό Open AI είναι το πιο κοντινό στην πραγματική ανθρώπινη ομιλία.

Στο μέλλον, τέτοια μοντέλα μπορούν να γίνουν ένα νέο εργαλείο στα χέρια των επιτιθέμενων. Το API ήχου μπορεί να αναπαράγει το καθορισμένο κείμενο με φωνή, ενώ οι χρήστες μπορούν να επιλέξουν με ποια από τις προτεινόμενες επιλογές φωνής θα προφέρεται το κείμενο. Το μοντέλο Open AI, στην υπάρχουσα μορφή του, δεν μπορεί να χρησιμοποιηθεί για τη δημιουργία deepfake φωνών, αλλά είναι ενδεικτικό της ταχείας ανάπτυξης των τεχνολογιών παραγωγής φωνής.

Σήμερα, πρακτικά δεν υπάρχουν συσκευές που να είναι ικανές να παράγουν μια υψηλής ποιότητας deepfake φωνή, που δεν θα διακρίνεται από την πραγματική ανθρώπινη ομιλία. Ωστόσο, τους τελευταίους μήνες, κυκλοφορούν περισσότερα εργαλεία για τη δημιουργία ανθρώπινης φωνής. Προηγουμένως, οι χρήστες χρειάζονταν βασικές δεξιότητες προγραμματισμού, αλλά τώρα γίνεται πιο εύκολο να δουλέψει κανείς με τέτοια εργαλεία. Στο εγγύς μέλλον, μπορούμε να περιμένουμε να δούμε μοντέλα που θα συνδυάζουν τόσο την απλότητα χρήσης όσο και την ποιότητα των αποτελεσμάτων.

Η απάτη με τη χρήση τεχνητής νοημοσύνης είναι ασυνήθιστη, αλλά παραδείγματα «επιτυχημένων» περιπτώσεων είναι ήδη γνωστά. Στα μέσα Οκτωβρίου 2023, ο Αμερικανός επενδυτής επιχειρηματικών κεφαλαίων Tim Draper προειδοποίησε τους followers του στο Twitter ότι οι απατεώνες μπορούν να χρησιμοποιήσουν τη φωνή του σε απάτες. Ο Tim μοιράστηκε ότι τα αιτήματα για χρήματα που γίνονται με τη φωνή του είναι αποτέλεσμα τεχνητής νοημοσύνης, η οποία προφανώς γίνεται όλο και πιο έξυπνη.

Πώς μπορείτε να προστατευτείτε;

Μέχρι στιγμής, η κοινωνία μπορεί να μην αντιλαμβάνεται τα deepfakes φωνής ως πιθανή απειλή στον κυβερνοχώρο. Υπάρχουν πολύ λίγες περιπτώσεις όπου χρησιμοποιούνται με κακόβουλες προθέσεις, επομένως οι τεχνολογίες προστασίας αργούν να εμφανιστούν.

Προς το παρόν, ο καλύτερος τρόπος για να προστατευτείτε είναι να ακούσετε προσεκτικά τι σας λέει αυτός που σας έχει καλέσει στο τηλέφωνο. Εάν η ηχογράφηση είναι κακής ποιότητας, έχει θορύβους και η φωνή ακούγεται ρομποτική, αυτό αρκεί για να μην εμπιστευτείτε τις πληροφορίες που ακούτε.

Ένας άλλος καλός τρόπος για να τεστάρετε αν είναι άνθρωπος αυτός που σας καλεί είναι να του κάνετε προσωπικές ερωτήσεις. Για παράδειγμα, εάν ο καλών αποδειχθεί ότι είναι φωνητικό μοντέλο, μια ερώτηση σχετικά με το αγαπημένο του χρώμα θα τον αφήσει χωρίς απάντηση, καθώς δεν είναι αυτό που συνήθως ζητά ένα θύμα απάτης. Ακόμα κι αν ο επιτιθέμενος καλέσει και αναπαράγει χειροκίνητα την απάντηση σε αυτό το σημείο, η χρονική καθυστέρηση στην απάντηση θα καταστήσει σαφές ότι εξαπατάστε.

Μια ακόμη ασφαλής επιλογή είναι να εγκαταστήσετε μια αξιόπιστη και ολοκληρωμένη λύση ασφαλείας. Αν και δεν μπορούν 100% να ανιχνεύσουν φωνές deepfake, μπορούν να βοηθήσουν τους χρήστες να αποφύγουν ύποπτους ιστότοπους, πληρωμές και λήψεις κακόβουλου λογισμικού, προστατεύοντας τα προγράμματα περιήγησης και ελέγχοντας όλα τα αρχεία στον υπολογιστή.

«Η βασική συμβουλή αυτήν τη στιγμή είναι να μην υπερβάλλουμε και να μην προσπαθούμε να εντοπίσουμε deepfakes φωνής εκεί που δεν υπάρχουν. Προς το παρόν, η διαθέσιμη τεχνολογία είναι απίθανο να είναι αρκετά ισχυρή για να δημιουργήσει μια φωνή που ο άνθρωπος δεν θα μπορούσε να αναγνωρίσει ως τεχνητή. Ωστόσο, πρέπει να γνωρίζετε τις πιθανές απειλές και να είστε προετοιμασμένοι για την προηγμένη απάτη deepfake που θα γίνει μια νέα πραγματικότητα στο εγγύς μέλλον», σχολιάζει ο Dmitry Anikin, Senior Data Scientist της Kaspersky.

Google News icon
Ακολουθήστε το Powergame.gr στο Google News για άμεση και έγκυρη οικονομική ενημέρωση!