Τεχνολογία ΑΙ χρησιμοποιείται σε επιθέσεις και εκβιασμούς οργανισμών

Το Claude της Αnthropic και άλλα εργαλεία ΑΙ χρησιμοποιούνται από χάκερς για να αποσπούν δεδομένα και να εκβιάζουν ζητώντας μεγάλα λύτρα

Χάκερ © Pixabay

Η Anthropic, η ανερχόμενη εταιρεία τεχνητής νοημοσύνης που ανταγωνίζεται τις OpenAI και xAI του Elon Musk, ανακοίνωσε μια σημαντική απειλή για την κυβερνοασφάλεια, καθώς η τεχνολογία της χρησιμοποιήθηκε σε εκτεταμένες επιθέσεις δεδομένων και εκβιασμούς που επηρεάζουν τουλάχιστον 17 οργανισμούς, συμπεριλαμβανομένων κυβερνητικών φορέων, υγειονομικών υπηρεσιών και διαφόρων κοινωνικών ιδρυμάτων.

Αυτές οι επιθέσεις, οι οποίες χρησιμοποιούν το γνωστό ΑΙ εργαλείο Claude της Anthropic, έχουν προκαλέσει σοβαρές απώλειες, με χρηματικά ποσά από 75.000 έως 500.000 δολάρια σε κρυπτονομίσματα να απαιτούνται ως λύτρα.

Η τεχνητή νοημοσύνη ως εργαλείο των εγκληματιών

Η εκστρατεία αυτή υποδεικνύει μια ανησυχητική εξέλιξη στον κόσμο του κυβερνοεγκλήματος με τη βοήθεια AI, όπου ένας μόνο χρήστης μπορεί να λειτουργήσει όπως μια ολόκληρη ομάδα εγκληματιών, χρησιμοποιώντας την τεχνητή νοημοσύνη για να εκτελέσει επιθέσεις που κανονικά θα απαιτούσαν περισσότερους ανθρώπους και χρόνο. Οι επιθέσεις αφορούσαν την κλοπή δεδομένων υγειονομικής περίθαλψης, οικονομικών πληροφοριών και άλλων ευαίσθητων αρχείων.

Το γεγονός ότι η τεχνολογία και η εφαρμογή Claude της Anthropic, που αρχικά αναπτυσσόταν με στόχο την ενίσχυση της ασφάλειας και της αποτελεσματικότητας της AI, βρέθηκε να χρησιμοποιείται για παράνομες δραστηριότητες, δείχνει πόσο επικίνδυνη μπορεί να γίνει η κακή χρήση αυτής της τεχνολογίας.

Ωστόσο, δεν είναι μόνο η Anthropic που αναφέρει την κακόβουλη χρήση της τεχνολογίας της. Η OpenAI έχει επίσης αναφέρει ότι μια ομάδα που συνδέεται με την Κίνα χρησιμοποίησε το εργαλείο της για να εκτοξεύσει επιθέσεις phishing εναντίον των υπαλλήλων της, ενώ οι ρωσικές, ιρανικές και ισραηλινές προπαγανδιστικές ομάδες χρησιμοποίησαν τη τεχνολογία της για να διαδώσουν παραπλανητικές πληροφορίες.

ΟpenAI συνεργάζεται με Anthropic για μεγαλύτερη ασφάλεια

Η συνεργασία μεταξύ Anthropic και OpenAI ξεχώρισε ως πρόσφατη είδηση, καθώς οι δύο ανταγωνιστές αποφάσισαν να συνεργαστούν για τη δοκιμή της ασφάλειας και της ευθυγράμμισης των μοντέλων τους, προκειμένου να εντοπίσουν πιθανά κενά και επικίνδυνες αδυναμίες.

Ο σκοπός είναι να εκτιμήσουν τις δυνατότητες των εργαλείων τους να παραπλανήσουν ή να παρουσιάσουν λανθασμένα δεδομένα, καθώς και να διασφαλίσουν ότι τα μοντέλα τους εκτελούν τις εντολές τους σωστά.

Η συνεργασία αυτή, που ονομάστηκε η πρώτη σημαντική διασταυρούμενη άσκηση ασφάλειας και ευθυγράμμισης, ήταν μια προσπάθεια να τεθούν σε εφαρμογή βελτιωμένες διαδικασίες ασφαλείας στην τεχνητή νοημοσύνη, δεδομένων των αυξανόμενων ανησυχιών για τις αρνητικές επιπτώσεις της βαριάς χρήσης των μοντέλων AI.

Έφηβος αυτοκτόνησε με καθοδήγηση chatbot

Μάλιστα, μια πρόσφατη αγωγή κατά της OpenAI καταγγέλλει ότι ένας έφηβος αυτοκτόνησε μετά από καθοδήγηση από την τεχνολογία chatbot της εταιρείας.

Η κοινή προσπάθεια των δύο εταιρειών, που περιλαμβάνει την αξιολόγηση των μοντέλων τους πριν την κυκλοφορία νέων εκδόσεων (όπως το GPT-5 της OpenAI και το Claude Opus 4.1 της Anthropic), αποδεικνύει την ανάγκη για περισσότερη διαφάνεια και καλύτερη ασφάλεια στην εφαρμογή της τεχνητής νοημοσύνης.

Η έκταση των κυβερνοεπιθέσεων, και η αναγνώριση της χρήσης AI σε αυτές, δείχνουν την επείγουσα ανάγκη για αυστηρότερους κανονισμούς και συνεργασίες στον τομέα της ασφάλειας των τεχνολογιών AI, για να αποφευχθούν μελλοντικά τέτοιου είδους εκμεταλλεύσεις.