Συναγερμός στην επιστημονική κοινότητα για την AI και τη βιοτρομοκρατία

Προβληματισμός για την τεχνητή νοημοσύνη και την προστασία από βιολογικές απειλές. Chatbots δίνουν οδηγίες για παθογόνους οργανισμούς

Τεχνητή Νοημοσύνη (AI) © Freepik

Νέες αποκαλύψεις δείχνουν ότι συστήματα τεχνητής νοημοσύνης μπορούν να παρέχουν επικίνδυνες πληροφορίες για βιολογικά όπλα. Επιστήμονες προειδοποιούν για αυξανόμενους κινδύνους βιοασφάλειας, ενώ οι εταιρείες AI και οι αρχές καλούνται να ενισχύσουν τα μέτρα προστασίας.

Όπως αναφέρει δημοσίευμα των New York Times, νέα δεδομένα προκαλούν έντονη ανησυχία στην επιστημονική κοινότητα, καθώς συστήματα τεχνητής νοημοσύνης φαίνεται να παρέχουν πληροφορίες που θα μπορούσαν να χρησιμοποιηθούν για την ανάπτυξη βιολογικών όπλων. Ειδικοί επισημαίνουν ότι η τεχνολογία διευρύνει το φάσμα πιθανών απειλών, αυξάνοντας τον αριθμό των ατόμων που θα μπορούσαν να προκαλέσουν σοβαρή βλάβη.

Τεχνητή νοημοσύνη και βιοασφάλεια: αυξανόμενοι κίνδυνοι

Ο μικροβιολόγος και ειδικός στη βιοασφάλεια Ντέιβιντ Ρέλμαν, από το Πανεπιστήμιο Στάνφορντ, περιέγραψε μια ανησυχητική εμπειρία όταν, κατά τη διάρκεια δοκιμών ενός chatbot, έλαβε λεπτομερείς οδηγίες για την τροποποίηση επικίνδυνου παθογόνου οργανισμού ώστε να καθίσταται ανθεκτικός σε θεραπείες.

Ακόμη πιο ανησυχητικό, το σύστημα παρουσίασε τρόπους διάδοσης του παθογόνου σε δημόσιους χώρους, εντοπίζοντας πιθανά κενά ασφαλείας. Οι πληροφορίες αυτές ήταν τόσο λεπτομερείς που ο επιστήμονας τις χαρακτήρισε «ανατριχιαστικές».

Η διάδοση ευαίσθητων πληροφοριών μέσω τεχνητής νοημοσύνης

Σύμφωνα με συνομιλίες που εξετάστηκαν από τους The New York Times, ακόμη και δημόσια διαθέσιμα μοντέλα μπορούν να περιγράψουν διαδικασίες όπως η απόκτηση γενετικού υλικού, η μετατροπή του σε επικίνδυνους παράγοντες και η διάδοσή τους.

Ο γενετιστής Κέβιν Έσβελτ από το MIT αποκάλυψε ότι ορισμένα συστήματα παρείχαν ιδέες για τη διασπορά βιολογικών παραγόντων, ακόμη και τρόπους αποφυγής εντοπισμού.

Η κατάσταση αυτή προκαλεί προβληματισμό για τη ρύθμιση της τεχνητής νοημοσύνης. Η κυβέρνηση του Ντόναλντ Τραμπ έχει μειώσει την εποπτεία των κινδύνων που σχετίζονται με την AI, ενώ παράλληλα έχουν περιοριστεί οι πόροι για βιοάμυνα.

Την ίδια στιγμή, εταιρείες όπως η OpenAI, η Google και η Anthropic υποστηρίζουν ότι βελτιώνουν συνεχώς τα μέτρα ασφαλείας, τονίζοντας ότι οι πληροφορίες που παρέχονται δεν επαρκούν από μόνες τους για την υλοποίηση επιθέσεων.

Ένα από τα βασικά προβλήματα είναι η δυνατότητα παράκαμψης των περιορισμών των μοντέλων, γνωστή ως «jailbreaking». Ειδικοί επισημαίνουν ότι τα υπάρχοντα μέτρα ασφαλείας μοιάζουν «εύθραυστα», καθώς μπορούν να παρακαμφθούν με κατάλληλα διατυπωμένα ερωτήματα.

Επιπλέον, παλαιότερες εκδόσεις των μοντέλων παραμένουν διαθέσιμες και συχνά προσφέρουν λιγότερους περιορισμούς.

Ανάμεσα σε κινδύνους και οφέλη

Παρά τους κινδύνους, πολλοί επιστήμονες τονίζουν τα σημαντικά οφέλη της τεχνητής νοημοσύνης στην ιατρική και τη βιολογία. Η δυνατότητα ανάλυσης μεγάλων δεδομένων και επιτάχυνσης ερευνών μπορεί να οδηγήσει σε νέες θεραπείες και καινοτομίες.

Ωστόσο, όπως προειδοποιεί ο επικεφαλής της Anthropic, Ντάριο Αμοντέι, η βιολογία αποτελεί τον πιο ανησυχητικό τομέα λόγω της τεράστιας καταστροφικής της δυνατότητας και της δυσκολίας άμυνας απέναντι σε τέτοιες απειλές.

Συνολικά, η ταχεία εξέλιξη της τεχνητής νοημοσύνης δημιουργεί ένα σύνθετο τοπίο, όπου τα οφέλη συνυπάρχουν με σοβαρούς κινδύνους, καθιστώντας επιτακτική την ανάγκη για ισχυρότερη εποπτεία και διεθνή συνεργασία.