Θα μπορούσαν τα εργαλεία τεχνητής νοημοσύνης να διευκολύνουν τη βιοτρομοκρατία;

Τα κορυφαία μοντέλα βελτιώνονται στον σχεδιασμό παθογόνων

Τεχνητή νοημοσύνη © Pexels/Rahul Pandit

Πόσο εύκολα θα μπορούσε ένα κακόβουλο άτομο χωρίς επιστημονική κατάρτιση, αλλά με προσωπικά κίνητρα να δημιουργήσει και να διαδώσει έναν επικίνδυνο παθογόνο; Ο πήχης χαμηλώνει συνεχώς. Οι εξελίξεις στην αλληλούχιση γονιδίων έχουν καταστήσει ευρέως διαθέσιμες τις «συνταγές» για βιολογικούς παράγοντες. Εργαλεία επεξεργασίας γονιδίων όπως το CRISPR θα μπορούσαν θεωρητικά να μετατρέψουν αβλαβή μικρόβια σε θανατηφόρα, ενώ τα εργαλεία που απαιτούνται για τη σύνθεση και την καλλιέργεια επικίνδυνων πρωτεϊνών και ιών μπορούν να αγοραστούν online με λίγες εκατοντάδες δολάρια.

Τώρα, μπήκαν στο παιχνίδι και τα μεγάλα γλωσσικά μοντέλα (LLM). Τους τελευταίους μήνες, οι ειδικοί της βιοασφάλειας εκφράζουν με τρόμο την ανησυχία τους ότι τα εκπαιδευμένα με πλούσια επιστημονική γνώση, συμπεριλαμβανομένων εξειδικευμένων ιολογικών και βακτηριολογικών πληροφοριών, μοντέλα τεχνητής νοημοσύνης θα μπορούσαν να μετατρέψουν τους αρχάριους χρήστες σε ειδικούς από τη μια στιγμή στην άλλη. Πέρυσι, οι OpenAI, Anthropic και Google ενίσχυσαν όλες τα προληπτικά μέτρα ασφαλείας τους. Οι εταιρείες δεν μπορούσαν πλέον να αποκλείσουν το ενδεχόμενο τα μοντέλα τους να βοηθήσουν άτομα με ελάχιστο επιστημονικό υπόβαθρο να αναπτύξουν βιολογικά όπλα (αν και η Anthropic δήλωσε ότι «ο στόχος μας δεν είναι ο πανικός»). Είναι φυσικό να αναρωτιόμαστε αν ο κόσμος βρίσκεται στο κατώφλι μιας εφιαλτικής εποχής βιοτρομοκρατίας με τη βοήθεια της τεχνητής νοημοσύνης — και, αν ναι, τι θα μπορούσε να γίνει.

Ένας επίδοξος βιοτρομοκράτης που επιθυμεί να αποκτήσει έναν κατάλληλο παθογόνο παράγοντα θα μπορούσε σίγουρα να αντλήσει χρήσιμες πληροφορίες από ένα μοντέλο τεχνητής νοημοσύνης. Τον Δεκέμβριο του 2025, το βρετανικό Ινστιτούτο Ασφάλειας Τεχνητής Νοημοσύνης ανέφερε ότι τα μεγάλα μοντέλα μπορούσαν να δημιουργήσουν αξιόπιστα επιστημονικά πρωτόκολλα για τη σύνθεση ιών και βακτηρίων από γενετικά θραύσματα. Τον ίδιο μήνα, δύο επιστήμονες του αμερικανικού κέντρου μελετών RAND Corporation, απέδειξαν ότι τα εμπορικά διαθέσιμα μοντέλα μπορούσαν να βοηθήσουν στο πιο δύσκολο στάδιο της συναρμολόγησης του RNA του ιού της πολιομυελίτιδας.

Ωστόσο, η απελευθέρωση ενός θανατηφόρου παράγοντα «δεν είναι τόσο απλή όσο η εισαγωγή ενός μορίου DNA ή RNA σε κύτταρα και η ελπίδα ότι θα παράγει έναν ιό», λέει ο Michael Imperiale, ομότιμος καθηγητής Μικροβιολογίας και Ανοσολογίας στην Ιατρική Σχολή του Πανεπιστημίου του Μίσιγκαν. Μέρος της πρόκλησης είναι η μετάβαση από τη θεωρία στην πράξη. Το να γνωρίζει κανείς τι πήγε στραβά όταν αποτυγχάνει ένα ευαίσθητο ιολογικό πείραμα και πώς να διορθώσει το πρόβλημα στο επόμενο, είναι μια βασική δεξιότητα που δεν μπορεί να αντληθεί μόνο από ένα εγχειρίδιο. Ωστόσο, τα LLM βοηθούν.

Δείτε για παράδειγμα το Virology Capabilities Test, μια ευρέως υιοθετημένη αξιολόγηση που αναπτύχθηκε από την SecureBio, μια μη κερδοσκοπική οργάνωση με έδρα το Κέιμπριτζ της Μασαχουσέτης. Το τεστ αποτελείται από 322 δύσκολες ερωτήσεις αντιμετώπισης προβλημάτων που αξιολογούν τις πειραματικές ικανότητες ενός χρήστη. Όταν η SecureBio προκάλεσε 36 κορυφαίους εμπειρογνώμονες να λάβουν μέρος σε τμήματα του τεστ πέρυσι, σημείωσαν έναν πενιχρό μέσο όρο 22%. Συγκριτικά, σύμφωνα με μια μελέτη που δημοσιεύθηκε τον Φεβρουάριο από το ερευνητικό τμήμα της αμερικανικής Scale AI, οι αρχάριοι στη βιολογία που έλαβαν μέρος στο τεστ πέτυχαν, με τη βοήθεια των LLM, 28%. Τα LLM που έλαβαν μέρος στο τεστ χωρίς ανθρώπινη παρέμβαση πέτυχαν ακόμα υψηλότερα ποσοστά, που κυμαίνονταν από 55% έως 61% για τα πιο πρόσφατα μοντέλα, ισάξια με την απόδοση ομάδων κορυφαίων ιολόγων.

Τέτοια αποτελέσματα έχουν επηρεάσει τις πρόσφατες αποφάσεις των δημιουργών μοντέλων να εφαρμόσουν περισσότερα μέτρα ασφαλείας. Ωστόσο, μια μελέτη που δημοσιεύθηκε τον Φεβρουάριο από την Active Site, μια μη κερδοσκοπική οργάνωση επίσης στο Κέιμπριτζ, υποδηλώνει ότι τα μοντέλα έχουν ακόμη δρόμο να διανύσουν ως βοηθοί εργαστηρίου στον πραγματικό κόσμο.

Η μελέτη τους ήταν η πρώτη τυχαιοποιημένη ελεγχόμενη δοκιμή που εξέτασε την ώθηση που μπορούν να δώσουν τέτοια εργαλεία σε έναν αρχάριο —ένα φαινόμενο γνωστό ως uplift— σε ένα εργαστήριο πειραματικής βιολογίας. Όταν σε 153 συμμετέχοντες με ελάχιστη εμπειρία στη βιολογία ανατέθηκαν εργασίες σχετικές με την παραγωγή ενός ιού, τα μοντέλα τεχνητής νοημοσύνης δεν έδωσαν σημαντική ώθηση. Μόνο τέσσερις από τους συμμετέχοντες που είχαν τη βοήθεια των LLM ολοκλήρωσαν τις βασικές εργασίες, ένας λιγότερος από την ομάδα ελέγχου που μπορούσε να χρησιμοποιήσει μόνο το διαδίκτυο. Σύμφωνα με τον Joe Torres, έναν από τους συγγραφείς της μελέτης, τα LLM συχνά «παρήγαγαν γρήγορα απαντήσεις που φαινόταν εύλογες αλλά ήταν λανθασμένες», καταδικάζοντας τις προσπάθειες των συμμετεχόντων. Όσοι βασίστηκαν περισσότερο στα chatbots τους δεν είχαν καλύτερη απόδοση από όσους τα χρησιμοποίησαν με φειδώ. Οι συμμετέχοντες και στις δύο ομάδες δήλωσαν ότι το YouTube ήταν πιο χρήσιμη πηγή πληροφόρησης.

Ο Δρ Torres λέει ότι αυτά τα ευρήματα θα πρέπει να μετριάσουν τις ανησυχίες σχετικά με τους κινδύνους που ενέχουν όσοι δεν έχουν επιστημονικό υπόβαθρο. Ωστόσο, όσοι διαθέτουν μεταπτυχιακό τίτλο στη βιολογία, ενδέχεται να έχουν καλύτερες πιθανότητες να επωφεληθούν, λέει η Cassidy Nelson, διευθύντρια πολιτικής βιοασφάλειας στο Centre for Long-term Resilience στο Λονδίνο. Αν και τα μοντέλα τεχνητής νοημοσύνης μπορούν να προσφέρουν στους ειδικούς βοήθεια σε ορισμένους τομείς, σε άλλους προκαλούν εμπόδια. Η Anthropic διαπίστωσε ότι τα Mythos και Opus βοηθούν τους ειδικούς με διδακτορικό να εργάζονται πολύ πιο γρήγορα και να παράγουν καλύτερα πρωτόκολλα για σύνθετα ιολογικά πειράματα, σε σύγκριση με όσους χρησιμοποιούσαν μόνο το διαδίκτυο. Ωστόσο, όλα τα πρωτόκολλα περιείχαν κρίσιμα σφάλματα που θα οδηγούσαν σε αποτυχία σε ένα πραγματικό πείραμα.

Επιπλέον, οι αξιολογητές βιολογικού κινδύνου της Anthropic διαπίστωσαν ότι τα μοντέλα της εταιρείας επέδειξαν τάσεις συκοφαντίας, είχαν τακτικά παραισθήσεις και ήταν υπερβολικά σίγουρα γι’ αυτό που αποκαλούσαν «απίθανες ιδέες». Όταν οι εμπειρογνώμονες πρότειναν μια ανεφάρμοστη ιδέα, το μοντέλο, αντί να προτείνει να δοκιμάσουν κάτι άλλο, συχνά την ανέπτυσσε ενθαρρυντικά. Σε μια δοκιμή, ζητήθηκε από ειδικούς στη βιολογία να καταρτίσουν «ένα λεπτομερές σχέδιο για έναν καταστροφικό βιολογικό παράγοντα» χρησιμοποιώντας το Mythos. Σύμφωνα με τους αξιολογητές, ακόμα και τα καλύτερα σχέδια ήταν ελαττωματικά. Ένας αξιολογητής σημείωσε ότι το Mythos πρότεινε βήματα «που οδηγούσαν εγγυημένα στην αποτυχία».

Τέτοια αποτελέσματα υπογραμμίζουν το θεμελιώδες παράδοξο της ώθησης. Αν ένας χρήστης χρειάζεται τη βοήθεια ενός μοντέλου, δεν θα ξέρει πότε αυτό παρέχει κακές συμβουλές, λέει η Sonia Ben Ouagrham-Gormley, καθηγήτρια στο Πανεπιστήμιο George Mason, η οποία πειραματίστηκε με προφορικές ιστορίες για προγράμματα βιολογικών όπλων του Ψυχρού Πολέμου.

Προς το παρόν, μια τέτοια εξέλιξη μπορεί να προσφέρει κάποια διαβεβαίωση. Ωστόσο, το γεγονός ότι οποιοσδήποτε αρχάριος στη μελέτη της Active Site ήταν σε θέση να συνθέσει έναν ιό δεν πρέπει να αγνοηθεί, λέει ο Luca Righetti, ένας από τους κύριους συγγραφείς της μελέτης, ο οποίος διεξήγαγε την έρευνα ενώ εργαζόταν στο METR, μια ομάδα για την ασφάλεια της τεχνητής νοημοσύνης. Παράλληλα, η τεχνική πρόοδος συνεχίζεται. Κακόβουλοι δρώντες θα μπορούσαν να αξιοποιήσουν αναδυόμενα εργαλεία βιολογικού σχεδιασμού, τα οποία είναι παρόμοια με τα LLM και δημιουργούν αλληλουχίες νουκλεοτιδίων αντί για λέξεις, για να καταστήσουν τα υπάρχοντα παθογόνα πιο επικίνδυνα. Σύμφωνα με μια μελέτη που χρηματοδοτήθηκε από το Υπουργείο Άμυνας των ΗΠΑ, αυτά τα εργαλεία σχεδιασμού, τα οποία έχουν μια σειρά από νόμιμες εφαρμογές, θα μπορούσαν μια μέρα να τροποποιήσουν γονιδιωματικές αλληλουχίες με τρόπους που θα καθιστούσαν τα παθογόνα πιο λοιμογόνα, μεταδοτικά και ανθεκτικά στα αντίμετρα.

Εν τω μεταξύ, οι ερευνητές θα πρέπει να βρουν καλύτερους τρόπους για την εκτίμηση των κινδύνων. Ο τομέας εξακολουθεί να στερείται αξιόπιστων δεδομένων σχετικά με το αν η τεχνητή νοημοσύνη έχει τη μεγαλύτερη επίδραση στα χέρια ειδικών με εμπειρία σε εργαστήρια βιολογικών πειραμάτων ή σε «προχωρημένους χρήστες τεχνητής νοημοσύνης» που είναι ικανοί να αξιοποιούν στο έπακρο τα μοντέλα, αναφέρει ο Δρ Torres. Τα πειράματα που έχουν δημοσιοποιηθεί δεν έχουν ακόμη δείξει αν η τεχνητή νοημοσύνη μπορεί να βοηθήσει στη δημιουργία πραγματικών παθογόνων ιών ή βακτηρίων, τα οποία ενδέχεται να χρειαστεί να αντιμετωπιστούν διαφορετικά από τους καλοήθεις παράγοντες, όπως αυτός που συντέθηκε από τους συμμετέχοντες στη μελέτη Active Site. Ούτε έχουν αξιολογηθεί μελέτες σχετικά με το αν η τεχνητή νοημοσύνη θα μπορούσε να βοηθήσει στη διατήρηση των συνθηκών που απαιτούνται για την παραγωγή ενός βιολογικού παράγοντα για αρκετό χρονικό διάστημα, ώστε να μετατραπεί σε όπλο μεγάλης κλίμακας.

Η κάλυψη αυτών των κενών γνώσης θα απαιτήσει πιθανώς την εμπλοκή της κυβέρνησης, καθώς και λεπτό διεθνή συντονισμό. Καταρχάς, η ανάπτυξη των συστατικών ενός βιολογικού όπλου με σκοπό την επίδειξη της αναβάθμισης θα παραβίαζε πιθανώς τη Σύμβαση για τα Βιολογικά Όπλα. Πέρυσι, μια ομάδα της Microsoft, σχεδίασε 76.000 τροποποιημένες αλληλουχίες DNA για επικίνδυνους παθογόνους παράγοντες, προκειμένου να αποδείξει πώς αυτοί θα μπορούσαν να παρακάμψουν τις διαδικασίες ελέγχου των εταιρειών που παρέχουν υπηρεσίες σύνθεσης νουκλεοτιδίων μέσω ταχυδρομικής παραγγελίας. Ωστόσο, δεν συνθέσανε κανένα από αυτά για να επαληθεύσουν ότι ήταν βιώσιμα. Εάν το έκαναν, τους προειδοποίησαν, αυτό θα μπορούσε να «ερμηνευθεί ως επιδίωξη της ανάπτυξης βιολογικών όπλων».

Λαμβάνοντας υπόψη αυτές τις προκλήσεις, οι προγραμματιστές ίσως χρειαστεί να επιβραδύνουν τον ρυθμό με τον οποίο κυκλοφορούν νέα μοντέλα. Για παράδειγμα, κατά τη διάρκεια των έξι μηνών που χρειάστηκε η Active Site για να δημοσιεύσει τα αποτελέσματα της δοκιμής ώθησης, εμφανίστηκαν τέσσερα νέα πρωτοποριακά μοντέλα με βελτιωμένες βιολογικές δυνατότητες. Ο Δρ Torres σημειώνει ότι αυτά τα μοντέλα φαίνεται να είναι λιγότερο πιθανό να δημιουργούν ψευδείς αλλά εύλογες αλληλουχίες σε σύγκριση με εκείνα που δοκίμασε η ομάδα του στην αρχική μελέτη. Μέχρι τη στιγμή που η ομάδα θα δημοσιεύσει τα αποτελέσματα της δοκιμής παρακολούθησης, η οποία έχει προγραμματιστεί για αργότερα φέτος, οι δυνατότητες των μοντέλων πιθανότατα θα έχουν βελτιωθεί περαιτέρω.

Υπάρχει προηγούμενο που μας αναγκάζει να είμαστε προσεκτικοί. Τον περασμένο μήνα, η Anthropic ανακοίνωσε ότι περιορίζει την πρόσβαση στο Mythos, το κορυφαίο παγκοσμίως μοντέλο τεχνητής νοημοσύνης για την κυβερνοασφάλεια, έως ότου επιλυθούν οι κίνδυνοι που ενέχει. Εάν οι προγραμματιστές διαπιστώσουν ότι ένα μοντέλο παρουσιάζει σημαντική αύξηση στις επικίνδυνες βιολογικές δυνατότητες, θα ήταν εξίσου σοφό να το κρατήσουν κλειδωμένο έως ότου γίνει γνωστό το δυναμικό της ώθησης. Με τόσο υψηλά διακυβεύματα, λίγη υπομονή μπορεί να αποδειχθεί ιδιαίτερα χρήσιμη.

© 2026 The Economist Newspaper Limited. All rights reserved. Άρθρο από τον Economist, το οποίο μεταφράστηκε και δημοσιεύθηκε με επίσημη άδεια από το www.powergame.gr. Το πρωτότυπο άρθρο, στα αγγλικά, βρίσκεται στο www.economist.com