Η τεχνητή νοημοσύνη θα προσθέσει σύντομα τη βιολογία στον κατάλογο των υπεράνθρωπων ικανοτήτων της. Το μοντέλο Mythos της Anthropic —το οποίο δεν έχει κυκλοφορήσει ακόμη στο ευρύ κοινό λόγω των ικανοτήτων του στην ηλεκτρονική παρείσφρηση (hacking)—πρόσφατα πέτυχε στο ένα τρίτο των πιο δύσκολων εργασιών επεξεργασίας δεδομένων που συγκέντρωσαν ειδικοί της βιολογίας. Το Mythos μπόρεσε να κάνει πράγματα που ήταν πέρα από τις δυνατότητες όλων των ανθρώπων που δοκιμάστηκαν, όπως η αντίστροφη μηχανική ενός τύπου κυττάρου από ακατέργαστα δεδομένα DNA.
Η επίλυση προβλημάτων όπως αυτό σημαίνει ότι η τεχνητή νοημοσύνη μπορεί σύντομα να παραχωρήσει στους ανθρώπους εξαιρετικά επικίνδυνες δυνάμεις: να συνθέτουν ιούς, να δημιουργούν νέες νευροτοξίνες ή να συναρμολογούν μια «καθρεφτρική ζωή»[1] ικανή να εξοντώσει τα πάντα. Τέτοιοι κίνδυνοι αποτελούν τη σκοτεινή πλευρά της υπέροχης υπόσχεσης της τεχνητής νοημοσύνης για τη δημοκρατικοποίηση της νοημοσύνης. Είναι επίσης πιθανό μια τεχνητή νοημοσύνη να δώσει σε έναν μοναχικό μισάνθρωπο την εξουσία να εξαφανίσει την ανθρωπότητα.
Οι κίνδυνοι βιοασφάλειας είναι επομένως πολύ χειρότεροι από εκείνους της κυβερνοασφάλειας. Εάν ένας τεχνητός ιός μπορεί να προκαλέσει δισεκατομμύρια θανάτους, η ανθρωπότητα δεν έχει περιθώριο να μάθει από τα λάθη της. Μπορεί να μην υπάρχει το «πλεονέκτημα του αμυνόμενου», στο οποίο η ίδια η τεχνητή νοημοσύνη βοηθά στην πρόληψη του κινδύνου. Το λογισμικό μπορεί να διορθωθεί γρήγορα, αλλά η ανθρώπινη βιολογία είναι πολύ λιγότερο ευπροσάρμοστη. Η δημιουργία μοντέλων ασφαλών για κυκλοφορία θα απαιτήσει επομένως σημαντικές ανακαλύψεις στη θεμελιώδη επιστήμη της τεχνητής νοημοσύνης.
Πόσο χρόνο έχουμε; Τα σημερινά δημόσια μοντέλα τεχνητής νοημοσύνης είναι έξυπνα στα βιβλία, περνάνε με άριστα τις γραπτές εξετάσεις, αλλά ευτυχώς φαίνεται να προσφέρουν, μέχρι στιγμής τουλάχιστον, ελάχιστη πρακτική βοήθεια στους αρχάριους στο εργαστήριο. Όμως η Anthropic, η κατασκευάστρια του (μη δημόσιου) Mythos, προειδοποιεί ότι σύντομα μπορεί να είναι σε θέση να καθοδηγήσει αρχάριους σε δύσκολες εργαστηριακές εργασίες. Το Mythos και τα ομοειδή του δεν έχουν δοκιμαστεί ως προς τις πρακτικές τους ικανότητες, πράγμα που σημαίνει ότι μπορεί να έχουν ήδη την ικανότητα.
Όπως και τα πυρηνικά όπλα, μοντέλα με τέτοια ταλέντα δεν θα είναι ποτέ ασφαλή στα χέρια του κοινού, ενώ οι υπάρχουσες τεχνικές για να γίνουν ασφαλή είναι ανεπαρκείς. Μια επιλογή, για παράδειγμα, είναι να προσπαθήσουμε να τα κάνουμε να αρνούνται επικίνδυνα αιτήματα. Το «jailbreaking» αυτών των μοντέλων, δηλαδή το να τα ξεγελάσουμε ώστε να δώσουν απαγορευμένες απαντήσεις, έχει γίνει δυσκολότερο, αλλά σε μια πρόσφατη μελέτη το 90% των αρχάριων συμμετεχόντων κατάφερε τελικά να αντλήσει απαντήσεις σχετικά με την ιολογία από μοντέλα που θα έπρεπε να είχαν σιωπήσει. Θα ήταν λάθος να στοιχηματίσουμε το μέλλον της ανθρωπότητας σε τέτοιου είδους άμυνες.
Ένα άλλο μέτρο είναι να αποκλείσουμε επικίνδυνα δεδομένα από τις δοκιμές εκπαίδευσης των μοντέλων. Η SecureBio, μια ομάδα εμπειρογνωμόνων, προτείνει την αφαίρεση πληροφοριών σχετικά με τη καθρεφτρική ζωή (mirror life), την απόκτηση ζωντανών παθογόνων, την παράκαμψη των φραγμών βιολογικής άμυνας και την εκτίμηση του πανδημικού δυναμικού. Το πρόβλημα είναι ότι ένα επαρκώς ικανό μοντέλο μπορεί να ανακαλύψει τη γνώση που έχει αφαιρεθεί από τις πρώτες αρχές. Παρόμοιες προσπάθειες για την αφαίρεση υλικού σεξουαλικής κακοποίησης παιδιών από τα δεδομένα εκπαίδευσης των εργαλείων δημιουργίας εικόνων απέτυχαν. Ένα σύστημα που έχει εκπαιδευτεί σε αβλαβείς εικόνες μπορεί να απεικονίσει αισχρότητες που δεν έχει δει ποτέ.
Μια τρίτη ιδέα είναι να επικεντρωθούμε στον φυσικό κόσμο. Οι υπηρεσίες ασφαλείας των κυβερνήσεων θα μπορούσαν και θα έπρεπε να δίνουν μεγαλύτερη προσοχή στους προμηθευτές τεχνολογιών, όπως η σύνθεση DNA, που έχουν τόσο νόμιμες όσο και κακόβουλες χρήσεις. Οι κανονισμοί «Γνώρισε τον πελάτη σου» θα πρέπει να περιορίζουν τέτοιες υπηρεσίες σε καθιερωμένους ερευνητές. Όμως, η δημιουργία ιών δεν είναι σαν την κατασκευή πυρηνικής βόμβας, η οποία απαιτεί σπάνιο και ανιχνεύσιμο υλικό. Στη βιολογία, η χρήση έτοιμης τεχνολογίας για θανατηφόρους σκοπούς είναι σχετικά εύκολη. Το κράτος δεν μπορεί να παρακολουθεί κάθε τρυβλίο Petri.
Επομένως, θα χρειαστούν επιστημονικές καινοτομίες για τη δημιουργία νέων ειδών προστατευτικών μέτρων. Μια πολλά υποσχόμενη προσέγγιση είναι το αντίστοιχο της εγχείρησης εγκεφάλου σε μοντέλα μετά την εκπαίδευσή τους. Μια άλλη τεχνική διδάσκει στα μοντέλα να προτιμούν σε ορισμένους τομείς λανθασμένες απαντήσεις, ενώ μια άλλη θα μπορούσε να είναι η αποκάλυψη και η απενεργοποίηση των νευρώνων που ενεργοποιούνται κατά την εργασία στη συνθετική βιολογία. Κάτι τέτοιο θα απαιτούσε προόδους στη θεμελιώδη επιστήμη της τεχνητής νοημοσύνης, ώστε να ανοιχτεί το «μαύρο κουτί» των υφιστάμενων νευρωνικών δικτύων.
Μέχρι να υπάρξουν τέτοιες τεχνικές, οι κυβερνήσεις πρέπει να περιορίσουν την πρόσβαση σε συστήματα που θα μπορούσαν να διευκολύνουν τη βιοτρομοκρατία. Αυτό έχει ιδιαίτερη σημασία για τα μοντέλα ανοιχτού κώδικα, τα οποία δεν μπορούν να ανακληθούν μόλις διαδοθούν και των οποίων η χρήση δεν μπορεί να παρακολουθείται. Οι υπεύθυνοι ερευνητές θα πρέπει να μπορούν να χρησιμοποιούν την τεχνητή νοημοσύνη για να προωθήσουν τα όρια της επιστήμης — το Isomorphic Labs της DeepMind αναπτύσσει, για παράδειγμα, καινοτόμες θεραπείες για τον καρκίνο — αλλά ακολουθώντας πρωτόκολλα ασφαλείας. Δεν έχει νόημα να αξιοποιούμε την τεχνητή νοημοσύνη για να βελτιώσουμε τις ζωές των ανθρώπων, αν κάτι τέτοιο δίνει παράλληλα στους τρομοκράτες τη δύναμη να εξαφανίσουν το ανθρώπινο είδος.
[1] Αναφέρεται σε μια υποθετική μορφή συνθετικής βιολογίας, όπου οι οργανισμοί αποτελούνται από χημικά «είδωλα» (καθρεφτικές εικόνες) των δομικών στοιχείων της φυσικής ζωής.
© 2026 The Economist Newspaper Limited. All rights reserved. Άρθρο από τον Economist, το οποίο μεταφράστηκε και δημοσιεύθηκε με επίσημη άδεια από το www.powergame.gr. Το πρωτότυπο άρθρο, στα αγγλικά, βρίσκεται στο www.economist.com

