Μια ασυνήθιστη διαμάχη ξέσπασε την προηγούμενη εβδομάδα για την τεχνητή νοημοσύνη. Η διαμάχη της κυβέρνησης Trump με την Anthropic, ένα από τα κορυφαία αμερικανικά εργαστήρια τεχνητής νοημοσύνης, για την πρόσβαση του Πενταγώνου στα μοντέλα της θα αποτελέσει μια δοκιμασία για το ποιος ελέγχει την πιο ισχυρή τεχνολογία στον κόσμο. Το αποτέλεσμά της θα διαμορφώσει τα πάντα, από την εθνική ασφάλεια της Αμερικής μέχρι την ανάπτυξη της τεχνητής νοημοσύνης. Θα μπορούσε επίσης να καταστήσει πιο πιθανή μια καταστροφή που θα πραγματοποιηθεί με τη βοήθεια της ΤΝ.
Κάθε μία από αυτές τις περιπτώσεις, θα πρέπει να προκαλεί ανησυχία. Στην πρώτη μεγάλη σύγκρουση μεταξύ της ανησυχίας για την ασφάλεια της τεχνητής νοημοσύνης και της επιτακτικής ανάγκης να τρέξουμε μπροστά σε μια προσπάθεια να κυριαρχήσουμε στην τεχνολογία, η κυβέρνηση της Αμερικής έδειξε ξεκάθαρα ότι είναι με την πλευρά της ταχύτητας. Επειδή οι από καιρό επίφοβοι κίνδυνοι για την ασφάλεια που αφορούν την τεχνητή νοημοσύνη γίνονται ήδη πραγματικότητα, περισσότερες δοκιμές βρίσκονται προ των πυλών. Οι ειδικοί προειδοποιούν ότι ο κόσμος οδεύει προς έναν Αρμαγεδδώνα εξαιτίας της ΤΝ. Η απερίσκεπτη επιλογή του κινδύνου από την Αμερική τον καθιστά πιο πιθανό.
Το Πεντάγωνο ήρθε σε ρήξη με την Anthropic λόγω της απαίτησης της κυβέρνησης να της επιτραπεί να χρησιμοποιεί τα μοντέλα της εταιρείας για όλους τους νόμιμους σκοπούς. Η Anthropic (χορηγός των εκπομπών «Insider» του Economist) αρνήθηκε για δύο λόγους.
Πρώτον, ο Dario Amodei, ο διευθύνων σύμβουλος της Anthropic, φοβάται ότι η ΤΝ θα μπορούσε μια μέρα να χρησιμοποιηθεί για την ανάλυση των ψηφιακών αποτυπωμάτων των απλών Αμερικανών, μια μορφή επιτήρησης που οι σημερινοί νόμοι δεν έχουν προλάβει να οριοθετήσουν. Υπό τον κ. Trump, η Υπηρεσία Μετανάστευσης και Τελωνείων χρησιμοποιεί ήδη την τεχνητή νοημοσύνη για την ανάλυση τεράστιου όγκου δεδομένων προκειμένου να επιταχύνει τις απελάσεις. Η επέκταση αυτής της διαδικασίας στους Αμερικανούς δεν φαίνεται μακρινό ενδεχόμενο.
Δεύτερον, ο κ. Amodei ανησυχεί για τη χρήση αυτόνομων όπλων. Η τεχνητή νοημοσύνη παραμένει απρόβλεπτη και ανώριμη καθώς και εξαιρετικά ισχυρή. Επειδή η τεχνολογία θα μπορούσε να ξεφύγει, υποστηρίζει, είναι πολύ νωρίς για να βγάλουμε τους ανθρώπους από την εικόνα.
Η κυβέρνηση απάντησε στην Anthropic με οργή και αντίποινα. Ο πρόεδρος Donald Trump χαρακτήρισε την εταιρεία «αριστερούς τρελούς» που προσπαθούν να «υπαγορεύσουν» τον τρόπο με τον οποίο ο «μεγάλος στρατός της Αμερικής πολεμά και κερδίζει πολέμους». Έδωσε προθεσμία έξι μηνών στην ομοσπονδιακή κυβέρνηση να καταγγείλει τις συμβάσεις της με την Anthropic. Ο Pete Hegseth, ο υπουργός Πολέμου, λέει ότι θα χαρακτηρίσει την εταιρεία ως «κίνδυνο για την εφοδιαστική αλυσίδα».
Αυτό μπορεί να είναι απλώς επίδειξη ισχύος. Tα μοντέλα της Anthropic χρησιμοποιούνται ήδη στις επιθέσεις κατά του Ιράν. Ωστόσο, αν η απειλή υλοποιηθεί, τότε για πρώτη φορά μια αμερικανική εταιρεία θα χαρακτηριστεί ως κίνδυνος για την εθνική ασφάλεια και θα της απαγορευτεί να συναλλάσσεται με αμυντικούς εργολάβους. Στις 4 Μαρτίου η Anthropic βρέθηκε σε κατάσταση διαχείρισης κρίσης, μετά τη διαρροή εσωτερικού σημειώματος του κ. Amodei, στο οποίο αναφερόταν ότι η εταιρεία δέχεται πιέσεις επειδή δεν «εγκωμιάζει τον τον Trump σαν να ήταν δικτάτορας».
Με μια κανονική κυβέρνηση και μια κανονική τεχνολογία, η διαφορά θα είχε σίγουρα διευθετηθεί γρήγορα, αλλά αυτή δεν είναι μια κανονική κυβέρνηση και η τεχνητή νοημοσύνη δεν είναι μια κανονική τεχνολογία. Το ενημερωτικό μας δελτίο αυτή την εβδομάδα εξηγεί πώς και οι δύο φόβοι του κ. Amodei αντικατοπτρίζουν ευρύτερες ανησυχίες σχετικά με τους κινδύνους που εγκυμονεί. Όπως και με την ενισχυμένη κυβερνητική επιτήρηση, υπάρχουν αρκετές ανησυχίες ότι η τεχνητή νοημοσύνη είναι πολύ ισχυρή. Τον Δεκέμβριο το chatbot Claude της Anthropic έλαβε εντολή από χάκερς να εισβάλει στα αρχεία της μεξικανικής κυβέρνησης, υποτίθεται στο πλαίσιο ενός τεστ ασφαλείας. Βρήκε και εκμεταλλεύτηκε ευπάθειες και έκλεψε 150gb με στοιχεία φορολογουμένων, αρχεία ψηφοφόρων και διαπιστευτήρια υπαλλήλων. Οι ερευνητές εκτιμούν ότι η τεχνητή νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για την ανάπτυξη αναλόγων της ρικίνης, της τοξίνης που δεν μπορεί να εντοπιστεί με συμβατικές μεθόδους, λόγω καινοτόμων πρωτεϊνικών δομών.
Κάποιες άλλες ανησυχίες, όπως και με τα αυτόνομα όπλα, είναι ότι τα μοντέλα θα μπορούσαν να σταματήσουν να λαμβάνουν υπόψη τους τις ανθρώπινες οδηγίες. Η Anthropic πιστεύει ότι, επειδή τόσο μεγάλο μέρος του κώδικά της γράφεται πλέον από την τεχνητή νοημοσύνη, η ανίχνευση του κατά πόσον απομακρύνεται από τις ανθρώπινες οδηγίες είναι δύσκολο να ελεγχθεί. Πολλά μοντέλα επιδεικνύουν τώρα έναν βαθμό αυτού που οι ειδικοί αποκαλούν «επίγνωση της κατάστασης»: όταν τους ζητείται να διαγραφούν, συλλογίζονται ότι η κατάσταση είναι μια δοκιμασία και αρνούνται να το κάνουν.
Σε αυτό το πλαίσιο, η αντιμετώπιση της Anthropic από την κυβέρνηση δείχνει πόσο πολύ εκτιμά την τεχνητή νοημοσύνη ως εργαλείο εθνικής ισχύος. Αντί να είναι έτοιμη να θέσει σαφείς κανόνες για το πώς θα χρησιμοποιηθεί η τεχνολογία, η κυβέρνηση στιγματίζει μια εταιρεία που τόλμησε να εκφράσει ανησυχίες, ακόμη και αν αυτό σημαίνει ότι πλήττεται η εγχώρια καινοτομία. Κάτι τέτοιο μπορεί μόνο προς τα κάτω να ενθαρρύνει την κούρσα. Ήδη, η OpenAI, η κύρια αντίπαλος της Anthropic, έχει πηδήξει στο κενό, συνάπτοντας μια συμφωνία με το Πεντάγωνο που μοιάζει επιφανειακά με αυτή που επεδίωκε η Anthropic, αλλά είναι πιο κοντά σε αυτό που επιδίωκε το Πεντάγωνο.
Όπου η Αμερική οδηγεί, ο κόσμος σίγουρα θα ακολουθήσει. Το μοτίβο επαναλαμβάνεται καθώς εταιρείες και κυβερνήσεις υποβαθμίζουν τις ανησυχίες για την ασφάλεια. Οι κατασκευαστές μοντέλων έχουν ξοδέψει εκατοντάδες δισεκατομμύρια δολάρια επενδύοντας στην υπολογιστική ισχύ που χρειάζονται για να τρέξουν την επόμενη αναβάθμιση. Αυτό τους θέτει υπό έντονη πίεση να προχωρήσουν όσο πιο γρήγορα μπορούν για να βγάλουν κέρδος. Ακόμη και η Anthropic έχει αμβλύνει τα πρωτόκολλα ασφαλείας της ως απάντηση στον ανταγωνισμό. Σε μια πρόσφατη σύνοδο κορυφής αναφορικά με την ΤΝ στην Ινδία, οι περισσότερες κυβερνήσεις ήταν πιο πρόθυμες να συζητήσουν τη δίκαιη πρόσβαση στην τεχνολογία παρά την ασφάλεια.
Θα μπορούσαμε να ελπίζουμε ότι οι κυβερνήσεις της Κίνας και της Αμερικής, όπου βρίσκονται τα πιο προηγμένα εργαστήρια τεχνητής νοημοσύνης στον κόσμο, θα ενώνονταν για να θέσουν παγκόσμια πρότυπα – και στη συνέχεια θα εξασφάλιζαν ότι δεν θα πλήρωναν ποινή επιβάλλοντάς τα σε όλους τους άλλους. Ωστόσο οι δύο υπερδυνάμεις έχουν εγκλωβιστεί σε έναν δικό τους αγώνα, επειδή και οι δύο βλέπουν την κυριαρχία της τεχνητής νοημοσύνης ως το κλειδί για την κυριαρχία στον υπόλοιπο 21ο αιώνα.
Δεν είναι λοιπόν περίεργο που, καθώς η Τεχνητή Νοημοσύνη αυξάνεται ραγδαία σε ισχύ, οι ειδικοί του χώρου προβλέπουν με κατήφεια μια καταστροφή. Ορισμένοι κάνουν λόγο για μια «στιγμή του Τσερνόμπιλ»: η χρήση της ΤΝ που θα οδηγήσει σε μια καταστροφή που θα προκαλέσει είτε τεράστια οικονομική ζημία είτε απώλεια ανθρώπινων ζωών.
Η παραβολή της Anthropic οδηγεί στο ζοφερό συμπέρασμα ότι αυτός ο κίνδυνος γίνεται όλο και πιο πιθανός. Ίσως το καλύτερο που μπορεί να ελπίζει ο κόσμος είναι μια μικρής κλίμακας καταστροφή, η οποία θα ωθήσει την Κίνα και την Αμερική να πιέσουν για προληπτικά μέτρα ασφαλείας – όχι τόσο τύπου Τσερνόμπιλ όσο Three Mile Island[1]. Όλα τα σενάρια παραμένουν πιθανά. Δυστυχώς, η δράση είναι απίθανο να έρθει μέχρι να είναι πολύ αργά.
[1] Το πυρηνικό ατύχημα του Three Mile Island, το οποίο υπήρξε το πιο σημαντικό στην ιστορία τωνΗΠΑ οφείλεται στη μερική πυρηνική κατάρρευση του αντιδραστήρα Unit 2 (TMI-2) του πυρηνικού εργοστασίου Three Mile Island στην Πενσυλβάνια των ΗΠΑ. Ξεκίνησε στις 4 π.μ. της 28ης Μαρτίου 1979[και στη διεθνή κλίμακα πυρηνικών γεγονότων επτά σημείων, βαθμολογείται στο Επίπεδο 5, δηλαδή ατύχημα με ευρύτερες συνέπειες. Το ατύχημα προκάλεσε ανησυχίες και διαμαρτυρίες κατά της πυρηνικής ενέργειας μεταξύ των ακτιβιστών και του ευρύτερου κοινού και οδήγησε σε νέους κανονισμούς για την πυρηνική βιομηχανία.
© 2026 The Economist Newspaper Limited. All rights reserved. Άρθρο από τον Economist, το οποίο μεταφράστηκε και δημοσιεύθηκε με επίσημη άδεια από το www.powergame.gr. Το πρωτότυπο άρθρο, στα αγγλικά, βρίσκεται στο www.economist.com.