Τους τελευταίους μήνες μια νέα μανία έχει καταλάβει τη Σίλικον Βάλεϊ. Οι προγραμματιστές που θέλουν να αποδείξουν ότι βρίσκονται στην πρώτη γραμμή της υιοθέτησης της τεχνητής νοημοσύνης έχουν στραφεί στο «tokenmaxxing», ανταγωνιζόμενοι για το ποιος θα καταναλώσει τα περισσότερα tokens (όπως είναι γνωστά τα τμήματα κειμένου που επεξεργάζονται τα μοντέλα τεχνητής νοημοσύνης). Μεταξύ Ιανουαρίου και Μαρτίου, τα εβδομαδιαία tokens που επεξεργάστηκε το OpenRouter, μια αγορά πρόσβασης σε μοντέλα, τετραπλασιάστηκαν.
Καθώς η ζήτηση για τεχνητή νοημοσύνη λαμβάνει εκρηκτικές διαστάσεις, η βιομηχανία που τη στηρίζει δυσκολεύεται να συμβαδίσει. Τον Μάρτιο, η Anthropic, με τα δημοφιλή επιχειρηματικά μοντέλα της, άρχισε να περιορίζει την πρόσβαση στα εργαλεία της κατά τις ώρες αιχμής και έκτοτε αναπροσαρμόζει τα συνδρομητικά της προγράμματα, προφανώς σε μια προσπάθεια συγκράτησης της χρήσης. Τον Απρίλιο, η υπηρεσία της εμφάνισε κατά μέσο όρο διακοπές λειτουργίας διάρκειας περίπου 30 λεπτών ημερησίως. Και δεν είναι η μόνη. Τον Μάρτιο, η ανταγωνίστριά της, η OpenAI ανέστειλε αιφνιδιαστικά το Sora, το εργαλείο δημιουργίας βίντεο, προκειμένου να ανακατευθύνει τη σπάνια υπολογιστική ισχύ προς πιο κερδοφόρες χρήσεις. Στις 20 Απριλίου, το GitHub της Microsoft σταμάτησε επίσης να δέχεται νέες συνδρομές για το bot προγραμματισμού του, υπογραμμίζοντας τις πιέσεις που δέχονται ακόμη και οι μεγαλύτεροι παίκτες του κλάδου.
Η απάντηση του κλάδου ήταν να επενδύσει όλο και μεγαλύτερα ποσά σε νέα υποδομή. Στις 20 Απριλίου, η Anthropic ανακοίνωσε μια συνεργασία 100 δισ. δολαρίων με την Amazon για να εξασφαλίσει έως και πέντε γιγαβάτ (GW) χωρητικότητας διακομιστών, με σχεδόν το ένα πέμπτο να τίθεται σε λειτουργία μέχρι το τέλος του έτους. Στις 24 Απριλίου ανακοίνωσε ότι και η Google θα επενδύσει 40 δισ. δολάρια για να βοηθήσει το εργαστήριο να καλύψει τις υπολογιστικές του ανάγκες. Στις 27 Απριλίου, η OpenAI ανακοίνωσε ότι αναθεωρεί τη συνεργασία της με τη Microsoft, ώστε να μπορεί να διανέμει όλα τα προϊόντα της μέσω οποιουδήποτε παρόχου cloud, αποκτώντας έτσι μεγαλύτερη ευελιξία στην αξιοποίηση της υπολογιστικής ισχύος.
Οι πέντε πάροχοι υποδομών υπερκλίμακας (hyperscalers) — Alphabet, Amazon, Meta, Microsoft και Oracle — επενδύουν εκατοντάδες δισεκατομμύρια δολάρια ο καθένας σε κέντρα δεδομένων. Φέτος, η Alphabet, η Amazon και η Oracle έχουν ήδη συγκεντρώσει περισσότερα από 100 δισ. δολάρια σε δάνεια μεταξύ τους. Για να ελευθερώσει ρευστότητα, η Meta ανακοίνωσε πρόσφατα ότι θα απολύσει το 10% του προσωπικού της, ενώ η Microsoft δήλωσε ότι θα προσφέρει εθελούσιες αποχωρήσεις σε περίπου 7% των εργαζομένων της.
Ωστόσο, η αύξηση της χωρητικότητας γίνεται όλο και πιο δύσκολη. Στην Αμερική και αλλού, η πολιτική αντίθεση στην κατασκευή κέντρων δεδομένων αυξάνεται. Επιπλέον, οι εταιρείες που κατασκευάζουν τον εξοπλισμό που τα γεμίζει —από τσιπ και εξοπλισμό δικτύωσης έως και ψύξης— έχουν επενδύσει πολύ λίγα για να συμβαδίσουν με τη ζήτηση. Αυτό σημαίνει, με άλλα λόγια, ότι η πίεση στη χωρητικότητα θα επιδεινωθεί.
Ας ξεκινήσουμε με την πολιτική. Τον Απρίλιο, οι νομοθέτες στο Μέιν ψήφισαν υπέρ ενός νομοσχεδίου που απαγορεύει την κατασκευή κέντρων δεδομένων άνω των 20 μεγαβάτ μέχρι τον Νοέμβριο του 2027. Αν και στη συνέχεια ο κυβερνήτης άσκησε βέτο, οι νομοθέτες σε περισσότερες από δέκα άλλες αμερικανικές πολιτείες εξετάζουν παρόμοια μέτρα. Σύμφωνα με μια καταμέτρηση, πέρυσι στην Αμερική, λόγω τοπικής αντίδρασης και δικαστικών διαμαχών, μπλοκαρίστηκαν ή καθυστέρησαν έργα κέντρων δεδομένων αξίας 156 δισ. δολαρίων. Άλλες χώρες, από την Ιρλανδία έως τη Βραζιλία, αντιμετωπίζουν αυξανόμενη αντίδραση. Η ανησυχία για τον αντίκτυπο των κέντρων δεδομένων που καταναλώνουν μεγάλη ποσότητα ενέργειας, ειδικά στους λογαριασμούς ηλεκτρικού ρεύματος, είναι ευρέως διαδεδομένη — και ενδέχεται να ενταθεί περαιτέρω καθώς ο πόλεμος στον Κόλπο αυξάνει τις τιμές της ενέργειας.
Ακόμη και σε περιπτώσεις που τα κέντρα δεδομένων έχουν λάβει άδεια κατασκευής και μπορούν να συνδεθούν με μια πηγή ενέργειας —είτε πρόκειται για το δίκτυο είτε, όλο και πιο συχνά, για δικά τους μέσα παραγωγής— όσοι τα κατασκευάζουν δυσκολεύονται να βρουν τον υπολογιστικό εξοπλισμό που απαιτείται για τη λειτουργία τους.
Ο Ivan Chiam της SemiAnalysis, μιας εταιρείας ερευνών, επισημαίνει ότι δεν υπάρχουν αρκετά τσιπ για να καλύψουν τα κέντρα δεδομένων που κατασκευάζονται αυτή τη στιγμή. Ας εξετάσουμε τις μονάδες επεξεργασίας γραφικών (GPU) που σχεδιάζει η Nvidia, οι οποίες παρέχουν πάνω από τα δύο τρίτα της παγκόσμιας υπολογιστικής ισχύος τεχνητής νοημοσύνης. Η τιμή ενοικίασης μιας από τις GPU H100 της εταιρείας, που κυκλοφόρησε το 2022, έχει εκτοξευθεί κατά περίπου 30% από τον Νοέμβριο, καθώς οι πελάτες που δεν μπορούν να προμηθευτούν νεότερα μοντέλα στρέφονται προς παλαιότερες γενιές.
Οι ανταγωνιστικοί επεξεργαστές τεχνητής νοημοσύνης γίνονται επίσης όλο και πιο δυσεύρετοι. Τον Απρίλιο, ο Andy Jassy, διευθυντής της Amazon, δήλωσε ότι η εταιρεία του είχε σχεδόν εξαντλήσει τις διαθέσιμες ποσότητες των τσιπ τεχνητής νοημοσύνης Trainium2. Ένα σημαντικό μέρος της παραγωγικής ικανότητας του Trainium4, που αναμένεται να κυκλοφορήσει το επόμενο έτος, «έχει ήδη κρατηθεί».
Η πίεση επεκτείνεται και στα τσιπ μνήμης, ιδίως στο είδος της μνήμης υψηλού εύρους ζώνης (HBM) στην οποία βασίζονται τα μοντέλα τεχνητής νοημοσύνης. Και οι τρεις μεγάλοι κατασκευαστές — η SK Hynix, η Samsung και η Micron — αναφέρουν ότι το μεγαλύτερο μέρος της προσφοράς τους για το 2026 έχει ήδη εξαντληθεί. Μια κάποια ελπίδα ανακούφισης ήρθε τον Μάρτιο, όταν η Google παρουσίασε το TurboQuant, έναν αλγόριθμο που αποσκοπεί στη μείωση της ποσότητας μνήμης που χρειάζεται η τεχνητή νοημοσύνη, προκαλώντας μια σύντομη πτώση στις τιμές των μετοχών των κατασκευαστών μνήμης. Παρόλα αυτά, η ζήτηση για μνήμη υψηλού εύρους ζώνης (HBM) αναμένεται να ξεπεράσει την προσφορά για τουλάχιστον τα επόμενα τρία χρόνια.
Η έλλειψη επεκτείνεται πλέον και στις κεντρικές μονάδες επεξεργασίας (CPU). Τα «agentic» εργαλεία τεχνητής νοημοσύνης που σχεδιάζουν, προβαίνουν σε συλλογισμούς και εκτελούν εργασίες βασίζονται σε μεγαλύτερο βαθμό σε αυτούς τους τύπους τσιπ για τον συντονισμό της εργασίας τους. Η επενδυτική τράπεζα Morgan Stanley εκτιμά ότι τα agentic συστήματα απαιτούν μία CPU για κάθε GPU, σε σύγκριση με αναλογία 1 προς 12 για τα συστήματα τύπου chatbot. Πράγματι, η ζήτηση για CPU ήταν τόσο έντονη που έδωσε νέα πνοή στην Intel, η οποία πριν από λίγο καιρό φαινόταν να οδεύει προς την κατάρρευση. Η κεφαλαιοποίηση της αμερικανικής εταιρείας κατασκευής τσιπ, μιας από τις κορυφαίες παραγωγούς CPU, έχει υπερδιπλασιαστεί τους τελευταίους έξι μήνες (βλ. διάγραμμα 1).
Η ουσία του προβλήματος είναι ότι οι εταιρείες κατά μήκος της εφοδιαστικής αλυσίδας της τεχνητής νοημοσύνης επενδύουν πολύ λιγότερα από τους hyperscalers στην επέκταση της παραγωγικής τους ικανότητας. Εξετάσαμε τις προγραμματισμένες κεφαλαιουχικές δαπάνες για φέτος των περίπου 50 μεγαλύτερων κατασκευαστών μικροτσίπ, εργαλείων κατασκευής μικροτσίπ, διακομιστών, εξοπλισμού δικτύωσης και εξοπλισμού ψύξης, καθώς και πώς έχουν μεταβληθεί από το 2024. Κατά τη διάρκεια αυτής της περιόδου, οι πέντε hyperscalers αύξησαν τις συνολικές κεφαλαιουχικές δαπάνες τους κατά 190%, από 234 δισ. δολάρια σε 677 δισ. δολάρια, ενώ οι προμηθευτές υλισμικού στους οποίους βασίζονται αύξησαν τις δικές τους μόνο κατά 45%, από 153 δισ. δολάρια σε 223 δισ. δολάρια (βλ. διάγραμμα 2).
Ας δούμε για παράδειγμα την TSMC, την μεγαλύτερη κατασκευάστρια μικροεπεξεργαστών στον κόσμο και κυρίαρχη προμηθεύτρια προηγμένων GPU και CPU. Τα πιο προηγμένα εργοστάσιά της —αυτά που κατασκευάζουν μικροεπεξεργαστές πέντε νανομέτρων ή μικρότερους— λειτουργούν ήδη στο μέγιστο των δυνατοτήτων τους. Ο C.C. Wei, ο διευθυντής της, παραδέχθηκε ότι η προσφορά είναι «πολύ περιορισμένη», αλλά ότι «δεν υπάρχει εύκολος τρόπος»: η κατασκευή ενός νέου εργοστασίου διαρκεί δύο έως τρία χρόνια. Η εταιρεία σχεδιάζει να δαπανήσει περίπου 55 δισ. δολάρια το 2026, αύξηση 34% σε σχέση με το προηγούμενο έτος. Οι αναλυτές αναμένουν ότι το 2027, το ποσό αυτό θα ανέλθει στα 65 δισ. δολάρια. Ως ποσοστό των πωλήσεων, ωστόσο, οι κεφαλαιουχικές δαπάνες της έχουν μειωθεί από περίπου στο μισό το 2022 στο ένα τρίτο φέτος.
Η επιφυλακτικότητα της TSMC έχει απογοητεύσει τους πελάτες της. Ο Sam Altman, διευθυντής της OpenAI, παροτρύνει την εταιρεία «απλώς να αυξήσει την παραγωγική της ικανότητα». Τον Μάρτιο, ο Elon Musk, επικεφαλής της Tesla και της SpaceX, ανακοίνωσε σχέδια για την κατασκευή ενός λεγόμενου «Terafab» με τη μετριοπαθή φιλοδοξία να παράγει ετησίως περισσότερη υπολογιστική ισχύ από ό,τι ολόκληρη η παγκόσμια βιομηχανία ημιαγωγών σήμερα.
Η εγκατάσταση, για την οποία ο κ. Musk έχει ζητήσει τη βοήθεια της Intel, είναι απίθανο να ξεκινήσει την παραγωγή πριν από το 2028 το νωρίτερο, και ακόμη και τότε σε ένα κλάσμα της κλίμακας που είχε οραματιστεί. Επιπλέον, ο κ. Musk ενδέχεται να δυσκολευτεί να προμηθευτεί επαρκή ποσότητα των προηγμένων μηχανημάτων που θα χρειαστεί για τη λειτουργία της, τα οποία επίσης είναι σε έλλειψη. Η κατάσταση καταδεικνύει την αναντιστοιχία που σκιάζει πλέον το μέλλον της τεχνητής νοημοσύνης. Η βελτίωση του λογισμικού απαιτεί μήνες, ενώ η επέκταση των εφοδιαστικών αλυσίδων απαιτεί χρόνια. Οι κατασκευαστές υλισμικού φοβούνται την υπερβολική παραγωγή και το ενδεχόμενο να μείνουν με αχρησιμοποίητη παραγωγική ικανότητα. Η τρέλα για το «tokenmaxxing», λοιπόν, ενδέχεται να τερματιστεί σύντομα.
© 2026 The Economist Newspaper Limited. All rights reserved. Άρθρο από τον Economist, το οποίο μεταφράστηκε και δημοσιεύθηκε με επίσημη άδεια από το www.powergame.gr. Το πρωτότυπο άρθρο, στα αγγλικά, βρίσκεται στο www.economist.com