Ascultă acest articol


În acest moment, în multe ședințe de planificare a infrastructurii apare tot mai des o discuție de tipul:
„AI-ul agentic va schimba raportul dintre CPU și GPU. Așadar, e suficient să adăugăm mai multe CPU-uri la serverele GPU existente, nu?”

Sună logic. Dar tocmai aici apare una dintre cele mai frecvente erori.

Trecerea de la AI-ul de tip chatbot la AI-ul agentic nu înseamnă doar suplimentarea cu câteva CPU-uri a unui design de rack deja dominat de GPU-uri. Este o schimbare mult mai profundă. Vorbim despre o transformare structurală a arhitecturii centrelor de date. AI-ul agentic generează nevoia unor rack-uri complet noi de servere CPU, care funcționează alături de infrastructura GPU și susțin activitatea tuturor acestor agenți.

Pentru liderii IT din mediul enterprise, mesajul este clar: AI-ul agentic rescrie regulile infrastructurii AI.

La AMD, urmărim atent această evoluție. Dacă anterior estimam o creștere anuală de 18% a pieței procesoarelor CPU pentru servere, creșterea structurală a cerințelor de procesare generată de agenți schimbă fundamental aceste perspective. Astăzi, estimăm că piața totală adresabilă pentru CPU-uri de server va crește cu peste 35% anual și va depăși 120 de miliarde de dolari până în 2030.

Primul val: AI-ul de tip chatbot a fost axat în principal pe răspunsuri de model

Primul val al AI-ului generativ s-a bazat pe un tipar relativ simplu. Un utilizator adresa o întrebare; aplicația trimitea un prompt către un model; modelul genera un răspuns; aplicația livra rezultatul.

Această abordare a dus în mod natural la arhitecturi centrate pe GPU. În astfel de implementări, un CPU funcționa ca nod principal al unui server echipat cu patru până la opt GPU-uri. CPU-ul de tip head node administra planificarea, operațiile de I/O și managementul sistemului, în timp ce GPU-urile executau calculele intensive.

AI-ul agentic nu înseamnă doar „chat la care adăugăm instrumente”

Ne aflăm acum la începutul erei AI-ului agentic, iar natura sarcinilor de lucru se schimbă complet. În loc să ofere un singur răspuns, un agent împarte un obiectiv în pași, alege următoarea acțiune, apelează mai multe modele, interoghează baze de date, comunică prin API-uri, rulează aplicații enterprise, verifică drepturi de acces, recuperează informații din memorie, validează rezultatele și reia ciclul atunci când este necesar.

Acest tip de funcționare are un profil de infrastructură complet diferit față de AI-ul de tip chatbot, bazat pe schema simplă „prompt – răspuns”.

GPU-urile rămân esențiale pentru rularea modelelor, însă sarcina operațională zilnică devine în mare măsură dependentă de CPU. Rolul CPU-urilor include:

  • Orchestrare: coordonarea mecanismelor care descompun și gestionează sarcinile complexe
  • Execuția agenților și apelurile către instrumente: interacțiunea cu API-uri și cu aplicațiile enterprise existente
  • Politici și securitate: aplicarea verificărilor necesare fiecărei acțiuni autonome

Răspunsul la schimbarea raportului CPU–GPU nu înseamnă doar „mai multe CPU-uri”

Dacă în AI-ul de tip chatbot raportul obișnuit era de 1 CPU la 4–8 GPU-uri, AI-ul agentic evoluează către un raport de 1:1, iar în anumite scenarii chiar mai ridicat în favoarea CPU-ului.

Aspectul esențial este următorul: acest echilibru nu se obține prin adăugarea unor CPU-uri într-un server proiectat în jurul GPU-urilor. El apare prin introducerea unui nou strat de calcul, bazat pe CPU-uri, conceput special pentru aceste sarcini.

Pentru mediul enterprise, aici trebuie să se schimbe abordarea de planificare.

Sistemul AI care va domina următorii ani nu va fi o singură „cutie AI”. Va arăta mai degrabă ca un sistem distribuit. Vor exista rack-uri GPU dedicate rulării dense a modelelor, interconectări rapide și un stack software care asigură vizibilitate, securitate și eficiență. În paralel, vor funcționa rack-uri CPU agentice dedicate orchestrării, procesării datelor și execuției de instrumente.

În acest context, echilibrul arhitectural devine mai important ca niciodată. Dacă nivelul CPU este prea mic, GPU-urile stau nefolosite. Dacă rețeaua nu primește atenția necesară, agenții nu avansează. Dacă fluxul de date nu este bine definit, latența crește. Dacă stratul de orchestrare nu este pregătit pentru execuție concurentă, costurile și complexitatea cresc.

Unde se poziționează AMD

Procesoarele AMD EPYC™ oferă clienților un portofoliu variat de opțiuni CPU, optimizate pentru diferite etape ale pipeline-ului AI: de la frecvențe ridicate pentru sarcini sensibile la latență, până la un număr mare de nuclee pentru throughput la scară largă. Consolidăm acest avantaj prin actuala noastră foaie de parcurs, care include gama „Venice”, concepută pentru a extinde semnificativ oferta de CPU-uri optimizate pentru AI.

În esență, oferim siliciul specializat necesar pentru a echipa fiecare rack din centrul de date — și fiecare instanță de calcul din cloud — cu exact resursele de care are nevoie.

 

Concluzie practică pentru liderii IT

Revin asupra ideii de bază: AI-ul agentic schimbă ecuația infrastructurii.

Mesajul meu pentru decidenții IT din enterprise este simplu: pe măsură ce AI-ul agentic trece de la teste pilot la producție, nu dimensionați infrastructura ca și cum ați adăuga doar un chatbot în organizație. Gândiți-o ca pe integrarea unei noi clase de forță de muncă digitală — una care planifică, acționează, verifică, recuperează informații, folosește instrumente și execută fluxuri de lucru pe tot parcursul zilei.

Această abordare presupune mai multă capacitate CPU decât sugerau modelele inițiale de AI. Presupune o privire dincolo de serverul GPU, către rack-uri, rețele, software și un echilibru operațional corect. În era AI-ului agentic, performanța nu va veni de la un singur procesor care face totul. Va veni din arhitectura potrivită — una în care CPU-urile și GPU-urile lucrează împreună pentru a transforma AI-ul dintr-un furnizor de răspunsuri într-un motor de acțiune.

LĂSAȚI UN MESAJ

Please enter your comment!
Please enter your name here

This site uses Akismet to reduce spam. Learn how your comment data is processed.