Pe 12 iunie 2025, la Santa Clara, California, AMD și-a prezentat viziunea completă pentru o platformă AI integrată cap-coadă și a introdus o infrastructură AI deschisă, adaptabilă, la nivel de rack, construită pe standarde industriale, în cadrul evenimentului anual Advancing AI.
AMD și partenerii săi au prezentat:
- Modul în care construiesc ecosistemul Open AI cu ajutorul noilor acceleratoare din seria AMD Instinct™ MI350
- Creșterea continuă a ecosistemului AMD ROCm™
- Noile designuri deschise, puternice, la scară de rack, și foaia de parcurs a companiei, care oferă performanță AI de top la nivel de rack dincolo de anul 2027
AMD oferă soluții de top pentru accelerarea ecosistemului Open AI
AMD a anunțat un portofoliu extins de hardware, software și soluții pentru a susține întregul spectru al inteligenței artificiale:
- AMD a lansat seria de GPU-uri Instinct™ MI350, stabilind un nou standard de referință pentru performanță, eficiență și scalabilitate în AI generativ și calcul de înaltă performanță. Seria MI350, care include plăcile video Instinct MI350X și MI355X, oferă o creștere de 4 ori a puterii de calcul AI față de generația anterioară și un salt de 35 de ori în performanța de inferență, deschizând calea pentru soluții AI transformatoare în diverse industrii. MI355X oferă, de asemenea, câștiguri semnificative în raportul preț-performanță, generând cu până la 40% mai mulți tokeni per dolar comparativ cu soluțiile concurente.
- AMD a demonstrat o infrastructură AI completă, deschisă și scalabilă la nivel de rack, deja implementată cu acceleratoarele Instinct™ MI350, procesoarele AMD EPYC™ din generația a 5-a și plăcile de rețea AMD Pensando™ Pollara în centre de date de tip hyperscaler, precum Oracle Cloud Infrastructure (OCI), urmând să fie disponibilă pe scară largă în a doua jumătate a anului 2025. AMD a prezentat și următoarea generație de rack AI, numită „Helios”, care va fi construită pe plăcile video Instinct MI400, procesoarele AMD EPYC „Venice” bazate pe arhitectura „Zen 6” și plăcile de rețea AMD Pensando „Vulcano”.
- Noua versiune a pachetului software open-source pentru AI, ROCm 7, este proiectată pentru a răspunde cerințelor tot mai mari de către AI generativ și ale sarcinilor de calcul de înaltă performanță, îmbunătățind semnificativ experiența dezvoltatorilor. ROCm 7 oferă suport îmbunătățit pentru framework-uri standard din industrie, compatibilitate extinsă cu hardware-ul și noi instrumente de dezvoltare, drivere, API-uri și biblioteci pentru accelerarea dezvoltării și implementării AI.
- Seria Instinct MI350 a depășit obiectivul AMD pe cinci ani de a îmbunătăți eficiența energetică a nodurilor de antrenare AI și HPC de 30 de ori, atingând o îmbunătățire de 38 de ori. AMD a anunțat, de asemenea, un nou obiectiv pentru 2030: creșterea eficienței energetice la nivel de rack de 20 de ori față de anul de bază 2024, permițând antrenarea unui model AI tipic — care astăzi necesită peste 275 de rack-uri — într-un singur rack complet utilizat până în 2030, folosind cu 95% mai puțină energie electrică.
- AMD a anunțat disponibilitatea extinsă a AMD Developer Cloud pentru comunitățile globale de dezvoltatori și open-source. Creat special pentru dezvoltarea AI rapidă și performantă, utilizatorii vor avea acces la un mediu cloud complet gestionat, cu instrumentele și flexibilitatea necesare pentru a începe proiecte AI și a le scala fără limite. Cu ROCm 7 și AMD Developer Cloud, AMD reduce barierele și extinde accesul la puterea de calcul de nouă generație. Colaborările strategice cu lideri precum Hugging Face, OpenAI și Grok demonstrează puterea soluțiilor deschise dezvoltate în parteneriat.
Un ecosistem extins de parteneri evidențiază progresele AI susținute de AMD
Clienții AMD au discutat despre modul în care utilizează soluțiile AI de la AMD pentru a antrena cele mai avansate modele AI, a susține inferența la scară largă și a accelera explorarea și dezvoltarea AI:
- Meta a detaliat modul în care Instinct MI300X este implementat la scară largă pentru inferența modelelor Llama 3 și Llama 4. Meta și-a exprimat entuziasmul pentru MI350, apreciind puterea de calcul, performanța raportată la costul total de operare (TCO) și memoria de generație nouă. Meta continuă colaborarea strânsă cu AMD pe foaia de parcurs AI, inclusiv planuri pentru platforma Instinct MI450.
- Oracle Cloud Infrastructure (OCI) este printre primii lideri din industrie care adoptă infrastructura AI deschisă la scară de rack de la AMD, cu plăcile video Instinct MI355X. OCI utilizează procesoare și plăcile video AMD pentru a oferi performanță echilibrată și adaptabilă în clustere AI și a anunțat că va oferi clustere AI la scară zetta, accelerate de cele mai noi procesoare AMD Instinct, cu până la 131.072 GPU-uri MI355X, permițând clienților să construiască, să antreneze și să ruleze inferență AI la scară largă.
- HUMAIN a discutat despre acordul său de referință cu AMD pentru a construi o infrastructură AI deschisă, adaptabilă, rezilientă și eficientă din punct de vedere al costurilor, valorificând întregul spectru de platforme de calcul pe care doar AMD le poate oferi.
- Microsoft a anunțat că Instinct MI300X alimentează acum atât modele proprietare, cât și open-source, în producție pe platforma Azure.
- Cohere a împărtășit faptul că modelele sale Command, performante și adaptabile, sunt implementate pe Instinct MI300X, susținând inferența LLM la nivel enterprise cu randament ridicat, eficiență și confidențialitate a datelor.
- Red Hat a descris cum colaborarea cu AMD permite medii AI pregătite pentru producție, cu plăci video AMD Instinct pe Red Hat OpenShift AI, oferind procesare AI puternice și eficiente în medii cloud hibride.
- Astera Labs a evidențiat modul în care ecosistemul deschis UALink accelerează inovația și oferă mai multă valoare clienților, anunțând planuri de a oferi un portofoliu complet de produse UALink pentru a susține infrastructura AI de nouă generație.
- Marvell s-a alăturat AMD pentru a prezenta foaia de parcurs a switch-urilor UALink, prima interconectare cu adevărat deschisă, care aduce flexibilitate maximă pentru infrastructura AI.