Amazon je na konferenci AWS re:Invent 2. decembra 2025 predstavil svoj najnovejši procesor za umetno inteligenco Trainium2. Podjetje s tem krepi položaj v hitro rastočem segmentu AI strojne opreme in neposredno nagovarja konkurenčnost na trgu, kjer prevladujejo Nvidia, Google in drugi tehnološki velikani. Trainium2 obljublja izjemne zmogljivosti za obdelavo kompleksnih AI nalog ter cilja na ključne potrebe razvijalcev in podjetij, ki gradijo prihodnost umetne inteligence v oblaku.
Tehnične značilnosti Trainium2 in primerjava s konkurenco
Amazon Trainium2 je zasnovan za optimizirano treniranje velikih jezikovnih modelov in drugih modelov globokega učenja. Podjetje navaja, da čip dosega do 2x večjo zmogljivost ter do 50% boljšo energijsko učinkovitost v primerjavi s prejšnjo generacijo. Po podatkih Amazona omogoča Trainium2 do 1 exaFLOPS zmogljivosti v enem samem podvozju, kar je bistveno več od zmogljivosti, ki jih ponujajo trenutni GPU-ji konkurence v enakem fizičnem prostoru.
Čip je posebej optimiziran za modele z več milijard parametri, kot so veliki jezikovni modeli ter sistemi za računalniški vid. V praksi to pomeni hitrejše treniranje in nižje stroške na model za podjetja, ki uporabljajo Amazonovo infrastrukturo. Amazon navaja, da lahko z uporabo Trainium2 uporabniki pospešijo razvoj naprednih AI produktov, kot so generativni modeli in personalizirani priporočilni sistemi.
V primerjavi z rešitvami Nvidia, kot sta H100 in L40S, ter Google TPUs, se Trainium2 pozicionira kot alternativa z višjo razpoložljivostjo na AWS in tesno integracijo z oblačnimi storitvami. Amazon meri predvsem na uporabnike, ki potrebujejo razširljivo, stroškovno učinkovito in hitro infrastrukturo za lastne AI aplikacije, ter tiste, ki želijo zmanjšati odvisnost od zunanjih dobaviteljev strojne opreme.
Strategija sodelovanja z Nvidia in koristi za uporabnike AWS
Čeprav Amazon intenzivno vlaga v razvoj lastnih čipov, vključno s Trainium2 in Inferentia2 za inferenco, podjetje ne opušča sodelovanja z Nvidia. Na konferenci so napovedali razširjeno integracijo Nvidia GPU-jev, kar pomeni, da bodo v podatkovnih centrih AWS še naprej na voljo tudi najnovejše rešitve, kot je H100. Ta hibridni pristop omogoča strankam izbiro med najnaprednejšo strojno opremo za različne tipe AI delovnih bremen, ne glede na to, ali gre za treniranje ali izvajanje modelov.
Strategija temelji na tem, da Amazonove lastne čipe ponuja za optimizirane, masovne interne in partnerske obremenitve ter specifične scenarije uporabe, kjer je mogoče doseči boljšo stroškovno učinkovitost. Hkrati pa Nvidia ostaja prva izbira za uporabnike, ki iščejo največjo združljivost, širok ekosistem programskih orodij in izkušnje z GPU pospeševanjem. Uporabniki AWS lahko tako izberejo najustreznejšo platformo glede na potrebe svojih projektov.
Za razvijalce in podjetja to pomeni konkretno izboljšanje: z uporabo Trainium2 bodo lahko modele, kot so veliki jezikovni modeli, trenirali do 30% hitreje in do 20% ceneje v primerjavi z obstoječimi GPU rešitvami na AWS. Storitev Amazon SageMaker bo prva v naboru AWS, ki bo neposredno izkoriščala prednosti novega čipa, sledile pa ji bodo tudi druge, kot sta Amazon Bedrock in EC2 instance. S tem Amazon uporabnikom odpira pot do razvijanja bolj kompleksnih AI rešitev, ne da bi morali vlagati v lastno infrastrukturo.
Predstavitev Trainium2 postavlja Amazon v središče globalne tekme za prevlado na področju AI čipov, kjer se tehnološki giganti borijo tako na področju inovacij kot nadzora nad celotno vertikalo umetne inteligence. Hibridni pristop, ki združuje lastne procesorje in partnerstva z Nvidio, omogoča Amazonu večjo fleksibilnost ter odzivnost na potrebe trga. Vprašanje, ki ostaja, je, ali bo Amazon v prihodnosti uspel zmanjšati odvisnost od zunanjih dobaviteljev in obenem zagotoviti, da njegov ekosistem ostaja privlačen za najbolj napredne projekte umetne inteligence.
