Google a anunțat a opta generație de cipuri TPU - și pentru prima dată în istoria companiei, un singur cip nu mai e suficient. Gigantul din Mountain View a decis să împartă noua generație în două produse distincte: TPU 8t pentru antrenarea modelelor și TPU 8i pentru inferență. O decizie care pare tehnică, dar care spune totul despre unde merge războiul AI în 2026.
Potrivit informațiilor publicate despre noua generație, Tensor Processing Units - cipurile specializate pe care Google le folosește și le închiriază clienților cloud din 2018 pentru a rula și antrena modele de inteligență artificială - vin cu o schimbare structurală față de generațiile anterioare. Până acum, un singur TPU era conceput să facă față ambelor sarcini: atât antrenarea (training), procesul extrem de intensiv prin care un model învață din date masive, cât și inferența (inference), procesul prin care modelul deja antrenat răspunde la întrebări sau execută sarcini în timp real.
TPU 8t este optimizat exclusiv pentru training - practic, pentru construirea modelelor AI de la zero sau îmbunătățirea celor existente. TPU 8i, în schimb, este construit pentru inferență - adică pentru momentul în care modelul interacționează cu utilizatorii sau agenții AI în timp real, la scară enormă. Google poziționează această separare ca un răspuns direct la era agentică - termenul cu care industria descrie valul de aplicații AI care nu mai răspund la comenzi punctuale, ci execută sarcini complexe, în lanț, pe perioade lungi de timp, adesea fără intervenție umană.
De ce contează această separare? Răspunsul scurt: eficiență și cost. Training-ul și inferența au cerințe complet diferite la nivel hardware. Un model care antrenează are nevoie de putere de calcul brută, paralelism masiv și lățime de bandă uriașă pentru a procesa miliarde de parametri simultan. Un model care rulează în producție are nevoie de latență mică, consum energetic redus și capacitatea de a servi mii de cereri pe secundă. Până acum, compromisurile dintre cele două scenarii forțau producătorii să accepte un cip de mijloc - bun la toate, excelent la nimic.
Prin specializare, Google urmărește să stoarcă maximum de performanță din fiecare etapă a ciclului de viață al unui model AI. Strategia nu e nouă în industrie - NVIDIA, principalul rival, operează deja cu arhitecturi diferențiate - dar faptul că Google face pasul acesta cu generația a opta a propriilor cipuri sugerează că firma și-a consolidat suficient infrastructura proprie pentru a renunța la versatilitate în favoarea profunzimii.
Contextul geopolitic e imposibil de ignorat. SUA și China se află într-o competiție feroce pentru dominanța în hardware AI. Cipurile sunt miza centrală a acestui conflict: restricțiile de export americane limitează accesul Chinei la cei mai avansați semiconductori, inclusiv la GPU-urile NVIDIA H100 și H200. În acest context, fiecare generație nouă de TPU-uri reprezintă și o declarație strategică - Google nu depinde de nimeni altcineva pentru infrastructura sa de calcul AI. Investiția în cipuri proprii înseamnă suveranitate tehnologică, o resursă din ce în ce mai valoroasă într-o lume în care lanțurile de aprovizionare devin arme geopolitice.
Pentru utilizatorii obișnuiți, impactul direct e mai greu de simțit imediat. Dar TPU 8i, optimizat pentru inferență rapidă la scară, înseamnă că aplicațiile Google alimentate de AI - de la Gemini la funcțiile din Google Workspace - ar putea deveni mai rapide și mai ieftine de operat. Pe termen lung, costul redus al inferenței democratizează accesul la AI avansat, permițând companiilor mici să ruleze modele puternice fără bugete de datacenter - fie că folosesc infrastructura proprie, fie că o închiriază prin cloud.
Rămâne de văzut dacă specializarea TPU 8t/8i va deveni norma industriei sau dacă rivalii vor paria în continuare pe cipuri universale mai flexibile. Ceea ce e clar deja: Google a decis că viitorul AI nu mai are loc pentru compromisuri.
TECH & AI22 APR. 2026
Google a tăiat cipul AI în două și a schimbat regulile jocului
Google a lansat două cipuri TPU de generație a opta: unul pentru training, altul pentru inferență. Separarea asta schimbă tot în cursa AI.
Redacția SOM
SOM NEWS







