Google Cloud har lanserat två nya tensor processing units (TPUs) som syftar till att öka hastigheten och minska kostnaderna för AI-modellträning och inferens. Trots dessa framsteg fortsätter Google att använda Nvidias produkter i sin molntjänstinfrastruktur.

AI-genererad bild
Google Cloud har under veckan presenterat sin åttonde generation av skräddarsydda AI-chips, kända som tensor processing units (TPUs). Dessa nya chips, TPU 8t och TPU 8i, är designade för att optimera olika delar av AI-processen – TPU 8t för modellträning och TPU 8i för inferens. Denna uppdelning gör det möjligt för Google att erbjuda mer skräddarsydda lösningar för olika delar av AI-arbetet.
De nya TPU-chipsen är inte bara snabbare, utan också mer kostnadseffektiva. Enligt Google kan de erbjuda upp till tre gånger snabbare AI-modellträning och 80 % bättre prestanda per krona jämfört med tidigare generationer. Detta innebär att företag kan få tillgång till betydligt mer beräkningskraft för samma kostnad och samtidigt minska sin energiförbrukning.
Med en kapacitet att integrera över en miljon TPUs i ett och samma kluster kan Google nu erbjuda en skalbarhet som kommer att vara attraktiv för företag som vill hantera mycket stora datamängder och komplexa AI-modeller. Detta kan särskilt gynna nordiska företag inom tech-sektorn, där det finns ett växande intresse för AI-driven innovation.
Men trots dessa imponerande tekniska framsteg är Google inte redo att helt överge Nvidia. Precis som andra stora molntjänstleverantörer, såsom Microsoft och Amazon, fortsätter Google att använda Nvidias produkter inom sin molninfrastruktur. Det har även meddelats att Nvidias senaste chip, Vera Rubin, kommer att bli tillgängligt i Googles molntjänster senare i år. Detta partnerskap indikerar att även om Google satsar på att utveckla sina egna chips, ser de fortfarande ett värde i att erbjuda Nvidias kraftfulla lösningar.
I den bredare kontexten av AI-hårdvaruutveckling kan denna strategi ses som ett sätt för Google att diversifiera sina erbjudanden och minska beroendet av en enda leverantör. Även om Google tar steg mot ökad självständighet inom AI-infrastruktur, innebär deras fortsatta samarbete med Nvidia att de kan erbjuda sina kunder en bredare palett av alternativ.
För den nordiska marknaden, som är känd för sin snabba anpassning av ny teknik, kan Googles nya TPUs erbjuda spännande möjligheter. Företagen kan dra nytta av den förbättrade prestandan och de kostnadsbesparingar som de nya chipsen innebär, vilket kan främja innovation och öka konkurrenskraften på den globala scenen. Med denna utveckling ser vi en framtid där AI-infrastruktur blir allt mer anpassad och tillgänglig för företag i alla storlekar.
FAKTAKOLL: Notering — Det finns ingen information i källmaterialet om att de nya TPU-chipsen specifikt gynnar nordiska företag inom tech-sektorn.; Det finns ingen information i källmaterialet om att Nvidias senaste chip heter 'Vera Rubin'.
Artikeln baseras på följande publika källor. Vi rekommenderar att du följer länkarna för att läsa originalrapporteringen och primärkällor.
// Kommentarer (0)