Hem Framåt tänkande Googles tensor-behandlingsenheter ändrar reglerna för maskininlärning

Googles tensor-behandlingsenheter ändrar reglerna för maskininlärning

Video: Tensor Network Workshop with Google X (September 2024)

Video: Tensor Network Workshop with Google X (September 2024)
Anonim

En av de mest intressanta - och oväntade - meddelandena som Google gjorde vid sin I / O-utvecklare-konferens förra veckan var att den har utformat och implementerat sina egna marker för maskininlärning. Under sin huvudsak introducerade Googles vd Sundar Pichai vad han kallade Tensor Processing Units (TPUs) och sa att företaget använde dessa i sina AlphaGo-maskiner, som besegrade Go-mästaren Lee Sedol.

"TPU: er är en storleksordning högre prestanda per watt än kommersiella FPGA och GPU, " sade Pichai. Medan han inte gav många detaljer, förklarade Googles hårdvaruingenjör Norm Jouppi i ett blogginlägg att en TPU är en anpassad ASIC (applikationsspecifik integrerad krets). Med andra ord, det är ett chip som är specifikt utformat för att köra maskininlärning och särskilt skräddarsytt för TensorFlow, Googles ramverk för maskininlärning.

Bild

I inlägget sa Jouppi att det är "mer tolerant" mot reducerad beräkningsnoggrannhet, vilket innebär att det kräver färre transistorer per operation. Detta gör att Google kan få fler operationer per sekund, så att användarna får resultat snabbare. Han sa att ett bräde med en TPU passar in i en hårddiskplats i sina datacenterrackar och visade en bild av serverrackar fyllda med TPU: er, som han sade användes i företagets AlphaGo-maskiner.

Dessutom sade Jouppi att TPU: er redan arbetar med ett antal applikationer hos Google, inklusive RankBrain, som används för att förbättra sökresultatens relevans och Street View för att förbättra noggrannheten och kvaliteten på kartor och navigering.

Under en presskonferens bekräftade Googles VP för teknisk infrastruktur Urs Hölzle att TPU körs med 8-bitars heltalmatematik istället för den högre precision flytande punktmatematik för vilken de flesta moderna CPU och GPU är designade. De flesta maskininlärningsalgoritmer kan bli bra med data med lägre upplösning, vilket innebär att chipet kan hantera fler operationer inom ett visst område och hantera mer komplexa modeller effektivt. Det här är inte en ny idé: Nvidia Drive PX 2-modulen, som tillkännagavs tidigare i år på CES, kan 8 teraflops med 32-bitars flytpunktsprecision men når 24 djupinlärande "teraops" (företagets tid för 8 -bit heltal matematik).

Även om Hölzle vägrade att gå in på detaljer, säger rapporter att han bekräftade att Google använder både TPU och GPU idag. Han sa att detta kommer att fortsätta under en tid men föreslog att Google ser GPU: er som för allmänna och föredrar ett chip som är mer optimerat för maskininlärning. Han sa att företaget skulle släppa ett papper som beskriver fördelarna med chipet senare, men gjorde det klart att dessa är avsedda för internt bruk, inte för försäljning till andra företag. En annan applikation som han beskrev var att använda chips för att hantera en del av beräkningen bakom röstigenkänningsmotorn som användes på Android-telefonen.

Valet att använda en ASIC är en intressant insats av Google. De största framstegen inom maskininlärning de senaste åren - tekniken bakom den stora drivkraften för djupa nervnät - har varit antagandet av GPU: er, särskilt Nvidia Tesla-linjen, för att utbilda dessa modeller. På senare tid köpte Intel Altera, en ledande tillverkare av FPGA: er (fältprogrammerbara grindmatriser), som ligger någonstans i mitten; de är inte lika generella som GPU: er eller så specifikt utformade för TensorFlow som Googles chip, utan kan programmeras för att utföra en mängd olika uppgifter. Microsoft har experimenterat med Altera FPGA för djup inlärning. IBM utvecklar sitt TrueNorth Neurosynaptic-chip utformat specifikt för nervnät, som nyligen har börjat användas i en mängd olika applikationer. Cadence (Tensilica), Freescale och Synopsys driver sina DSP: er (digitala signalprocessorer) för att köra dessa modeller; Mobileye och NXP tillkännagav nyligen chips designade specifikt för ADAS och självkörande bilar; och flera mindre företag inklusive Movidius och Nervana har meddelat planer för chips specifikt utformade för AI.

Det är för tidigt att veta vilket tillvägagångssätt som är bäst på lång sikt, men med några mycket olika alternativ innebär vi troligtvis en intressant tävling under de närmaste åren.

Googles tensor-behandlingsenheter ändrar reglerna för maskininlärning