Hem Framåt tänkande Nvidia syftar till grafik och "djup inlärning"

Nvidia syftar till grafik och "djup inlärning"

Video: Stanford Seminar - NVIDIA GPU Computing: A Journey from PC Gaming to Deep Learning (September 2024)

Video: Stanford Seminar - NVIDIA GPU Computing: A Journey from PC Gaming to Deep Learning (September 2024)
Anonim

Nvidias nya Titan X-grafikprocessor är baserad på GM200-processorn, som är ett enormt chip, som utnyttjar kraften hos 8 miljarder transistorer, 3 072 processorkärnor och 12 GB ombord GDDR5-minne för 7 teraflops med högsta prestanda med en enda precision. Detta chip, som förhandsgranskades vid Game Developers Conference för två veckor sedan, är baserat på samma Maxwell-kärnor som finns i företagets nuvarande processorer och tillverkas på samma 28nm-process.

Men Nvidia sa den här veckan att dess nya flaggskepp GeForce GPU skulle leverera dubbelt så hög prestanda och fördubbla sin föregångars effekteffektivitet. Det är också ett mycket stort chip på 601 mm2, ungefär den största storleken chip som för närvarande tillverkas, och kommer att dra 250 watt effekt. Och naturligtvis kommer det att vara det dyraste allmänna grafikchipet med ett rekommenderat detaljpris på $ 999.

De flesta recensioner från webbplatser som ExtremeTech, Anandtech och TechReport är ganska positiva. Naturligtvis ser ingen i den verkliga världen fördubblingen av prestanda som säljaren hävdar, även om det finns några fina vinster. Generellt sett verkar Titan X tydligt slå andra single-GPU-kort och gör ett krediterbart jobb att jämföra med AMD: s dubbla GPU Radeon R9 295X2 eller Nvidias dubbla GeForce GTX 980 SLI. I många fall kommer ett dual-GPU-kort från endera leverantören att vara snabbare än något enda-GPU-kort, men många spel använder inte båda korten, och i andra uppvisar inställningarna för dubbla kort mer stammning. I synnerhet fokuserar många av recensionerna på hur bra Titan X presterar på 4K.

Naturligtvis är Nvidias främsta rival i den konkurrenskraftiga världen av PC-grafik sannolikt inte att sitta hårt - AMD ryktes allmänt att ha sitt eget nya kort som väntar i vingarna.

Återigen, men det som jag tyckte var mest intressant om introduktionen av Titan X vid GPU Technology Conference (GTC) på tisdagen var fokuset på att använda chipet i applikationer med djup inlärning, med Nvidias vd Jen-Hsun Huang som talade om hur forskare har upptäckt att djup inlärningstekniker dramatiskt kan påskyndas med GPU: er.

Huang pratade särskilt om applikationer som sträcker sig från bildigenkänning med automatiserad bildtexter till medicinsk forskning till autonoma fordon. Fordonsmarknaden var det primära fokuset för Nvidia på CES, eftersom det introducerade sitt Tegra X1-chip och sin Drive PX-lösning för bilindustrin. Tanken är att öka befintliga avancerade förarassistanssystem (ADAS) så att de blir smartare och smartare med tiden. "Jag tror att Big Bang av självkörande bilar är på väg att komma under de närmaste åren." Sa Huang.

Senare gick Tesla Motors VD Elon Musk med Huang på GTC-scenen för att säga att det inte är så långt att utveckla självkörande bilar som faktiskt är säkrare än de med människor som kör. Musk sade att de nuvarande sensorsviterna i en Tesla redan kan hjälpa funktioner för avancerad förare, men självkörning i en stadsmiljö med hastigheter på 10-40 miles per timme kommer att kräva mer processorkraft. Ändå sa han att övergången kommer att ta lång tid, eftersom fordonsflottan på vägen är så stor. "Det är konstigt att vi är så nära tillkomsten av AI, " sade Musk. "Jag hoppas bara att det finns något kvar för oss människor att göra."

Maskininlärning skiljer sig från de flesta av HPC-applikationerna med hög prestanda där Nvidia har drivit sina Tesla-acceleratorer. Dessa applikationer kräver vanligtvis dubbelprecision flytande punkt, medan applikationerna för djup inlärning ofta bara behöver en enda precision. Titan X erbjuder bara enkel precision. För applikationer med djup inlärning erbjuder Nvidia ett nytt ramverk som heter DIGITS, Deep GPU Training Systems för datavetare och en ny enhet på 15 000 dollar som heter DIGITS DevBox.

Huang ser fram emot att Pascal GPU-arkitekturen, som kommer att debuteras nästa år, kommer att påskynda applikationer för djup inlärning tio gånger utöver hastigheten för sina nuvarande generationens Maxwell-processorer. Detta kommer från tre nya funktioner: blandad precision (mer användning av 16-bitars flytpunkt); 2, 7 gånger minneskapaciteten med upp till 32 GB genom användning av 3D-staplat minne med tre gånger minnesbandbredden och NV Link-sammankopplingen som möjliggör upp till åtta avancerade GPU-enheter i en DevBox eller liknande arbetsstation (i motsats till de fyra Titan X GPU: er på en leverans i maj). Det sades inte, men det är troligt att chips baserade på denna arkitektur skulle använda nästa generations processteknik. När allt kommer omkring, introducerades de första 28nm chips 2011 och började sälja 2012, så nästa år är jag hoppfull att vi får se 16nm eller 14nm diskreta grafiska chips.

Nvidia syftar till grafik och "djup inlärning"