Hem Framåt tänkande Hur chipanpassning, kärnlicensiering kan förändra processorverksamheten

Hur chipanpassning, kärnlicensiering kan förändra processorverksamheten

Video: How to apply Thermal Paste (September 2024)

Video: How to apply Thermal Paste (September 2024)
Anonim

I denna omgång av överraskande utvecklingar inom processorteknologi lär vi oss att Nvidia och IBM beslutar att licensiera sina processorkärnor - Kepler GPU respektive Power CPU-kärnor - vilket gör att andra företag kan inkludera dessa kärnor i sina egna produkter.

Detta är en stor förändring. Fram till nu, om du ville ha en GeForce GPU, var du tvungen att köpa den från Nvidia, och om du ville ha en Power CPU, behövde du köpa den från IBM. Nu kan andra processortillverkare eller till och med slutkunder inkludera dessa kärnor i sina egna eller halvanpassade produkter.

Att licensiera immateriell egendom i form av kärnor för processorer eller grafik är inget nytt. ARM har gjort en enorm verksamhet genom att sälja CPU-kärnor och arkitekturer, och Imagination Technologies byggde sin verksamhet genom att sälja grafikkärnor och tekniker. På senare tid har var och en gått in i den andra verksamheten. ARM: s CPU-licensinnehavare inkluderar nästan alla mobilprocessortillverkare (Apple, Qualcomm, Samsung, Nvidia, Mediatek och mer), i princip alla utom Intel. Imaginations Power-VR-grafik är licensierad till Apple, Intel och många andra, med Imagination, ARMs Mali och Vivantes grafik som bekämpar den för de flesta mobila processorer (med undantag för företag från företag som har sin egen grafik). Som ett resultat av lätt licensierade kärnor för CPU och grafik har vi sett ett stort utbud av färdiga processorer med en rimlig mängd kompatibilitet.

Nvidia har varit ARM-licensinnehavare och kombinerat ARM: s CPU-teknik med sin egen grafikteknologi för att skapa sin Tegra-serie av mobila processorer. För några veckor sedan demonstrerade Nvidia att den hade portat sin Kepler GPU-arkitektur så att den skulle fungera i system med ARM-processorer. (Företaget har använt mindre kraftfull grafik i Tegra; uppdateringen kommer att vara en del av företagets kommande "Logan" -version av sin linje, och kommer att vara den första mobilprocessorn som stöder sina CUDA GPGPU-processfunktioner.) Mer överraskande sade det det skulle nu licensera GPU-kärnan såväl som rättigheterna till den visuella datorinformationen så att kunderna kan skapa sina egna GPU: er.

Låter bekant? Det beror på att Nvidia hade licensierat en tidigare GPU-kärna till Sony för PlayStation 3 och har en patentlicens med Intel (som är vanligt bland stora leverantörer). Men de nya licensieringsplanerna verkar främst vara inriktade på andra leverantörer av mobila processorer och till den växande inbäddade marknaden, där Nvidia fokuserar på hur Kepler nu kan arbeta med så lite som en halv watt kraft. Nvidia hade tidigare meddelat sin avsikt att skapa ett serverchip som kombinerade sina GPU: er med ARM-CPU: er; detta skulle teoretiskt låta andra företag göra liknande saker.

Den här veckan sade IBM att den kommer att erbjuda sin Power-teknik, som vanligtvis används av företaget i sina chips för avancerade servrar och mainframes, för utveckling. IBM sa att det tillsammans med Google, Mellanox, Nvidia och Tyan bildar OpenPower Consortium som syftar till att utöka Power-arkitekturen och servern, nätverkslagring och grafikteknologi runt det för att skapa lösningar som riktar sig till mycket stora datacenter.

Den första Power-arkitekturen som IBM kommer att licensiera är Power 8, som företaget planerar att tillkännage vid Hot Chips-konferensen senare denna månad och kommer att börja levereras 2014. Power 8 inkluderar en ny avancerad I / O-buss, känd som Coherent Attached Processor Interface (CAPI), som IBM säger kommer att göra det enklare att kombinera Power-kärnor med andra systemkomponenter för heterogen databehandling.

Tanken är att tillåta organisationer först att lättare koppla flera Power CPU: er med Nvidia GPU: er på ett sätt som är vettigt för "Web 2.0" -skalade datacenter, och så småningom möjliggöra specialiserade processorer som kan skapa ett alternativ till vanliga Intel-servrar. Kom ihåg att på servermarknaden idag står Intel-baserade servrar för ungefär 90 procent av enheterna (även om endast cirka två tredjedelar av intäkterna, eftersom de icke-x86-servrarna mestadels är mycket högre och billigare produkter). IBMs egenutvecklade Power-baserade servrar blir alltmer en nischspelare, och företaget måste få fler användare till Power-arkitekturen för att hålla den relevant och motivera den fortsatta investeringen i arkitekturen.

Det är särskilt intressant att se IBM och Nvidia tillsammans. Man kan föreställa sig att Power CPU kombineras med CUDA-grafik för att skapa serverprodukter som är vettiga i den högpresterande datoranläggningen (HPC) eller superdatormarknaden, där varje företag redan är en betydande spelare. Och Mellanoxs expertkunskap om samtrafik skulle också hjälpa på den marknaden.

Men fokus ligger mer på det stora omfattande datacenteret, där tekniken rör sig snabbt och som nyligen har blivit en stor och snabbt växande marknad. Tanken är att företag teoretiskt kan skapa System-on-Chip (SoC) -design anpassade för denna typ av applikationer.

Delvis är detta lättare eftersom de stora kunderna ofta skriver sin egen programvara. Google, Facebook eller Microsoft kan skriva om en del av programvaran för sina mycket stora molndatacenter, säger webbservern eller databaseservern, till en annan arkitektur enklare än ett typiskt företag, med sin breda serie leverantörer och interna applikationer. Naturligtvis ligger samma koncept bakom de senaste tillkännagivandena av ett antal ARM-baserade serverchips, som främst är utformade för att dramatiskt minska strömmen i sådana miljöer.

Google involverar sig i OpenPower-konsortiet är särskilt spännande. Företaget har mestadels tagit en mycket hemlighetsfull inställning till sitt datacenter och tros bygga sina egna servrar; den är tillräckligt stor och använder tillräckligt med servrar så att det har råd att skapa, eller få någon att skapa, ett serverchip anpassat till en viss applikation, till exempel webbsökning.

Detta skulle också vara ett komplement till andra drag som är utformade för att skaka upp datacenterens servermarknad, till exempel OpenCompute-projektet.

IBMs flytt hit är inte helt ovanligt. Jag minns när IBM, Apple och Motorola kom överens om att de skulle ta Power-arkitekturen och skapa PowerPC, som blomstrade under några år men kollapsade mest när Apple flyttade sina Mac-bärbara datorer till Intel-arkitekturen. Och det finns länge Power.org, en organisation designad för att ta Power-arkitekturen till den bredare marknaden, inklusive det inbäddade utrymmet. Kraft har tappat mark under de senaste åren, och IBM hoppas att den nya licensieringsmodellen kan hjälpa till att vända det, särskilt på datacentermarknaden.

Visst, mer konkurrens leder vanligtvis till ny innovation, och en marknad där en spelare som tillhandahåller 90 procent av enheterna låter mogen för konkurrens.

Naturligtvis, till en viss grad, står de sittande x86-servertillverkarna inte heller. AMD, som har varit en avlägsen sekund för Intel på servermarknaden, har meddelat sin avsikt att skapa ARM-baserade servrar såväl som x86-baserade. Och det har varit mycket kraftfullt för att främja idén att dess framtid ligger i att skapa "semi-custom" chips, som tar sina kärnor och lägger till andra IP för att skapa anpassade lösningar för stora kunder. De tidiga vinsterna här har varit i spelkonsoler, men det är knappast en sträcka att föreställa sig detta på servermarknaden.

Och Intel berättade under sin tillkännagivande av nästa generation datacenterchips om hur den skapar semi-anpassade versioner av sina Xeon-serverchips för vissa stora kunder, med funktioner som specifika acceleratorer för speciella funktioner. Företaget nämnde Facebook och eBay som kunder.

Återigen kan du föreställa dig var det är vettigt för de största, mest tekniskt sofistikerade kunderna, de för vilka kostnaden för specialiserade chips och omskrivning eller åtminstone testning av programvara på nya plattformar är mycket mindre än kostnaden för att faktiskt driva datacentret. Men jag undrar hur mycket av marknaden detta är. Varje anpassat chip, även om det skapas med vanliga kärnor och grafik, kräver fortfarande en viss designtid, för att inte tala om masker, skivor och tester, så de borde vara dyrare att producera än mer massmarknadschips, som har mycket större skalfördelar.

Jag antar att du kan tänka på det som ytterligare ett steg i dekonstruktionen av branschen. En gång i tiden dominerades processindustrin av integrerade designtillverkare (IDM: er) som skapade sin egen kärn-IP, designade full chips, byggde den i sina egna fabs och sålde den till kunder. Idag finns bara Intel och i mindre utsträckning Samsung och TI kvar i den branschen. I nästa steg såg chipdesignare som övervakade deras viktigare IP- och chipdesign, men lämnade tillverkningen till andra; dagens dominerande modell är fabless halvledarföretag och chip gjuterier. Kanske är nästa steg att kunderna själva ska ta IP som är designade av andra, ha ett externt firma som smällar ihop det på samma sätt som de vill, och sedan låta ett gjuteri göra det, vilket gör att de flesta av chipdesignen helt skärs ut. I en sådan modell skulle de stora vinnarna vara IP-designers och de stora förlorarna skulle vara de medelhöga företagen som har frodat att sätta ihop chips som de sedan sålde till många olika kunder, för något olika syften.

Å andra sidan kan jag inte låta mig tänka att det alltid kommer att finnas en marknad för relativt få chips som tjänar de flesta människor tillräckligt bra och kan vara billigare på grund av deras enorma volym.

Fortfarande, rörelser som de som vi nyligen har sett från Nvidia och IBM, liksom en mycket större öppenhet för anpassning från företag som AMD och Intel, bör leda till mer mångfald och därmed mer val i processorvärlden. Och det i sin tur kan bara vara bra för innovation.

Hur chipanpassning, kärnlicensiering kan förändra processorverksamheten