Hem Framåt tänkande Google-appar, verktyg syftar till "demokratisera ai"

Google-appar, verktyg syftar till "demokratisera ai"

Innehållsförteckning:

Video: Use machine learning & artificial intelligence in your apps (Innovation track - Playtime EMEA 2017) (September 2024)

Video: Use machine learning & artificial intelligence in your apps (Innovation track - Playtime EMEA 2017) (September 2024)
Anonim

För mig var det största temat vid förra veckans Google I / O-konferens "demokratisering av AI" - med andra ord, att göra AI tillgängligt både för slutanvändare genom dess användning i olika Google-tjänster och för utvecklare genom nya verktyg, program och till och med hårdvara designad kring Googles TensorFlow AI-ramverk.

Googles vd Sundar Pichai startade konferensen med en nyckel där han återigen betonade att företaget flyttade från en mobil-först till en AI-första strategi, på samma sätt som han sade förra året.

Han sa att Google "tänkte om alla våra produkter och använde maskininlärning och AI för att tjäna användarens problem." Han sa att maskininlärningsalgoritmer redan påverkar rankningen av olika resultat i sökningen, och hur Street View nu automatiskt känner igen tecken. Andra tjänster blir smartare på grund av AI, sade han, till exempel hur Google Home nu stöder flera användare och hur Gmail nu rullar ut en "smart svar" -funktion där den automatiskt föreslår svar på e-postmeddelanden.

Därför gjorde han ett antal tillkännagivanden av AI-produkter, både för konsumenter och för utvecklare.

Objektiv-, assistent- och fotoanvändning AI-funktioner

För slutanvändare är det mest synliga av dessa nya insatser Google Lens, en uppsättning visionbaserade datorfunktioner som kan förstå vad du ser och vidta åtgärder, både i Google Assistant och i Google Photos.

Till exempel visade han hur du kan ta en bild av en blomma och hur Google Lens nu kan identifiera den. Mer prosaiskt kan det ta en bild av ett användarnamn och lösenord för Wi-Fi och sedan automatiskt förstå att du vill ansluta och göra det åt dig. Andra exempel inkluderar att ta en bild av utsidan av en restaurang och låta programvaran förstå vad den är, och sedan visa användarrecensioner och menyer. Det här är inte helt helt nytt, men jag kan föreställa mig att det kommer att vara ganska användbart - den typen av saker som vi alla kommer att använda ganska mycket av att rösta på några år. Google säger att detta kommer att lanseras om några månader.

Google Assistant fortsätter att bli smartare och kommer att inkludera Google-linsen, även om den största nyheten från det är att Assistant nu kommer till iPhone.

Den populära Google Photos-appen får också ett antal andra AI-driven funktioner, inklusive "föreslagna delning", där den automatiskt kommer att välja de bästa bilderna och föreslå att du delar dem med människorna på bilderna. Google Foton lägger också till en funktion som automatiskt låter dig dela hela eller delar av din bibliotek, så att om du tar bilder av dina barn så blir de automatiskt en del av din partners fotobibliotek också. Och det kan föreslå de bästa fotona för en fotobok.

AI-första datacenter och nya utvecklingsverktyg

På den inre sidan talade Pichai om hur företaget "tänkte om" sin beräkningsarkitektur för att bygga "AI-första datacenter." Han sa att Google använder sina nuvarande Tensor Processing Units (TPUs) över alla dess tjänster, från grundläggande sökning till taligenkänning till sin AlphaGo-tävling.

Jag var särskilt fascinerad av företagets introduktion av en ny version av sin TPU 2.0, som Pichai sade kunde nå 180 teraflops (180 biljoner flytande punktoperationer per sekund) per 4-chipskort, eller 11, 5 petaflops i varje "pod" av 64 sådana brädor. Dessa är tillgängliga för utvecklare som "moln-TPU: er" på Google Cloud Engine nu, och företaget sa att det skulle göra 1000 moln-TPU: er tillgängliga för maskinlärande forskare via sitt nya TensorFlow Research Cloud.

Detta är del av ett ökande tryck på TensorFlow, företagets open source-maskininlärningsram för utvecklare, och konferensen hade en mängd olika sessioner för att få fler utvecklare att använda detta ramverk. TensorFlow verkar vara det mest populära av maskininlärningsramarna, men det är bara ett av ett antal val. (Andra inkluderar Caffe, som drivs av Facebook, och MXNet, drivs av Amazon Web Services.)

Jag gick till en session om "TensorFlow för icke-experter" utformad för att evangelisera ramverket och Keras djupt lärande bibliotek, och det var packat. Det är fascinerande saker, men inte lika bekanta som de mer traditionella utvecklingsverktygen. Alla de stora företagen säger att de har problem med att hitta tillräckligt med utvecklare med maskininlärningskompetens, så det är ingen överraskning att se alla driva sina interna ramar. Medan verktygen för att använda dessa blir bättre är det fortfarande komplicerat. Naturligtvis är det mycket lättare att ringa en befintlig modell, och Google Cloud Platform, liksom Microsoft och AWS, har alla en mängd sådana ML-tjänster som utvecklare kan använda.

Eftersom det är så svårt att utveckla sådana tjänster tillbringade Pichai mycket tid på att prata om "AutoML", en strategi som har nervnät som utformar nya nervnätverk. Han sa att Google hoppas att AutoML kommer att ta en förmåga som några få doktorer har idag och kommer att göra det möjligt för hundratusentals utvecklare att utforma nya nervnät för deras specifika behov på tre till fem år.

Detta är en del av en större ansträngning som kallas Google.ai för att få AI till fler människor, med Pichai som talar om olika initiativ för att använda AI för att hjälpa till i hälsovården. Han talade om patologi och cancerdetektion, DNA-sekvensering och molekylupptäckt.

Fortsätter temat tillkännagav Dave Burke, chef för Android engineering, en ny version av TensorFlow optimerad för mobil kallad TensorFlow lite. Det nya biblioteket kommer att göra det möjligt för utvecklare att bygga smalare djupa inlärningsmodeller designade för att köras på Android-smartphones, och han talade om hur mobilprocessordesigner arbetade med specifika acceleratorer i sina processorer eller DSP: er utformade för neurala nätverksinferenser och till och med utbildning.

I utvecklarens keynote sa Fei Fei Li, en Stanford-professor som är chef för Googles AI-forskning, att hon gick med i Google "för att säkerställa att alla kan utnyttja AI för att förbli konkurrenskraftiga och lösa de problem som är viktigast för dem."

Hon pratade mycket om "demokratisera AI", inklusive de olika verktygen som Google ställer tillgängliga för utvecklare för specifika applikationer, såsom vision, tal, översättning, naturligt språk och videointelligens, samt att skapa verktyg för att skapa dina egna modeller, t.ex. som TensorFlow, som är lättare att använda med mer hög nivå API: er.

Hon berättade om hur utvecklarna nu kommer att kunna använda CPU: er, GPUS eller TPU: er på Google Compute Engine. Hon gav ett exempel på hur mycket av en hastighetsförbättring vissa modeller har kört på TPU: s och säger att forskningens konsekvenser av detta är betydande.

Echoing Pichai, utropade hon det nya TensorFlow Research Cloud och sa att studenter och Kaggle-användare bör ansöka om att använda det; och avslutade med att säga att företaget skapade sitt moln AI-team för att göra AI demokratisk, att träffa dig där du är, med Googles mest kraftfulla AI-verktyg, och att dela resan som du använder dessa.

Google-appar, verktyg syftar till "demokratisera ai"