Hem Framåt tänkande Science fiction-enheter som är (nästan) verkliga

Science fiction-enheter som är (nästan) verkliga

Innehållsförteckning:

Video: The Best SCIENCE-FICTION Movies 2020 & 2021 (Trailers) (September 2024)

Video: The Best SCIENCE-FICTION Movies 2020 & 2021 (Trailers) (September 2024)
Anonim

Liksom många människor älskar jag science fiction och går ofta till shower som CES i hopp om att se den teknik som vi läser om i böcker eller ser i filmer. Men medan CES i år hade mycket bra teknik, fungerade det också som en bra påminnelse om att vi fortfarande är långt ifrån den teknik som vi föreställer oss i böcker och film; vi har inte riktigt självkörande bilar ännu, mycket mindre användbara robotar eller holodeck.

Fortfarande såg jag mycket framsteg, även om dessa teknologier har en lång väg att gå innan de faktiskt finns tillgängliga i den verkliga världen. Återigen, det är förmodligen också bra att Skynet inte är igång ännu.

CES-bilar handlar inte om självkörning

Varje år verkar det som om CES blir mer en bilshow, och i år var den stora majoriteten av North Hall full av biltillverkare och deras leverantörer.

Jag förväntade mig att se - och såg - många människor prata om autonoma fordon. Nvidia tillbringade huvuddelen av sin pre-show-keynote för att diskutera sitt nya system för sådana fordon, med fokus på Xavier, "världens mest kraftfulla SoC." Xavier har 9 miljarder transistorer i en 350 mm2 matris, med en anpassad 8-kärnans CPU, en ny 512-kärnig Volta GPU, en ny djup inlärningsaccelerator, nya datorsyn acceleratorer och nya 8K HDR videoprocessorer. Företaget säger att det levererar 30 biljoner operationer per sekund medan det förbrukar bara 30 watt.

Detta utgör hjärtat i företagets Pegasus-körsystem, som är byggt på två Xavier SoC: er (system på ett chip) och två nästa generations Nvidia GPU: er. Nvidia sa att sina kunder kommer att få de första proverna av Pegasus, som kan 320 biljoner operationer per sekund av behandlingsprestanda, i mitten av 2018. Den är avsedd att möjliggöra helt autonoma fordon (nivå 5).

Samtidigt drev Intel sitt Mobileye-förvärv och talade om hur dess chips är i många bilar som redan är i produktion och noterar att detta antal växer. Företaget pratade om nya partnerskap för att bygga högupplösta kartor för användning i smarta städer, och dess fokus på säkerhet och avancerade system för förarstöd (ADAS) över helt autonoma fordon.

På samma sätt tillbringade ARM betydande tid på att prata om de olika bilindustriförsäljarna som använder sina processorer i allt från ADAS till smarta lampor.

Även om mycket av diskussionen på CES involverade autonoma fordon - från biltillverkare och chiptillverkare till tillverkare av alla typer av komponenter från LIDAR till skärmar till programvara - fanns det också massor av diskussioner som fokuserade på annan bilteknik på utställningen.

Det fanns några demonstrationer av bränslecellfordon och till och med några ganska snygga konceptfordon. Jag fokuserade inte riktigt på dessa, men de var väldigt intressanta.

Den konstigaste biltekniken som jag såg var Nissans experiment för att kontrollera bilar genom tanke, baserat på idén att du vet när du vill trycka ner pausen snabbare än benet kan reagera. Även om det är en intressant teori, är jag inte säker på hur praktisk den är.

Roboter överallt, men inte de droider du letar efter

Vi hör mycket om robotar, men med undantag för vissa "robotiska" enheter som utför en specifik funktion (till exempel en robotdammsugare) finns det bara inte så många robotar i den verkliga världen som du kan förvänta dig, med tanke på allt hype.

På CES fanns det alla typer av robotar - från hushållsrobotar som gör lite mer än att följa dig runt, uppför dig som en Amazon Echo på hjul, till leksaker designade för att interagera med barn, till mer specifika maskiner som gjorde saker som att spela schack eller till och med ping pong, den senare av dessa till synes utformade mer för att locka folkmassor än att sälja i stort antal.

I sin grundton visade LG sin CLOi-hemrobot (som egentligen inte fungerade, men det är en demo), liksom nya kommersiella versioner, inklusive en som serverar mat och dryck, en annan som fungerar som en portör för att leverera bagage, och en tredje som fungerar som en kundvagn med en integrerad streckkodsläsare. Det här är intressanta idéer, men verkar vara långt ifrån mainstream.

För mig var det snyggaste av dessa den nya versionen av Sonys robothund med Aibo, som nu kan ta nya trick och kan svara på olika människor med ansiktsigenkänning. Aibo kan också göra saker som att leka med en boll, lägga ner sig och reagera på din beröring, som till synes är mycket hundliknande beteende. Den japanska versionen som nu finns är inte billig; en amerikansk version har ännu inte tillkännagivits. Det ser mycket roligt ut.

Mitt allmänna intryck var emellertid att ingen av dessa alls överensstämmer med de robotar som människor föreställer sig i böcker och filmer. De är alla mycket begränsade och är ofta lite mer än samtalstycken. Men saker verkar utvecklas.

Realtidsöversättning du kan ta med dig

Kanske är science fiction-tekniken som är närmast att vara redo för konsumentbruk den universella översättaren. Även om den "universella" delen fortfarande inte är klar har jag varit mycket imponerad av de många förbättringarna i översättningstekniken, särskilt mellan två språk, vilket är vad vi verkligen behöver ändå.

Om du vill ha något du kan översätta från ett visst språk till ett annat (och tillbaka igen) finns det nu ett antal kommersiella enheter som erbjuder sådana funktioner. Det finns några telefonappar som försöker göra samma sak (som Google Translate och Pixel Buds), men jag blev imponerad av demos av några små enheter som påstår sig göra jobbet med mikrofoner, programvara och högtalare som är inställda på uppgiften, och som kan fungera med vilken smartphone som helst, eller till och med utan en.

Det kinesiska AI-företaget iFlytek hade två olika versioner för att översätta mellan mandarin-kinesiska och engelska - ett som fungerar offline och kommer att sälja för cirka 150 dollar, och en annan som gör något bättre jobb och är ansluten till molnet via mobilnät. Den här enheten säljer för cirka $ 350. Företaget arbetar också med att konvertera från kinesiska till andra språk. Jag pratar inte mandarin, men det såg ganska imponerande ut.

Sourcenext, ett japanskt företag, demonstrerade Pocketalk, en handhållen tvåvägs röstöversättare som den säger kommer att kunna arbeta på 63 olika språk. Demos som jag såg innehöll japanska och engelska, och även om det såg väldigt bra ut, eftersom jag inte talar japanska, kunde jag inte riktigt vara säker. Detta förväntas släppas i maj.

Men från ett designperspektiv var den enhet som verkade mest intressant för mig Mars-översättaren från Naver, som använder företagets Papago-översättningsteknologi, och en assistent som heter Clova, utvecklad av Naver och den asiatiska meddelandetjänsten Line. Med denna design bär du ett par öronsnäckor och lägger ett i örat och ger det andra till personen som talar det andra språket. Demonstrationen, som använde koreanska till engelska, såg också imponerande ut (men igen, jag kan inte riktigt berätta). Företaget säger också att det kommer att stödja kinesiska och spanska.

Som jag har sagt talar jag inte något av de demonstrerade språken, så jag kan inte garantera hur bra produkterna är. Men dessa verkar röra sig mycket snabbt i rätt riktning.

VR förbättras, men Holodeck är långt borta

VR-headset är nu naturligtvis vanligt, men de flesta av de människor jag känner som använder dem tycker att de underhåller bara under en kort tid. Under tiden har augmented reality-headset, som Google Glass ännu inte tagit på, utom för några få specialiserade applikationer. För mig beror det på att tekniken inte verkar vara riktigt redo för primetime - VR-headset är ofta tunga och klumpiga, enheterna behöver antingen kopplas in eller så är de inte riktigt kraftfulla och skärmen har ofta ett begränsat fält av synen. Dessutom är upplösningen i allmänhet tillräckligt dålig så att du kan se pixlarna, vilket ger skärmen en "skärmdörreffekt."

På CES i år såg jag några tecken på att detta börjar förbättras.

Royales Moon 3D Mobile Theatre erbjuder en mer uppslukande upplevelse av att titta på filmer med dubbla AMOLED-skärmar på 1080p i ett headset, och ett brusreducerande hörlurar som täcker öronen, så att du bara kan höra och se filmen.

ThirdEyes X1 har två 720p genomskärmningsskärmar för förstärkt verklighet och riktar sig främst till hälso- och sjukvårdsmarknaden.

Rokid, en ny kinesisk spelare, visade upp AR-glasögon som ser mer ut som en konsumentprodukt, med glasögon som inte är för mycket större än vanliga solglasögon. Rokids enhet har en framåtvänd kamera för ansiktsdetektering och röstigenkänning. Det här var bara en prototypmodell, och det är oklart när det kommer till marknaden.

Den kanske mest intressanta var Vuzix Blade. (Se bilden högst upp i detta inlägg.) Vuzix har levererat AR- och VR-glasögon till företagsmarknaden under en längre tid, men Blade verkar både lättare och närmare den vision de flesta har om AR-glasögon. Dessa ser ut som solglasögon, men med en liten färgskärm på sidan av ramen, som inkluderar batterier, en 8-megapixelkamera och använder Amazon Alexa som röstassistent.

På något sätt är detta ganska mycket en uppdaterad version av Google Glass-konceptet, i det att det nästan är vid den punkt där jag kan se konsumenter som använder det. (Google Glass finns fortfarande för företagsmarknaden, där det konkurrerar med produkter från Vuzix, Epson och andra.) Glasögonen jag försökte kändes ganska bra: relativt lätt, och även om de inte hade allt jag skulle vilja se i den här typen av glasögon - skärmen är fortfarande inte så bra som jag skulle vilja - det är nära att vara en riktig produkt, med Vuzix lovande utvecklarpaket snart och en konsumentversion att följa. Det är ganska coolt.

Bakom dessa nya funktioner - och de vi kommer att behöva se fram emot - stod enormt förbättrade skärmar, och arbetet fortskrider på nya LCD-skärmar och Micro OLED-skivor (organiska ljusemitterande dioder), liksom på ljusfältskärmar.

Inom Micro OLED-området såg jag ett antal headset som använde Kopins Lightning 720p OLED-mikrodisplay, som har en diagonalstorlek på 0, 49 tum och en ljusstyrka på över 1000 ni. Några av dagens mest intressanta headset verkar använda det.

Ett som jag tyckte var särskilt intressant använder ett mikrodisplay och integrerar Flirs termiska avbildningssystem för att skapa ett headset som fungerar som en mask för brandmän som kan varna dem för heta ställen i en brinnande byggnad.

När vi tittade längre fram visade Kopin sin Lightning 2K AMOLED, en 0, 99-tums skärm (18 mm på varje sida) med 2048-till-2048 pixlar, som kommer ut senare i år. Företaget har skapat skärmar för headset i många år och gör nu mikro-OLED: er som en del av ett joint venture med displaytillverkaren BOE, i syfte att skapa en bättre "stödjande verklighet".

I framtiden kommer jag att vara mycket intresserad av AR-applikationer särskilt, men för i år tror jag att det fortfarande till stor del är en nischapplikation, bäst lämpad för vertikala marknader med specifika behov.

Ändå, i en annan nick mot science fiction-filmer, verkar hologram göra mycket framsteg. Jag blev särskilt imponerad av Hypervsn från Kino-mo, ett brittiskt företag som använder lysdioder för att projicera 3D-hologram som ser ut som de flyter i luften. Denna teknik används främst i marknadsföring för att skapa iögonfallande skärmar. Det fångade verkligen min.

Science fiction-enheter som är (nästan) verkliga