Hem yttranden Att lära av alexas misstag

Att lära av alexas misstag

Innehållsförteckning:

Video: Настройка AMAZON ECHO с Alexa (September 2024)

Video: Настройка AMAZON ECHO с Alexa (September 2024)
Anonim

En Amazon Echo-enhet spelade nyligen in en användares privata konversation och skickade den till en av sina kontakter utan deras vetskap och samtycke. Detta väcker (igen) oro för smarta högtalares säkerhet och integritet. Som senare blev uppenbart, var emellertid Alexa's konstiga beteende inte en del av en olycklig spionage-plot - snarare orsakades den av en serie länkade misslyckanden som tillskrivs hur den smarta högtalaren fungerar.

Enligt ett konto från Amazon: "Echo vaknade på grund av ett ord i bakgrundssamtal som låter som" Alexa. " Sedan hördes den efterföljande konversationen som en "skicka meddelande" -förfrågan. Vid vilken tidpunkt sa Alexa högt "Vem?" Vid vilken tidpunkt tolkades bakgrundssamtalet som ett namn i kundens kontaktlista. Alexa frågade sedan högt, 'eller hur?' Alexa tolkade sedan bakgrundssamtal som 'rätt'. Så lika osannolikt som denna sträng av händelser är, vi utvärderar alternativ för att göra detta fall ännu mindre troligt."

Scenariot är ett viktigt fall, den typ av händelse som händer mycket sällan. Men det är också en intressant studie i gränserna för den konstgjorda intelligensen tekniken som driver Echo och andra så kallade "smarta" enheter.

För mycket molnberoende

För att förstå röstkommandon förlitar sig smarta högtalare som Echo och Google Home på djupinlärningsalgoritmer, som kräver omfattande datorkraft. Eftersom de inte har datorresurser för att utföra uppgiften lokalt måste de skicka informationen till tillverkarens molnservrar, där AI-algoritmer omvandlar taldata till text och bearbetar kommandona.

Men smarta högtalare kan inte skicka allt de hör till sina molnservrar, eftersom det kräver att tillverkaren lagrar alltför stora mängder data på sina servrar - de flesta skulle vara värdelösa. Att oavsiktligt spela in och lagra privata konversationer som äger rum i användarnas hem skulle också utgöra en integritetsutmaning och skulle kunna få tillverkare i problem, särskilt med nya sekretessbestämmelser för data som sätter allvarliga begränsningar för hur tekniska företag lagrar och använder data.

Det är därför smarta högtalare är utformade för att utlösas efter att användaren uttrycker ett väckningsord som "Alexa" eller "Hey Google." Först efter att ha hört vakna ordet börjar de skicka sina mikrofoner ljudingång till molnet för analys och bearbetning.

Medan den här funktionen förbättrar integriteten, presenterar den sina egna utmaningar, som den senaste Alexa-incidenten lyfte fram.

"Om ord - eller något som låter väldigt mycket som det - skickas halvvägs genom ett samtal, kommer Alexa inte att ha något av det tidigare sammanhanget, " säger Joshua March, VD för Conversocial. "Vid den tidpunkten lyssnar det extremt hårt på alla kommandon som är relaterade till de färdigheter du har satt upp (som deras meddelanden-app). För det mesta förbättras integriteten kraftigt genom att begränsa det sammanhang som Alexa uppmärksammar (som det spelar inte in eller lyssnar på några av dina normala konversationer), även om det backfired i detta fall."

Framsteg när det gäller databehandling kan hjälpa till att lindra detta problem. Eftersom AI och djup inlärning finner väg till fler och fler enheter och applikationer, har vissa hårdvarutillverkare skapat processorer specialiserade för att utföra AI-uppgifter utan för mycket beroende av molnresurser. Edge AI-processorer kan hjälpa enheter som Echo att bättre förstå och bearbeta konversationer utan att kränka användarnas integritet genom att skicka all information till molnet.

Kontext och avsikt

Bortsett från att ta emot olika och fragmenterade ljudbitar, kämpar Amazons AI med att förstå nyanserna i mänsklig konversation.

"Även om det har skett enorma framsteg inom djup inlärning under de senaste åren, vilket gör det möjligt för programvara att förstå tal och bilder bättre än någonsin tidigare, finns det fortfarande mycket gränser, " säger March. "Medan röstassistenter kan känna igen de ord du säger, har de inte nödvändigtvis någon form av verklig förståelse för innebörden eller avsikten bakom det. Världen är en komplex plats, men alla AI-system i dag kan bara hantera mycket specifika, smala användningsfall."

Till exempel har vi människor många sätt att avgöra om en mening riktas mot oss, till exempel röstton eller efter visuella ledtrådar - säg riktningen talaren ser.

Däremot förutsätter Alexa att det är mottagaren av alla meningar som innehåller "A" -ordet. Det är därför användarna ofta utlöser det av misstag.

En del av problemet är att vi överdriver kapaciteten i nuvarande AI-applikationer, ofta sätter dem i nivå med eller över det mänskliga sinnet och sätter för mycket förtroende för dem. Det är därför vi är förvånade när de misslyckas spektakulärt.

"En del av frågan här är att termen" AI "har så aggressivt marknadsförts att konsumenterna har lagt en oförtjänt mängd förtroende för produkter med denna term bunden till dem, " säger Pascal Kaufmann, neurovetenskapsman och grundare av Starmind. "Den här historien illustrerar att Alexa har många kapaciteter och en relativt begränsad förståelse för hur och när de ska tillämpas på lämpligt sätt."

Djupinlärningsalgoritmer är benägna att misslyckas när de står inför inställningar som avviker från de data och scenarier de är utbildade för. "En av de viktigaste funktionerna i AI på mänsklig nivå kommer att vara självförsörjande kompetens och en verklig förståelse av innehåll, " säger Kaufmann. "Detta är en avgörande del för att verkligen betrakta en AI" intelligent "och avgörande för dess utveckling. Att skapa självmedvetna digitala assistenter, som medför en fullständig förståelse av mänsklig natur, kommer att markera deras omvandling från en rolig nyhet till en verkligt användbart verktyg."

Men att skapa AI på mänsklig nivå, även kallad allmän AI, är lättare sagt än gjort. I många decennier har vi tänkt att det är precis runt hörnet, bara för att bli förskräckt eftersom tekniska framsteg har visat hur komplicerat det mänskliga sinnet är. Många experter anser att jag är generellt för att jagar generellt AI.

Samtidigt ger smala AI (som nuvarande teknik för artificiell intelligens beskrivs) fortfarande många möjligheter och kan fixas för att undvika att upprepa misstag. För att vara tydlig börjar djup inlärning och maskininlärning fortfarande börja, och företag som Amazon uppdaterar ständigt sina AI-algoritmer för att hantera kantfall varje gång de inträffar.

Vad vi behöver göra

"Detta är ett ungt, växande område. Naturligt språkförståelse är särskilt i sin barndom, så det finns mycket vi kan göra här, " säger Eric Moller, CTO för Atomic X.

Moller tror att röstanalys AI-algoritmer kan ställas in för att bättre förstå intonation och böjning. "Att använda ordet" Alexa "i en bredare mening låter annorlunda än en kallelse eller kommando. Alexa borde inte vakna för du sa det namnet i förbigående, " säger Moller. Med tillräckligt med utbildning bör AI kunna skilja vilka specifika toner som riktas mot den smarta högtalaren.

Tekniska företag kan också utbilda sin AI för att kunna skilja på när de får bakgrundsljud i motsats till att de pratas direkt. "Bakgrundsprat har en unik hörsignatur" signatur "som människor är mycket bra på att plocka upp och selektivt stämma ut. Det finns ingen anledning till att vi inte kan träna AI-modeller för att göra detsamma, " säger Moller.

Som en försiktighetsåtgärd bör AI-assistenter bedöma effekterna av de beslut de fattar och involvera mänskligt beslut i fall där de vill göra något som är potentiellt känsligt. Tillverkarna bör baka mer skyddsåtgärder i sin teknik för att förhindra att känslig information skickas utan användarens uttryckliga och tydliga samtycke.

"Även om Amazon rapporterade att Alexa försökte bekräfta den åtgärd som den tolkade, måste vissa åtgärder hanteras mer noggrant och hållas till en högre standard för bekräftelse av användarens avsikt, " säger Sagi Eliyahi, VD för Tonkean. "Människor har samma problem med taligenkänning, ibland misshandlar förfrågningar. Till skillnad från Alexa är det dock mer sannolikt att en människa bekräftar absolut att de förstår en oklar begäran och, ännu viktigare, mäter sannolikheten för en begäran jämfört med tidigare begäranden."

Sålänge…

Medan teknikföretag finjusterar sina AI-applikationer för att minska misstag, måste användarna fatta det ultimata beslutet om hur mycket de vill bli utsatta för de potentiella fel som deras AI-drivna enheter kan göra.

"Dessa berättelser visar en konflikt med mängden data som människor är villiga att dela mot löften om ny AI-teknik, " säger Doug Rose, datavetenskapsexpert och författaren till flera böcker om AI och programvara. "Du kan reta Siri för att ha varit långsam. Men det bästa sättet för henne att uppnå större intelligens är genom att invadera våra privata konversationer. Så en viktig fråga under det kommande decenniet eller så är hur mycket kommer vi att låta dessa AI-agenter kika in i vårt beteende ?"

"Vilken familj skulle placera en mänsklig assistent i vardagsrummet och låta den personen lyssna på någon slags konversation hela tiden?" säger Kaufmann, neurovetenskapsmannen från Starmind. "Vi bör åtminstone tillämpa samma standarder på så kallade AI-enheter (om inte högre) att vi också tillämpar mänskliga intelligenta varelser när det gäller sekretess, sekretess eller tillförlitlighet."

Att lära av alexas misstag