Hem yttranden Varför teknikföretag använder människor för att hjälpa ai | ben dickson

Varför teknikföretag använder människor för att hjälpa ai | ben dickson

Innehållsförteckning:

Video: Machine Learning with R and TensorFlow (September 2024)

Video: Machine Learning with R and TensorFlow (September 2024)
Anonim

"Andrew Ingram" är en digital assistent som skannar dina e-postmeddelanden, ger planeringsidéer för möten och möten du diskuterar med dina kollegor, ställer upp uppgifter och skickar inbjudningar till berörda parter med mycket lite hjälp. Den använder de avancerade artificiella intelligensfunktionerna för X.ai, en ny York-baserade startup som är specialiserat på att utveckla AI-assistenter. Problemen som det löser kan spara mycket tid och frustration för människor (som jag) som har ett rörigt schema.

Men enligt en Wired-berättelse som publicerades i maj är intelligensen bakom Andrew Ingram inte helt konstgjord. Det stöds av en grupp på 40 filippinor i en mycket säker byggnad i utkanten av Manila som övervakar AI: s beteende och tar över varje gång assistenten stöter på ett fall som det inte kan hantera.

Även om idén att dina e-postmeddelanden skannas av riktiga människor kan låta läskig, har det blivit en vanlig praxis bland många företag som tillhandahåller AI-tjänster till sina kunder. En nyligen publicerad artikel i Wall Street Journal avslöjade flera företag som låter sina anställda få tillgång till och läsa kundmeddelanden för att bygga nya funktioner och utbilda sin AI i fall som den inte har sett tidigare.

Kallas "Wizard of Oz" -tekniken eller pseudo-AI, och praktiken av att tyst använda människor för att kompensera för bristerna i AI-algoritmer belyser några av de djupaste utmaningarna som AI-industrin står inför.

AI är inte redo för breda problem

Bakom de flesta AI-innovationer de senaste åren finns djupinlärningsalgoritmer och neurala nätverk. Djupneurala nätverk är mycket effektiva vid klassificering av information. I många fall, till exempel röst- och ansiktsigenkänning eller identifiering av cancer i MR- och CT-skanningar, kan de överträffa människor.

Men det betyder inte att djup inlärning och neurala nätverk kan utföra alla uppgifter som människor kan.

"Djupt lärande tillåter oss att lösa uppfattningsproblemet. Det här är en stor sak eftersom uppfattningen har begränsat AI sedan starten för över 60 år sedan, " säger Jonathan Mugan, medstiftare och VD för DeepGrammar. "Att lösa uppfattningsproblemet har äntligen gjort AI användbart för saker som röstigenkänning och robotik."

Mugan konstaterar emellertid att uppfattningen inte är det enda problemet. Djupt lärande kämpar där allmänhetens resonemang och förståelse är involverat.

"Djupt lärande hjälper oss inte med det här problemet", säger han. "Vi har gjort några framsteg i NLP (naturligt språkbearbetning) genom att behandla språk som ett uppfattningsproblem; det vill säga konvertera ord och meningar till vektorer. Detta har gjort det möjligt för oss att bättre representera text för klassificering och maskinöversättning (när det finns mycket data), men det hjälper inte med resonemang. Detta är anledningen till att chatbots till stor del har misslyckats."

Ett av de största problemen som alla applikationer med djup inlärning står inför är att samla in rätt data för att utbilda sina AI-modeller. Ansträngningen och data som går ut på att träna ett neuralt nätverk för att utföra en uppgift beror på hur stort problemutrymmet är och vilken nivå av noggrannhet som krävs.

Till exempel gör en bildklassificeringsapplikation som Not Hotdog-appen från HBOs Silicon Valley en mycket smal och specifik uppgift: Den berättar om din smarttelefons kamera visar en hotdog eller inte. Med tillräckligt med hotdog-bilder kan appens AI utföra sin mycket viktiga funktion med hög noggrannhet. Och även om det gör ett misstag då och då, kommer det inte att skada någon.

Men andra AI-applikationer, som den X.ai bygger, hanterar mycket bredare problem, vilket innebär att de kräver många kvalitetsexempel. Dessutom är deras tolerans för fel mycket lägre. Det finns en stor skillnad mellan att missa en gurka för en korv och att schemalägga ett viktigt affärsmöte vid fel tidpunkt.

Tyvärr är kvalitetsdata inte en vara som alla företag har.

"Tumregeln är att ju mer generellt ett problem en AI försöker hantera, desto mer kantfall eller ovanligt beteende som kan uppstå. Detta betyder oundvikligen att du behöver mycket fler träningsexempel för att täcka allt, " säger Dr. Steve Marsh, CTO på Geospock. "Nystartade företag har i allmänhet inte tillgång till enorma mängder träningsdata, så de modeller som de kan genomföras kommer att vara väldigt nischer och spröda, som vanligtvis inte uppfyller sina förväntningar."

Sådan rikedom av information finns bara hos stora företag som Facebook och Google, som har samlat in data från miljarder användare i flera år. Mindre företag måste betala stora summor för att få eller skapa utbildningsdata, och det försenar deras applikationslanseringar. Alternativet är att starta ändå och börja träna sin AI i farten, använda mänskliga tränare och levande kunddata och hoppas att AI så småningom kommer att bli mindre beroende av människor.

Till exempel Edison Software, ett Kalifornien-baserat företag som utvecklar appar för att hantera e-postmeddelanden, fick sina anställda läsa e-postmeddelanden från sina kunder för att utveckla en "smart svar" -funktion eftersom de inte hade tillräckligt med data för att utbilda algoritmen, företagets VD berättade för The Wall Street Journal. Att skapa smarta svar är en bred och utmanande uppgift. Till och med Google, som har tillgång till e-postmeddelanden från miljarder användare, ger smarta svar för mycket smala fall.

Men att använda människor för att träna AI med live användardata är inte begränsat till mindre företag.

Under 2015 lanserade Facebook M, en AI-chatbot som kunde förstå och svara på olika nyanser av konversationer och utföra många uppgifter. Facebook gjorde M tillgängligt för ett begränsat antal användare i Kalifornien och inrättade en personal med mänskliga operatörer som skulle övervaka AI: s prestanda och ingripa för att korrigera den när den inte kunde förstå en användarförfrågan. Den ursprungliga planen var att de mänskliga operatörerna skulle hjälpa lära assistenten att svara på kantfall som den inte hade sett förut. Med tiden skulle M kunna arbeta utan hjälp av människor.

Ett ouppnåeligt mål?

Det är inte klart hur lång tid det kommer att ta för Edison Software, X.ai och andra företag som har lanserat human-in-the-loop-system för att göra deras AI helt automatiserad. Det råder också tvivel om nuvarande trender för AI någonsin kan nå punkten att engagera sig i bredare domäner.

År 2018 stängde Facebook av M utan att varje officiellt distribuerar det. Företaget delade inte detaljer, men det är tydligt att det är mycket svårt att skapa en chatbot som kan delta i breda konversationer. Och att göra M tillgängligt för alla Facebooks två miljarder användare utan att först göra det fullt kapabelt att automatiskt svara på alla slags samtal skulle ha krävt att den sociala mediagiganten skulle anställa en enorm personalpersonal för att fylla M: s luckor.

DeepGrammars Mugan tror att vi så småningom kommer att kunna skapa AI som kan lösa allmänhetens resonemang, vad andra klassificerar som allmän AI. Men det kommer inte att hända när som helst snart. "Det finns för närvarande inga metoder i horisonten som gör det möjligt för en dator att förstå vad ett litet barn vet, " säger Mugan. "Utan denna grundläggande förståelse kommer datorer inte att kunna utföra många uppgifter väl 100 procent av tiden."

För att sätta det i perspektiv utvecklade experter på OpenAI nyligen Dactyl, en robothand som kunde hantera föremål. Detta är en uppgift som alla mänskliga barn lär sig att utföra medvetande i en tidig ålder. Men det tog Dactyl 6 144 CPU och 8 GPU och ungefär hundra års erfarenhet för att utveckla samma färdigheter. Även om det är en fascinerande prestation, belyser den också de skarpa skillnaderna mellan smal AI och hur människans hjärna fungerar.

"Vi är väldigt långt ifrån att ha artificiell allmän intelligens, och mycket troligt kommer AGI att vara kombinationen och samordningen av många olika typer av smala eller applikationsspecifika AI: er, " säger Marsh. "Jag tror att det finns en tendens att överhypa funktionerna för AI för tillfället, men jag ser också att det är enormt värde att bara ta de första första stegen och implementera traditionella maskininlärningsmodeller."

Är en annan AI-vinter på väg?

1984 varnade American Association of Artificial Intelligence (senare byttes namn till Association for the Advancement of Artificial Intelligence) näringslivet att hype och entusiasm kring AI så småningom skulle leda till besvikelse. Strax efter kollapsade investeringar och intresse i AI, vilket ledde till en era som var bättre känd som "AI-vintern."

Sedan början av 2010-talet har intresset och investeringarna på området ökat igen. Vissa experter är rädda för att om AI-applikationer underpresterar och inte uppfyller förväntningarna, kommer en annan AI-vinter att följa. Men experterna vi talade med tror att AI redan har blivit för integrerat i våra liv för att återgå till sina steg.

"Jag tror inte att vi är i fara för en AI-vinter som de tidigare eftersom AI nu levererar verkligt värde, inte bara hypotetiskt värde, " säger Mugan. "Men om vi fortsätter att berätta för allmänheten att datorer är smarta som människor riskerar vi ett bakslag. Vi kommer inte att återvända till att inte använda djup inlärning för uppfattning, men termen" AI "skulle kunna släppas, och vi skulle behöva kalla det något annat."

Det som är säkert är att åtminstone står en era av desillusionering framför oss. Vi håller på att lära oss i vilken utsträckning vi kan lita på nuvarande blandningar av AI inom olika områden.

"Det jag förväntar mig att se är att vissa företag blir positivt överraskade över hur snabbt de kan tillhandahålla en AI för en tidigare manuell och dyr service, och att andra företag kommer att upptäcka att det tar längre tid än de förväntade sig att samla in tillräckligt med data för att bli ekonomiskt hållbart, säger James Bergstra, grundare och forskningschef på Kindred.ai. "Om det finns för många av de senare och inte tillräckligt med det förra, kan det utlösa en ytterligare AI-vinter bland investerare."

  • Artificiell intelligens har ett partiskhetsproblem, och det är vårt fel Konstgjord intelligens har ett partiskhetsproblem, och det är vårt fel
  • Varför att lära AI att spela spel är viktigt Varför undervisa AI att spela spel är viktigt
  • AI erbjuder stort potential, men det kommer inte att ske över natten AI erbjuder enormt potential, men det kommer inte att ske över natten

Geospocks Marsh förutspår att även om finansieringen inte avtar, kommer det att göras några justeringar av dess dynamik. Eftersom investerare inser att verklig sakkunskap är sällsynt och bara de med tillgång till data för att utbilda modellerna kommer att vara olika i branschen kommer det att bli en stor konsolidering på marknaden och mycket färre startups får finansiering.

"För många AI-startar utan en nischmarknadsapplikation eller stora mängder data: vintern kommer", avslutar Marsh.

Varför teknikföretag använder människor för att hjälpa ai | ben dickson