Hem recensioner Deepcrawl granskning och betyg

Deepcrawl granskning och betyg

Innehållsförteckning:

Video: DeepCrawl Crawl Set Up (Oktober 2024)

Video: DeepCrawl Crawl Set Up (Oktober 2024)
Anonim

DeepCrawl har höjt sitt pris lite sedan vi först tittade på det. Verktyget börjar nu på $ 89 per månad, faktureras månad till månad; 81, 50 $ vid fakturering årligen). Det är cirka 10 dollar mer än vad det kostade tidigare, så det borde inte vara ett problem för de flesta SEO-verktygskunder (search engine optimization). Det som emellertid kan kasta dig är dess designfokus: det här verktyget är endast avsett för en sak och en sak: inifrån och ut, topp-till-botten webbsökande. SEO-verktyg kan generellt delas in i tre huvudkategorier. Först finns det ad hoc-sökordsundersökningar, som hjälper dig att hitta de mest lämpliga söksidorna för att ditt innehåll ska rankas högre. Därefter finns det fortlöpande positionsövervakning, vilket är hur du håller reda på dina sökpositioner för att identifiera var du vinner och tappar mark. Slutligen finns det genomsökning, där webbbots analyserar antingen en enda webbplats eller systematiskt genomsöker och indexerar hela internet. DeepCrawl gör inte genomsökningar över hela världen men det kommer att ge din webbplats ungefär en så omfattande SEO "full body scan" som du kan få.

Den här typen av genomsökning av djupa webbplatser är användbar för företag på flera sätt. DeepCrawl är ett verktyg för både nybörjare som vill belysa webbplatsfrågor eller avancerade användare som anpassar sina genomsökningar, men utan några begränsningar för datatillgång. Genomsökning gör det också lättare att övervaka webbplatshälsa med både realtid och historiskt sammanhang, vilket ger företagen möjlighet att jämföra genomsökningar från år till år och granska olika trender och rapporttyper. Du måste i allmänhet använda en kombination av flera verktyg i de tre kategorierna av SEO för den mest effektiva strategin, och webbplatsrobotare är hur du identifierar styrkorna och svagheterna på din egen webbplats och målsidor.

Redaktörernas val SEO-verktyg Moz Pro, SpyFu och AWR Cloud har ett mycket större djup av sökords- och positionsövervakning, men har inte nästan kapaciteten för genomsökning och webbplatsrevision. Så om du till exempel använde ett av Editors 'Choice-verktyg eller en sökordsspecifik produkt som KWFinder.com för att identifiera en målsökningssidesida (SERP) och en plats som är idealisk för ditt innehåll att rangordna, skulle du sedan köra en DeepCrawl-genomsökning av webbplatsens arkitektur för att generera siduppdelningar och identifiera de specifika SEO-frågor som din webbplats behöver förbättra och lösa för att sidan ska rangordnas. Detsamma gäller för att räkna ut varför ditt innehåll tappar mark i sökrankningar som spåras i ett övervakningsverktyg som AWR Cloud eller genomföra någon orsakssanalys på varför din webbplats drabbades med en Google-sökstraff och hur du kan återställa. Förr eller senare kommer en SEO-strategi alltid tillbaka till granskning av din egen webbplats. Det är DeepCrawls enda jobb.

Prissättning och planer

Som sagt börjar DeepCrawl på $ 81, 50 per månad, faktureras årligen ($ 89 månad till månad) för sin startplan, som kommer med 100 000 aktiva webbadresser, fem aktiva projekt, plus fullständig applikationsprogrammeringsgränssnitt (API). De flesta SEO-verktyg reserverar API-åtkomst för företagsnivåer, vilket är ett definitivt plus för DeepCrawl-användare som vill ha djupare anpassning utan företagets prislapp.

En annan förändring som har hänt sedan vi sist granskade verktyget är att företaget har avskaffat sina andra prisplaner. För dem som vill registrera sig online för tjänsten finns startplanen och det är det. Mer avancerade funktioner och ökade servicealternativ är nu alla tillgängliga i bara en annan plantyp: Företagsplanen. Det finns inte mycket detaljer här, bortsett från "skräddarsydd" prissättning, vilket vi antar innebär ett samtal till en företagsrepresentant så att de kan skräddarsy en service- och prissättningsplan efter dina behov.

Webbsökning

Webbplatsgenomsökningsprocessen i DeepCrawl börjar med en snabb fyrstegsinstallation. I vilken som helst genomsökning kan du inkludera upp till fem källor, webbplatskartor, webbplatser, analyser, bakåtlänkar och URL-listor. Tanken är att göra det enkelt att identifiera luckor i din webbplatsarkitektur, med specifika mätvärden som du inte hittar i andra genomsökningsverktyg som Orphaned Pages Driving Traffic. DeepCrawl är utformat för att ge användarna en fullständig överblick över sin webbplats tekniska hälsa, med handlingsbara data och insikter för att öka SEO-synligheten och förvandla organisk trafik till intäkter.

När du registrerar dig för en gratis DeepCrawl-test förs gränssnittet först till projektets instrumentbräda. För att ställa in mitt PCMag-testprojekt, kom jag in i PCMag.com som den primära domänen. Steg två är att välja datakällor för genomsökningen, som inkluderar själva webbplatsen, PCMags webbplatskartor och analys som du kan komma åt med ett aktivt Google Analytics-konto. Du kan också lägga till specifika backlink- och URL-målparametrar inom domänen (till exempel om du har identifierat målsidor i ett sökordsverktyg) genom att ladda upp CSV-filer med specifika bakåtlänkar eller URL-listor. Det finns också en popup-ruta längst ner på sidan för att se en videohandledning för hur du ställer in DeepCrawl-projekt och genomsökningar.

Steg tre låter dig ställa in parametrarna för själva genomsökningen. Jag kunde växla genomsnittshastigheten till var som helst från en URL till 50 webbadresser per sekund. Därifrån hade jag möjlighet att ställa in hur många "genomsökningsnivåer" djupt skanningen skulle gå från PCMag-hemsidan och ställa in det maximala antalet webbadresser där genomsökningen skulle stoppas. Min kostnadsfria testversion var för Starter-planen, så mina webbadresser var begränsade till 100 000. Det sista steget är att ställa in om detta kommer att vara en engångs- eller en återkommande genomsökning, som kan vara varje timme, dagligen, veckovis, två veckor, varje månad eller kvartalsvis med möjlighet att ställa in start- och sluttider för genomsökningen.

Detta är en viktig funktion som du kan ställa in om du behöver regelbundna webbplatsrevisioner men var försiktig med dina URL-gränser beroende på vilken plan du väljer. Det finns också mer avancerade inställningar för djupare genomsökningsbegränsningar, uteslutna URL: er, URL-omskrivning och API-återuppringningar, men en icke-teknisk SEO-användare behöver inte nödvändigtvis komma in i dessa. Därifrån klickade jag på Start Crawl och fick ett e-postmeddelande några minuter senare när genomsökningen var klar.

I den färdiga genomsökningspanelen står du omedelbart inför en vägg med information. Om du vet vad du letar efter finns det dubbla sökfält överst för att hitta en specifik URL eller hitta rapporten om ett visst område i webbplatsarkitekturen; detta kan vara allt från kroppsinnehåll och sociala taggar till misslyckade webbadresser och omdirigeringar av webbplatser. Sammantaget körde DeepCrawl 175 rapporter om mina webbadresser - som i den kostnadsfria prövningen visade sig vara begränsade till drygt 10 000 - och upptäckte 30 webbplatsproblem och genomsökte sex "nivåer" eller länkar djupt från hemsidan.

Den huvudsakliga instrumentpanelsidan ger en lista över alla aktuella webbplatsfrågor, från vilka du kan granska ned till de specifika webbadresserna där DeepCrawl kommer att markera sidfel som duplikatinnehåll, trasiga sidor, överskottslänkar eller sidor med titlar, beskrivning och metadata i behov av SEO-förbättringar. Bredvid listan hittade jag en interaktiv cirkeldiagram-uppdelning av de vanligaste problemen bland de 10 000+ genomsökta sidorna.

DeepCrawl har också uppdaterat sitt användargränssnitt (UI) sedan vår första granskning, och lagt till brödsmulor över varje sida för att göra det enklare att navigera till andra delar av plattformen och lägga till en instrumentpanelsektion för att utvärdera alla körsökningar på ett ställe. För min domän fann jag att även om det inte fanns några större problem med 49 procent av mina sidor (de flesta av dem "primära" sidor), 30 procent av mina sidor under ytan hade att göra med 5xx serverfel, har fem procent av sidorna misslyckade webbadresser, och 16 procent av sidorna var "icke-indexerbara." Enligt DeepCrawl inträffade troligen 5xx-felen på grund av att PCMag-webbplatsen blockerade aspekter av genomsökningen eller på grund av att den kryper för snabbt för att servern ska hantera. DeepCrawl har också klargjort att sidor som har flaggats som primära inte nödvändigtvis är problemfria och kan fortfarande granskas för att inkludera saknade sidor, utesluta sidor med lågt värde och kommenteras med SEO-rekommendationer på sidan.

Några av de andra genomsökningsverktygen som jag testade, inklusive Ahrefs och Majestic, ger dig också den här typen av uppdelning, inklusive grundläggande webbplatsfrågor samt backlink-indexering, vilket innebär att inkommande hyperlänkar från andra webbplatser till din. Vad de andra inte riktigt gör är att djupa djupare till den punkt som DeepCrawl gör, särskilt med uppdelningar som de sidor som är säkrade med det säkrare HTTPS-protokollet i motsats till HTTP, något som Google-algoritmen tar hänsyn till när man rankar sidor.

DeepCrawl ger dig också intelligenta sidgrupper (som du kan hitta i Avancerade inställningar när du konfigurerar en genomsökning), vilket innebär att din sampling är baserad på en procentandel av sidor snarare än ett nummer. Att gruppera sidor på detta sätt är viktigt eftersom det ger dig en konsekvent provtagning över genomsökningar. Tänk på det som ett vetenskapligt experiment: om du är en e-handelswebbplats som genomsöker 20 procent av dina produktsidor, i följande genomsökning skannar Deepcrawl samma 20 procent för sidor som har lagts till, tagits bort, saknas eller ändrats inom varje rapport. Detta minskar också genomsökningstid och kostnad, eftersom du riktar in din genomsökning på den specifika delmängden av sidor där du är intresserad.

På samma sätt kan DeepCrawl's Custom Extractions användas för att inkludera eller utesluta parametrarna du väljer. Detta är en mer avancerad funktion som är utformad för mer specialiserad genomsökning för att finslipa på dina fokusområden. Företaget har också lagt till Preset Custom Extractions för icke-tekniska användare, eftersom att skriva anpassade extraktioner kräver kunskap om vanligt uttrycksspråk (Regex).

Avancerad rapportering

Förutom GSC-integrationen är de mest framträdande förbättringarna av DeepCrawl i dess rapporteringsfunktioner, för vilka DeepCrawl har lagt till 75 nya rapporter under det senaste året. Utöver grunderna - dela och exportera rapporter eller lägga till en uppgift för den rapporten - kan du klicka på Dela-knappen för att få en delbar länk till rapporten. Du kan sedan e-posta rapporten till valfritt antal mottagare. Du kan också ladda ner rapporten som en CSV-fil eller en XML-webbplatskarta och anpassa rapporter med anpassat varumärke.

Den uppgiftsbaserade funktionen är särskilt användbar. DeepCrawl tillät mig att lägga till en uppgift för specifika rapporter - i det här fallet listan med 5xx-serverfel - för att vidta åtgärder mot den SEO-sårbarheten. DeepCrawl låter dig inte bara schemalägga och anpassa genomsökningar, men genom att använda Task Manager kan du spåra framsteg och hantera arbets- och tidsfrister för problem.Tecknet för ett bra verktyg är ett som inte bara upptäcker ett problem eller en möjlighet utan hjälper dig att agera på det med riktade rekommendationer. Jag fick möjligheten att ställa in en öppen eller fast uppgift; utse en låg, medellång, hög eller kritisk prioritering; sätta en tidsfrist och tilldela den uppgiften till specifika individer i mitt team. DeepCrawl gav mig en konkret väg att lösa SEO-problem med min webbplats. Endast de riktade rekommendationerna från SpyFu och KWFinder.com gav samma förmåga att agera på SEO-rapportering, och ingen av de andra sökrobotarna inkluderade den här typen av arbetsbaserad åtgärdsfunktion.

DeepCrawl har förbättrat den vänstra navigeringsfältet för att hitta rapporter med hjälp av nyckelord också (även om nyckelorden inte visas i rapporternas faktiska titel) och filtrera rapporter efter relevant URL eller länkstatistik. Det finns också ett antal nya datavisualiseringar på rapporten och kategoriskärmarna, inklusive grafiska diagram, relaterade grafer, nya trendgrafer och UX-förbättringar som grafrullning och växling, samt interaktiva förklaringar om specifika statistik som visas i en given graf. Rapporten UI är också flexibel, vilket innebär att du kan dra och släppa rapporterna du vill visa.

Om du klickar på en URL i valfri rapport ger du detaljerade statistik per sida. I alla sina URL-för-URL-rapporter använder DeepCrawl ett anpassat värde som kallas DeepRank, som mäter "internvikt" för en länk som beräknas på samma sätt som Googles PageRank-algoritm. Det är DeepCrawls metod för URL-myndighet, på en skala från 0-10, som visar dina viktigaste webbadresser eller de som behöver mest förbättring. Så medan PCMag-hemsidan och toppsidorna rankades alla i 8-10-området, så fanns några utladdade sidor kvar med en DeepRank på nära noll.

Förutom att synkronisera med Google Analytics, inkluderar DeepCrawl också ett avsnitt av data som delar ned skrivbords- och mobilsidor inte bara för responsiv webbdesign, utan alla mobilkonfigurationer inklusive separata sidor för mobila och stationära datorer, dynamiska sidor och AMP-sidor. Dessa typer av viktiga mobila uppdelningar kan också hittas i SpyFu och SEMrush, men inte till djupet i DeepCrawls mätvärden och inte i något av de andra crawler- och backlink-spårningsverktygen som jag testade, inklusive LinkResearchTools.

Den största kapacitetsuppdateringen för DeepCrawl sedan vår första granskning är en integration med Google Search Console (GSC) och ännu mer avancerad användarupplevelse för sida-för-sida (UX) och prestanda för webbplatsprestanda. Integrationen låter dig ansluta DeepCrawls befintliga insikter om webbplatsprestanda med organisk sökinformation från GSC: s sökanalysrapport. Genom att lägga till din Search Console-egenskap som en URL-källa i dina genomsökningsinställningar kan DeepCrawl nu ge visningar, klick, klickfrekvens (CTR) och genomsnittlig positionsmätning för varje indexerad sida som visas i sökresultaten. Googles sökanalysrapport levereras med en gräns på 1000 URL i GSC-gränssnittet, men åtkomst till rapporten via DeepCrawl får dig runt det.

Andra SEO-verktyg som SEMrush och Majestic integreras också med Google Search Console, men DeepCrawls integration är den enda bland de verktyg som vi har testat för att använda detta för att tillhandahålla enhetsspecifika SERP-mätvärden. Genom integrationen har DeepCrawl släppt 10 nya rapporter, två nya grafer och djupare jämförelser mellan skrivbord / mobil / surfplatta. Enhetsuppdelningar och jämförelser drar nu in GSC-data från land till land, sökintryck och effektivitet för indexerbara och icke-indexerbara sidor, genomsökningssidor som får trafik från bildsökning och mätningar på Google AMP-sidor.

En unik funktion här är ett mått på mobila / AMP-sidor som tar emot stationär trafik och vice versa, vilket innebär att DeepCrawl visar om dina sidor rankas på fel enhet. Detta innebär att DeepCrawl genomsöker alla separata mobil- eller AMP-URL: er för att belysa skillnader och missförhållanden mellan skrivbord och mobilt innehåll. Rapporter kontrollerar att alla sidor med högt värde finns på mobilen.

DeepCrawl tillhandahåller också data om social taggning, till exempel sidor med giltiga Twitter-kort, samt en flik som helt enkelt visar sidprestanda när det gäller laddningstid eller den tid det tog att "hämta" en sida. Slutligen tillhandahåller verktyget webbplatsmigrationsrapporter för att analysera live och iscensätta webbplatser under en migrering och rapportera specifikt på HTTP- och HTTP-sidor. Det här är mätvärden som du hittar i webbplatsövervakningsverktyg, men när det gäller SEO kan det vara värdefullt helt enkelt när du identifierar sidor där UX är dålig och säkerställer smidiga migrering av webbplatser.

Under webbplatsens genomsökningsmikroskop

DeepCrawl är det bästa genomsökningsverktyget som vi testade med stor marginal. Det ger det största djupet för domänskanning och SEO-rapportering med extremt detaljerade data och statistik som för en SEO-nybörjare ärligt kan vara överväldigande. Mycket av kartläggning av webbplatsarkitektur och domänanalys som den tillhandahåller är utan tvekan bättre lämpad för utvecklare och IT. PCMag granskar inte betafunktioner, men DeepCrawl testar också ett experimentellt Site Explorer-läge så att du kan utforska webbplatsarkitekturen.

Precis som med KWFinder.coms dominans inom ad hoc-sökordforskning, är DeepCrawls laserfokus på genomsökning både välsignelse och förbannelse. Denna smala omfattning av dess funktionalitet hindrar DeepCrawl från att tjäna ett Editors 'Choice-nick tillsammans med mer fullfjädrade SEO-plattformar Moz Pro och SpyFu. Men när det gäller fristående genomsökningsmöjligheter för att skanna din webbplats eller dina konkurrenters webbplatser från topp till botten, är DeepCrawl ett högdrivet SEO-mikroskop.

Deepcrawl granskning och betyg