Skip to content

Hvordan bliver man en ninjaSEO med Screaming Frog

26. oktober 2020

Jeg ville kalde den indlæg nogen som “I nat vil frøene bløde i øjnene” der var en sætning jeg sagde en gang da var på en SEO kursus og vi fik af vide om den fantastiske værktøj Screaming Frog Seo Spider, men som det lyder måske lille smule for voldelig, har valg til sidst men en “almindelig” title.

Screaming Frog Seo Spider er et værktøj, som alle, der er moderat interesseret i en verden af ​​websteder og optimering, bør kende.

Med det kan vi spore alle URL’er på en portal og finde næsten alle typer On Site-fejl. Vil du forlade det perfekte sted? Nå ser vi i dybde og detaljer, hvordan dette kraftfulde værktøj fungerer!

Men du skal selvfølgelig have dette værktøj for at følge denne vejledning.

Start opsætning

Når du går ind i Screaming, er det første, vi ser og vinder, hvor vi tilføjer URL’en til vores site:

Når vi klikker på ‘Start’, begynder det at gennemgå hele webstedet; Der er snesevis af alternativer og tilstande, du skal kontrollere, før du starter, da de giver dig mulighed for at optimere processen meget mere og få netop de oplysninger, du ønsker.

Klik på ‘Konfiguration’ i menuen øverst for at få vist følgende undermenu:

Spider

Det første alternativ, der vises, er ‘Spider’, hvor vi vil være i stand til at konfigurere, hvilke typer filer vi vil spore, hvilke oplysninger vi skal få, og hvordan.

Ved at klikke på denne mulighed åbnes følgende vindue:

Hvad skal du spore?

Den første fane “Basic”, som vi kan se på skærmen, hvor vi vælger det filformat, der skal spores. Jeg kan derefter inkludere / ekskludere billeder, CSS, Javascript og SWF filer.

Vi kan også fortælle dig at følge de interne eller eksterne links, der er markeret som ‘nofollow’ (her er en artikel, hvor jeg taler om alt relateret til nofollow-links).

Med indstillingen ‘Crawl All Subdomains‘ vil vi fortælle Screaming, at hvis den finder et underdomæne, skal du behandle det som et internt og ikke et eksternt link. Hvis du af en eller anden grund vil begynde at gennemgå fra en anden URL end roden, skal du markere “Crawl Outside of Start Folder“.

Resten af ​​indstillingerne bruges til at spore kanonisk, Rel = ‘next’ og Rel = ‘prev’ pagineringstagging samt webadresser markeret med Hreflang.

Pas på!
Hvis vi fjerner afkrydsningsfeltet for disse indstillinger, udtræder Screaming kun disse data (hvis de er i URL for eksempel kanoniske, vil de fortælle os, hvor de peger) hvis vi tværtimod markerer dem, tilføjer jeg også for at udtrække fra disse oplysninger, vil det spore url-en-markering som kanonisk, Next / Prev eller Hreflang.

TIP:
Hvis vi har brug for at gennemgå en meget stor portal, anbefaler jeg at fjerne fjernmarkeringen for billeder, CSS, JavaScript og SWF (og Hreflang, hvis den kun har et sprog). I nogle tilfælde fjerner jeg endda fluebenet for at følge eksterne nofollow-links. Jo færre ting du skal spore, jo hurtigere gør du det.

Limits (afgræsninger)

I den anden fane kan vi etablere bestemte grænser, meget nyttige, især hvis vi vil begrænse og meget stort websted:

Limit Search Total: Tillader os at vælge en URL-grænse, der skal gennemgås. For det første er vi interesserede i at analysere hele internettet, så jeg sender aldrig noget.

Limit Search Depth: Angiver det maksimale dybdeniveau. Niveau 1 henter de links, de finder et klik hjemmefra. Niveau 2 vil endda fjerne de links, der klikker hjemmefra. Og det henholdsvis.

Limit Max URI Length to Crawl: Begræns den maksimale længde (i tegn) af den webadresse, der skal gennemgås. Eks: Hvis vi indstiller 100, sporer den ikke adresser, der har mere end 100 bogstaver i syntaksen.

Limit Max Folder Depth: Meget lig den anden mulighed, men denne gang begrænser vi på katalogniveau. Bemærk følgende! For skrigende niveauer 0 er det ikke domæneroden, men en URL på første niveau; det vil sige, hvis vi indstiller niveau 0, sporer det kun webadresser, der har 1 bibliotek (skriv gettothenet.dk/seo). Hvis vi indstiller niveau 1, sporer det webadresser, der maksimalt har 2 katalogniveauer (skriv gettothenet.dk/seo/test).

TIP: Dette er meget nyttigt på websteder, der har URL’en i SILO-format. Dette giver dig mulighed for let at ekskludere dem, der er på et meget højt niveau og bare være med en enkelt URL-adresse på lavt niveau, som normalt er kategorier.

Limit Number of Query Strings: Begrænser antallet af parametre så udfordring de har? X = formatformat. Eksempel: domain.com/shoes?p=red har 1 parameter. Domain.com/shoes?p=rojos_?g=mujer gør for parameter. Meget nyttigt, hvis vi vil udelukke kombinationer af parametre i onlinebutikker.

Rendering

Den næste kategori ‘Rendering‘ giver os mulighed for at vælge mellem tre alternativer, der beslutter at behandle indholdet af siden på: redigering af Javascript eller ej.

Standardindstillingen er ‘Old AJAX Crawling Scheme‘, og dybest set er det at efterligne et Google-system, der kunne foreslås i 2009 til at gennemgå AJAX-indhold; Selvom det har været en forælder siden 2015, er det den nærmeste ting med sporing, den i øjeblikket laver.

Min anbefaling er altid at lade denne mulighed være alene, men forestil dig at du har Javascript-elementer på webstedet, der forhindrer korrekt sporing af Screaming. Hvad skal man gøre? Vi vælger indstillingen ‘Text Only‘, som vi bare sporer den almindelige HTML-kode med uden at ignorere Javascript.

Endelig har vi den tredje mulighed. Ved at vælge ‘Javascript’ kan vi justere nogle enkle parametre:

Det giver os mulighed for at vælge det tidspunkt (i sekunder), som AJAX-koden kører, indtil optagelsen er færdig. Vi kan også specificere størrelsen på skærmen, når du tager den.

Advanced

Hvis du med alt dette ikke har nok til at tilpasse spider’en til din smag, lad os gå med de avancerede muligheder!

Selvom det er sjældent, kan du støde på et websted, hvor du skal acceptere cookies for korrekt navigation. Hvis dette er tilfældet for din portal, skal du kontrollere den første mulighed.

‘Pause on High Memory Usage’ er valgt som standard og er meget nyttigt til meget store sider, da Screaming Frog når grænsen for hukommelse på bestemte tidspunkter (husk at det er et Java-program), det stopper processen og advarer os om så vi gemmer projektet, hvis vi vil fortsætte.

Har du foretaget en migration, eller har du mistanke om, at du har omdirigeringskæder?

Vælg derefter ‘Always Follow Redirects’. Skrigende følger omdirigeringerne til den endelige URL.

Forestil dig, at du har en URL med en 301, som igen peger på en URL, der også har en 301. Med denne mulighed, når gennemgangsprocessen er afsluttet, vil du være i stand til at opdage og eksportere disse strenge fra følgende hovedmenu. vindue:

Hvis vi vælger ‘Respect noindex’, ‘Respect Canonical’ og ‘Respect Next/Prev’, får vi ikke i den endelige rapport URL’erne, der har et Noindex-tag, en kanonisk mod en URL, der ikke er sig selv, eller Layout for næste / forrige side.

TIP: Med disse 3 muligheder kan du i høj grad forenkle den endelige rapport. For eksempel, hvis du ikke er interesseret i at analysere sider, der ikke kan indekseres (noindex), skal du klikke på ‘Respekter noindex’ og dermed redde dig selv fra at slette denne type side fra din rapport senere!

Hvis du markerer afkrydsningsfeltet “Uddrag billeder fra Img srcset-attribut”, fjerner Screaming alle billeder, der er valgt med srcset-attributten. Din webside indlæser ikke billeder på denne måde, da det ikke er en meget almindelig CSS-attribut. Her kan du se et eksempel: https://webkit.org/demos/srcset/

Det næste felt (‘Response Timeout’) er meget interessant, hvis det sted, vi skal analysere, er meget langsomt, da det giver os mulighed for at bemærke den maksimale tid (i sekunder), som Screaming har til at vente på en URL skal indlæses. Som standard er de indstillet til 20 sekunder; det vil sige, hvis der går 20 sekunder, og URL’en ikke indlæses i rapporten, vil den fortælle os, at URL’en har en svarkode 0 – ‘Connection TimeOut’.

Generelt skal en portal ikke tage så lang tid … men hvis du af X-grunde skal vente flere sekunder pr. URL, du kan øge dette antal. Selvfølgelig … du skal vente længe, ​​hvis den har mange webadresser.

De sidste to felter er meget enkle: ‘5XX response retries’ angiver antallet af gange, Screaming vil forsøge at få adgang til en URL med en 5XX-svarskode. Med ‘Max Redirects to Follow‘, angiver vi det maksimale antal omdirigeringer, der skal følges i en kæde.

Preferences

Og vi kommer til den sidste fane med præferencer, hvor vi kan ændre de anbefalinger, som Screaming Frog sætter som standard:

Som du kan se, skal titlen på Screaming være mellem 30 og 65 tegn. Alt uden for denne politik vil blive markeret som en fejl.

Hvis du følger en anden type regulering og ikke ønsker, at rapporten skal vises som en fejl, kan du ændre disse data som ønsket. Du kan ændre ankeret i pixels for titlen, beskrivelsen, det maksimale antal tegn, en URL skal have, en H1, en H2, en ALT-attribut eller endda den maksimale størrelse (i kilobyte) af billederne.

Robots.txt

Når spideren er konfigureret (det har været hård, eh …) går vi til vinduet Robots.txt:

Stille, fordi det er meget lettere end det foregående. Indstillinger viser følgende vindue:

Der kan vi:

  • Ignorer helt robots.txt-filen på vores portal, så de blokerede URL’er ikke vises som sådan.
  • Vis i den endelige rapport URL’erne, der er blokeret af robots.txt. Jeg anbefaler, at du altid lader det være markeret for at bekræfte, at du blokerer de ønskede webadresser. Du er altid til tiden til at slette dem fra den endelige rapport, når du har tjekket den.
  • Vis eksterne webadresser, der er blokeret af robots.txt

På den anden side, hvis du vil simulere en robots.txt til testformål, skal du klikke på “Custom” og tilføje de ønskede linjer:

Husk naturligvis, at de ændringer, du foretager her, ikke foretages i ægte robots.txt.

URL-omskrivning

URL-omskrivning er en avanceret funktion, der giver os mulighed for at ændre syntaksen for URL’erne og / eller eliminere parametre. Husk, at det ikke fjerner URL’erne med parametre fra den endelige rapport, men omskriver disse URL’er.

Og hvad kan denne funktion være nyttig til?

Især til portaler, der dynamisk genererer parametre, og som vi har fuld kontrol over; i sådanne tilfælde kan vi være interesserede i at undgå dem. Min anbefaling er, at du aldrig bruger denne funktion først, skal du foretage en fuld gennemgang for at identificere alle slags webadresser.

For at arbejde med denne mulighed skal vi bare indstille den parameter, der skal slettes i det første vindue. Uden symbolerne ‘?’ Eller ‘=’; Forestil dig, at vi vil omskrive sider, der har en URL som gettothenet.dk/blog?p=2. Vi sætter bare et ‘p’ i det første vindue:

Vi kan også teste, hvordan det vil se ud under fanen ‘test’:
Selvom det ses i meget lysegråt, kan vi bekræfte, at URL’en ser ud som der skal.

Under fanen ‘Options’ har vi muligheden for at oprette alle URL’erne til rapporten skrevet med små bogstaver.

Og i kategorien ‘Regex Replace’ kan vi bruge almindelige udtryk til at omskrive adresserne på en meget mere avanceret måde. Hvis du er interesseret, kan du se nogle eksempler her: https://www.screamingfrog.co.uk/seo-spider/user-guide/configuration/#remove-parameters

Inkluder og ekskluder

To af de funktioner, jeg bruger mest, og de, jeg finder mest nyttige, er ‘Include‘ og ‘Exclude‘. Takket være dem kan vi udføre en segmenteret sporing; når vi er foran en ekstremt stor portal (tusinder eller millioner af webadresser) kan skrigende ikke håndtere så mange adresser og vil blive blokeret på et eller andet tidspunkt.

Derfor er disse muligheder simpelthen vigtige for store websteder, og det anbefales kraftigt, at du ved, hvordan du bruger dem, og hvordan de fungerer.

Begge har det samme udseende: et vindue, hvor vi vil tilføje parametre eller mapper (en pr. Linje) for at inkludere / ekskludere:

Vi bruger det almindelige udtryk ‘. * ‘(Uden anførselstegn) før eller efter parameteren for at angive, at ethvert element i disse positioner skal udelukkes.

Med et eksempel er det tydeligere: Hvis vi i en søgning vil udelukke alle filtre, der indeholder ‘? Side = ‘, vi tilføjer i vinduet Ekskluder. *? Side =. *. Således gennemgås ikke alle disse webadresser:

com /? side = 23
gettothenet.dk/blog?page=22
com / blogg? farve = grå? side = 23
Du kan se mere almindelige udtryk her: https://www.screamingfrog.co.uk/seo-spider/user-guide/configuration/#exclude

TIP: Selvom vi har mulighed for ikke at spore billeder i fanen Spider mange gange, vises de i den endelige rapport, fordi disse billeder er linket internt. Hvis du ikke er interesseret i at medtage foteadresser i den endelige rapport, anbefaler jeg, at du tilføjer følgende linjer i vinduet Ekskluder :. * Jpg $. * Png $. * Gif $


TIP2: Et andet trick, som jeg bruger meget, er at fjerne eksterne links til at dele på sociale netværk fra den endelige rapport. Disse hyperlinks gentages normalt i alle webadresser på et websted og reducerer Screamings gennemgang. Udfør en indledende scanning for at identificere dem, og tilføj derefter Ekskluder vinduesbjælker som :. * Facebook.com/del. *. * Pinterest.com. * Etc …


Endelig er det meget vigtigt, at du ved, at hvis du ekskluderer en URL, skal Screaming slet ikke gennemgå den, vil den ikke overveje den eller fjerne den i den endelige rapport, så hvis URL’en indeholder interne links til andre URL’er -er, de vil ikke blive fulgt. Hvis en URL kun er tilgængelig via en adresse, du har ekskluderet, når den aldrig den.

Speed (Hastighed)

Når du gennemsøger med Screaming Frog, analyserer den gradvist alle portaladresser med en hastighed, der er proportional med belastningen på nettet.

Nogle gange bremses et langsomt websted, eller det understøtter ikke et stort antal samtidige brugere, eller går ned, når vi sender Screaming Frog til det. I disse tilfælde kan indstillingen ‘Speed‘ være meget nyttig:

Gennem hvilken vi manuelt styrer hastigheden Screaming gennemsøger et websted på:

Med ‘Max Threads‘ angiver vi det maksimale antal samtidige opgaver (eller spider i dette tilfælde), der fungerer. Med 5 er det normalt mere end nok, disse data rører næsten aldrig det.

Hvis vi klikker på ‘Limit URI/s‘, giver det os mulighed for at ændre de maksimale webadresser pr. Sekund, der skal spores. Hvis du har et websted, der indlæses som skildpadder, eller som falder let, anbefaler jeg, at du lader mellem 2 og 5 webadresser pr. Sekund.

HTTP-overskrift

I HTTP-header-fanen kan vi ændre brugeragenten, så når internettet gennemgås, reagerer det på en eller anden måde.

Således kan vi foregive, at vi blandt andet er GoogleBot, GoogleBot Smartphone eller Bingbot. Som standard sælges Screaming Frog User-Agent; Hvis progressionen ikke fortsætter (når man analyserer en portal) (den sporer ikke en URL), er Screaming muligvis blokeret på webserveren, eller den reagerer muligvis ikke godt på denne brugeragent. Prøv at ændre det til Googlebot:

Brugerdefinerede søgninger og specifik datagendannelse

Hvis du tjekker et websted mange gange, skal du få et specifikt sæt URL’er, der indeholder X-elementer: dem, der har Analytics-kodesættet, hvor X-nøgleord nævnes osv.

Takket være funktionen ‘Custom – Search‘ kan vi skelne mellem de webadresser, der indeholder (eller ikke indeholder) i kildekoden, hvad vi vil have:

Når den er færdig med at spore alle URL’erne, kan vi se på fanen “Custom” de sider, hvor den har fundet den angivne.

Hvad hvis vi vil hente data? Det kan det også! Med indstillingen ‘Custom – Extraction‘ kan vi få indholdet direkte i et HTML-tag:

Vi har forskellige måder at gøre dette på ved hjælp af regulære udtryk, Xpath eller CSSPath; Afhængigt af den vare, du vil trække ud, bliver det lettere for dig at gøre det på en eller anden måde.

Mode (tilstand)

I hovedmenuen kan vi også ændre sporingstilstand:

  • Spider: Screaming fungerer som en edderkop, hopper fra URL til URL for interne links. Det begynder at spore gennem den adresse, vi angiver:
  • List: Med denne indstilling aktiveret, vil Screaming analysere en liste over URL’er, som vi vil angive manuelt.

Med ‘List‘ -tilstand kan der gøres interessante ting, såsom at analysere alle adresserne på et sitemap og opdage dem, der returnerer 404, 301 fejl osv …

Analyse af sporoplysninger

Nå ja, når du har alt konfigureret, kan du klikke på ‘Start‘, og det begynder at analysere dit websted. Jo flere sider dit websted har, jo længere tid tager det at gennemføre hele processen.

Når det når 100%, har du forskellige paneler med utrolig meget information. For at gennemse alle disse data kan du bruge fanerne øverst:

Eller gennemse ruten til højre, som inkluderer underafsnit, så du kan gå direkte til det, der interesserer dig:

I det centrale panel er de opnåede oplysninger, og afhængigt af den fane, du er i, vil det være det ene eller det andet:

26 faneblad frog

Internal: Analyserer projekt-URL’er

Som standard vil vi være på fanen “Intern”, hvor alle de webadresser, som Screaming har fundet, vises sammen med følgende data:

  • Status og statuskode: De indtaster svarskoden, som kan være 200, 301, 404 osv …
  • Canonical
  • meta robots tag
  • Title
  • Description
  • Overskrifter H1 og H2
  • Sidestørrelse (i byte)
  • Antallet af ord
  • Text Ratio: forholdet mellem indhold og kode
  • Level: Dybdeniveau, hjemmet vil være niveau 0, en URL der er et klik fra hjemmet vil være niveau 1 osv …
  • Inlinks: Antallet af interne indgående links, som denne URL har
  • Outlinks: Antal interne udgående links til andre dele af netværket
  • Outlinks: Antal udgående eksterne links fra denne URL
  • Hash: Det er en unik identifikationskode genereret ud fra kildekoden, dvs. hvis to sider har nøjagtig den samme kode, vil hashen være identisk. Det er en værdi at tage i betragtning for at få duplikatindhold.
  • Response time: tid i sekunder, det tager siden at indlæse.

Ud over alt dette kan vi hurtigt filtrere efter indholdstype, da vi ser på den rigtige linje inden for kategorien ‘Intern’:

27 reports

Ved at klikke på et af formatene opdaterer det centrale panel og viser kun de URL’er, der svarer til den valgte værdi.

Hvordan får jeg indgående og udgående links fra en bestemt URL?

Hvis du klikker på en adresse (i midterpanelet), vil du se et vindue med forskellige faner i bunden. Der finder du både forbindelser og afbrydelser til den side:

Hvis du vil eksportere disse oplysninger direkte til Excel, skal du højreklikke på den ønskede URL; vil du se en rullemenu som følger:

Hvor du kan gemme inlinks og outlinks (øje med den specifikke URL) samt kontrollere andre meget interessante elementer såsom cachen, hvis den er indekseret eller ej, se den i archive.org osv …

External: Analyserer eksterne udgående links

Vi går til den næste fane ‘External‘, hvor vi kan se alle de eksterne links, vi har på vores hjemmeside, dvs. alle de links, vi har placeret til andre domæner.

Dette panel er nøjagtigt det samme som det ‘internal‘, da det har de samme filtre og de samme kolonner med information.

Anbefalet brug: Kontroller eksterne URL’er, der har en anden svarskode end 200, f.eks. Beskadigede sider (404). Selvom der, som vi vil se senere, er der lettere måder at sende alle adresser direkte ud i henhold til deres svarkode.

Protocol: Kontrollerer, om vi har URL’er med http og https

Fanen Protocol viser på den ene side adresserne, der bruger https, og på den anden side dem, der bruger http.

Pas på! Hvis du har konfigureret, at udgående eksterne links også spores, blandes de med webstedets egne adresser. Hvis alt hvad du ønsker er siderne på dit websted, har du intet andet valg end at sortere alfabetisk eller eksportere dataene i Excel og fjerne de eksterne.

Det er af særlig interesse at gennemgå denne fane, når vi er overført fra http til https.

Analyse af svarkoder

Den fjerde fane ‘Response Codes‘ viser alle portaladresser, og vi kan filtrere dem i henhold til den svarkode, de giver:

  • Analyser alt, hvad der ikke har en 200 svarskode, og tag de nødvendige beslutninger efter behov.Kontroller, at webadresserne, der er blokeret af robots.txt, er nøjagtigt det, du ønsker
  • Kontroller, at du ikke har siden “Intet svar”
  • Kontroller, om alle de omdirigeringer, du har, er strengt nødvendige
  • Sørg for, at du ikke har beskadigede sider, at de returnerer en 404

URI: Analyser syntaksen for dine URL’er

Det næste vindue er ansvarlig for at give dig oplysninger om dine webadresser, især hvordan de skrives. De filtre, du finder i højre panel, er som følger:

  • Non ASCII Characters: Adresser, der indeholder underlige tegn, der ikke hører til ASCII-kodningen.
  • Underscores: Registrerer webadresser, der inkluderer under kolonner.
  • Uppercase: Registrerer URL’er, der inkluderer store bogstaver.
  • Duplicate: Opdag webadresser med samme hash (diskuteret ovenfor). Det vil sige, det registrerer identiske sider.
  • Parameters: adresser, der indeholder parametre. Det er ekstremt nyttigt at tage et øjeblik at se på alle dem, du har, og kontrollere, om de er blokeret af robotter, ikke har nogen index osv.
  • Over 115 Characters: Viser URL’er, der er for lange, med mere end 115 tegn. Enkle og korte adresser anbefales altid.

Titles og descriptions

Begge paneler har nøjagtig den samme type filtre:

Med et enkelt klik kan vi se alle siderne som titel eller beskrivelse:

  • De er tomme.
  • De har dobbeltarbejde med andre interne sider.
  • De er for lange, og søgeresultaterne viser derfor ikke heltal.
  • De er for korte.
  • De er nøjagtigt de samme som H1-overskriften.
  • De er flere, dvs. i en enkelt adresse har vi flere titler eller flere beskrivelser, der kan være forkerte.

Overskrifter og billeder

H1, H2 og billeder er 3 af de enkleste og nemmeste faner. De viser os følgende oplysninger:

Vi kan hurtigt fjerne sider, der ikke har H1- eller H2-overskrifter, der gentages på flere sider, der er for lange, eller som gentages i den samme URL (ikke nødvendigvis med den samme tekst).

I billedfiltrene kan vi vælge dem, der vejer mere end 100 kb, dem, der ikke har ALT-attributten, eller dem, der har, men det er for langt. Dette er 3 elementer, som vi har tendens til at forsømme meget, når det kommer til SEO, men som kan hjælpe os meget med at forbedre On Site i vores portal.

Directives

Et af de sidste men ikke mindre relevante paneler er direktiver eller ‘direktiver’, hvor værdifulde data såsom:

  • Canonical: URL’er, der indeholder et kanonisk tag enten til sig selv eller til en anden URL
  • Canonicalized: URL’er, der indeholder et kanonisk tag, der peger på en anden URL.
  • Næste / Forrige: Indeholder disse paginationskoder.
  • Index / Noindex: De indeholder dette tag, der fortæller Google, om vi vil have det indekseret eller ej.
  • Follow / Nofollow: Hvis de indeholder dette metatag, der fortæller Google at følge hyperlinkene i URL’en eller ej.

Som du vil se, er der andre filtre, men af ​​mindre betydning, da de analyserer ret forældede mål.

Arkitektur og dybdeniveau

Selvom der er noget skjult, hvis du ser nøje i øverste højre hjørne lige over de filtre, vi lige har diskuteret, vil du se en fane, der siger ‘Site Structure‘:

Når vi får adgang til det, ser vi en meget illustrativ graf over fordelingen af ​​dybdeniveauerne, som vores URL’er har:

I eksemplet kan vi se, at de fleste sider er på et tredje niveau af klik fra hjemmet. Det er vigtigt ikke at have for mange webadresser på meget fjerne niveauer, da det vil koste Google bot mere at nå dem.

Eksportoplysninger (rapporter)

Som du har set, er Screaming Frog enormt stærk software, som enhver SEO skal håndtere perfekt.

Mængden af ​​data og information, den giver os, er sådan, at det i mange tilfælde er bedst at eksportere et lille segment og fortsætte med at arbejde i Excel.

For at gøre dette har Screaming en ‘Bulk Export‘ sektion i hovedmenuen, der gør denne opgave meget lettere for os.

Blandt alle de muligheder, det tillader, er de, jeg finder mest interessante, og dem jeg bruger mest:

  • All Inlinks og All Outlinks: Eksportér alle websteds-URL’erne med henholdsvis alle dets interne indgående og udgående links.
  • Response Codes: Eksporter sæt URL’er i henhold til den svarkode, de har.

Det gode er, at det tilføjer sider, hvor linket er indlejret for hver adresse. Det betyder, at vi for eksempel kan vide, om vi har en 301-omdirigering, hvor vi kan finde den i vores portal (i hvilken artikel eller i hvilken tekst det er).