What is an SEO crawl?

Forstå SEO Gennemsøgning: Nøglen til Synlighed

8 år ago

Rating: 4.1 (8998 votes)

For enhver hjemmeside, uanset størrelse, er gennemsøgning helt afgørende. Hvis dit indhold ikke bliver gennemsøgt, har du ingen chance for at opnå synlighed på Google og andre søgemaskinernes platforme. Lad os dykke ned i, hvordan du kan optimere gennemsøgningen for at give dit indhold den eksponering, det fortjener.

What is an SEO crawl?
In the context of SEO, crawling is the process in which search engine bots (also known as web crawlers or spiders) systematically discover content on a website. This may be text, images, videos, or other file types that are accessible to bots. Regardless of the format, content is exclusively found through links.

I SEO-sammenhæng er gennemsøgning (crawling) den proces, hvor søgemaskinens robotter (også kendt som webcrawlere eller edderkopper) systematisk opdager indhold på en hjemmeside. Dette kan være tekst, billeder, videoer eller andre filtyper, der er tilgængelige for robotterne. Uanset formatet findes indhold udelukkende gennem links.

Indholdsfortegnelse

Hvordan Web Gennemsøgning Fungerer

En webcrawler arbejder ved at opdage URL'er og downloade sideindholdet. Under denne proces kan de overføre indholdet til søgemaskinens index og udtrække links til andre websider. Disse fundne links falder i forskellige kategorier:

  • Nye URL'er, der er ukendte for søgemaskinen.
  • Kendte URL'er, der ikke giver vejledning om gennemsøgning, vil periodisk blive genbesøgt for at afgøre, om der er foretaget ændringer i sidens indhold, og dermed om søgemaskinens index skal opdateres.
  • Kendte URL'er, der er blevet opdateret og giver klar vejledning. De bør genindlæses og genindeksere, f.eks. via en XML sitemaps dato for seneste ændring.
  • Kendte URL'er, der ikke er blevet opdateret og giver klar vejledning. De bør ikke genindlæses eller genindeksere, f.eks. via en HTTP 304 Not Modified responsheader.
  • Utilgængelige URL'er, der ikke kan eller bør følges, f.eks. dem bag en login-formular eller links blokeret af en "nofollow" robots-tag.
  • Ikke-tilladte URL'er, som søgemaskinens robotter ikke vil gennemsøge, f.eks. dem blokeret af robots.txt-filen.

Alle tilladte URL'er vil blive tilføjet til en liste over sider, der skal besøges i fremtiden, kendt som gennemsøgningskøen. Dog vil de blive tildelt forskellige prioriteter. Dette afhænger ikke kun af linkkategorien, men en række andre faktorer, der bestemmer den relative vigtighed af hver side i øjnene på den enkelte søgemaskine.

De mest populære søgemaskiner har deres egne robotter, der bruger specifikke algoritmer til at bestemme, hvad de gennemsøger, og hvornår. Dette betyder, at ikke alle gennemsøger ens. Googlebot opfører sig anderledes end Bingbot, DuckDuckBot, Yandex Bot eller Yahoo Slurp.

Hvorfor Det Er Vigtigt, At Din Side Kan Gennemsøges

Hvis en side på et site ikke bliver gennemsøgt, vil den ikke blive rangeret i søgeresultaterne, da det er meget usandsynligt, at den bliver indekseret. Men årsagerne til, at gennemsøgning er kritisk, går meget dybere.

Hurtig gennemsøgning er afgørende for tidsbegrænset indhold. Ofte bliver det irrelevant for brugere, hvis det ikke gennemsøges og gives synlighed hurtigt. For eksempel vil publikum ikke være engageret af sidste uges breaking news, en begivenhed der er passeret, eller et produkt der nu er udsolgt.

Men selv hvis du ikke arbejder i en branche, hvor time-to-market er kritisk, er hurtig gennemsøgning altid gavnligt. Når du opdaterer en artikel eller udgiver en betydelig on-page SEO-ændring, jo hurtigere Googlebot gennemsøger den, jo hurtigere vil du drage fordel af optimeringen – eller se din fejl og være i stand til at rulle tilbage. Du kan ikke "fejle hurtigt", hvis Googlebot gennemsøger langsomt.

Tænk på gennemsøgning som grundstenen i SEO; din organiske synlighed er helt afhængig af, at det gøres godt på din hjemmeside.

Måling af Gennemsøgning: Gennemsøgningsbudget vs. Gennemsøgningseffektivitet

I modsætning til populær opfattelse sigter Google ikke mod at gennemsøge og indeksere alt indhold på alle hjemmesider på internettet. Gennemsøgning af en side er ikke garanteret. Faktisk har de fleste sites en betydelig del af sider, der aldrig er blevet gennemsøgt af Googlebot.

Hvis du ser udelukkelsen "Discovered – currently not indexed" i Google Search Console sideindekseringsrapporten, påvirker dette problem dig. Men hvis du ikke ser denne udelukkelse, betyder det ikke nødvendigvis, at du ingen gennemsøgningsproblemer har.

Der er en almindelig misforståelse om, hvilke metrics der er meningsfulde, når man måler gennemsøgning.

Misforståelsen om Gennemsøgningsbudget

SEO-professionelle ser ofte på gennemsøgningsbudget (crawl budget), som refererer til antallet af URL'er, som Googlebot kan og ønsker at gennemsøge inden for en specifik tidsramme for et bestemt website. Dette koncept presser på for maksimering af gennemsøgningen. Dette forstærkes yderligere af Google Search Consoles gennemsøgningsstatusrapport, der viser det samlede antal gennemsøgningsanmodninger.

Men ideen om, at mere gennemsøgning i sig selv er bedre, er fuldstændig misforstået. Det samlede antal gennemsøgninger er intet andet end et forfængelighedsmål. At lokke 10 gange så mange gennemsøgninger om dagen korrelerer ikke nødvendigvis med hurtigere (gen)indeksering af indhold, du bekymrer dig om. Alt, hvad det korrelerer med, er at lægge mere belastning på dine servere, hvilket koster dig flere penge.

What are the 4 types of SEO?
While there are many sub-categories of SEO, generally speaking, there are 4 main types of SEO strategies: on-page, off-page, technical, and local SEO.

Fokus bør aldrig være på at øge den samlede mængde af gennemsøgning, men snarere på kvalitetsmæssig gennemsøgning, der resulterer i SEO-værdi.

Værdi af Gennemsøgningseffektivitet

Kvalitetsmæssig gennemsøgning betyder at reducere tiden mellem udgivelse eller foretagelse af betydelige opdateringer på en SEO-relevant side og det næste besøg af Googlebot. Denne forsinkelse er gennemsøgningseffektiviteten.

For at bestemme gennemsøgningseffektiviteten er den anbefalede tilgang at udtrække oprettelses- eller opdateringsdato/tid-værdien fra databasen og sammenligne den med tidsstemplet for den næste Googlebot-gennemsøgning af URL'en i serverlogfilerne.

Hvis dette ikke er muligt, kan du overveje at beregne det ved hjælp af lastmod-datoen i XML sitemaps og periodisk forespørge de relevante URL'er med Search Console URL Inspection API, indtil den returnerer en seneste gennemsøgningstatus.

Ved at kvantificere tidsforsinkelsen mellem udgivelse og gennemsøgning kan du måle den reelle effekt af gennemsøgningsoptimeringer med et mål, der betyder noget. Når gennemsøgningseffektiviteten falder, vises nyt eller opdateret SEO-relevant indhold hurtigere for dit publikum på Googles platforme.

Hvis din sides gennemsøgningseffektivitetsscore viser, at Googlebot tager for lang tid om at besøge indhold, der betyder noget, hvad kan du så gøre for at optimere gennemsøgningen?

Søgemaskineunderstøttelse for Gennemsøgning

Der har været meget snak i de seneste år om, hvordan søgemaskiner og deres partnere fokuserer på at forbedre gennemsøgningen. Det er jo i deres bedste interesse. Mere effektiv gennemsøgning giver dem ikke kun adgang til bedre indhold til at drive deres resultater, men det hjælper også verdens økosystem ved at reducere drivhusgasser.

Det meste af snakken har handlet om to API'er, der sigter mod at optimere gennemsøgning. Ideen er, at i stedet for at søgemaskineedderkopper beslutter, hvad de skal gennemsøge, kan websites skubbe relevante URL'er direkte til søgemaskinerne via API'en for at udløse en gennemsøgning.

I teorien giver dette dig ikke kun mulighed for at få dit seneste indhold indekseret hurtigere, men tilbyder også en mulighed for effektivt at fjerne gamle URL'er, hvilket er noget, der i øjeblikket ikke understøttes godt af søgemaskinerne.

Ikke-Google Understøttelse fra IndexNow

Den første API er IndexNow. Denne understøttes af Bing, Yandex og Seznam, men vigtigst af alt ikke Google. Den er også integreret i mange SEO-værktøjer, CRM'er og CDN'er, hvilket potentielt reducerer den udviklingsindsats, der er nødvendig for at udnytte IndexNow.

Dette kan virke som en hurtig SEO-gevinst, men vær forsigtig. Bruger en betydelig del af din målgruppe de søgemaskiner, der understøttes af IndexNow? Hvis ikke, kan udløsning af gennemsøgninger fra deres robotter være af begrænset værdi.

Men endnu vigtigere, vurder hvad integration på IndexNow gør ved serverbelastningen versus forbedringen af gennemsøgningseffektivitetsscoren for disse søgemaskiner. Det kan være, at omkostningerne ikke er værd at fordelen.

Google Understøttelse fra Indexing API

Den anden er Google Indexing API. Google har gentagne gange udtalt, at API'en kun kan bruges til at gennemsøge sider med enten jobposting eller broadcast event markup. Og mange har testet dette og bevist, at denne udtalelse er falsk.

What is SEO juice?
by Sandy Meier. SEO juice, also known as “link juice”, is a term that refers to the value or equity passed from one page or site to another through hyperlinks. Think of it as a way of distributing authority and trust, which can significantly influence your site's ranking on search engines.

Ved at indsende ikke-kompatible URL'er til Google Indexing API vil du se en betydelig stigning i gennemsøgningen. Men dette er det perfekte eksempel på, hvorfor "optimering af gennemsøgningsbudgettet" og basering af beslutninger på mængden af gennemsøgning er misforstået.

Fordi for ikke-kompatible URL'er har indsendelse ingen indflydelse på indexeringen. Og når du stopper op og tænker over det, giver dette perfekt mening. Du indsender kun en URL. Google vil gennemsøge siden hurtigt for at se, om den har de specificerede strukturerede data. Hvis ja, så vil den fremskynde indekseringen. Hvis ikke, vil den ikke. Google vil ignorere den.

Så kald af API'en for ikke-kompatible sider gør intet andet end at tilføje unødvendig belastning på din server og spilder udviklingsressourcer uden gevinst.

Google Understøttelse Inden for Google Search Console

Den anden måde, hvorpå Google understøtter gennemsøgning, er manuel indsendelse i Google Search Console. De fleste URL'er, der indsendes på denne måde, vil blive gennemsøgt og få deres indekseringsstatus ændret inden for en time. Men der er en kvotelimit på 10 URL'er inden for 24 timer, så det åbenlyse problem med denne taktik er skalaen.

Dette betyder dog ikke, at du skal se bort fra det. Du kan automatisere indsendelsen af URL'er, du ser som en prioritet, via scripting, der efterligner brugerhandlinger, for at fremskynde gennemsøgning og indexering for disse få udvalgte.

Endelig, for enhver der håber, at klik på knappen 'Validate fix' på 'discovered currently not indexed' udelukkelser vil udløse gennemsøgning, har dette i min test indtil videre intet gjort for at fremskynde gennemsøgningen.

Så hvis søgemaskinerne ikke vil hjælpe os væsentligt, hvordan kan vi så hjælpe os selv?

Sådan Opnår Du Effektiv Side Gennemsøgning

Der er fem taktikker, der kan gøre en forskel for gennemsøgningseffektiviteten.

1. Sørg for en Hurtig, Sund Serverrespons

En meget performant server er kritisk. Den skal kunne håndtere den mængde gennemsøgning, Googlebot ønsker at gøre, uden negativ indvirkning på serverens responstid eller fejl. Tjek, at din sitehosts status er grøn i Google Search Console, at 5xx-fejl er under 1%, og at serverens responstider ligger under 300 millisekunder.

2. Fjern Værdiløst Indhold

Når en betydelig del af en hjemmesides indhold er af lav kvalitet, forældet eller duplikeret, afleder det crawlernes opmærksomhed fra at besøge nyt eller nyligt opdateret indhold og bidrager til index-bloat. Den hurtigste måde at begynde oprydning på er at tjekke Google Search Console siderapporten for udelukkelsen 'Crawled – currently not indexed'.

I den medfølgende prøve, se efter mappemønstre eller andre problemindikatorer. For dem du finder, fix det ved at flette lignende indhold med en 301 redirect eller slette indhold med en 404, alt efter hvad der er passende.

3. Instruer Googlebot Hvad Ikke Skal Gennemsøges

Mens rel=canonical links og noindex tags er effektive til at holde Google index for dit website rent, koster de dig i gennemsøgning. Selvom dette nogle gange er nødvendigt, overvej om sådanne sider overhovedet behøver at blive gennemsøgt. Hvis ikke, stop Google på gennemsøgningstrinnet med en robot.txt disallow.

Find tilfælde, hvor blokering af crawleren kan være bedre end at give indekseringsinstruktioner ved at kigge i Google Search Console dækningsrapporten for udelukkelser fra canonicals eller noindex tags. Gennemgå også prøven af 'Indexed, not submitted in sitemap' og 'Discovered – currently not indexed' URL'er i Google Search Console. Find og bloker ikke-SEO-relevante ruter såsom:

  • Parameter sider, såsom ?sort=oldest.
  • Funktionelle sider, såsom "indkøbskurv".
  • Uendelige rum, såsom dem skabt af kalendersider.
  • Uvigtige billed-, script- eller stilfiler.
  • API URL'er.

Du bør også overveje, hvordan din pagineringsstrategi påvirker gennemsøgningen.

What does SEO mean?
SEO—short for search engine optimization—is about helping search engines understand your content, and helping users find your site and make a decision about whether they should visit your site through a search engine.

4. Instruer Googlebot Hvad Skal Gennemsøges og Hvornår

Et optimeret XML sitemap er et effektivt værktøj til at guide Googlebot mod SEO-relevante URL'er. Optimeret betyder, at det dynamisk opdateres med minimal forsinkelse og inkluderer dato og tid for seneste ændring for at informere søgemaskinerne, hvornår siden sidst blev betydeligt ændret, og om den bør genindlæses.

5. Understøt Gennemsøgning Gennem Interne Links

Vi ved, at gennemsøgning kun kan ske gennem links. XML sitemaps er et godt sted at starte; eksterne links er kraftfulde, men udfordrende at bygge i bulk i høj kvalitet. Interne links derimod er relativt nemme at skalere og har betydelige positive effekter på gennemsøgningseffektiviteten.

Fokuser speciel opmærksomhed på mobil sidewide navigation, breadcrumbs, hurtige filtre og relaterede indholdslinks – og sørg for, at ingen er afhængige af Javascript.

Optimering af Web Gennemsøgning

Jeg håber, du er enig: website gennemsøgning er fundamentalt for SEO. Og nu har du et reelt KPI i gennemsøgningseffektivitet til at måle optimeringer – så du kan tage din organiske ydeevne til næste niveau.

MetricBeskrivelseVærdi for SEO
Gennemsøgningsbudget (Crawl Budget)Antal URL'er en søgemaskine ønsker og kan gennemsøge inden for en tidsramme.Minimal (ofte et forfængelighedsmål, fokuserer på kvantitet). Kan indikere serverbelastning.
Gennemsøgningseffektivitet (Crawl Efficacy)Tiden mellem udgivelse/opdatering og næste gennemsøgning af en vigtig side.Høj (fokuserer på kvalitet og hastighed for vigtigt indhold). Direkte relateret til hvor hurtigt nyt/opdateret indhold kan indexeres og rangere.

Ofte Stillede Spørgsmål om SEO Gennemsøgning

Hvad er Googlebot?
Googlebot er Googles webcrawler-software, der udforsker internettet for at finde nye sider, der kan føjes til Googles index.

Hvorfor er min side ikke indekseret?
Den mest sandsynlige årsag er, at den ikke er blevet gennemsøgt endnu, eller at den er blokeret fra gennemsøgning (f.eks. via robots.txt) eller indexering (f.eks. via en noindex-tag eller canonical-tag). Den kan også være markeret som duplikeret eller lav kvalitet af Google.

Hvordan ved jeg, om jeg har gennemsøgningsproblemer?
Brug Google Search Console. Tjek 'Pages' rapporten for udelukkelser som 'Discovered – currently not indexed' eller 'Crawled – currently not indexed'. Tjek 'Crawl stats' for serverfejl eller usædvanligt lave gennemsøgningsrater.

Hvad er robots.txt?
Robots.txt er en fil på din server, der instruerer webcrawlere om, hvilke dele af dit website de må eller ikke må gennemsøge. Det er vigtigt at konfigurere denne korrekt for at undgå at spilde gennemsøgningsbudget på uvigtige sider.

Hvad er et sitemap?
Et XML sitemap er en fil, der lister vigtige URL'er på dit website, som du ønsker, at søgemaskinerne skal kende til og gennemsøge. Det fungerer som en guide for robotterne.

Hvordan påvirker interne links gennemsøgning?
Interne links hjælper crawlernes med at opdage nye og opdaterede sider på dit site. De distribuerer også "link equity" (værdi) rundt på dit site, hvilket kan forbedre rankingen af de linkede sider.

Konklusion

Ved at forstå, hvordan gennemsøgning fungerer, og implementere strategier for at optimere den, kan du betydeligt øge din hjemmesides synlighed og autoritet. At følge de strategier, vi har skitseret baseret på ekspertise og observationer, vil hjælpe dig med at bygge et stærkt fundament for din hjemmesides SEO-succes. Husk, at kvaliteten og relevansen af dine links og dit indhold er altafgørende, og fokus på disse aspekter vil give vedvarende vækst.

Kunne du lide 'Forstå SEO Gennemsøgning: Nøglen til Synlighed'? Så tag et kig på flere artikler i kategorien Læsning.

Go up