Hvad er Log file analysis?
Log file analysis er processen med at gennemgå og analysere webserverens logfiler for at forstå, hvordan søgemaskiner og brugere interagerer med et website. Ved at anvende log file analysis kan man identificere, hvilke sider søgemaskinebots besøger, hvor ofte de gør det, og om de møder fejl eller blokerede områder. Analysen giver indsigt i crawl- og indeksadfærd, som ikke kan fås gennem almindelige webanalyseværktøjer.
Hvornår bruges det?
Log file analysis anvendes typisk, når der opstår udfordringer med indeksering, eller når SEO-specialister ønsker at optimere crawl budgettet. Ved at analysere logfiler kan man afdække, om søgemaskinernes bots bruger tid på de vigtigste sider, eller om de spilder ressourcer på irrelevante URLs. Det hjælper også med at identificere tekniske fejl som 404-sider eller omdirigeringer, som kan forhindre effektiv crawling.
Eksempel: En webshop oplever, at nye produkter ikke dukker op i Google. Ved log file analysis opdages det, at Googlebot kun crawler ældre kategorisider, fordi interne links til nye produkter mangler. Efter forbedring af linkstrukturen stiger indekseringshastigheden markant.
Typiske fejl
- Ignorering af forskel mellem bot- og brugertrafik i analysen.
- Anvendelse af forældede eller ufuldstændige logfiler.
- Fejlfortolkning af HTTP-statuskoder i logoptegnelserne.
Relaterede begreber: Crawl budget, robots.txt, indeksering
