Test af sidens størrelse

En side kan godt være lang og stadig rangere. Men hvis selve html outputtet bliver for stort, kan det få direkte betydning for både indeksering og placeringer, fordi Google i praksis kan ende med kun at behandle en del af siden.

Google beskriver, at Googlebot til Search normalt crawler de første 2 MB af en understøttet filtype, typisk din html. Når grænsen rammes, stopper Googlebot med at hente mere og sender kun den allerede hentede del videre til indeksering. Grænsen gælder ukomprimeret data.

Det betyder helt konkret, at hvis din side er meget tung i markup, scripts, inline css og struktureret data, kan vigtigt indhold ligge så langt nede i html’en, at det ikke bliver en del af det, Google faktisk indekserer.

stoerrelses testeren

Hvad værktøjet gør

Værktøjet måler sidens samlede størrelse og giver en vurdering af, om du nærmer dig et niveau, hvor det kan give mening at rydde op i outputtet eller splitte indholdet op. Fokus er ikke kun tekstmængde, men især den samlede mængde html og kompleksitet, som browser og søgemaskiner skal behandle.

Hvorfor sidens størrelse betyder noget

Når html dokumentet bliver stort, tager det længere tid at modtage og parse, og det skaber ofte en stor DOM med mange elementer. Det kan påvirke både hastighed og stabilitet, især på mobil. For Google handler det også om, hvor meget indhold der kan hentes og forstås effektivt, og om crawl ressourcerne bliver brugt fornuftigt på dit site.

Hvad der kan ske i værste scenarie

Hvis du rammer grænsen for hvor meget Googlebot henter, kan konsekvenserne være meget konkrete:

Vigtigt indhold bliver ikke indekseret

Afsnit, overskrifter, FAQ, konklusioner og andre vigtige sektioner, der ligger langt nede på siden, kan i praksis blive “klippet væk” for Google.

Interne links bliver ikke opdaget via siden

Hvis dine interne links ligger efter cutoff, kan Google i værste fald ikke finde dem gennem den side. Det kan påvirke intern linkstyrke og hvor hurtigt nye sider bliver opdaget.

Struktureret data kan blive overset

Schema og andre vigtige markup elementer kan blive ignoreret, hvis de ligger sent i html’en eller hvis outputtet i forvejen er meget tungt.

Placeringer kan falde uden at der er tale om en straf

Det er ikke en manuel straf. Det er en teknisk begrænsning. Google rangerer ud fra det, den faktisk kan behandle og forstå, og hvis centrale dele af siden ikke bliver læst, kan relevansen falde, selvom indholdet findes på siden.

Hvornår testen er ekstra relevant

Det er især relevant hvis du:

  • har meget lange sider med mange sektioner
  • bruger page builders og får meget markup med
  • har store mængder schema, scripts og inline css
  • arbejder med kategorisider, landingssider eller guides

Typiske årsager til at html bliver for stor

De mest almindelige årsager er:

  • page builder output med mange wrappers og nested elementer
  • meget inline css pr. sektion
  • scripts fra plugins, tracking og marketing tools
  • store mængder gentaget schema eller unødvendigt markup
  • lister og kort layouts med mange gentagelser i html’en

Hvad du kan gøre hvis siden er for stor

Ofte handler det ikke om at fjerne indhold, men om at gøre siden mere fokuseret og lettere at behandle:

  • split siden op i flere undersider med klar intern linkstruktur
  • reducer wrappers og unødige blokke, især fra page builders
  • flyt inline css til en samlet stylesheet hvor det giver mening
  • gennemgå schema og fjern det der ikke giver værdi
  • ryd op i scripts og fjern det du ikke bruger

HTML-størrelsesanalyse

Undersøg om din side overholder Googlebots crawl-grænse

Indtast en URL og klik Analysér for at se resultatet her.

De 34 mindste sider

Maks én side pr. domæne.