Teknisk SEO der løfter crawl, indeksering og synlighed
Teknisk SEO handler om at fjerne de tekniske barrierer, der stopper Google, Bing og AI baserede søgemaskiner fra at finde, forstå og prioritere dit indhold. Når fundamentet er i orden, bliver dine sider typisk crawlet mere effektivt, indekseret mere stabilt og vist oftere, både i klassiske søgeresultater og i AI søgeresultater, hvor svarene samles fra flere kilder.
Vil du have en konkret vurdering af dit site, så kan du sende en URL og kort beskrive målet (flere leads, flere salg, mere lokal synlighed). Så får du en prioriteret retning i stedet for en lang liste med fejl.
Hvad teknisk SEO er i praksis
Teknisk SEO er de dele af SEO, der gør det muligt for søgemaskiner at:
- crawle dine sider uden spild og blindgyder
- render din side korrekt (også når der er JavaScript)
- forstå hvad der er vigtigst, og hvad der er dublet eller sekundært
- indeksere de rigtige sider, og undgå at “forkerte” URL varianter tager pladsen
- forbinde indhold med kontekst via intern linkstruktur og struktureret data
Det er her man typisk finder årsagen til “vi laver godt indhold, men ranker ikke” eller “vores nye sider kommer ikke i index”.
Hvorfor teknisk SEO bliver endnu vigtigere i AI søgeresultater
AI søgning ændrer ikke behovet for klassisk SEO. Den gør bare fundamentet endnu mere afgørende.
Når Google viser AI overviews, eller når Bing og andre AI motorer opsummerer emner, udtrækker de ofte viden på tværs af flere sider og kilder. Hvis dit site har tekniske problemer, bliver du sjældnere valgt som kilde, fordi dine sider ikke er stabile nok at hente, forstå og citere fra.
Det betyder, at teknisk SEO ikke kun handler om placeringer. Det handler også om:
- om dine sider overhovedet bliver brugt som kilde i AI svar
- om AI kan finde præcise afsnit, definitioner og data på dine sider
- om dit site fremstår troværdigt gennem struktur, semantik og klare signaler
Det jeg typisk tjekker i en teknisk SEO gennemgang
Her er de områder der oftest skaber både hurtige gevinster og langsigtet stabilitet:
Crawl og styring af søgemaskiner
- robots.txt og crawl regler
- XML sitemap kvalitet og prioritering
- statuskoder, 404, soft 404, 5xx og timeouts
- redirect mønstre og redirect kæder
- crawl budget signaler, spild og blindgyder
Indeksering og kanoniske signaler
- noindex, nofollow og utilsigtede blokeringer
- canonical tags og konflikter mellem canonical, sitemap og intern linking
- dublet indhold fra parametre, pagination, facetter, sortering og tracking
- hvad der bør i index, og hvad der bør holdes ude
Informationsarkitektur og intern linking
- orphan pages (sider uden interne links)
- prioritering via interne links, navigation og brødkrummer
- semantisk struktur og sidehierarki
- interne links der peger på ikke kanoniske URL varianter
Rendering og front end tekniske forhold
- JavaScript rendering og afhængigheder
- render blocking ressourcer
- billedstrategi, lazyload, dimensioner og formatskift
- third party scripts der forringer stabilitet og hastighed
Performance og server signaler
- TTFB og server respons
- caching strategi (server, objektcache, sidecache)
- store HTML dokumenter, unødvendig markup og tunge ressourcer
- Core Web Vitals (LCP, INP, CLS) og de konkrete årsager
Struktureret data og udvidede resultater
- schema som faktisk matcher indholdet (og ikke bare er “sat på”)
- fejl og advarsler i markup
- muligheder for FAQ, HowTo, Product, Organization, Person, Service
- signaler der kan styrke synlighed i udvidede visninger
Billeder og filer
- Alt tekst på indholdsbilleder (tilgængelighed + billedsøgning)
- Width/height eller aspect ratio (CLS)
- Moderne formater (WebP/AVIF) og korrekt komprimering
- Lazyload hvor det giver mening, men aldrig på LCP elementet
- PDF og filer: indeksering, canonical, og om de skal ligge i sitemap
International og sprogstyring (hreflang)
- hreflang og retur links
- konflikter mellem hreflang og canonical
- sprog i html lang kontra faktiske sprog versioner
Pagination og indeksering af lister
- kategori og produktlister
- side 2, 3, 4 osv
- canonical på paginerede sider
- noindex på pagination kontra “lad Google finde det hele”
Parameter styring og crawl traps
- UTM parametre, sortering, filtre, søgninger
- hvornår man bruger canonical, noindex, robots.txt, eller blokerer via server
- hvorfor “bloker i robots” ofte ikke er nok, hvis URL allerede er indekseret
X Robots Tag og styring på filniveau
- X Robots Tag headers til PDF, billeder, feeds, API endpoints
- typiske fejl med PDF indeksering og dokument sitemaps
Logfile analyse og crawl adfærd
- hvad Googlebot faktisk crawler
- crawl spild på redirects, parametre, 404 og tynde sider
- sammenhæng mellem crawling og indeksering
Rendering strategi for JavaScript sites
- server side rendering vs client side rendering
- pre rendering for vigtige landingssider
- hvordan man sikrer at vigtig tekst findes i HTML uden at være afhængig af JSs
Duplicate content scenarier
- http vs https, www vs ikke www
- trailing slash og blandede URL formater
- store og små bogstaver i URL
- print versioner, søge resultater, tags, forfatter arkiver
AI crawlere og AI venlig struktur
Mange skriver om klassiske crawlere. Færre forholder sig til at AI crawlere ofte læser på en anden måde, og i højere grad belønner ren struktur, tydelige overskrifter og tekst der kan citeres uden kontekst.
Gratis test af teknisk SEO
Indtast din URL og få en hurtig teknisk gennemgang af siden. Testen tjekker blandt andet crawl og indeksering, redirects, sitemap, metadata, sikkerhedsheaders og performance. Du får et samlet resultat med forklaringer og konkrete forslag til, hvad der kan forbedres og hvordan.
Testen er lavet til at give dig et klart overblik på få minutter. Hvis du bagefter ønsker hjælp til at rette det hele, kan du nemt anmode om et tilbud ud fra resultatet.
Tip: Test både din forside og en vigtig underside, fx en kategori, service side eller produktside.
Det du får efter en teknisk SEO opgave
Du får ikke bare “en rapport”. Du får en plan der kan implementeres.
- Prioriteret opgaveliste med effekt og indsats (høj, mellem, lav)
- Konkrete eksempler pr. problem (URL, årsag, løsning)
- Anbefalet struktur for index (hvad ind, hvad ud, og hvorfor)
- Forslag til intern linking der støtter dine vigtigste sider
- Målepunkter og kontrolpunkter, så du kan se at rettelserne virker
Hvis du vil, kan jeg også stå for implementeringen, så forbedringerne ikke ender som en pdf der aldrig bliver brugt.
Processen kort fortalt
Teknisk analyse og handlingsplan
Vi finder sammen en løsning på dine tekniske problemer
Indsamling og analyse
Crawl, indekseringsdata, hastighed og tekniske signaler samles og sammenholdes.
Prioritering og plan
Du får en overskuelig plan, hvor vi starter med det der låser synlighed op så vi får hurtige resultater.
Rettelser og validering
Når rettelser er lavet, validerer vi med kontrolmålinger, så vi ved hvad der flyttede hvad.
Typiske tekniske fejl jeg ofte ser blive overset
Det her er klassikere, som mange guider nævner kort, men sjældent gør konkrete:
- Canonical der ikke matcher intern linking (Google får blandede signaler)
- Sitemap der indeholder URL varianter, redirects eller noindex sider
- Interne links der peger på redirects i stor skala (spild af crawl og linkværdi)
- Filtre og facetter der skaber tusindvis af crawlbare URL varianter
- Arkiver, tags og interne søgninger der fylder index uden at skabe værdi
- Større skift i templates eller plugins der ændrer markup, uden at man opdager effekten på rendering og hastighed