Hvad er en robots txt?
Micky Weis
Micky Weis

15 års erfaring i online marketing. Tidligere CMO i bla. Firtal Web A/S. Blogger om marketing og de ting jeg har oplevet på vejen. Følg med på LinkedIn for daglige opdateringer.

En robots.txt er en fil, du laver for at fortælle søgemaskinerne (i vores tilfælde typisk Google), hvordan de skal “crawle” en side på en hjemmeside. Filen ligger altid i roden af dit domæne og fungerer som en slags instruktionsbog for søgemaskinernes crawlere.

Helt lavpraktisk fortæller robots.txt filen søgemaskinen, om de skal indeksere siden “index” eller indeksere siden “no-index”. Det er vigtigt at forstå, at robots.txt teknisk set kun giver anbefalinger til crawlerne, og at Google i de fleste tilfælde respekterer disse anvisninger.

Filen kan også fortælle, om søgemaskinerne skal “follow” eller “no-follow” sider, som man linker ud til. Dette giver dig kontrol over, hvordan linkjuice fordeles på din hjemmeside.

Sådan kan du bruge robots.txt på din hjemmeside

Lad os sige, at jeg har nogle “skjulte sider” på min hjemmeside, som du kun kan tilgå, hvis du har et link dertil. Det er sider, hvor jeg ville skrive “no-index” på i min robots.txt, så folk fra Google ikke tilfældigvis lander herinde. Dette kan være landingssider til specifikke kampagner, tak sider efter en konvertering eller interne ressourcer.

Det ville se sådan her ud i koden på den enkelte, skjulte side:

Eksempel på noindex meta tag i HTML koden

Det er måske en smule langhåret, og medmindre man er programmør, vil man også sidde og rette i denne fil på en lidt nemmere facon.

2 værktøjer der kan hjælpe dig med robots.txt

Eksempelvis gennem et plugin såsom “Yoast SEO” til WordPress. På den måde skal du ikke selv skrive kode – du skal bare tjekke af i nogle bokse, hvordan du ønsker, at søgemaskinerne skal læse din hjemmeside. I 2026 har Yoast SEO desuden fået endnu flere funktioner til at håndtere AI crawlere og LLM bots, hvilket gør det endnu mere relevant.

Du kan ligeledes bruge Googles eget robots.txt tester – Det er ikke så nemt at finde længere i det nye Search Console. Det er der måske en grund til som jeg lige vil nævne herunder.

Robots.txt og AI crawlere i 2026

I 2026 er robots.txt blevet relevant på en helt ny måde. Med fremkomsten af AI søgemaskiner som ChatGPT, Perplexity og Google AI Overviews crawler flere bots end nogensinde dit website. Du kan nu bruge robots.txt til at styre, hvilke AI systemer der må indeksere dit indhold. Nye user agents som GPTBot (OpenAI), ClaudeBot (Anthropic) og PerplexityBot kan blokeres eller tillades individuelt i din robots.txt fil.

Mange udgivere vælger i dag at blokere visse AI crawlere for at beskytte deres indhold, mens andre bevidst åbner op for at få synlighed i AI svar. Det er en strategisk beslutning, du bør tage baseret på din forretningsmodel.

Da Google bliver mere og mere intelligent er robots.txt ikke så relevant for traditionel SEO, som det har været. Google ved efterhånden godt hvilke dele af en hjemmeside de skal crawle og hvilke elementer de skal undlade. Desuden er kodestykker som eksempelvis “no-index” i robots.txt også næsten udfaset af Google. Man kan læse lidt mere om deres eget syn på robots.txt her.

Til gengæld har robots.txt fået fornyet relevans i 2026 på grund af AI crawlere. Hvis du vil have kontrol over, hvordan AI systemer bruger dit indhold, er en opdateret robots.txt fil vigtigere end nogensinde.

Hvad bør du gøre med din robots.txt i dag?

Start med at tjekke din nuværende robots.txt fil ved at skrive dit domæne efterfulgt af /robots.txt i browseren. Gennemgå hvilke sider der er blokeret og overvej, om du vil tilføje regler for AI crawlere. Brug Yoast SEO eller et lignende plugin til nemt at administrere dine indstillinger uden at rette manuelt i koden.

Hvad er en robots.txt fil helt konkret?

En robots.txt er en simpel tekstfil, der ligger i roden af dit domæne og fungerer som en instruktionsbog for søgemaskiner. Filen fortæller crawlere fra Google og andre søgemaskiner, hvilke sider de må besøge og indeksere, og hvilke de skal holde sig væk fra. Tænk på det som et skilt ved indgangen til din hjemmeside, der guider de automatiske besøgende rundt.

Hvor skal robots.txt filen placeres på min hjemmeside?

Filen skal altid ligge i roden af dit domæne, så den kan tilgås via dinhjemmeside.dk/robots.txt. Hvis filen ligger andre steder, vil søgemaskinerne simpelthen ikke finde den. Det er en fast standard, som alle crawlere forventer og leder efter automatisk.

Hvad betyder index og noindex i robots.txt?

Index betyder, at søgemaskinen må tilføje siden til sit søgeindeks, så den kan dukke op i søgeresultaterne. Noindex er det modsatte og fortæller søgemaskinen, at siden ikke skal vises i søgeresultaterne. Det er værd at bemærke, at noindex teknisk set styres via meta tags på selve siden, mens robots.txt primært styrer crawling med disallow.

Hvad er forskellen på follow og nofollow?

Follow fortæller søgemaskinen, at den gerne må følge links på siden og overføre linkjuice til de sider, der linkes til. Nofollow betyder, at søgemaskinen ikke skal følge linkene eller videregive linkværdi. Dette giver dig kontrol over, hvordan din sides autoritet fordeles til andre sider både internt og eksternt.

Respekterer Google altid min robots.txt fil?

Google respekterer i de fleste tilfælde anvisningerne i din robots.txt, men filen er teknisk set kun en anbefaling. Seriøse søgemaskiner som Google, Bing og andre følger standarden, men ondsindede bots kan vælge at ignorere den. Derfor bør du aldrig bruge robots.txt som eneste sikkerhed for følsomt indhold. Du kan læse mere om Googles officielle dokumentation om robots.txt.

Hvilke sider bør jeg blokere med robots.txt?

Typiske kandidater er tak sider efter konverteringer, landingssider til specifikke kampagner, interne ressourcer og admin områder. Du kan også overveje at blokere søgeresultatsider på din egen side, filtersider med duplicate content eller sider under udvikling. Pointen er at holde irrelevant indhold ude af søgeresultaterne.

Kan jeg bruge Yoast SEO til at styre min robots.txt?

Ja, Yoast SEO til WordPress gør det nemt at redigere din robots.txt uden at skrive kode. Du kan tilgå filen direkte i pluginets indstillinger og justere reglerne ved at tjekke af i bokse. I 2026 har Yoast desuden fået funktioner til at håndtere AI crawlere og LLM bots, hvilket gør pluginet endnu mere relevant for moderne SEO.

Hvordan tester jeg om min robots.txt virker korrekt?

Du kan bruge Googles robots.txt tester i Search Console, selvom den ikke er så nem at finde i den nye version. Alternativt kan du manuelt tjekke filen ved at gå til dinhjemmeside.dk/robots.txt i browseren. Der findes også tredjeparts værktøjer, der kan validere syntaksen og simulere, hvordan forskellige crawlere vil fortolke dine regler.

Hvad er GPTBot og hvorfor skal jeg kende til den?

GPTBot er OpenAIs crawler, der indsamler data til at træne og opdatere ChatGPT. I 2026 er denne bot blevet relevant for alle website ejere, fordi du kan vælge at blokere den i din robots.txt, hvis du ikke ønsker dit indhold brugt til AI træning. Det er en strategisk beslutning, der handler om at balancere synlighed i AI svar mod beskyttelse af dit indhold.

Hvordan blokerer jeg AI crawlere i min robots.txt?

Du tilføjer simpelthen de specifikke user agents til din robots.txt med en disallow regel. For at blokere GPTBot skriver du “User-agent: GPTBot” efterfulgt af “Disallow: /”. Samme princip gælder for ClaudeBot fra Anthropic og PerplexityBot. Du kan blokere dem alle sammen eller vælge individuelt, hvilke AI systemer der må crawle dit indhold.

Skal jeg blokere eller tillade AI crawlere på min hjemmeside?

Det afhænger af din strategi og forretningsmodel. Mange udgivere blokerer AI crawlere for at beskytte deres indhold mod at blive brugt uden kompensation. Andre åbner bevidst op for at få synlighed i AI genererede svar, hvilket kan drive trafik på nye måder. Overvej hvad der giver mest mening for netop din hjemmeside og dit indhold.

Hvad er linkjuice og hvordan påvirker robots.txt det?

Linkjuice er den SEO værdi eller autoritet, der overføres fra en side til en anden gennem links. Ved at bruge nofollow direktiver kan du kontrollere, hvordan denne værdi fordeles på din hjemmeside. Du kan fx vælge ikke at videregive linkjuice til mindre vigtige sider og i stedet koncentrere den på dine vigtigste sider.

Kan robots.txt forhindre en side i at dukke op i Google?

Nej, ikke helt. Hvis du blokerer en side med robots.txt, kan Google stadig vise den i søgeresultaterne, hvis andre sider linker til den. Du vil bare se en beskrivelse som “Ingen information tilgængelig for denne side” i stedet for et normalt uddrag. For at holde en side helt ude af søgeresultaterne skal du bruge et noindex meta tag på selve siden.

Hvad sker der hvis jeg ikke har en robots.txt fil?

Hvis du ikke har en robots.txt fil, vil søgemaskinerne crawle og indeksere alt tilgængeligt indhold på din hjemmeside. Det er standardadfærden og fungerer fint for mange simple hjemmesider. Men du mister muligheden for at styre crawl budget, skjule irrelevante sider og kontrollere AI crawlere, hvilket kan være problematisk for større sites.

Hvad er en user agent i robots.txt sammenhæng?

En user agent er den identifikation, som en crawler sender med, når den besøger din hjemmeside. Googlebot er Googles primære crawler, Bingbot er Microsofts, og GPTBot er OpenAIs. I din robots.txt kan du lave specifikke regler for hver user agent, så forskellige crawlere behandles forskelligt baseret på dine præferencer.

Hvor ofte tjekker Google min robots.txt fil?

Google cacher typisk din robots.txt fil og tjekker den med jævne mellemrum, ofte omkring en gang i døgnet for aktive sites. Hvis du laver ændringer, kan det derfor tage lidt tid, før de træder i kraft. Du kan anmode om en hurtigere genindeksering gennem Search Console, hvis du har brug for at ændringerne slår igennem hurtigt.

Kommentarer

Skriv et svar

17 års tips og tricks?

På LinkedIn deler jeg hver uge tips og tricks med mere end 10.000 følgere. Det er gratis at følge med og du kan altid “unfollow” mig igen. Vil du være med?

Gratis tips og tricks »