En robots.txt er en fil, du laver for at fortælle søgemaskinerne (i vores tilfælde typisk Google), hvordan de skal “crawle” en side på en hjemmeside. Filen ligger altid i roden af dit domæne og fungerer som en slags instruktionsbog for søgemaskinernes crawlere.
Helt lavpraktisk fortæller robots.txt filen søgemaskinen, om de skal indeksere siden “index” eller indeksere siden “no-index”. Det er vigtigt at forstå, at robots.txt teknisk set kun giver anbefalinger til crawlerne, og at Google i de fleste tilfælde respekterer disse anvisninger.
Filen kan også fortælle, om søgemaskinerne skal “follow” eller “no-follow” sider, som man linker ud til. Dette giver dig kontrol over, hvordan linkjuice fordeles på din hjemmeside.
Sådan kan du bruge robots.txt på din hjemmeside
Lad os sige, at jeg har nogle “skjulte sider” på min hjemmeside, som du kun kan tilgå, hvis du har et link dertil. Det er sider, hvor jeg ville skrive “no-index” på i min robots.txt, så folk fra Google ikke tilfældigvis lander herinde. Dette kan være landingssider til specifikke kampagner, tak sider efter en konvertering eller interne ressourcer.
Det ville se sådan her ud i koden på den enkelte, skjulte side:
Det er måske en smule langhåret, og medmindre man er programmør, vil man også sidde og rette i denne fil på en lidt nemmere facon.
2 værktøjer der kan hjælpe dig med robots.txt
Eksempelvis gennem et plugin såsom “Yoast SEO” til WordPress. På den måde skal du ikke selv skrive kode – du skal bare tjekke af i nogle bokse, hvordan du ønsker, at søgemaskinerne skal læse din hjemmeside. I 2026 har Yoast SEO desuden fået endnu flere funktioner til at håndtere AI crawlere og LLM bots, hvilket gør det endnu mere relevant.
Du kan ligeledes bruge Googles eget robots.txt tester – Det er ikke så nemt at finde længere i det nye Search Console. Det er der måske en grund til som jeg lige vil nævne herunder.
Robots.txt og AI crawlere i 2026
I 2026 er robots.txt blevet relevant på en helt ny måde. Med fremkomsten af AI søgemaskiner som ChatGPT, Perplexity og Google AI Overviews crawler flere bots end nogensinde dit website. Du kan nu bruge robots.txt til at styre, hvilke AI systemer der må indeksere dit indhold. Nye user agents som GPTBot (OpenAI), ClaudeBot (Anthropic) og PerplexityBot kan blokeres eller tillades individuelt i din robots.txt fil.
Mange udgivere vælger i dag at blokere visse AI crawlere for at beskytte deres indhold, mens andre bevidst åbner op for at få synlighed i AI svar. Det er en strategisk beslutning, du bør tage baseret på din forretningsmodel.
Da Google bliver mere og mere intelligent er robots.txt ikke så relevant for traditionel SEO, som det har været. Google ved efterhånden godt hvilke dele af en hjemmeside de skal crawle og hvilke elementer de skal undlade. Desuden er kodestykker som eksempelvis “no-index” i robots.txt også næsten udfaset af Google. Man kan læse lidt mere om deres eget syn på robots.txt her.
Til gengæld har robots.txt fået fornyet relevans i 2026 på grund af AI crawlere. Hvis du vil have kontrol over, hvordan AI systemer bruger dit indhold, er en opdateret robots.txt fil vigtigere end nogensinde.
Hvad bør du gøre med din robots.txt i dag?
Start med at tjekke din nuværende robots.txt fil ved at skrive dit domæne efterfulgt af /robots.txt i browseren. Gennemgå hvilke sider der er blokeret og overvej, om du vil tilføje regler for AI crawlere. Brug Yoast SEO eller et lignende plugin til nemt at administrere dine indstillinger uden at rette manuelt i koden.

Kommentarer