XML-Sitemap und Robots.txt – Technische SEO-Grundlagen

Kategorie:
Veröffentlicht: 5. Oktober 2023 Zuletzt aktualisiert: 26. Februar 2026
xml sitemap erklärt

Warum XML-Sitemap und Robots.txt?

Der Alltag als SEO Agentur führt dazu, dass wir immer wieder verschiedene Seiten und damit auch verschiedene Fehler sehen. “Zahlreiche URLs sind nicht in der Sitemap enthalten” oder “die Robots.txt enthält keinen Verweis auf die sitemap.xml”. Das sind übliche Fehler, die wir in unseren SEO Audits feststellen. Dabei fällt mir auf, dass diese Elemente den wenigstens klar sind. XML-Sitemap und Robots.txt sind zwei wichtige technische Grundlagen, die für eine erfolgreiche Suchmaschinenoptimierung (SEO) unerlässlich sind. In diesem Blog-Beitrag möchte ich erklären, was diese Dateien sind, wozu sie dienen und wie man sie für eine Website optimal nutzen kann.

HTML-Sitemap vs. XML-Sitemap: Was ist der Unterschied?

Wenn wir von Sitemap sprechen, meinen wir meistens zwei verschiedene Dinge – und die Verwechslung ist einer der häufigsten Fehler, den ich im Agenturalltag sehe.

Die XML-Sitemap ist für Suchmaschinen gemacht. Sie ist eine strukturierte Datei, die Google und anderen Crawlern eine vollständige Liste aller URLs deiner Website liefert – inklusive Metadaten wie das Datum der letzten Änderung und die Änderungshäufigkeit. Die XML-Sitemap ist für Menschen unlesbar, für Google aber ein wertvolles Signal. Sie liegt in der Regel unter deiner-domain.de/sitemap.xml.

Die HTML-Sitemap ist für Menschen gemacht. Sie ist im Grunde ein übersichtliches Inhaltsverzeichnis mit klickbaren Links zu allen wichtigen Unterseiten – direkt auf deiner Website eingebunden, oft im Footer verlinkt. Für Nutzer, die sich nicht zurechtfinden, ist sie eine hilfreiche Orientierung. Für Google hat sie indirekte SEO-Vorteile: Sie erleichtert das Crawling von Seiten, die in der Navigation möglicherweise tief vergraben sind.

 XML-SitemapHTML-Sitemap
Für wen?Suchmaschinen (Google, Bing)Nutzer der Website
FormatMaschinenlesbare XML-DateiNormale HTML-Seite
Ortdomain.de/sitemap.xmlSeite auf der Website, oft im Footer
Pflicht?Empfohlen, besonders für neue/große SeitenOptional, aber hilfreich bei komplexen Sites
SEO-EffektDirekt: verbessert Crawling & IndexierungIndirekt: bessere interne Verlinkung

Für die meisten Websites – und besonders für WordPress-Seiten – gilt: Die XML-Sitemap ist das Wichtigere der beiden. Plugins wie Rank Math oder Yoast SEO erstellen sie automatisch. Die HTML-Sitemap ist ein sinnvolles Extra für große oder inhaltlich komplexe Seiten, bei denen Nutzer schnell den Überblick verlieren.

Die Bedeutung der XML-Sitemap und Robots.txt für die Suchmaschinenoptimierung (SEO)

Die Bedeutung der XML-Sitemap und Robots.txt für die Suchmaschinenoptimierung (SEO) sollte nicht unterschätzt werden. Es sind kleine Dateien, aber haben oftmals große Wirkung.

Eine XML-Sitemap ist eine Datei, die den Inhalt einer Website strukturiert darstellt und den Suchmaschinen dabei hilft, die Seiten effizienter zu durchsuchen. Dank der Sitemap kann Google die Seite besser crawlen. Durch die Verwendung einer XML-Sitemap können Webmaster sicherstellen, dass wichtige Seiten in den Suchergebnissen angezeigt werden und dass keine wichtigen Seiten übersehen werden. Darüber hinaus kann eine XML-Sitemap auch dazu beitragen, dass neue Inhalte schneller von Suchmaschinen indexiert werden.

Eine Robots.txt-Datei dagegen gibt Anweisungen an Suchmaschinen-Roboter (z.B. den Google Bot), welche Bereiche einer Website indexiert werden sollen und welche nicht. Die Verwendung einer Robots.txt-Datei ist wichtig, um zu verhindern, dass unerwünschte Seiten oder Inhalte in den Suchergebnissen auftauchen. Es ist jedoch wichtig zu beachten, dass eine falsche Konfiguration der Robots.txt-Datei dazu führen kann, dass wichtige Seiten nicht indexiert werden oder dass bestimmte Bereiche der Website blockiert werden. Daher sollte man bei der Erstellung und Verwendung Robots.txt-Dateien immer sorgfältig vorgehen und sich über die Ziele der Webseite im Klaren sein.

Julian Kirfel Partner der Agentur JSH Marketing Heiko Lindner Social Media Zufriedener Kunde von Google Doktor

200+

5,0

zufriedene Kunden

Top SEO Agentur 2025
Google Partner - SEO Agentur die Google Partner - Logo
Microsoft Partner für erfolgreiche Bing ads
Top Empfehlung 2025 JSH Marketing - SEO Angentur
seo top 100 2026

Was ist eine XML-Sitemap?

Eine XML-Sitemap ist eine spezielle Datei, die Suchmaschinen wie Google dabei hilft, alle Inhalte einer Website zu finden und zu indexieren. Im Gegensatz zur normalen HTML-Sitemap ist die XML-Sitemap für Maschinen besser lesbar und enthält detaillierte Informationen zu jeder URL der Website. Dazu gehören neben der URL, das Datum der letzten Aktualisierung und die Häufigkeit der Änderungen. Durch die Verwendung einer XML-Sitemap kann man sicherstellen, dass alle wichtigen Seiten einer Website von Google und Co. gefunden werden und somit besser in den SERPs ranken. Außerdem können auch Seiten mit niedriger Priorität oder solche, die nicht über interne Links erreichbar sind, in die Sitemap aufgenommen werden. Eine regelmäßig aktualisierte XML-Sitemap kann somit dazu beitragen, dass eine Website besser bei Google gefunden wird. Mehr Traffic ist eine Folge.

Warum sind XML-Sitemaps wichtig für SEO?

Eine XML-Sitemap ist eine Datei, die den Suchmaschinen alle wichtigen Informationen über die Struktur einer Website liefert. Sie enthält eine Liste aller Seiten, die von der Suchmaschine indexiert werden sollen, sowie zusätzliche Metadaten wie z.B. das Änderungsdatum oder die Priorität einer bestimmten Seite. Warum sind XML-Sitemaps wichtig für SEO? Indem sie den Suchmaschinen einen Überblick über die Inhalte einer Website geben, können XML-Sitemaps dazu beitragen, dass alle Seiten der Website indexiert und somit besser in den Suchergebnissen SERP) platziert werden. Insbesondere bei großen Websites mit vielen Unterseiten kann eine XML-Sitemap dazu beitragen, dass auch tiefere Ebenen erfasst werden. Somit können auch diese im Klickpfad weiter hinten liegenden Seiten besser gefunden werden. Darüber hinaus können XML-Sitemaps auch dabei helfen, Crawl-Fehler zu identifizieren und zu beheben. Aus diesen Gründen sollten sie ein fester Bestandteil jeder SEO-Strategie sein.

Wie erstellt man eine XML-Sitemap?

Um eine XML-Sitemap zu erstellen, gibt es verschiedene Möglichkeiten. Eine einfache Methode ist die Verwendung von Online-Tools wie XML Sitemap Generator oder Screaming Frog SEO Spider. Diese Tools können kostenlos heruntergeladen werden und generieren automatisch eine XML-Sitemap basierend auf der Website-Struktur. Wenn Sie jedoch eine maßgeschneiderte Sitemap erstellen möchten, können Sie dies auch manuell tun. Zunächst müssen Sie alle URLs Ihrer Website sammeln und diese in einer Tabelle organisieren. Anschließend können Sie mithilfe von XML-Tags die Struktur der Sitemap definieren und die URLs hinzufügen. Es ist wichtig, sicherzustellen, dass Ihre Sitemap korrekt formatiert ist und keine Fehler enthält, da dies sich negativ auf die Indexierung Ihrer Website auswirken kann. Sobald Ihre Sitemap fertiggestellt ist, müssen Sie sie in der Google Search Console einreichen, um sicherzustellen, dass die Suchmaschine Ihre gesamte Website indexieren kann.

Für Nutzer von WordPress-Seiten empfehlen wir die Verwendung von RankMath als SEO Plugin. Dieses hat den Vorteil, dass es automatisiert eine fundierte Sitemap erstellt. Mit der richtigen Konfiguration wird diese auch gleich bei Google eingereicht.

Tipps zur Optimierung der XML-Sitemap

Um sicherzustellen, dass Ihre XML-Sitemap effektiv und reibungslos von Suchmaschinen gecrawlt wird, gibt es einige Optimierungstipps zu beachten. Zunächst sollten Sie sicherstellen, dass alle URLs in Ihrer Sitemap gültig sind und keine Fehler enthalten. Es ist auch wichtig, dass Ihre Sitemap regelmäßig aktualisiert wird, um neue Seiten oder Änderungen zu berücksichtigen. Eine Möglichkeit dies zu erreichen ist durch die Verwendung von automatisierten Tools oder Plugins, die Ihre Sitemap automatisch aktualisieren können. Auf RankMath hatte ich bereits verwiesen. Ein weiterer wichtiger Tipp zur Optimierung Ihrer XML-Sitemap ist die Verwendung von Prioritäts- und Änderungsfrequenz-Tags. Diese Tags helfen Suchmaschinen dabei zu verstehen, welche Seiten auf Ihrer Website besonders wichtig sind und wie oft sie aktualisiert werden sollten. Es ist jedoch wichtig zu beachten, dass diese Tags nicht garantieren, dass bestimmte Seiten bevorzugt behandelt werden – sie dienen lediglich als Hinweis für Suchmaschinen.

Die Sitemap sollte in der Robots.txt gefunden werden und dort verlinkt sein. Dies ist eine wichtige Maßnahme, um sicherzustellen, dass Suchmaschinen die Sitemap finden und indexieren können.

Spezial-Sitemaps: Wann brauche ich eine Bilder-, Video- oder News-Sitemap?

Neben der Standard-XML-Sitemap gibt es spezialisierte Sitemaps für bestimmte Inhaltstypen. Die meisten Websites brauchen diese nicht – aber wenn du zu einer der folgenden Gruppen gehörst, lohnt es sich, das zu wissen.

Bilder-Sitemap

Für wen: Besonders relevant für Online-Shops, Fotografen, Portfolios und alle Seiten, bei denen Bilder ein zentraler Inhalt sind.

Was sie bringt: Google findet und indexiert Bilder deutlich zuverlässiger, wenn sie in einer Bilder-Sitemap aufgeführt sind. Das ist der direkteste Weg in die Google-Bildersuche. Eine Bilder-Sitemap kann entweder eigenständig existieren oder als Erweiterung der regulären XML-Sitemap eingebettet werden.

Praxistipp: Rank Math und Yoast erstellen automatisch eine Bilder-Sitemap wenn die entsprechende Option aktiviert ist. Bei WooCommerce-Shops empfehle ich das immer zu aktivieren – Produktbilder sind oft ein unterschätzter Traffic-Kanal über die Bildersuche.

Video-Sitemap

Für wen: Seiten mit eingebetteten oder selbst gehosteten Videos, die in den Video-Suchergebnissen bei Google erscheinen sollen.

Was sie bringt: Eine Video-Sitemap liefert Google zusätzliche Metadaten zum Video – Titel, Beschreibung, Thumbnail-URL, Dauer und Veröffentlichungsdatum. Das erhöht die Chance auf Video Rich Snippets in den Suchergebnissen erheblich.

Hinweis: Bei YouTube-eingebetteten Videos ist eine eigene Video-Sitemap meist nicht nötig – YouTube übernimmt die Indexierung eigenständig. Relevant wird es vor allem bei selbst gehosteten Videos oder Vimeo-Embeds.

News-Sitemap

Für wen: Ausschließlich für Nachrichtenportale und Magazin-Websites, die in Google News erscheinen wollen.

Was sie bringt: Eine News-Sitemap signalisiert Google, dass neue Artikel für die Google News Suche und den Discover-Feed relevant sind. Sie muss sehr aktuell gehalten werden – Google berücksichtigt in der Regel nur Artikel der letzten 48 Stunden.

Wichtig: Wer kein offiziell von Google als Publisher anerkanntes Nachrichtenportal betreibt, braucht diese Sitemap nicht und sollte sie auch nicht einrichten – sie hat für normale Business-Websites keinen Mehrwert.

Du suchst eine SEO Agentur?

Was ist eine Robots.txt-Datei?

Eine Robots.txt-Datei ermöglicht es die Suchmaschinen-Crawler daran zu hindern, bestimmte Seiten oder Bereiche ihrer Website zu indexieren. Warum muss man gewisse Verzeichnisse aus der Suche ausschließen? Dies kann aus verschiedenen Gründen notwendig sein. Ein Beispiel wäre, dass sensible Informationen nicht öffentlich zugänglich sind. Eine Robots.txt-Datei wird in der Regel im Stammverzeichnis der Website platziert und enthält Anweisungen für die Crawler (Bots), welche Seiten oder Verzeichnisse sie besuchen dürfen und welche nicht. Diese Datei sollte korrekt formatiert sein, denn Fehler bei der Verwendung von Robots.txt können dazu führen, dass wichtige Seiten nicht indexiert oder dass vertrauliche Informationen versehentlich öffentlich zugänglich gemacht werden.

Welche Informationen sollten in einer Robots.txt-Datei enthalten sein?

Um eine erfolgreiche Suchmaschinenoptimierung zu erreichen, ist es wichtig, dass man sich auch mit der Robots.txt-Datei auseinandersetzt. Doch welche Informationen sollten in einer Robots.txt-Datei enthalten sein? Grundsätzlich sollte man alle Seiten ausschließen, die nicht für die Öffentlichkeit gedacht sind oder die keine Relevanz für die Suchmaschinen haben. Dazu gehören zum Beispiel Admin-Bereiche oder Testseiten. Auch bestimmte Dateitypen wie PDFs oder Bilder können ausgeschlossen werden, wenn sie keine relevanten Inhalte für die Suchergebnisse liefern. Es ist jedoch wichtig zu beachten, dass man keine wichtigen Seiten oder Inhalte ausschließt, da dies negative Auswirkungen auf das Ranking der Website haben kann. Wenn man eine wichtige Seite per robots.txt ausschließt, ist diese nicht mehr im Index.

Du suchst eine SEO Agentur?

Fehler bei der Verwendung von Robots.txt vermeiden

Dass man wichtige Seiten per robots.txt ausschließt und sperrt ist tatsächlich ein viel häufigerer Fehler, als man zunächst meinen würde. In unserer SEO Agentur in München erleben wir es regelmäßig, dass wirklich wichtige Seiten auf noindex stehen. Dies kann dazu führen, dass diese Inhalte nicht indexiert werden und entsprechend nicht in den Suchergebnissen erscheinen.

Ein anderer Fehler kann darin bestehen, dass man versehentlich wichtige Bereiche der Website blockiert und somit den Traffic auf dieser Seite reduziert oder ganz abstellt. Um solche Fehler zu vermeiden, ist es wichtig, die Robots.txt-Datei sorgfältig zu überprüfen.

Um eine effektive robots.txt-Datei zu erstellen, sollte man sich mit den grundlegenden Richtlinien vertraut machen und diese an die Bedürfnisse der eigenen Webseite anpassen.

llms.txt: Was kommt nach robots.txt in der KI-Ära?

robots.txt und XML-Sitemap sind die klassischen Steuerdateien zwischen Website und Suchmaschine. Mit dem Aufstieg von KI-Systemen wie ChatGPT, Claude oder Perplexity entsteht gerade ein neuer Standard, der ähnliche Fragen für eine neue Art von Crawler adressiert: die llms.txt.

Was ist llms.txt?

Die Idee: Genauso wie robots.txt den Webcrawlern mitteilt, welche Bereiche einer Website gecrawlt werden dürfen, soll llms.txt den Large Language Models (LLMs) sagen, welche Inhalte für ihre Antwortgenerierung genutzt werden dürfen – und welche nicht.

Das Konzept wurde von Jeremy Howard (Answer.AI) vorgeschlagen und wird von verschiedenen KI-Anbietern diskutiert. Die Datei würde, ähnlich wie robots.txt, im Stammverzeichnis der Website als domain.de/llms.txt abgelegt und könnte Anweisungen enthalten wie:

  • Welche Seiten LLMs für Trainings- oder Abfragedaten verwenden dürfen
  • Welche Inhalte explizit ausgeschlossen werden sollen
  • Wie die Website und ihre Inhalte korrekt zitiert werden sollen

Aktueller Stand: Proposal, kein Standard

Wichtige Einordnung: llms.txt ist Stand Februar 2026 kein offizieller Standard und wird noch nicht von allen LLMs unterstützt. Es gibt keine Garantie, dass ChatGPT, Claude oder Gemini die Datei aktuell respektieren. Der Prozess läuft noch – ähnlich wie robots.txt in seinen frühen Jahren.

Einige größere Websites und Tech-Unternehmen haben llms.txt bereits implementiert – als Early-Adopter-Signal und um den Standard aktiv mitzugestalten. Eine breite, verlässliche Unterstützung durch alle KI-Crawler gibt es noch nicht.

Was sollte ich jetzt tun?

Meine Empfehlung für die Praxis – in drei Stufen:

  • Beobachten: Verfolge die Entwicklung des Standards. Wenn die großen LLM-Anbieter offizielle Unterstützung ankündigen, ist schnelles Handeln ein echter Vorteil.
  • Früh implementieren (optional): Wer jetzt schon eine llms.txt anlegt, sendet ein Signal – sowohl an KI-Systeme als auch an menschliche Leser, dass man die GEO-Entwicklung ernst nimmt. Der Aufwand ist minimal.
  • Priorität behalten: robots.txt korrekt konfiguriert, XML-Sitemap aktuell, strukturierte Daten (Schema Markup) vorhanden – das sind nach wie vor die wichtigeren Stellschrauben für Sichtbarkeit in KI-Suchen heute.

Das Muster ist bekannt: Als Google 1994 den robots.txt-Standard einführte, dauerte es Jahre bis er universell respektiert wurde. Bei llms.txt läuft der gleiche Prozess – nur deutlich schneller. Wer den Standard kennt, bevor er Pflicht wird, ist klar im Vorteil.

Fazit

Abschließend lässt sich festhalten, dass die XML-Sitemap und Robots.txt zwei grundlegende Technologien sind, um die Suchmaschinenoptimierung zu verbessern. Eine XML-Sitemap gibt Suchmaschinen einen Überblick über die Struktur einer Website und erleichtert somit das Crawlen von Seiten. Durch eine gezielte Optimierung der Sitemap können bestimmte Seiten priorisiert werden, um ihre Sichtbarkeit in den Suchergebnissen zu erhöhen. Eine Robots.txt-Datei ermöglicht es Website-Betreibern, den Crawl-Prozess von Suchmaschinen-Robotern zu steuern und unerwünschte Inhalte auszuschließen. Es ist jedoch wichtig, bei der Verwendung beider Technologien sorgfältig vorzugehen und Fehler zu vermeiden. Eine falsche Konfiguration kann dazu führen, dass wichtige Seiten nicht indexiert werden oder unerwünschte Inhalte öffentlich zugänglich sind. Daher sollten Website-Betreiber immer auf dem neuesten Stand bleiben und sich regelmäßig mit den technischen Grundlagen von SEO auseinandersetzen. Bei Unsicherheit ist es empfohlen eine SEO Agentur zu konsultieren, die Ihren Schwerpunkt auf technischem SEO hat.

Julian Hofmann JSH Marketing
Über den Autor:
Julian Hofmann ist Gründer & Geschäftsführer von JSH Marketing. Seit über 15 Jahren brenne ich für das Suchmaschinenmarketing – für mich ist das mehr als nur Zahlen, sondern die Verbindung aus analytischer Präzision und strategischem Weitblick. Mit meinem Hintergrund in der Philosophie hinterfrage ich gerne den Status Quo, um messbare Ergebnisse zu liefern, die wirklich Bestand haben.
Hier im Blog beantworte ich die Fragen, die mir in der täglichen Zusammenarbeit mit meinen Kunden begegnen – ehrlich, fundiert und direkt aus der Praxis.
Zurück zum Blog
Termin buchen kontakt@jsh.marketing +49 (0) 89 215384160
WordPress Cookie Plugin von Real Cookie Banner