WordPress robots.txt und potentielle Crawlprobleme

May 2, 2025 | Technisches SEO

Über den Autor: Martin Rau (LinkedIn Profil)

Er ist Senior-SEO Freelancer. Seit über 9 Jahren unterstützt er Unternehmen im Bereich Suchmaschinenoptimierung. Seine Spezialität ist technisches-SEO & E-Commerce/Reise SEO.

Expertenbereich:

  • Technisches SEO

  • B2B SEO

  • E-Commerce SEO

Seine bekanntesten Kunden sind:
xing.com, stoffe.de, dress-for-less.com, greator.com

SEO-Freelancer & SEO-Experte Freiburg Martin Rau
Inhaltsverzeichnis

Ursprünglich: Beginner • SEO Wissen | 28. September 2019

In meinen root Verzeichnis, meiner WordPress Installation von seo-praxis.de habe ich die robots.txt auf meinem Server folgendermaßen angepasst:

Useragent: *
Disallow: /wp-content/

Anschließend habe ich die Seite mit:

  • dem Screaming Frog
    • aktivierten JavaScript Rendering
    • HTML abspeichern

… gecrawlt.

In den Einstellungen habe ich zusätzlich den Googlebot Mobile: Smartphone ausgewählt.
Mit diesen Einstellungen kann man sehen, wie der Googlebot Smartphone die Seite rendern würde. Genau so:

Sperrt man das Verzeichnis, indem elementar wichtige:

  • Stylesheets (CSS)
  • oder JavaScript Files

liegen, kann der Crawler die Seite nicht mehr korrekt rendern.

Wenn die Seite undesignt und schlecht leserlich ist, wird das das Ranking der Seite negativ verändern.

So sieht die Seite über den SEO Manager eigentlich aus.

Alle Infos zum Google Crawler und der robots.txt findest du hier:
https://developers.google.com/search/reference/robots_txt

Weitere Blogbeiträge aus dieser Kategorie

Links zu allen Kategorien:

Onpage SEO

Technisches SEO

Website

Paid Ads