Google erinnert: Ab dem 1. September ist ’noindex‘ in robots.txt eingestellt

Beitragsbild Google Lupe noindex nicht mehr von robots.txt unterstuetzt

Seit dem 1. September 2019 wird ’noindex‘ in robots.txt nicht mehr unterstützt. Bereits im Juli kündigte Google diese Große Veränderung via Twitter an, wie wir bereits berichteten, damit Webmaster genügend Zeit haben, sich um Alternativen zu kümmern.

Nun ist der Tag gekommen und die ’noindex‘-Direktiven wurden für robots.txt eingestellt. Per Tweet erinnerte Google nochmals daran:

ALT-ATTRIBUTE VERGEBEN

Neben ‘noindex’ sind auch weitere Regeln wie crawl-delay oder nofollow betroffen.

Websites, die weiterhin diese Direktiven verwenden, müssen keinen Schaden, Abstrafungen oder dergleichen befürchten. Google werde die Direktiven dann einfach ignorieren. Was bedeutete, dass Seiten mit ‘noindex’ tatsächlich indexiert werden könnten. Um das zu vermeiden, gibt es folgende Alternativen:

404- oder 410-Status-Codes nutzen
– Disallow in robots-txt verwenden
– Entfernen per URL Removal Tool in der Google Search Console
– Passwort-Schutz: Es gibt Inhalte, die nur per Abonnement oder hinter einer Paywall verfügbar sind. Nutzt man kein Markup, um solche Inhalte zu kennzeichnen, so werden die betreffenden Seiten vom Index ausgeschlossen.

Copyright Hinweis: © Pixabay Simon Steinberger

seo-rocketdevider