Onpage Optimierung: Der NoIndex Code

Noindex CodeDer Code „noindex“ ist dafür da, dass die Robots den Inhalt (Content) nicht indexieren (Crawling) dürfen.

Diesen Code kann man zum Beispiel für eine Sitemap verwenden, die mehr als 100 Backinks enthält, da die Suchmaschine Google zum Beispiel empfiehlt, dass man die Links auf jeder Seite auf unter 100 reduziert.

Auch zu empfehlen ist der noindex Code für einen Inhalt (Content) der doppelt in der Internetpräsenz vorkommt. Dies passiert meist bei allgemeinen Geschäftsbedingungen (AGB’s) oder Impressumklauseln, welche im Internet sehr oft woanders auch vorkommen, jedoch sind diese einer der grossen Fehler in Sachen „Optimierung für Suchmaschinen„.

Man sollte stets darauf achten, wenn man Inhalte verwendet, welche im Internet jedoch schon verwendet werden, diese dann für die Robots auszusperren.

Man sollte den Robots immer einen einzigartigen Inhalt abliefern, denn die Suchmaschinen lieben einzigartigen Inhalt (Unique Content) und hassen doppelten Inhalt (Duplicate Content).

Werden die Robots einen doppelten Inhalt vorfinden, welcher zum Beispiel von einer anderen Internetpräsenz sozusagen per Copy & Paste geklaut wurde, werden die Suchmaschinen diese Seite dementsprechend abwerten und eine gute Platzierung dieser Seite in den Suchergebnissen, wird somit nicht bzw. sehr schwer möglich sein. Dies sollte man dringends vermeiden, indem man in den Robots Tags das Wort „noindex“ einfügt.

 

Beispiel des Noindex Meta Tag Code

<meta name="robots" content="noindex" />

Fügen Sie diesen Noindex Meta Tag Code in den Header Bereich ein. (Zwischen <Header> und </Header>).