Onpage Optimierung: Der NoIndex Code

Noindex CodeDer Code „noindex“ ist dafür da, dass die Robots den Inhalt (Content) nicht indexieren (Crawling) dürfen.

Diesen Code kann man zum Beispiel für eine Sitemap verwenden, die mehr als 100 Backinks enthält, da die Suchmaschine Google zum Beispiel empfiehlt, dass man die Links auf jeder Seite auf unter 100 reduziert.

Auch zu empfehlen ist der noindex Code für einen Inhalt (Content) der doppelt in der Internetpräsenz vorkommt. Dies passiert meist bei allgemeinen Geschäftsbedingungen (AGB’s) oder Impressumklauseln, welche im Internet sehr oft woanders auch vorkommen, jedoch sind diese einer der grossen Fehler in Sachen „Optimierung für Suchmaschinen„.

Man sollte stets darauf achten, wenn man Inhalte verwendet, welche im Internet jedoch schon verwendet werden, diese dann für die Robots auszusperren.

Man sollte den Robots immer einen einzigartigen Inhalt abliefern, denn die Suchmaschinen lieben einzigartigen Inhalt (Unique Content) und hassen doppelten Inhalt (Duplicate Content).

Werden die Robots einen doppelten Inhalt vorfinden, welcher zum Beispiel von einer anderen Internetpräsenz sozusagen per Copy & Paste geklaut wurde, werden die Suchmaschinen diese Seite dementsprechend abwerten und eine gute Platzierung dieser Seite in den Suchergebnissen, wird somit nicht bzw. sehr schwer möglich sein. Dies sollte man dringends vermeiden, indem man in den Robots Tags das Wort „noindex“ einfügt.

 

Beispiel des Noindex Meta Tag Code

<meta name="robots" content="noindex" />

Fügen Sie diesen Noindex Meta Tag Code in den Header Bereich ein. (Zwischen <Header> und </Header>).

Onpage Optimierung: HTML W3C Validation

HTML W3C ValidationDas HTML Validieren der eigenen Internetpräsenz ist für manche Webmaster ein Muss, jedoch hat Google selbst bestätigt, dass ein Validieren nicht zwingend notwendig ist.

Wenn man mit einen W3C Validation Tool über die Suchmaschine Google laufen lässt, sieht man das Google selbst über 36 HTML Code Fehler besitzt.

Das korrigieren der HTML Fehler bereitet vielen Webmastern und Developern viel Kopfschmerzen, da es meist schwierig und zeitaufwändig ist, HTML Codes zu korrigieren.

Oft zeigt W3C viele wichtige Fehler an, jedoch sind diese, wie gesagt, nicht zwingend notwendig zu reparieren.

Es ist jedoch immer zu empfehlen, sicherheitshalber eine W3C Validierung durchzuführen, denn HTML Fehler können den Internetnutzern beim Besuchen, sowie die Roboter (Robots) beim Indexieren (Crawling) der Internetpräsenz viele Hürden und Hindernissse bereiten.

 

Eure Webseite könnt ihr hier auf Fehlern überprüfen: