Onpage Optimierung: Interne Verlinkung

Interne VerlinkungEine interne Verlinkung darf man nicht unterschätzen, denn wenn man bestimmte, ausgewählte und gezielte Keywords an die richtig ausgewählten und themenrelevanten bzw. themenbezogenen Unterseiten verlinkt, kann man somit auch den Unterseiten einen gewissen Link Juice verleihen, was deren Positionierung in den Suchergebnissen deutlich verbessert.

Oft sehe ich im Internet diverse Webseiten und Blogs die sehr qualitätsreiche und interessante Inhalte vorweisen können, die jedoch leider keine interne Verlinkung aufweisen.

Die Robots folgen meist den Links in der Navigation oder der aufgelisteten „Related Post„, jedoch ist es zu empfehlen, wichtige Keywörter im Artikeltext selbst zu verlinken.

 

Wieso ist die Interne Verlinkung so wichtig?

Viele Blogs oder auch Webseiten, die in den Suchmaschinen eine gute Position haben, verwenden sehr intensiv eine gute interne Verlinkung.

Selbst SEO bzw. Linkbuilding oder auch Linkaufbau bräuchte man eigentlich für die Unterseiten nicht betreiben, solange auf der Startseite ein mindestens 300 Wörter Text aufzufinden ist, in dem die gezielten Keywords zu den Unterseiten verlinkt sind.

Man leitet die Google Robots sozusagen auf die Unterseiten weiter, damit diese die Unterseiten crawlen und indexieren können.

Auch wenn es auf den Unterseiten keine neuen Inhalte zu indexieren gibt und diese einen „revisit after 7 days“ in den Meta Tags haben, ist es zu empfehlen, die Google Bots trotzdem stets auf die gezielten Unterseiten weiterzuleiten und damit den Link Juice richtig zu verteilen.

 

Nehmt euch doch mal die SEO Gurus unter die Lupe

Wikipedia, der offizielle Google Blog oder auch der offizielle Matt Cutts Blog beweisen sich als regelrechte Gurus der Suchmaschinenoptimierung (SEO).

Denn in den USA bzw. Google.com ist der Blog von Google oder auch der Blog von Matt Cutts sehr gut in den Suchergebnissen platziert.

Wikipedia ist auch einer der besten in Deutschland, denn egal was man eingibt… irgendwie findet man Wikipedia immer auf den ersten Seiten der Suchergebnisse.

Vergessen wir mal den Google Blog oder den Blog von Matt Cutts… und schauen uns Wikipedia an. Wenn man Wikipedia einmal richtig unter die Lupe nimmt, kann man erkennen, dass die Betreiber SEO Experten sind, intensiv fast jedes Wort mit einem Anchortextlink zu den Unterseiten bzw. anderen Seiten verlinken und dies ist auch meist der Grund, wieso Wikipedia immer so gut platziert ist in den Suchmaschinen.

Man braucht quasi kein Linkbuilding für die Unterseiten, wenn man auf der Startseite zu den Unterseiten intern verlinkt, jedoch sollte man darauf achten, dass interne Links, die mit Anchortext versehen und inmitten eines mindestens 300 Wörter Textes platziert sind sind.

Denn meinen Erfahrungen nach geben diese mehr Link Juice als wenn die Links in der Navigation oder im bekannten „Related Post“ zu finden sind.

 

Gewisse Link Power durch das interne Verlinken erzeugt einen besseren PR

Werden zum Beispiel Web 2.0 Seiten (z.B. Webseiten oder Blogs), die einen High PR haben und Backlinks zu deiner Startseite führen, die ihrerseits nur sehr wenige externe Verlinkungen hat, ist es durchaus möglich das deine Domain, beim nächsten PR Update von Google, eventuell einen höheren PR bekommt.

Es ist aber auch immer davon abhängig, wie viele High PR Webseiten, High PR Blogs oder auch Web 2.0 Seiten zu deiner Domain verlinken und was für eine Qualität diese Backlinks mit sich bringen.

 

Sind es Kommentar Backlinks oder Backlinks in einem Artikeltext?

Dies sind zwei sehr große Unterschiede, auf die Google achtet und diese Backlinks auch dementsprechend von der Qualität bewertet.

Denn Web 2.0 Seiten, die zu viele externe Links haben, zum Beispiel Blogartikel mit über 30 externen Kommentar Links, bringen nicht soviel Qualität mit sich wie im Gegensatz Blogartikel mit sehr wenig externen Links. Blogartikel die einen sehr hohen PR haben, jedoch zu viele externe Links, bringen nicht zwingend einen qualitätsvollen Backlink, da der sogenannte Link Juice an die anderen externen Links „gerecht“ verteilt werden muss.

Wenn man sich Backlinks kauft, sollte man darauf achten das diese Backlinks auch genug Qualität haben, indem diese nicht per ‚Kommentare versenden‚ erzeugt werden, sondern durch Anchortext (Ankertext) Backlinks, die in qualitätsreichen und einzigartigem Inhalt (Unique Content) entstehen.

Ganz gefährlich ist es, wenn man Content klaut und dort einen Backlink platziert, denn die Google Robots sind mittlerweile, von der Technologie so fortgeschritten, dass diese sogar bis zu 40% erkennen, ob der Content kopiert bzw. geklaut wurde. Somit haben die im geklauten Content platzierten Backlinks so gut wie gar keine Qualität und Google zählt diese Backlinks dann quasi gleich 0.

Das gleiche gilt auch mit den Bildern im Content, diese müssen auch einzigartig sein, denn die Google Robots scannen auch die Bilder für die Google Bilder Suche und erkennen hier ebenfalls, welche Bilder kopiert bzw. geklaut wurden. Hier wird es dann schwer bis unmöglich sein, dass diese Bilder in der Bildersuche von Google auf den ersten Seiten platziert werden.

 

Wie man für die interne Verlinkung das richtige Keyword und die URL recherchiert?

Viele Webmaster wissen, wie man Backinks setzt, aber ich schreibe ja dieses Tutorial, um Leuten zu helfen, die sich damit nicht auskennen.

Also zeige ich euch mal, wie ich selbst eine interne Verlinkung durchführe:

  • Als erstes rufe ich Google auf.
  • Ich gebe in Google erstmal „site:seobunny.de“ ein.
  • Dann markiere ich ein wichtiges Keyword, welches geschätzerweise themenrelevant für eine meiner Unterseiten ist.
  • Ich kopiere das Wort bzw. Keyword und füge es in Google nach „site:seobunny.de“ ein und das sieht dann so aus… „site:seobunny.de Keyword„.

 

Interne Verlinkung Beispiel

  • Jetzt zeigt mir Google die themenrelevantesten Artikel meines SEO Blogs (am besten vorher die Browser Cache löschen).
  • Ich klicke auf eines der ersten Ergebnisse, bei dem das Keyword auch im Title zu finden ist.
  • Jetzt kopiere ich den Permalink zu der Unterseite.
  • Jetzt füge ich den Permalink im Formular „Links“ ein.
  • Nicht vergessen einen Title Attribut zu setzen.
  • Bei externen Links sollte man aufpassen ob man einen rel=“nofollow“ Attribut setzen muss.
  • Ebenfalls sollte man bei externen Links stets immer ein target=“_blank“ Attribut setzen, damit sich beim besuchen des externen Links, ein neues Fenster öffnet. Dies ist eine wichtige Maßnahme, um den Traffic nicht zu verlieren.
  • Jetzt nochmal kurz mit der Maus drüber, um zu sehen ob der Link auch richtig ist und ob das Title Attribut wirklich gesetzt wurde. Man sollte stets aufpassen, dass man keine gebrochenen Links (broken links) im Artikel hat, denn das wäre sehr schlecht für die Google Robots, wenn diese auf eine leere Seite weitergeleitet werden. Wird dies jedoch passieren, wertet Google diese Seite eventuell negativ ab und dies kann deine Position in den Suchergebnissen stark beeinflussen.

 

Interne Verlinkung: Wie verlinkt man richtig?

Es ist wichtig das man folgendes bei der internen Verlinkung beachtet:

Man wird mehr Erfolg bei der Platzierung (Ranking) in den Suchergebnissen bekommen, wenn nicht nur normale URL Backlinks generiert wurden, sondern Anchortext Backlinks.

 

So sieht ein ganz normaler HTML Link Code aus:

<a href=“https://www.deine-seite.de/“>https://www.deine-seite.de/</a>

 

Hier ein Beispiel wie ein seo-optimierter Anchortext Backlink aussehen musst:

<a href=“https://www.deine-seite.de/“ Title=“Keyword“>Keyword</a>

 

Wichtig ist hierbei, dass ein Titel Attribut im HTML Link Code vorhanden ist, damit die Roboter der Suchmaschinen (Robots) den Link besser zuordnen können.

Es ist ratsam anstatt einfache Linktitel lieber Suchwörter-bezogene (Related Keywords) Linktitel zu verwenden, denn das Wort „Hier klicken“ oder „Mehr erfahren„, was viele Webmaster anwenden, kann ein Roboter nicht genau zuordnen.

 

Interne Verlinkung ist sehr wichtig

Wie schon bereits erwähnt ist das interne Verlinken sehr wichtig und man sollte dies niemals vergessen beim Artikel schreiben.

Denn dies kann deine Position in den Suchergebnissen der Suchmaschinen stark und positiv beeinflussen. Deshalb sollte man stets eine interne Verlinkung in jeden Artikel des Blogs durchführen, um den Link Juice auch an die anderen Unterseiten zu verteilen.

Bad Neighbourhood

Bad NeighbourhoodJeder kennt sie: die bösen Nachbarn, die eigentlich keiner gerne im Haus hat.

  • Doch was hat das mit Suchmaschinenoptimierung zu tun?
  • Warum fürchten sich viele SEOs so sehr vor der sogenannten Bad Neighbourhood?

Die Suchmaschinenbetreiber, allen voran Google, stellen heutzutage sehr gut und effektiv fest, welche Webseiten im Internet miteinander interagieren, welche eine thematische und welche eine strukturelle Ebene teilen.

Das einfachste Mittel sind wieder einmal die Links: Wenn Seite A auf Seite B verlinkt, Seite B aber wiederum zweifelhaften Content oder ihrerseits zweifelhafte Links aufweist – dann gerät auch Seite A in ein gefährliches Umfeld. Denn in den Augen der Suchmaschine gilt das alte Sprichwort: Mitgehangen, mitgefangen!

Ein Backlink ist nach wie vor im Sinne einer Empfehlung zu verstehen – und wer will schon zwielichte Seiten verlinken und sich somit selbst in Verruf bringen.

Darum gilt beim SEO stets die Devise: Vorsicht, wohin man verlinkt – Vorsicht, woher Links kommen. Denn hat man sich die Bad Neighbourhood einmal ins Haus geholt, ist es oftmals gar nicht so einfach sie wieder loszuwerden. Zwar kann man einfach den Link / die Links entsprechend entfernen, doch wie es um den Trust und das Ansehen des eigenen Webprojektes bei Google bestellt ist, das vermag nur der Suchmaschinengigant aus Mountain View selbst zu beantworten.

Offpage Optimierung: Social Bookmarks und Bookmarking

Social BookmarksSocial Bookmarks bedeutet grob auf Deutsch übersetzt „Soziale Lesezeichen„, die eigentlich für Internetnutzer sind, die im Internet etwas Interessantes abspeichern wollen, um darauf später wieder zurückzugreifen.

Social Bookmarks sind jedoch auch für die Suchmaschinenoptimierung (SEO) ein wichtiger Bestandteil der Offpage Optimierung.

Für SEOs kann dies ein sehr nützlicher Dienst sein, um eine Internetpräsenz bekannter zu machen und zusätzlich einen Backlink zu erstellen, um die eigene Linkpopularität zu steigern.

Besonders gut sind Social Bookmarks, wenn man neuen Inhalt (Content) erstellt durch neue Unterseiten oder einer neuen Internetpräsenz, die komplett auf einer frisch registrierten Domain veröffentlicht wurde.

Wenn neuer Inhalt veröffentlicht wurde ist es ein wenig kompliziert die Roboter der Suchmaschinen (Robots) auf den neuen Inhalt (Content) zu locken, um dies indexieren zu lassen.

 

Die einfache Bookmark Variante: Add URL bei Google & Co.

Es gibt einmal die sehr einfache Variante und zwar die „URL add“ Methode bei den Major Suchmaschinen wie Google, Yahoo oder Bing.

Beispielsweise kann man bei Google einfach die URL einfügen und abschicken. Irgendwann werden dann die Roboter von Google (Google Bots) zu deinem neuen Inhalt (Content) geschickt, um dies zu indexieren.

Der Vorteil ist, dass es simpel und schnell verläuft, jedoch wird der Nachteil sein, dass es in manchen Situationen bis zu Sechs Monaten dauern kann.

 

Google informiert:

„Bitte teilen Sie uns mit, falls Ihre Webseite nicht in unseren Suchergebnissen aufgeführt wird. Geben Sie nachstehend die Webadresse Ihrer Webseite ein, sodass wir es dann so schnell wie möglich zu unserem Index hinzufügen können.“

Jedoch ist diese Methode leider nicht zu empfehlen, da es einen viel schnelleren Weg gibt, indexiert zu werden!

 

Social Bookmarks generieren und abspeichern

Und dann gibt es die etwas aufwändigere Methode: das Abspeichern deiner URL in Social Bookmarks Diensten, wo dann von dort aus die Roboter zu deinem neuen Inhalt (Content) gelockt werden, um dies dann zu indexieren.

Die Robots warten förmlich auf neue Links, denen sie dann folgen und die sie indexieren können.

Zwar ist diese Methode etwas zeitaufwändig, da man beim Einreichen der URLs eine Art Formular ausfüllen muss, wo man eine Überschrift, Beschreibung des Inhaltes (Content) und ggf. Tags hinzufügen muss. Wird man eine sehr passende Beschreibung hinzufügen und am besten noch eine Beschreibung mit über 300 Wörtern, dann wird der Link (Backlink), welches zu deinen neuen Inhalt führt, eine höhere Qualität haben, welche sich auch positiv auf die Platzierung (Ranking) in den SERPs auswirken lässt.

Sicherheitshalber sollte man mehr als nur 1 Bookmark abspeichern. Am besten man speichert in verschiedenen Social Bookmarks Diensten die URL ab. Es wird aber geraten, nicht zu viele auf einmal bzw. in einen kurzem Zeitraum abzuspeichern, da die Suchmaschinen dann davon ausgehen, dass es mit automatischen Bookmark Tools abgespeichert wurde oder es als Spamming sieht. Und dies kann sich natürlich negativ für die Platzierung in den SERPs oder eine zuordnung in die Google Sandbox auswirken.

Das Abspeichern von Social Bookmarks ist sehr zu empfehlen und ist ein wichtiger Bestandteil der Offpage Optimierung.

Onpage Optimierung: Bilder SEO optimieren

Bilder SEO optimierenSEO optimierte Bilder werden in den Suchergebnissen der Bildersuche von zum Beispiel Google besser platziert sein.

Ein SEO optimiertes Bild kann einen Alt Tag vorweisen, welches mit einem Suchwort (Keyword) gekennzeichnet wurde.

Die Roboter (Robots) sind zwar von der Technologie her sehr fortgeschritten, jedoch ist es für die Robots schwer, ein Bild zu erkennen und einzuschätzen, was es für ein Bild ist.

Wenn man keine Alt Tags in den Bilder Codes verwendet, werden die Roboter (Robots) das Bild nicht zuordnen können.

 

Bilder richtig SEO optimieren

Auch bei der Indexierung von Bildern achtet Google auf die Einzigartigkeit, dehalb sollte man alle seine Bilder SEO optimieren.

Das Bild bzw. die Bilder, die man im Inhalt (Content) verwendet, dürfen nicht von irgendwo anders „geklaut“ sein und sollte möglichst einzigartig sein. Google wird keine doppelten Bilder in den Suchergebnissen (SERPs) der Bildersuche platzieren. Wird man jedoch die gleichen Bilder verwenden und diese sollen in den Bilderergebnissen von Google möglichst weit vorne in den Ergebnisseiten vorkommen, sollte man jedoch zumindest das Format des Bildes ändern und nicht auch noch das gleiche Format nutzen, welches schon ein anderer verwendet.

 

Mit dem Bild richtig platziert werden in den Suchmaschinen

Eine gute Platzierung (Ranking) in der Google Bildersuche bekommt man nur, wenn das Bild auch in einem themenbezogenen Inhalt (Content) platziert.

Hier wird empfohlen, dass das SEO optimierte Bild möglichst neben dem gezielten Suchwort (Keyword) und direkt unter einer H1, H2 oder H3 Überschrift platziert wird. In der H1, H2 oder H3 Überschrift sollte dennoch das Suchwort (Keyword) zu finden sein. Natürlich wird hierzu auch geraten, dass der Inhalt (Content) 100% relevant zum Suchwort (Keyword) des Bildes übereinstimmt, welches in den Alt Attributen der Bilder Link Codes festgesetzt wurden.

Die Bildersuche von Google sollte man nicht unterschätzen.

Viele Internetnutzer greifen sehr oft auf die Bildersuche zu und wenn man den Suchenden mit interessanten Bildern anspricht, kann man somit auch eine enorme Anzahl von Traffic gewinnen. Daher ist es sehr wichtig, dass die gesamten Bilder mit einem Alt Attribut gekennzeichnet wurden und somit für die Suchmaschinen optimiert werden.

Black Hat SEO

Black Hat SEODie Welt ist alles andere als nur Schwarz oder Weiß – in Sachen Suchmaschinenoptimierung aber ticken die Uhren noch ganz anders.

Denn die Unterscheidung von Schwarz / Black Hat und Weiß / White Hat ist eine elementare, die die Welt des SEO und Online-Marketing in Gut und Böse aufteilt.

Die sogenannten guten SEOs sind die, die sich streng an die von Google aufgestellten Richtlinien für Webmaster halten – sowohl was den Seitenaufbau, als auch das Linkbuilding angeht. Dass diese Vorgaben jedoch eher schwammig formuliert und selten ganz konkret im Sinne von Verboten sind, machen sich wiederum die sogenannten Black Hat SEOs zunutze.

Zeitweise hat(te) sich eine ganze Szene der Black Hatter, Spammer und etabliert, die gezielt versuchen, den Suchmaschinenbetreibern immer einen Schritt voraus zu sein und die SERPs gezielt zu ihren Gunsten zu manipulieren.

Mit automatisierten Tools, mit unlauteren Techniken, mit Tricks und Kniffs – und das alles in kürzester Zeit.

Lange Zeit ganz oben auf der Black-Hat-Liste standen zum Beispiel versteckte Texte nur für die Suchmaschinen-Robots gedacht und voll von Keywords, Doorway Pages und Cloaking, aber auch Linkkauf und vollautomatische Werkzeuge, die einen höchst unnatürlichen Linkaufbau ermöglichen.

All dies steht ganz oben auf der „Abschussliste“ von Google: Gerade die zuletzt eingespielten großen Updates „Penguin“ und „Panda“ haben ganz konkret das Ziel, gegen Webspam vorzugehen und Black Hat SEO von White Hat SEO zu unterscheiden.

Wer unlautere SEO-Methoden betreibt lebt seit dem deutlich gefährlicher – zumindest können seine Webseiten jederzeit empfindliche Rankingeinbußen erleiden oder sogar gänzlich aus dem Index verbannt werden.

Gerade bei umkämpften Keywords und wettbewerbsträchtigen Branchen fahren SEOs dennoch nach wie vor jedoch harte Geschütze auf, um sich den vielleicht einen entscheidenden Vorteil zu sichern, der die Top Ten oder gar Platz in den SERPS bedeuten kann. Nicht selten befindet man sich da auch als seriöser SEO schnell in einer Grauzone: Doch es sollte stets im Blick behalten werden: Wer langfristig im Web Erfolg haben will, der kann es sich kaum mehr leisten, auf riskante Webspam-Techniken zu vertrauen.

Lange Zeit ging auch die These um, dass SEO per se ein unerlaubter, ja unerwünschter Eingriff sei, den Google & Co ungern sähen. Dies wiederum stimmt selbstverständlich nicht, denn gezielte Suchmaschinenoptimierung von Webseiten und Online-Shops ist auch dazu da, den Suchmaschinen und ihren Bots die Arbeit zu erleichtern und vor allem Usern so die relevantesten Ergebnisse ihrer Suche zu liefern.

Onpage Optimierung: Meta Keywords Tag optimieren

Meta Keywords optimierenDie Keywords in den Meta Tags des Header Bereiches dienen dazu, den Robots die Suchwörter (Keywords) des Inhaltes (Content) abzuliefern.

Geht es im Inhalt hauptsächlich um Hundefutter, dann sollte man jegliche Variationen des Suchwortes (Keyword) einbeziehen. Es ist laut Aussage von SEO Experten zu empfehlen, eine Anzahl von Suchwörtern (Keywords) von mindestens 4 bis allerhöchstens 10 im Keyword Meta Tag zu verwenden, da die Robots die weiteren Suchwörter (Keywords) ignorieren, jedoch sind dies nur Spekulationen.

Die in den Meta Keywords eingefügten Suchwörter (Keywords) gehören in den Header Bereich und dienen dazu, das Thema des Inhaltes der Internetpräsenz abzuliefern.

Wichtig ist, das die Meta Keywords zu 100% mit dem Inhalt (Content) der Internetpräsenz übereinstimmen und relevant sind. Es nützt also nichts wenn die Internetpräsenz sich um Fischfutter dreht, man jedoch als Meta Keyword Tag das Wort Hundefutter angibt.

Meta Keywords sind bei der Suchmaschinenoptimierung (SEO) nicht zwingend erforderlich und bräuchte man eigentlich nicht in den Header Bereich einzufügen. Werden die Robots keinen Keyword Tag finden, werden diese sich selbst die Keywords ermitteln. Jedoch ist es zu empfehlen den Suchmaschinen das Indexieren Crawling zu vereinfachen, indem man den Richtlinien folgt und den Suchmaschinen Robots Suchwörter (Keywords) angibt. Dies erleichtert den Robots die Indexierung und es könnte durchaus sein, dass die Robots sich nach den vorgegebenen Suchwörtern (Keywords) in den Keyword Tags richten.

 

Der Meta Keyword Code

<meta name="keywords" content="keyword 1, keyword 2, keyword 3, ..."/>

Passen Sie den oben dargestellten Meta Keyword Tag Code an und fügen Sie es im Header-Bereich ein. (Zwischen <Header> und </Header>).

ALT-Tag

ALT-TagOft stiefmütterlich behandelt, doch nicht zu unterschätzen für den Erfolg einer SEO OnPage-Optimierung von Webseiten: das Alt-Tag für Bilder.

Fotos und Bildmaterial gehören zu einer Webseite dazu wie die Butter auf das Brot – sie machen eine Seite anschaulich und interessant für den User und gelten als Blickfang. Auch die crawlenden Robots der Suchmaschinen können inzwischen Bilder auswerten, doch mit der thematischen Zuordnung tun sie sich immer noch schwer.

Nicht nur, wer in der Google Bildersuche erscheinen möchte, ist also am Zug, den Google Bots Zusatzinformationen zum Bild anzubieten: die sogenannten Alt-Texte – kleine HTML-Attribute, die eine alternative Beschreibung für Fotos, Gifs oder Infografiken darlegen.

Ein wohlüberlegter, auf das Bild, aber auch den ganzen Artikel bzw. die ganze Webseite zutreffender Alt-Text als sinnvolle Ergänzung der Meta-Tags garantiert zwar keine Top-Rankings, doch als wichtiger Bestandteil einer seo-optimierten Internetseite sollte er in keiner strategischen Suchmaschinenoptimierung fehlen. Gerade Online-Shops unterschätzen immer wieder das Potenzial korrekt benannter Produkt- oder Kategoriebilder.

Auch ein gezielter Fokus auf die spezielle Bilder-Suche bringt seine Vorteile, wenn das Bild / mehrere Bilder hier ganz vorne auftauchen: Zumindest kurbelt es mächtig den Traffic an.

Onpage Optimierung: Meta Robots Tag optimieren

Meta Robots optimierenMeta Robots ist ein Meta Tag, mit welchem man die Robots gewissermaßen steuern kann.

Mit bestimmten Vorgaben kann man den Robots erlauben, ob diese die jeweilige Seite indexieren dürfen oder nicht.

Es ist möglich, dass Suchmaschinen Robots die Seite indexieren dürfen, jedoch den Backlinks, die im Inhalt (Content) vorkommen, nicht folgen dürfen und das ebenfalls umgekehrt.

 

Eines der Standards der Meta Robots Tags ist folgener Code:

<meta name="robots" content="index,follow" />

 

oder auch

<meta name="robots" content="all" />

 

Dazu gibt es spezifische Zusatzcodes, die nicht zwingend erforderlich, jedoch zu empfehlen sind:

Es gibt einen Yahoo freundlichen Zusatzcode „noydir“ welches den Yahoo Robots erlaubt den Inhalt (Content) der Internetpräsenz zu indexieren (Crawling).

<meta name="robots" content="noydir" />

 

Es gibt einen Google freundlichen Zusatzcode „noodp“ welches den Google Robots erlaubt den Inhalt (Content) der Internetpräsenz zu indexieren (Crawling).

<meta name="robots" content="noodp" />

 

Der Robot der Suchmaschinen soll die Webseite nicht in den Index speichern. Die Webseite soll also nicht in den Ergebnissen der Suchmaschinen (SERPs) aufzufinden sein.

  • Mehr hierzu findet ihr unter: Der NoIndex Code.
<meta name="robots" content="noindex" />

 

Der Robot der Suchmaschinen wird die Webseite aufnehmen, aber soll den Backlinks auf der Webseite nicht folgen.

  • Mehr hierzu findet ihr unter: Der NoFollow Attribut.
<meta name="robots" content="nofollow" />

 

Welcher Meta Robots Tag ist zu empfehlen?

Oft wird das komplett Paket der Meta Robots Tags eingefügt:

<meta name="robots" content="index,follow,noodp,noydir" />

Linkbuilding

LinkbuildingEr gilt als Königsdisziplin der Suchmaschinenoptimierung: der Linkaufbau.

Jeder, der eine Webseite oder einen Online-Shop mehr Sichtbarkeit in den Suchergebnissen verleihen und das Ranking verbessern will, kommt am sogenannten Linkbuilding nicht vorbei. Denn Backlinks sind nach wie vor die Währung Nummer Eins und wohl immer noch der erheblichste Faktor für die Positionierung in den SERPs, auch wenn inzwischen zahlreiche andere Einflussfelder an Bedeutung gewonnen haben.

 

Linkaufbau ist jedoch nicht gleich Linkaufbau:

  • Natürlich lassen sich relativ leicht Links aus Branchenbüchern, Webkatalogen, Bookmarks oder Artikelverzeichnissen generieren – doch bringen diese wirklich etwas aus Sicht von Google?
  • Oder sind Presseportale, Blogs, die sozialen Netzwerke und erst recht hochgradig themenrelevante und qualitativ hochwertige Authority-Webseiten die weitaus effektiveren Linkgeber?

Diese Frage muss jeder / jede SEO für sich selbst beantworten. Doch es gilt: Je leichter und schneller man im Rahmen der Suchmaschinenoptimierung einen Link selbst setzen kann, desto weniger wird er in der Regel wert sein.

 

Gutes Linkbuilding will durchdacht und geplant sein

  • Welche und vor allem wie viele Links baut der erfahrene SEO wann auf?
  • Wie lauten die Link-Texte (Anchor-Texte)?
  • Wie ist das Verhältnis von Do-Follow zu No-Follow-Links?

Zu schneller und zu minderwertiger Linkaufbau erscheint Google & Co unnatürlich und wird – wenn es gut läuft – ignoriert oder aber empfindlich bestraft, was sich im plötzlichen Abfall des Rankings oder gar einer Verbannung aus dem Index bemerkbar macht.

Eines ist ganz klar: Das Linkbuilding gehört zum Kerngeschäft der Suchmaschinenoptimierung und ist wohl eine der sensibelsten Angelegenheiten, die man am besten Profis überlässt, die ihr Handwerk verstehen.

Offpage Optimierung: Linkbuilding bzw. Linkaufbau

Linkbuilding bzw. LinkaufbauDas Linkbuilding bzw. der Linkaufbau ist ebenfalls ein wichtiger Vorgang für die Suchmaschinenoptimierung (SEO).

Linkbuilding bzw. Linkaufbau bedeutet grob erklärt, dass man eingehende Links (Backlinks) aufbaut und die verschiedenen Plattformen, wo sich der eingehende Link (Backlink) befindet, miteinander per Verlinkung verbindet bzw. vernetzt.

 

Suchmaschinenoptimierung (SEO) + Linkbuilding bzw. Linkaufbau mit System

Durchaus muss man beim Erstellen von eingehenden Links (Backlinks) beachten, dass die verschiedenen Empfehlungslinks, die man durch Backlinks generiert, von verschiedenen Class IPs kommen.

Das heißt, dass jede IP, welche die Suchmaschinen von den Servern ermitteln können, eine andere sein muss. Es gibt hierbei verschiedene Class A, B und C IPs die unterschiedlich auch von den Suchmaschinen wie Google bewertet werden. In den USA liegt zum Beispiel jeder Blog auf einen anderen Server und weist somit verschiedene Class IPs auf. In Deutschland gibt zwar viele Blog Hoster, jedoch liegen die meisten Blogs meist auf einem Strato oder 1und1 Server. Deswegen sollte man sich bemühen, nicht nur Empfehlungslinks von deutschen IP Adressen zu erstellen, sondern auch von internationalen IP Adressen.

Natürlich ist es auch sehr stark abhängig von den eingehenden und ausgehenden Links (Inbound und Outbound Links), die sich auf den meisten Web 2.0 Plattformen befinden, und wo sich ein eingehender Empfehlungslink (Backlink) zu eurer Internetpräsenz befindet.

Nicht zu vergessen spielt die Repuation, das Alter der Domain, die Anzahl der eingehenden Links (Inbound Links), der Traffic, die Onpage Optimierung und Autorität sowie die Linkpower der Plattform ebenfalls eine sehr wichtige Rolle. Umso weniger externe Links sich auf dieser Plattform befinden, desto stärker wird der sogenannte Link Juice, welcher zu eurer Internetpräsenz durch den Empfehlungslink (Backlink) fliesst.

Durch das Verlinken und Vernetzen der verschiedenen Plattformen bildet sich ebenfalls Linkpower, welche sich sehr positiv auf die Platzierung (Ranking) in den Suchergebnissen der Suchmaschinen auswirkt.

 

Zum Linkbuilding bzw. Linkaufbau ist es aber falsch:

Auf Webseiten Linkfarmen zu erstellen, was ebenfalls gegen die Richtlinien von vielen Suchmaschinen wie Google verstößt.

Linkfarmen sind meist Webseiten, deren Inhalt nur aus ausgehenden Links (Externe Links) besteht und der nicht für Besucher, sondern für Suchmaschinen generiert wurden. Die Webmaster solcher Linkfarmen verwenden diese als sogenannte Backlink Inseln, welche eine Empfehlung für die Suchmaschinen darstellen sollen. Da es immer mehr solcher Linkfarmen gibt, geht Google natürlich dagegen vor und wertet sowieso Webseiten ab, die mehr ausgehende Links (Externe Links) als Text enthalten. Ganz klar sehen Suchmaschinen, wie Google, solche Methoden als Black Hat SEO Methoden und Manipulation der eigenen Platzierung (Ranking) in den Suchergebnissen (SERPs), deshalb ist das erstellen von Linkfarmen nicht zu empfehlen.

Es gibt sehr viele andere legale und White Hat SEO Möglichkeiten, um an Empfehlungen für die eigene Webseite zu bekommen.

 

Hierzu gibt es ein paar Interessante Beiträge wie man zum Beispiel durch Artikel an sogar qualitätsvolle eingehende Empfehlungslinks (Backlinks) kommt:

 

Nicht zu vergessen, sollte man folgende Methoden einsetzen, um den Backlink von den Suchmaschinen noch schneller gefunden werden und indexieren zu lassen:

 

Erfolgreiches Linkbuilding bzw. Linkaufbau

Es gibt verschiedene Verlinkungstechniken bzw. Verlinkungsstrukturen, die eine gewisse Linkpower erzeugen können, um die Platzierung (Ranking) der eigenen Webpräsenz in den Suchergebnissen der Suchmaschinen (SERPs) zu verbessern.

Natürlich hat jeder, der sich ausreichend mit Suchmaschinenoptimierung (SEO) befasst, eine andere Verlinkungstechnik sowie Strategien, welche kaum verraten werden.

 

Hier möchte ich euch ein paar von mir selbst erstellte Verlinkungstechniken vorstellen

… die ich selbst beim Linkbuilding bzw. Linkaufbau erfolgreich für meine eigenen Webprojekte eingesetzt und sehr davon profitiert habe.

Zuerst möchte ich erwähnen, dass ich zu meiner Anfangszeit in der Suchmaschinenoptimierung (SEO) ganz einfache Verlinkungsstrukturen aufgebaut habe, welches sich kaum positiv auf die Platzierung (Ranking) in den Suchergebnissen der Suchmaschinen (SERPs) auswirkten.

 

Hier kleine Beispiele von einer Standard Verlinkungsstruktur

Linkbuilding Standard Verlinkungsstruktur: In der oberen Illustration kann man erkennen, dass die erstellten Empfehlungslinks (Backlinks), welche sich auf verschiedenen Plattformen befinden, nicht miteinander vernetzt sind.

Natürlich zählt die Suchmaschine Google die generierten Links als Backlinks und Empfehlungen. Jedoch bildet sich hier keine Linkpower im Sinne starker Suchmaschinenoptimierung.

 

  • Linkbuilding bzw. Linkaufbau Linkpropeller:

    • In der oberen Illustration seht ihr eine Linbuilding / Linkaufbau Verlinkungsstruktur, welche die amerikanischen Suchmaschinenoptimierer „Propeller Linkbuilding Strategy“ nennen. Eine schnelle Methode um Linkbuilding bzw. Linkaufbau zu führen. Bei richtiger Anwendung, Verlinkungsstruktur und dem Pushen der Indexierung der eingehenden Links (Backlinks) auf die eigene Internetpräsenz, welche hohe Qualitäten aufweisen können, kann diese Verlinkungsstruktur sehr stark und effektiv für die Suchmaschinenoptimierung sein.

 

  • Linkbuilding bzw. Linkaufbau Linkwheel:

    • Die oben gezeigte Illustration ist eine Black Hat SEO Verlinkungsmethode die unter den Namen „Linkwheel“ sehr bekannt ist, welches aber nur mit Vorsicht in der Suchmaschinenoptimierung zu erstellen ist, denn die Robots finden derartige Verlinkungsstrukturen in der heutigen Zeit und Technologie schneller heraus, als man denkt. Als Konsequenz muss man mit einer gewissen Abstrafung, auch Google Penalty genannt, rechnen, was zu einer De-Indexierung (Löschung der eigenen URL aus den Suchergebnissen) führt. Bei sehr extremen Fällen passieren auch von Google manuelle Überprüfungen und manuelle Schaltungen. Wenn man Glück hat, werden die Suchmaschinen einen nur verwarnen, indem sie die eigene Platzierung (Ranking) in den Suchergebnissen verschlechtern oder den vorhandenen höheren PageRank (PR) niedriger stellen ggf. auf PageRank 0 setzen.

 

  • Linkbuilding bzw. Linkaufbau Backlink Pyramide:

    • Dies ist einer der beliebtesten Linkbuilding bzw. Linkaufbau Verlinkungsstrukturen, die bei der Suchmaschinenoptimierung (SEO) sehr häufig verwendet wird. Hier wird ebenfalls für Linkpower gesorgt und bei einer richtigen Generierung von solchen Link Pyramiden bzw. „Backlink Pyramide“ kann von den 1. Tier und evtl. auch von den 2. Tier Plattformen enormer Link Juice per eingehendem Link (Backlink) zu der eigenen Internetpräsenz fließen. Diese Methode kann ebenfalls die Internetpräsenz in den Suchergebnissen der Suchmaschinen (SERPs) sozusagen „hochschießen“.
    • Natürlich gibt es noch weitere Verlinkungsstrukturen, die eine gewisse Linkpower erzeugen können. Viele Webmaster, die sich mit Suchmaschinenoptimierung (SEO) befassen, haben meist ihre eigenen Verlinkungsstrukturen, in die sie ihr Vertrauen setzen. Wenn man in der Suchmaschine Google richtig sucht, findet man durchaus viele weitere Illustrationen von Verlinkungsstrukturen, die man beim Linkbuilding bzw. Linkaufbau einsetzen kann.