Die Google Sandbox

Google SandboxGoogle wertet solche Webseiten automatisch ab und setzen Spammer (Leute die auf unfreundliche Art und in übertriebener Weise Backlinks generieren) in die Google Sandbox.

Eine Sandbox von Google ist eine Art Quarantäne, in die Webseiten gelangen, die spammige Methoden angewendet haben und ein unnatürliches Erstellen von Backlinks absolvierten.

Die gegebene Maßnahme wird eine vorübergehende De-Indexierung in den Suchergebnissen sein, was man auch unter Google Penalty versteht. Wenn man einmal in die Google Sandbox gelangt ist, ist es meist schwer nach einer kurzen Zeit dort wieder rauszukommen.

Google vergibt aber gerne und gibt jeden Webseitenbetreiber die Chance, wieder in den Suchergebnissen gelistet zu werden.

Wenn man alle Google Richtlinen befolgt, kommt man spätestens nach 6 Monaten wieder aus der Google Sandbox heraus.

 

Google Sandbox Tipps:

Hat man, wegen zu schnellem und zu vielem Erstellen von eingehenden Links (Backlinks) auf die eigene Internetpräsenz, sich ein Penalty von Google eingefangen, so gibt es eine Methode, wie man schnell wieder aus der Google Sandbox herauskommt.

Es wird hierfür dringend empfohlen, dass man nicht ruckartig mit den Erstellen von eingehenden Links (Backlinks) aufhört, sondern das Tempo erhöht. Natürlich landete ich selbst auch öfters mal in der Google Sandbox, jedoch habe ich stets weiter eingehende Links (Backlinks) generiert, die Hoffnung nicht aufgegeben und schon nach einigen Wochen (meist 2-4 Wochen) war die gezielte URL wieder in den SERPs zu finden.

Würde man, nachdem einem aufgefallen ist, dass man in der Google Sandbox liegt, ruckartig aufhören, so geht die Suchmaschine Google umso mehr davon aus, dass Black Hat SEO mittels vollautomatischer SEO Tools betrieben wurde. Man sollte so natürlich wirken wie möglich und deshalb sollte man niemals ruckartig aufhören!

Ist eine Webseite bzw. Domain sehr populär, wird diese natürlich von vielen anderen Webseiten empfohlen, auch in dieser Hinsicht hat man keine Kontrolle wenn in einem kurzem Zeitraum unzählige eingehende Links (Backlinks) bekommt.

Wenn man Glück hat, rutscht man aufgrund zu vieler eingehender Links (Backlinks) in den Platzierungen (Ranking) der Suchergebnisse nach hinten, aber nach ein paar Wochen wird man sich wundern, wie positiv sich die Platzierung auf einmal verbessert hat.

 

Ein guter Backlink Mix ist für Google Gang und Gäbe!

Wichtig ist, dass man Keyword Backlinks bekommt, diese dürfen aber nicht nur ein Keyword besitzen, denn dies wirkt ebenfalls unnatürlich für die Suchmaschine Google und deshalb sollte man nicht nur 1 Wort Keywords, sondern auch 2 Wort und URL Backlinks erstellen.

Auch Image-Links mit einem Keyword im Alt Attribut sind eine sehr gute Empfehlung für Google und deshalb sollte man nicht nur Ankertext Links (Anchortext Backlinks) erstellen, sondern auch verlinkte Bilder, die zur eigenen Internetpräsenz führen.

Wie bereits erwähnt ist das Erstellen der Backlinks eines der Hauptelemente bei der Offpage Optimierung.

 

Nochmals kurz zum Verständnis:

Nicht die Masse an Backlinks bringt einen höher in den Suchergebnissen der Suchmaschinen (SERPs), sondern die Qualität.

Umso schneller und oberflächlicher die eingehende Link (Backlink) Erstellung ist, desto mehr wird sie ebenfalls an Qualität verlieren.

Wichtigste Regel bei der Backlink Erstellung ist die Natürlichkeit gegenüber der Major Suchmaschine Google – vielleicht auch allgemein das wichtigste Kriterium der Suchmaschinenoptimierung (SEO) überhaupt.

Onpage Optimierung: Die Robots.txt Datei

Robots txt DateiEine Robots.txt Datei ist im Grunde nicht erforderlich, ist jedoch zu empfehlen, da man mittels einer Robots.txt Datei die Suchmaschinen gewissermaßen steuern kann, indem man diesen vorgibt, welche Unterseiten die Suchmaschinen lesen und indexieren (Crawling) dürfen.

Zum Beispiel Tags oder Category kann man Suchmaschinen durch die Robots.txt Vorgabe sperren. Oder unter anderem Login, Impressum, AGB’s etc. sollte man immer als Disallow sperren.

Man könnte sozusagen von andern Webseiten die Robots Text Datei kopieren, jedoch sollte man die Robots.txt Datei immer für die eigene Internetpräsenz anpassen.

Hier seht ihr ein Beispiel, wie eine empfohlende Standard Robots.txt Datei aussieht…

In dieser Standard Robots.txt Datei werden vertrauenswürdige Suchmaschinen durch Allow erlaubt den Inhalt (Content) zu lesen und indexieren und böse Suchmaschinen werden durch Disallow nicht erlaubt den Inhalt (Content) zu lesen und indexieren.

Am besten ihr schaut euch mal die Robots-Datei von Seobunny an: seobunny.de/robots.txt

 

User-agent: Googlebot-Image
Allow: /

User-agent: Mediapartners-Google
Allow: /

User-agent: duggmirror
Disallow: /

User-agent: grub-client
Disallow: /

User-agent: grub
Disallow: /

User-agent: looksmart
Disallow: /

User-agent: WebZip
Disallow: /

User-agent: larbin
Disallow: /

User-agent: b2w/0.1
Disallow: /

User-agent: psbot
Disallow: /

User-agent: Python-urllib
Disallow: /

User-agent: NetMechanic
Disallow: /

User-agent: URL_Spider_Pro
Disallow: /

User-agent: CherryPicker
Disallow: /

User-agent: EmailCollector
Disallow: /

User-agent: EmailSiphon
Disallow: /

User-agent: WebBandit
Disallow: /

User-agent: EmailWolf
Disallow: /

User-agent: ExtractorPro
Disallow: /

User-agent: CopyRightCheck
Disallow: /

User-agent: Crescent
Disallow: /

User-agent: SiteSnagger
Disallow: /

User-agent: ProWebWalker
Disallow: /

User-agent: CheeseBot
Disallow: /

User-agent: LNSpiderguy
Disallow: /

User-agent: ia_archiver
Disallow: /

User-agent: ia_archiver/1.6
Disallow: /

User-agent: Teleport
Disallow: /

User-agent: TeleportPro
Disallow: /

User-agent: MIIxpc
Disallow: /

User-agent: Telesoft
Disallow: /

User-agent: Website Quester
Disallow: /

User-agent: moget/2.1
Disallow: /

User-agent: WebZip/4.0
Disallow: /

User-agent: WebStripper
Disallow: /

User-agent: WebSauger
Disallow: /

User-agent: WebCopier
Disallow: /

User-agent: NetAnts
Disallow: /

User-agent: Mister PiX
Disallow: /

User-agent: WebAuto
Disallow: /

User-agent: TheNomad
Disallow: /

User-agent: WWW-Collector-E
Disallow: /

User-agent: RMA
Disallow: /

User-agent: libWeb/clsHTTP
Disallow: /

User-agent: asterias
Disallow: /

User-agent: httplib
Disallow: /

User-agent: turingos
Disallow: /

User-agent: spanner
Disallow: /

User-agent: InfoNaviRobot
Disallow: /

User-agent: Harvest/1.5
Disallow: /

User-agent: Bullseye/1.0
Disallow: /

User-agent: Mozilla/4.0 (compatible; BullsEye; Windows 95)
Disallow: /

User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
Disallow: /

User-agent: CherryPickerSE/1.0
Disallow: /

User-agent: CherryPickerElite/1.0
Disallow: /

User-agent: WebBandit/3.50
Disallow: /

User-agent: NICErsPRO
Disallow: /

User-agent: Microsoft URL Control – 5.01.4511
Disallow: /

User-agent: DittoSpyder
Disallow: /

User-agent: Foobot
Disallow: /

User-agent: WebmasterWorldForumBot
Disallow: /

User-agent: SpankBot
Disallow: /

User-agent: BotALot
Disallow: /

User-agent: lwp-trivial/1.34
Disallow: /

User-agent: lwp-trivial
Disallow: /

User-agent: BunnySlippers
Disallow: /

User-agent: Microsoft URL Control – 6.00.8169
Disallow: /

User-agent: URLy Warning
Disallow: /

User-agent: Wget/1.6
Disallow: /

User-agent: Wget/1.5.3
Disallow: /

User-agent: Wget
Disallow: /

User-agent: LinkWalker
Disallow: /

User-agent: cosmos
Disallow: /

User-agent: moget
Disallow: /

User-agent: hloader
Disallow: /

User-agent: humanlinks
Disallow: /

User-agent: LinkextractorPro
Disallow: /

User-agent: Offline Explorer
Disallow: /

User-agent: Mata Hari
Disallow: /
User-agent: grub-client
Disallow: /

User-agent: grub
Disallow: /

User-agent: looksmart
Disallow: /

User-agent: WebZip
Disallow: /

User-agent: larbin
Disallow: /

User-agent: b2w/0.1
Disallow: /

User-agent: psbot
Disallow: /

User-agent: Python-urllib
Disallow: /

User-agent: NetMechanic
Disallow: /

User-agent: URL_Spider_Pro
Disallow: /

User-agent: CherryPicker
Disallow: /

User-agent: EmailCollector
Disallow: /

User-agent: EmailSiphon
Disallow: /

User-agent: WebBandit
Disallow: /

User-agent: EmailWolf
Disallow: /

User-agent: ExtractorPro
Disallow: /

User-agent: CopyRightCheck
Disallow: /

User-agent: Crescent
Disallow: /

User-agent: SiteSnagger
Disallow: /

User-agent: ProWebWalker
Disallow: /

User-agent: CheeseBot
Disallow: /

User-agent: LNSpiderguy
Disallow: /

User-agent: ia_archiver
Disallow: /

User-agent: ia_archiver/1.6
Disallow: /

User-agent: Teleport
Disallow: /

User-agent: TeleportPro
Disallow: /

User-agent: MIIxpc
Disallow: /

User-agent: Telesoft
Disallow: /

User-agent: Website Quester
Disallow: /

User-agent: moget/2.1
Disallow: /

User-agent: WebAuto
Disallow: /

User-agent: WebZip/4.0
Disallow: /

User-agent: WebStripper
Disallow: /

User-agent: WebSauger
Disallow: /

User-agent: WebCopier
Disallow: /

User-agent: NetAnts
Disallow: /

User-agent: Mister PiX
Disallow: /

User-agent: TheNomad
Disallow: /

User-agent: WWW-Collector-E
Disallow: /

User-agent: RMA
Disallow: /

User-agent: libWeb/clsHTTP
Disallow: /

User-agent: asterias
Disallow: /

User-agent: httplib
Disallow: /

User-agent: turingos
Disallow: /

User-agent: spanner
Disallow: /

User-agent: InfoNaviRobot
Disallow: /

User-agent: Harvest/1.5
Disallow: /

User-agent: Bullseye/1.0
Disallow: /

User-agent: Mozilla/4.0 (compatible; BullsEye; Windows 95)
Disallow: /

User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
Disallow: /

User-agent: CherryPickerSE/1.0
Disallow: /

User-agent: CherryPickerElite/1.0
Disallow: /

User-agent: WebBandit/3.50
Disallow: /

User-agent: NICErsPRO
Disallow: /

User-agent: Microsoft URL Control – 5.01.4511
Disallow: /

User-agent: DittoSpyder
Disallow: /

User-agent: Foobot
Disallow: /

User-agent: WebmasterWorldForumBot
Disallow: /

User-agent: SpankBot
Disallow: /

User-agent: BotALot
Disallow: /

User-agent: lwp-trivial/1.34
Disallow: /

User-agent: lwp-trivial
Disallow: /

User-agent: BunnySlippers
Disallow: /

User-agent: Microsoft URL Control – 6.00.8169
Disallow: /

User-agent: URLy Warning
Disallow: /

User-agent: Wget/1.6
Disallow: /

User-agent: Wget/1.5.3
Disallow: /

User-agent: Wget
Disallow: /

User-agent: LinkWalker
Disallow: /

User-agent: cosmos
Disallow: /

User-agent: moget
Disallow: /

User-agent: hloader
Disallow: /

User-agent: humanlinks
Disallow: /

User-agent: LinkextractorPro
Disallow: /

User-agent: Offline Explorer
Disallow: /

User-agent: Mata Hari
Disallow: /

User-agent: BuiltBotTough
Disallow: /

User-agent: LexiBot
Disallow: /

User-agent: Web Image Collector
Disallow: /

User-agent: The Intraformant
Disallow: /

User-agent: True_Robot/1.0
Disallow: /

User-agent: True_Robot
Disallow: /

User-agent: BlowFish/1.0
Disallow: /

User-agent: JennyBot
Disallow: /

User-agent: MIIxpc/4.2
Disallow: /

User-agent: ProPowerBot/2.14
Disallow: /

User-agent: BackDoorBot/1.0
Disallow: /

User-agent: toCrawl/UrlDispatcher
Disallow: /

User-agent: WebEnhancer
Disallow: /

User-agent: suzuran
Disallow: /

User-agent: VCI WebViewer VCI WebViewer Win32
Disallow: /

User-agent: VCI
Disallow: /

User-agent: Szukacz/1.4
Disallow: /

User-agent: QueryN Metasearch
Disallow: /

User-agent: Openfind data gathere
Disallow: /

User-agent: Openfind
Disallow: /

User-agent: Xenu’s Link Sleuth 1.1c
Disallow: /

User-agent: Xenu’s
Disallow: /

User-agent: Zeus
Disallow: /

User-agent: RepoMonkey Bait & Tackle/v1.01
Disallow: /

User-agent: RepoMonkey
Disallow: /

User-agent: Microsoft URL Control
Disallow: /

User-agent: Openbot
Disallow: /

User-agent: URL Control
Disallow: /

User-agent: Zeus Link Scout
Disallow: /

User-agent: Zeus 32297 Webster Pro V2.9 Win32
Disallow: /

User-agent: EroCrawler
Disallow: /

User-agent: LinkScan/8.1a Unix
Disallow: /

User-agent: Keyword Density/0.9
Disallow: /

User-agent: Kenjin Spider
Disallow: /

User-agent: Iron33/1.0.2
Disallow: /

User-agent: Bookmark search tool
Disallow: /

User-agent: GetRight/4.2
Disallow: /

User-agent: FairAd Client
Disallow: /

User-agent: Gaisbot
Disallow: /

User-agent: Aqua_Products
Disallow: /

User-agent: Radiation Retriever 1.1
Disallow: /

User-agent: Webster Pro
Disallow: /

User-agent: Flaming AttackBot
Disallow: /

User-agent: Oracle Ultra Search
Disallow: /

User-agent: MSIECrawler
Disallow: /

User-agent: PerMan
Disallow: /

User-agent: searchpreview
Disallow: /

User-agent: LexiBot
Disallow: /

User-agent: Web Image Collector
Disallow: /

User-agent: The Intraformant
Disallow: /

User-agent: True_Robot/1.0
Disallow: /

User-agent: True_Robot
Disallow: /

User-agent: BlowFish/1.0
Disallow: /

User-agent: JennyBot
Disallow: /

User-agent: MIIxpc/4.2
Disallow: /

User-agent: BuiltBotTough
Disallow: /

User-agent: ProPowerBot/2.14
Disallow: /

User-agent: BackDoorBot/1.0
Disallow: /

User-agent: toCrawl/UrlDispatcher
Disallow: /

User-agent: WebEnhancer
Disallow: /

User-agent: suzuran
Disallow: /

User-agent: VCI WebViewer VCI WebViewer Win32
Disallow: /

User-agent: VCI
Disallow: /

User-agent: Szukacz/1.4
Disallow: /

User-agent: QueryN Metasearch
Disallow: /

User-agent: Openfind data gathere
Disallow: /

User-agent: Openfind
Disallow: /

User-agent: Xenu’s Link Sleuth 1.1c
Disallow: /

User-agent: Xenu’s
Disallow: /

User-agent: Zeus
Disallow: /

User-agent: RepoMonkey Bait & Tackle/v1.01
Disallow: /

User-agent: RepoMonkey
Disallow: /

User-agent: Microsoft URL Control
Disallow: /

User-agent: Openbot
Disallow: /

User-agent: URL Control
Disallow: /

User-agent: searchpreview
Disallow: /

User-agent: Zeus Link Scout
Disallow: /

User-agent: Zeus 32297 Webster Pro V2.9 Win32
Disallow: /

User-agent: Webster Pro
Disallow: /

User-agent: EroCrawler
Disallow: /

User-agent: LinkScan/8.1a Unix
Disallow: /

User-agent: Keyword Density/0.9
Disallow: /

User-agent: Kenjin Spider
Disallow: /

User-agent: Iron33/1.0.2
Disallow: /

User-agent: Bookmark search tool
Disallow: /

User-agent: GetRight/4.2
Disallow: /

User-agent: FairAd Client
Disallow: /

User-agent: Gaisbot
Disallow: /

User-agent: Aqua_Products
Disallow: /

User-agent: Radiation Retriever 1.1
Disallow: /

User-agent: Flaming AttackBot
Disallow: /

User-agent: Oracle Ultra Search
Disallow: /

User-agent: MSIECrawler
Disallow: /

User-agent: PerMan
Disallow: /

 

Es ist also zu empfehlen, was Google selbst auch empfiehlt, eine Robots.txt Datei zu erstellen, diese dann in den Root Order per FTP Upload abspeichert, um böse Suchmaschinen zu verhindern und um doppelten Inhalt (Duplicate Content) zu vermeiden.

Eine gute Onpage-optimierte Webseite oder Internetpräsenz kann immer eine Robots.txt Datei vorweisen.

Onpage Optimierung: Der RSS Feed

RSS FeedNicht jeder Blog oder Webseite hat automatisch einen RSS Feed, jedoch kann man diese noch nachträglich durch Plugins oder Generatoren erstellen.

RSS Feeds sind bei Bloggern sehr beliebt, denn mittels eines RSS Feed, kann man noch zusätzlichen Traffic generieren, indem man viele Abonnenten gewinnt.

Ebenfalls kann ein RSS Feed die Positionierung (Ranking) in den Suchergebnissen der Suchmaschinen (SERPs) positiv beeinflussen. Viele SEOs verbessern ihre Linkpower durch das Einreichen ihrer RSS Feeds in Feed Aggregatoren. Durch das Einreichen bekommt der RSS Feed von den Aggregatoren nochmals Backlinks, was die Roboter der Suchmaschinen (Robots) zu euren Inhalt (Content) steuert, um diese zu indexieren (Crawling).

Ein RSS Feed ist fast ähnlich wie eine Sitemap.xml Datei, jedoch sind nicht nur die Links in den RSS Feed zu finden, sondern auch der komplette Inhalt (Content), nur in einem kompakteren Format.

RSS Feed kann man auch validieren und nach HTML Codes Fehler überprüfen. Ein Online Tool hierfür gibt es von W3C:

 

Google bietet einen RSS Feed via Feedburner an

Hat man einen einfachen RSS Feed, kann man diesen bei Google Feedburner einreichen und einen Feedburner RSS Feed generieren:

  • Google Feedburner

Dieser Feed ist für menschliche Leser angenehmer und erhöht ebenfalls die Chance noch mehr Abonnenten zu gewinnen.

Onpage Optimierung: Der NoFollow Attribut

rel Nofollow AttributDer Code „nofollow“ wird unheimlich oft verwendet, vor allem bei SEOs ist der NoFollow Code schon tägliches Brot.

Jedoch kann der NoFollow Code auch viele SEO / Suchmaschinenoptimierer verärgern, indem dieser zum Beispiel bei den Kommentaren und den ausgehenden Links verwendet wird.

Der NoFollow Attribut ist dafür da, dass die Robots den Links im Inhalt (Content) nicht folgen dürfen, jedoch ist dieser Code nicht zwingend erforderlich, da man im HTML Link Code einen Zusatzcode einfügen kann, welches den Google Robots (Google Bots) nicht erlaubt Links zu folgen.

Viele Webmaster verwenden diesen Code wenn man zum Beispiel einen Link platziert, jedoch diese Webseite nicht vertraut. Um einen besseren Page Rank zu bekommen wird meist auch ein NoFollow Attribut verwendet, denn jeder ausgehende Link (externer Link), sieht Google als persönliche Empfehlung deiner Internetpräsenz.

 

Externe Links ohne Nofollow Attribut

Externe Backlinks ohne Nofollow Attribut können jedoch auch deine Reputation und Autorität zerstören, indem man – vielleicht auch unbewusst – zu einer Webseite verlinkt, die gegen den Richtlinien der Suchmaschinen verstoßen und diese schon auf der sogenannten schwarzen Liste (Blacklist) stehen.

Wenn man zu solch einer Webseite verlinkt, gehen Suchmaschinen meist davon aus, dass deine Internetpräsenz mit der „bösen“ Webseite befreundet ist, da Suchmaschinen ausgehende Links (Externe Backlinks) als von dir persönliche Empfehlung sehen.

In Fachkreisen nennt man dies zu einer bösen Nachbarschaft (Bad Neighbourhood) verlinken.

Als Konzequenz, kann man damit rechnen dass man seinen hohen Seitenwert (PageRank) verliert, diese von Google abgestraft wird und eventuell eine gute Position in den Suchergebnissen verliert. Im schlimmsten Fall wird man in die von Google erfundene SandBox fallen, was für die Suchmaschine Google eine vorübergehende Maßnahme ist, die Internetpräsenz bzw. Domain zu bestrafen. Somit ist deine Internetpräsenz vorübergehend nicht mehr in den Ergebnissen der Suchmaschinen (SERPs) zu finden. Erst nach einer Beantragung auf Indexierung (Crawling) deiner Internetpräsenz ist es vielleicht möglich, wieder von Google indexiert zu werden. Angeblich kann so etwas länger als 6 Monate dauern und eventuell wird der Inhalt (Content) von einem Mitarbeiter von Google manuell geprüft.

Passt also auf, wohin man verlinkt! Jedoch sollte man so gut wie möglich im Inhalt (Content) ausgehende Links (externe Links) verwenden, aber zu achten ist darauf, dass der Link zu einer sauberen Webseite verlinkt ist und ganz wichtig auch einen themenrelevanten Inhalt aufweist. Somit wird deine Empfehlung zu der anderen Webseite eine sehr hohe Qualität mit sich bringen und dies kann sich auch auf die Positionen in den Suchergebnissen positiv für beide Webseiten auswirken. Man kann eine vertrauenswürdige und autorisierte Webseite meistens auf Anhieb erkennen. Diese haben entweder einen hohen Seitenwert (PageRank) oder verwenden Google AdSense.

 

Eine Webseite richtig empfehlen mit oder ohne Nofollow Attribut

Möchte man seinen Lesern dennoch mit einem ausgehenden Link (externer Link) etwas Interessantes empfehlen, jedoch der verlinkten Webseite nicht vertrauen, ist es zu empfehlen, einen NoFollow Attribut im HTML Link Code einzusetzen.

Der NoFollow HTML Link Code wird mit einem zusätzlichen Attribut ausgestattet namens „rel=“nofollow„.

Als Beispiel würde der NoFollow Code dann so aussehen:

<a href="https://www.beispieldomain.de/" rel="nofollow">Linktext</a>

Aufpassen sollte man, wenn der Inhalt (Content) zu viele ausgehende Links (externe Links) hat, besonders gilt dies für relativ neue Domains. Denn bei zu vielen ausgehenden Links (externe Links), wird zum Beispiel die Suchmaschine Google davon ausgehen, dass deine Internetpräsenz eine Linkfarm ist und kann deine Platzierung in den Suchergebnissen (SERPs) verschlechtern, im schlimmsten Fall wird man in den Suchmaschinen gar nicht mehr platziert.

Suchmaschinen

SuchmaschinenFrüher hießen sie Fireball, Altavista oder Lycos – heute dominieren Yahoo, Bing und natürlich allen meilenweit enteilt Google den Markt: Die Suchmaschinen im Jahr 2013.

Sie strukturieren und organisieren die schier unglaubliche Informationsmenge des World Wide Web: Tagtäglich tippen Internetnutzer auf der ganzen Welt Milliarden von Suchanfragen in den kleinen Suchschlitz von Google, Milliarden Seiten befinden sich bereits im Index und täglich kommen etwa 2 bis 3 Millionen neue dazu.

  • Wie bringen also die Suchmaschinen eine gewisse „Ordnung“ in das Chaos, um bei Suchanfragen die womöglich relevantesten Ergebnisse auszuliefern?
  • Mit Treffern, die den Suchenden wirklich weiterbringen?
  • Und das in Sekundenschnelle?

Das ist kein Wunderwerk und auch keine technische Zauberei, sondern Ergebnis des ausgeklügelten Algorithmus, der fortlaufend angepasst und optimiert wird, um den Nutzern die bestmöglichen Suchergebnisse zu bieten. Es geht also nicht nur darum, alle Webseiten, Portale, Online-Shops, Blogs und einfach alle vorhandenen Dokumente zu erfassen, sondern diese auch nach Relevanz zu sortieren.

Dies erledigen die Robots, die Minute um Minute das Netz intensiv scannen, stets neue Seiten erfassen und dem Index hinzufügen sowie bestehende Seiten immer wieder neu überprüfen, um ihre Relevanz zu erfassen.

In Deutschland beherrscht Google mit einem Marktanteil von über 90 % den Suchmaschinenmarkt und ist damit Ansatzpunkt Nummer Eins für jede Suchmaschinenoptimierung.

Diese setzt sich zusammen aus den Faktoren der ON-Page-Optimierung, aber auch der Off-Page-Optimierung / des Linkbuildings.

Darüber hinaus existieren noch die sogenannten Meta-Suchmaschinen, welche den Index unterschiedlicher Suchmaschinen erfragen und kulminieren.

Onpage Optimierung: Meta Description Tag optimieren

Meta Description optimierenDie Meta Description optimieren, aber wie macht man es richtig?

Hier finden Sie ein paar Tipps zur Optimierung der eigenen Webseiten Beschreibung.

Google zeigt ebenfalls in den Suchergebnissen (SERPs) immer eine Beschreibung der Internetpräsenz, das sogenannte Snippet.

Möchte man die Beschreibung der Internetpräsenz individuell anpassen, sollte man einen Description Tag im Header einfügen.

Experten raten hier zu einer Description Tag Länge von bis zu 158 Buchstaben.

Ist der Meta Description Tag länger als 158 Buchstaben, so zeigt Google die Beschreibung gekürzt, mit einem […] in den Suchergebnissen an.

 

Aussagekräftige Meta Description

Bei der Erstellung des Description Tags sollte man darauf achten, dass die Beschreibung der Internetpräsenz sehr aussagekräftig ist und den Suchenden dazu verleitet, in den Suchergebnissen auf deine von den Suchmaschinen angezeigte Beschreibung zu klicken, damit diese auf deine Internetpräsenz gelangt.

Dies gilt auch für die jeweiligen Unterseiten der Internetpräsenz.

 

Der Meta Description Code

		<meta name="description" content="Tragen Sie hier eine aussagekräftige Webseiten Beschreibung bis zu 158 Zeichen ein." />

Passen Sie den oben dargestellten Meta Description Code an und fügen Sie es im Header-Bereich ein. (Zwischen <Header> und </Header>).

URL

URLDie drei Buchstaben URL stehen für nichts anderes als Uniform Resource Locator, was jedoch nichts anderes meint als die Internetadresse oder Domain einer Webseite.

Wie sieht eine URL idealtypisch aus?

  • Sie sollte kurz und prägnant sein, damit sich der Internetnutzer diese im Optimalfall merken kann.
  • Sie sollte den Markennamen / Brand beinhalten, eventuell aber auch mit einem beschreibenden, generischen Keyword versehen sein.
  • Sie sollte, wenn es eine deutsche Seite ist, wenn möglich der Top-Level-Domain .de zugeordnet sein und nur im Ausnahmefall auf .com, .org oder .net.
  • Sie sollte hingegen nicht aus zu vielen Elementen bestehen, die dann mit einem Bindestrich verbunden werden müssten

Allein schon hieraus erkennt man, dass die perfekte URL für ein Webprojekt gar nicht so leicht zu finden ist und eine sensible Sache darstellt. Kein Wunder also auch, dass der Handel mit entsprechenden Domains immer noch blüht: sie können manchmal so wertvoll sein oder werden, wie ein Haus oder ein teures Auto. Sogar Millionenbeträge fließen.

Die Entscheidung für eine URL ist zumeist der erste Schritt eines neu angelegten Online-Shops oder Internetportals – und zugleich einer der wichtigsten.

Denn: Die URL bzw. Domain erlangt ebenso in der Suchmaschinenoptimierung eine elementare Wichtigkeit, da sie bereits relevante Informationen für Google und Co liefert und da sie über den Klick oder Nicht-Klick der Internetnutzer in den SERPS mit entscheiden kann.

Lange Zeit galten sogenannte Keyworddomains als Wunderwaffe im SEO Bereich und entsprechend heftig waren diese umworben. Inzwischen ist die Exact-Match-Domain nur noch ein Faktor unter vielen und wird – ganz im Gegenteil – von Google inzwischen kritisch gesehen, zumindest, wenn sie nicht mit entsprechend hochwertigen Inhalten unterfüttert ist.

Onpage Optimierung: Keyworddichte optimieren

Keyworddichte OptimierenBei einer Optimierung des Inhaltes (Content) achten professionelle Suchmaschinenoptimierer zum Beispiel auf die richtige Suchwortdichte (Keyworddichte) der betreffenden Internetpräsenz.

Kommen im Inhalt (Content) zu oft bestimmte Suchwörter (Keywords) vor, kann es durchaus sein, dass die Suchmaschinen dies als Spamming, auch Keywordstuffing genannt, interpretieren und die Internetpräsenz dementsprechend abwerten. Kommen jedoch die Suchwörter (Keywords) im Inhalt (Content) zu wenig vor, kann dies ebenfalls die Position in den Suchergebnissen (SERPs) negativ beeinflussen.

Mittels einer Analyse der Keyworddichte kann man die genaue Prozentzahl ermitteln und diese perfekt anpassen.

 

Die perfekte Keyworddichte?

Die Suchwortdichte (Keyworddichte) eines Suchwortes (Keyword) sollte laut meinen Recherchen, zwischen 2 und 7 Prozent sein, jedoch sagen viele amerikanische Suchmaschinenoptimierer (SEOs) das eine Suchwortdichte (Keyworddichte) am besten zwischen 15 und 20 Prozent liegen muss.

Aber ich selbst empfehle die Suchwortdichte (Keyworddichte) mehrmals in großen Abständen individuell anzupassen und dabei die Platzierung in den Suchergebnissen zu beobachten.

Eventuell sollte man auch die Konkurrenz, die in den Top 3 platziert ist, überprüfen und die dortigen Onpage Optimierungs-Werte analysieren.

 

Ein gutes Keyworddichte Analyse Tool?

Es gibt unzählige Analyse Tools um heraus zu finden, welche Dichte die Keywords im Text bzw. Inhalt (Content) haben.

Wir persönlich finden das Tool von Axandra sehr nett, da es auch kostenlos zur Verfügung steht.

  • Keyworddichte, Keywordhäufigkeit bzw. Keyworddensity ermittlen