6.1 Indexierung

6.1.1 Aufnahme in den Index

Für die Aufnahme in den Index von Google gibt es für eine Webseite zwei Möglichkeiten. Zum einen kann man eine Seite unter wichtigen Adressen beziehungsweise Links anmelden, sodass der Googlebot, also der Crawler der Suchmaschine, die Webseite besuchen kann und somit in den Index aufnimmt.

Bis eine Internetseite in den Suchergebnissen einer Seite erscheint, dauert es in der Regel einige Tage. Mittels einer „Siteabfrage“ kann ermittelt werden, ob eine Internetseite schon indexiert wurde. Dieser Befehl lautet site:www.domainname.de, welcher in das Suchfeld von Google eingegeben wird. Wenn die Seite aufgenommen wurde, erhält man mit dem Befehl die vorhandenen Unterseiten der Webseite.

Darüber hinaus kann man eine Internetseite indexieren, indem man einige externe Links auf die Webseite setzt. Der Googlebot jedem Verweis nachgeht, wird der Crawler direkt auf die Webseite geführt, sodass diese durchsucht werden kann. Vorteilhaft daran ist, dass die Seite sogar in einigen Fällen schon nach wenigen Stunden aufgenommen wird. Durch externe Links wird eine Seite automatisch höher von den Suchmaschinen eingestuft, als andere Webseiten. Um die Indexierung der Unterseiten auch zu beschleunigen ist die Variante mit den externen Verlinkungen eine ideale Lösung.

Allgemein kann man sagen, dass die Startseite die Seite ist, welche zuerst indexiert wird. Anschließend folgen nach und nach die anderen Unterseiten in den Index. Die Suchanfragen von Google werden direkt an eine von mehreren Datencentern weitergeleitet. Je nach dem welches Datencenter befragt wird, kann es sein, dass nicht immer alle Seiten angezeigt werden. Deshalb spielt Geduld eine wichtige Rolle, denn es dauert eine gewisse Zeit, bis alle Seiten in allen Datencentern angekommen sind.

Die Anzahl der externen Links einer Internetseite ist entscheidend für die Schnelligkeit sowie den Umfang der Indexierung der Unterseiten. Somit sind viele externe Links von großem Vorteil. Sobald eine Webseite in den Index aufgenommen wurde, erhält diese regelmäßige Besuche. Auch nach Veränderungen und neuem Content wird die Seite kontrolliert. Veränderungen wie beispielsweise ein neuer Seitentitel werden erst nach einigen Tagen oder Wochen in den Suchergebnissen veröffentlicht.

Folglich ist es wichtig, dass die Erstellung einer Webseite viel Zeit benötigt, um große Veränderungen nicht mehr nach der Indexierung in der Suchmaschine durchführen zu müssen.

6.1.2 Verbannung aus dem Index

Es ist auch möglich, dass eine Internetseite aus Google´s Index „verbannt“ wird. Das wäre als Webseitenbetreiber eines der schlimmsten Dinge, was passieren kann. Die meisten Besucher einer Webseite werden nachweislich über den Suchdienst Google generiert. Ist es demnach der Fall, dass eine Internetseite nicht mehr in den Suchergebnissen angezeigt wird, dann sinkt die Besucherzahl deutlich.

Eine Webseite wird allerdings nicht ohne Grund aus dem Index einer Seite verwiesen. Richtlinien, welche jede Suchmaschine aufstellt, müssen zunächst verstoßen werden, damit der Verweis aus dem Index gerechtfertigt ist. An diese Richtlinien sollte man sich also bei der Erstellung oder Optimierung einer Webseite halten, um einen Verweis aus dem Index zu vermeiden. Wenn eine Seite im Aufbau oder vom Inhalt her gegen die Richtlinien verstößt, wird diese ohne Ankündigung entfernt.

„Versteckter Inhalt“, Duplicate Content als auch Keywordspam zählen zu nicht in den Richtlinien aufgeführten Inhalten und werden mit einem Verweis aus dem Index bestraft, da dies als Manipulation anerkannt wird.

Durch die Masse an Internetseiten kann nicht individuell darüber entschieden werden, in welchem Umfang die Seite gegen die Richtlinien verstößt. Spezielle Programme und Filter werden für die Indexierung bei den Seiten verwendet. Ein grober Fehler im Auge der Richtlinien reicht für die Verbannung aus dem Index. Gegen die Vorschriften der Suchmaschinen ist auch der „Slow Death“, der langsame Tod. Dabei wird Seite für Seite aus dem Index gelöscht. Wenn man eine Internetseite auf unterschiedlichen Domains im Internet wieder finden kann, dann ist das für die Suchmaschinen Duplicate Content und wird mit einem Verweis aus dem Index bestraft. Google Analytics verrät einem warum die Webseite auf dem Index gelöscht wurde, ändert allerdings nichts mehr an der Tatsache. Die Aufnahme in den Googleindex ist nach einem Rauswurf in der Regel fast unmöglich.

Die Einhaltung der Richtlinien von Suchmaschinen ist nicht nur für die Vermeidung eines Rauswurfes von großer Bedeutung, denn ein Rauswurf aus einem Suchmaschinenindex hat für das Ranking in anderen Suchmaschinen schwerwiegende Folgen. Sollte man in die missliche Lage gelangen, dass die eigene Webseite aus irgendwelchen Gründen aus den Suchergebnissen entfernt wurde, ist der einzige Versuch wieder dort aufzutauchen lediglich der:

Den Grund für den Verstoß beseitigen und einen Reinclusion Request stellen, also einen Wiederaufnahmeantrag.

6.2 Reinclusion Request

Ein Reinclusion Request kann gestellt werden, sobald eine Internetseite aus dem Googleindex entfernt wurde. Der Reinclusion Request gilt als Wiederaufnahmeantrag und sollte allerdings erst gestellt werden, wenn der Grund für den Rauswurf auf der Webseite entfernt wurde. Da ab und an die Seiten auch manuell überprüft werden, sollte der Antrag alle Anforderungen der Suchmaschine erfüllen.

Der Reinclusion Request ist dringend über das Support-Forum zu stellen, da dort die einzig richtige Adresse zu finden ist, an die der Wiederaufnahmeantrag zu schicken ist. Im Betreff sollte unbedingt „Reinclusion Request“ genannt werden, da Google die Mail ansonsten nicht korrekt zugeordnet bzw. bearbeitet werden kann.

Das Anschreiben des Reinclusion Request muss den Grund beinhalten, warum die Seite aus dem Index gelöscht wurde. Anschließend sollte erläutert werden, inwiefern die Ursachen behoben wurden und dass die Webseite den Richtlinien wieder entspricht. Die Email ist in einem freundlichen Ton zu verfassen und idealerweise sollte der Fehler eingestanden werden sowie bestätigt werden, dass dieses Vergehen nicht noch einmal vorkommt.

Normalerweise beträgt die Bearbeitungszeit eines solchen Antrags eine ganze Weile. Hierbei gilt es Geduld zu beweisen, denn mit Nachdruck erreicht man keine schnelle Reaktion. Die Chance, dass eine gelöschte Webseite überhaupt noch einmal angezeigt wird, ist sehr gering.

Viele weitere Möglichkeiten gibt es in der Regel nicht, um eine Webseite wieder in den Suchmaschinenindex zu bringen. Unter einer anderen Domain kann man die Suchmaschine nicht überlisten. Somit bringt es auch nichts die Domain bei einem anderen Server unterzubringen oder die IP-Adresse zu verändern. Die Suchmaschine Google kann immer feststellen, ob es sich um die gleiche Internetseite handelt.

6.3 Google PageRank

6.3.1 Begriffsdefinition

Der PageRank welcher auf dem basiert Algorithmus der Suchmaschine Google basiert, wurde von den Gründern Googles entwickelt. Dies waren Larry Page sowie Sergey Brin, welche zu dem Zeitpunkt der Entwicklung noch Studenten waren an der Stanford University. Die Entwicklung der Algorithmus wurde für ein neues Verfahren zur Bewertung der Relevanz einzelner Internetseiten hergestellt.

Die von Webseiten eingehenden Verweise werden mittels PageRank über die Qualität beziehungsweise der Stärke sowie der Zahl dieser errechnet.

Diese Methode basiert auf der Taktik, dass die Wichtigkeit einer Webseite steigt, wenn verschiedene Webseiten auf die jeweilige Internetseite Links setzen. Je höher das Gewicht der Links ist und so größer die Menge dieser ist, umso höher wird die Relevanz also auch der PageRank auf die verlinkte Seite gewertet.

Simpel ausgedrückt beschreibt der PageRank die Wahrscheinlichkeit, wie stark eine Webseite im Internet aufgefunden wird.

6.3.2 Der PageRank-Algorithmus

Eine genaue Definition zum PageRank-Algorithmus wäre an dieser Stelle zu umfangreich, sodass die Formel des PageRank-Algorithmus nur kurz erläutert wird. Laut diesem Algorithmus verfügt jede Internetseite über ein Gewicht, dem so genannten PageRank, verfügt. Dieser RageRank wird in einer Skala von 1-10 bewertet, wo 10 die höchste Bewertung darstellt.

Je mehr qualitativ hochwertige Seiten auf einer anderen Webseite verlinkt sind, umso besser wird der PageRank bewertet. Die Qualität der Links stellt bei dem PageRank einen großen Teil dar. Wie stark dieser Faktor in die Bewertung des allgemeinen PageRanks mit einbezogen wird in einer Formel festgelegt.

Den PageRank von 3 kann eine Webseite erreichen, indem beispielsweise 101 Seiten mit einem PR von 2 und rund 3 Seiten mit einem PR von 4 auf die bestimmte Seite verlinkt sind. Der PageRank von 5 kann lediglich erreicht werden, wenn ca. 3055 Seite mit einem PR von 2 oder 101 Seiten mit einem von 4 auf die Internetseite verweisen. Für den PageRank von 3 reicht allerdings schon ein Link einer mit dem PR 5. Der PR von 5 kann erreicht werden, indem die ein PR 7 Link auf die Webseite verweist.

Daraus schlussfolgernd kann man sagen, je höher der PageRank der verlinkenden Internetseite, umso höher ist der PageRank der verlinkten Seite. Die Entwicklung des PageRanks geschieht nicht exponentiell, sondern sprunghaft. Für die Steigerung des PRs sind immer neuere, starke Links notwendig.

Die GoogleToolbar erlaubt es einem, den PageRank einer Webseite  zu ermitteln. Der genaue PageRank wird dann auf der jeweiligen Webseite angezeigt auf der man sich momentan befindet.

Alle drei Monate wird der angegebene PageRank aktualisiert. Dadurch kann es passieren, dass die Seite trotz vieler neuen Verweise keinen PR hat, da die GoogleToolbar den PageRank noch nicht wieder auf den neuesten Stand gebracht hat. Externe Links fließen schon nach sehr geringer Zeit auf die Positionierung der Seite in den Suchergebnissen ein. Ein PageRank-Update aktualisiert somit nur den sichtbaren PR, aber nicht das Ranking, denn das ändert sich unabhängig von der PR-Aktualisierung.

6.3.3 Vor- und Nachteile

Die Google-Gründer haben mit dem PageRank einen zunächst schwer zu beeinflussenden Faktor für die Bewertung der Internetseiten erstellt. Die Idee basiert dabei darauf, dass eine Internetseite besser bewertet wird, sobald die Seite quantitative sowie qualitative externe Link erhält. Für die Suchmaschine ist dies eine plausible Erklärung für ein gutes Ranking.

Der PageRank verursachte somit eine bessere Platzierung in den Suchergebnissen von Google als bei anderen Suchanbietern. Denn die Webseiten die aufgrund von hohem Keywordspam bei anderen Suchmaschinen hoch gelistet wurden, sind in den Ergebnissen von Google nicht mehr so gut aufzufinden, da diese Seiten in der Regel keine oder lediglich schlechte Backlinks hatten. Somit wurde der PageRank-Algorithmus   als „Meilenstein“ in der Entwicklung einer Suchmaschine definiert. Eine Suchmaschine soll nun somit nur noch themenrelevante Ergebnisse anzeigen und lässt sich nur noch schwer manipulieren.

Dennoch muss man sagen, dass der PR mittlerweile eher zu einer Hürde geworden ist. Aufgrund der hohen Relevanz des PageRanks von Anfang an, haben auch andere Suchmaschinen sich an dem Algorithmus orientiert. Infolgedessen haben Links einen deutlich höheren wirtschaftlichen Wert erfahren, sodass diese verkauft, vermietet oder getauscht wurden. Der Markt an Linkanbietern stieg plötzlich enorm an und nie besuchte Gästebücher sowie Foren waren schnell mit Linkeinträgen überschwemmt.

Folglich hat sich schnell herausgestellt, dass der PageRank einer der am einfachsten zu beeinflussenden Faktoren ist. Wenn man somit Zeit und Geld investiert hat, konnte man das Ranking der eigenen Webseite extrem manipulieren. Aus diesen Gründen entschieden letztendlich immer mehr kostspielige Methoden über die Platzierung in den Ergebnislisten. Dies hält auch bis heute an, weshalb der Linkhandel der am schnellsten wachsenden Märkte im World Wide Web ist, trotz der Tatsache, dass die Suchmaschinen immer wieder versuchen dagegen anzugehen.

Aufgrund dessen wurde das „rel=nofollow“ Attribut eingeführt, welches verhindert, dass die Crawler der Suchmaschinen nicht mit ins Gewicht bei der Bewertung zählen, was bedeutet, dass der PR des verlinkenden Webseite nicht weitergegeben wird. Vor allem in Blogs sowie Foren ist dieses Attribut von großer Bedeutung und wird gezielt eingesetzt, sodass Spameinträge vermieden werden. Bekannte Linkanbieter oder bestimmte Dienstleistungen werden regelmäßig abgestraft.

6.3.4 Alternativen

Die Stärke sowie die Quantität von eingehenden Links einer Internetseite bezeichnen den PageRank-Algorithmus. Dieser wird stets ein relevanter Faktor für die Beurteilung einer Internetseite bleiben. Der PageRank kann dennoch keinen direkten Hinweis auf die Qualität einer Internetseite. Da die Qualität für die Relevanz der Suchmaschinen sehr entscheidend ist, wird ständig nach Alternativen zu dem PageRank-Algorithmus gesucht, welche im Folgenden erläutert werden:

Der Hilltop-Algorithmus

Der Hilltop-Algorithmus bewertet Internetseiten nach der Relevanz im Bezug auf bestimmte Suchwörter. Vorgegangen wird so, indem zunächst zu einem bestimmten Thema oder für einen bestimmten Suchbegriff eine Expertenseite ermittelt wird. Diese Seiten weisen eine Menge externe Links auf unabhängige Seiten auf. Anschließend werden so genannte Autoritätsseiten festgelegt. Diese Seiten zeigen mindestens zwei Links von den Expertenseiten. Dieser Algorithmus wurde in Toronto entwickelt und im Jahr 2003 von Google aufgekauft. Die Autoritätsseiten, welche von Google offiziell so ernannt wurden, erkennt man daran, dass die Einträge in den Ergebnissen der bedeutenden Suchbegriffe ganz oben stehen.

Hubs and Authorities

Hubs and Authorities auch „HITS“ genannt, beschreiben die Wertigkeit einer Webseite nach deren Hub- bzw. Autoritätseigenschaft. Die Menge sowie die Qualität der ausgehenden Links definiert die Hubeigenschaft. Die Autorität einer Internetseite wird nach den externen Verweisen festgestellt. Relevante Knotenpunkte in einer Linkstruktur des „World Wide Webs“ wird durch den von Jon Kleinberg hergestellten Algorithmus beschrieben.

Trustrank

Ein ebenso von Google patentierter Algorithmus, der Trustrank-Algorithmus, wurde dafür hergestellt, dass Spamseiten aufgefunden werden können. Dafür werden einige Autoritäts- oder auch vertrauenswürdige Expertenseiten festgelegt. Beispiele hierfür sind DMOZ und Wikipedia. Anschließend werden alle ausgehenden Links verfolgt. Dabei wird der Trustrank der Experten- bzw. Autoritätsseiten auf die verlinkten Seiten übertragen, vergleichbar wie mit dem PageRank. Spamseiten sind demnach simpel herauszufiltern, da diese in der Regel nicht sonderlich viel verlinkt werden.

Für die Verbesserung von Suchmaschinen gibt es noch viele weitere Möglichkeiten, sodass die unrelevanten Ergebnisse gefiltert werden können. Bei fast allen Methoden, wir die Qualität des Contents höher bewertet als die Quantität. Aufgrund der steigenden Manipulationsversuche, ist es schon nicht mehr möglich die Faktoren automatisch durchzuführen. Somit beziehen sich viele Taktiken auf manuell geprüfte Internetseiten.

Infolgedessen werden die redaktionell betriebenen Internetseiten, Verzeichnisse oder auch Bewertungssysteme wie beispielsweise das Social-Bookmarking, deutlich mehr an Bedeutung gewinnen und bei den Bewertungen der einzelnen Webseiten von den Suchmaschinen ergänzend zur Seite stehen.

6.4 Google Updates

6.4.1 PR-Update

Wie in einem anderen Teil dieses Tutorials wurde schon gesagt, dass sich der PageRank einer Seite stetig aktualisiert. Ca. alle drei Monate erfährt der PageRank ein Update. Infolgedessen kann es bis zu drei Monate dauern, bis eine Webseite überhaupt einen PageRank anzeigt.

Ein PR-Update bezieht sich allerdings nicht immer auf alle externen Verweise, hat aber auch nur einen geringen Einfluss auf das Ranking in den Ergebnissen.

Für viele Webseiteninhaber- oder betreiber, ist der PageRank mittlerweile dennoch zu einem „Statussymbol“ geworden. Es zeichnet die erkennbaren Ergebnisse „erfolgreicher“ Suchmaschinenoptimierung aus und zeigt den „Wert“ einer Internetseite auf. Für den Linktausch sowie den gesamten Linkaufbau ist der angezeigte PageRank von großer Bedeutung.

6.4.2 BL-Update

Die Menge an externen Links also Backlinks einer Seite werden ständig aktualisiert. Werden dort Veränderungen vorgenommen, sind diese somit innerhalb weniger Tage mit in die Bewertung der Webseite eingeflossen. Im Abstand von rund 2-3 Monaten wird ein Export der bereits vorher einbezogenen Links in den Datenindex vollzogen.

Dennoch haben auch diese Updates beziehungsweise Exporte keinen wirklichen Einfluss auf die Position der Internetseite in den Suchergebnissen. Darüber hinaus existieren andere Faktoren, welche die Backlinks mit bewerten. Bei der Bewertung von anderen Suchmaschinen sind die Backlinks zum Beispiel von großer Bedeutung.

6.4.3 Algorithmus-Update

Veränderungen des Suchmaschinen-Algorithmus haben einen erheblich größeren Einfluss auf das Ranking einer Webseite. Dabei kann es passieren, dass neue Bewertungskriterien in den Algorithmus hinzugefügt werden oder andere schon vorhandene Faktoren entfernt werden.

Diese Veränderungen werden in unregelmäßigen Abständen durchgeführt, da häufig neue Manipulationstechniken entwickelt werden, welche die Suchmaschinen zwingen dagegen anzugehen.

6.5 Google Filter

6.5.1 Google Sandbox

Die Sandbox von Google ist nun schon seit dem Jahr 2004 aktiv aber dennoch nicht offiziell von Google als Filter bestätigt. Dennoch ist festzustellen, dass die Sandbox lediglich bei extrem optimierten Webseiten ihre Wirkung erzielt.

Damit in der heutigen Zeit der Suchmaschinenoptimierung die hochoptimierten Seiten nicht die Chance haben unter den relevanten Suchbegriffen gefunden zu werden, hat Google einen Filter entwickelt, welche gegen diese Webseiten vor geht. Dabei werden die betreffenden Seiten für gewisse Zeit in den Ergebnislisten nach unten gesetzt. Der exakte Algorithmus der Suchmaschine ist allerdings nicht bekannt, weshalb über die richtige SEO nur spekuliert werden kann. Im Bezug auf die Sandbox wurde nur schon festgestellt, dass häufig Seiten betroffen sind, die einen sehr schnellen Backlinkaufbau aufweisen und somit einen unnatürlichen Aufbau zeigen. Vertrauenswürdige sowie starke Links haben Internetseiten auch wieder aus der Sandbox verholfen.

Für Googles Sandbox spielen die externen Verlinkungen eine große Rolle sowie die Hauptsuchbegriffe der gesamten Webseite. Meist sind die Seiten betroffen, welche mit hart umkämpften Suchbegriffen optimieren. Die Webseiten welche auf Suchberiffskombinationen optimiert wurden oder auf Begriffe die von der Konkurrenz kaum genutzt werden, kommen eher weniger in die Sandbox. Sobald eine Seite von der Sandbox „angegriffen“ wurde, wird diese Seite kaum mehr gefunden oder nur unter „dubiosen“ Keywords zu finden.

Die Dauer des Sandbox Effekts kann nicht genau bestimmt werden, sodass man nicht sagen kann, aber wann eine betroffene Webseite wieder gelistet wird. Grobe Vermutungen schätzen auf eine Dauer von mindestens 3 Monaten bis maximal ein Jahr. Der Durchschnitt des Aufenthalts in der Sandbox liegt in der Regel zwischen 3-6 Monaten. Experten gehen allerdings eher davon aus, dass dieses „Nichterscheinen“ normale Erscheinungen des Google Algorithmus sind und die Existenz der Sandbox bezweifeln. Experten untermauern diese Meinung durch die nicht eindeutigen Faktoren der Aufenthaltsdauer sowie den dafür zugrunde liegenden Ursachen.

Wie schon erwähnt verhelfen zum einen starke sowie vertrauenswürdige Links oder aber auch suchbegriffsspezifische Textlinks, welche als Button oder Banner eingefügt werden, um aus der Sandbox zu entkommen.

Damit die Google Sandbox Ihre Seite verschont, sollte darauf geachtet werden, dass vor allem in der Anfangsphase kein zu starker und somit vertrauensunwürdiger Linkaufbau stattfindet. Also sind am Anfang wenige vertrauenswürdige Backlinks besser in den Augen der Suchmaschine als wenn nur auf die Quantität geachtet wird.

6.5.2 Supplemental Index

Der zusätzliche Index, also der Supplemental Index kann mit der Google Sandbox verglichen werden. Sollte sich somit eine Webseite in dem Supplemental Index befinden hat das ähnliche Auswirkungen wie in der Sandbox.

Diejenigen Internetseiten welche nur im Supplemental Index erscheinen, werden nicht so häufig von den Crawlern der Suchmaschinen durchsucht wie die anderen Webseiten. Des Weiteren werden die Webseiten in diesem Index benachteiligt behandelt. Nur bei nicht ausreichenden Ergebnissen werden eventuell Webseiten aus dem Supplemental Index hinzugezogen.

Wann genau Seiten in diesen zusätzlichen Index abrutschen, sind ähnlich wie bei der Sandbox, nämlich eine zu starke Optimierung auf oft gesuchte Keywords. Darüber hinaus können hierbei auch Duplicate Content oder gleiche Titel oder Descriptions Schuld an dem Abrutschen sein. Um aus diesem Index zu gelangen, reicht es in der Regel schon, die Gründe für das Eintreten zu beseitigen.

6.5.3 Filter 31+

Ähnlich wie bei der Sandbox ist auch die Existenz des „Filter 31+“ umstritten. Ohne genaue Gründe, rutschen viele extrem optimierte Seiten auf stark umkämpfte Suchbegriffe ab auf die Plätze 31-40 in den Suchergebnissen.

Da in der Regel lediglich die ersten drei Seiten einer Suchmaschine durchsucht werden, kommt es durch den Filter 31+ für betroffene Webseiten zu starken Besucherrückgängen. Vor allem nach Optimierungen von Webseiten erfahren diese eine starken Absturz in den Ergebnissen. Google will mit Hilfe des Filters das Gleichgewicht zwischen professionell optimierten Seiten und privaten Webseiten aufrechterhalten.

Diese Vorfälle zeigen auf, dass man eine Internetseite nicht von heute auf morgen zu stark optimieren sollte. Sobald eine Seite unter den relevanten Suchbegriffen zu finden ist, sollte man erstmal weitere Optimierungsversuche unterlassen. Doch auch bei Optimierung ist Geduld das A und O, weshalb man sich dafür mehrere Wochen Zeit nehmen sollte und Schritt für Schritt vorgehen.

6.5.4 Filter 950+

Genauso wie beim Filter 31+ schmeißt der Filter 950+ überoptimierte Seiten in den Ergebnissen auf die allerletzten Plätze ab den Tausendern. Weshalb dieser eventuell vorhandene Filter „Filter 950+“ getauft.