Backlinks waren eine Zeit lang das wichtigste Werkzeug eines jeden Suchmaschinenoptimierers, um seine Seite in Google nach oben zu katapultieren. Dabei war jeder Backlink und jedes Mittel recht, um an Backlinks zu kommen. Ob Linkfarmen, Webkataloge, Artikelverzeichnisse oder Forum- und Blogbeiträge. Mittlerweile hat sich das Blatt gewendet und Google hat seine Algorithmen angepasst. Dabei prüft der Algortithmus verstärkt die Qualität und Natürlichkeit und deer Toolbar Pagerank wurde abgeschafft.
Inhaltsverzeichnis
Doch was sind eigentlich Backlinks?
Als Backlinks („Rückverweise“) werden gewöhnliche Links von anderen Webseiten auf die eigene bezeichnet. Setzt jemand einen Link auf Ihre Webseite, der auch von Suchmaschinen erkannt wird, kann ein „Crawler“ diesen nachverfolgen. Crawler ist ein Oberbegriff für ein kleines Programm, das auch als „Robot“ oder „Spider“ bezeichnet wird. Dieser soll die Webseiten automatisch nach Links durchsuchen und folgt so von einer Webseite zur nächsten. Ein bekannter Crawler ist z.B. der Crawler von Google mit der Bezeichnung Googlebot. Damit die Crawler nicht weiterspringen, und über den Link die nächste Webseite inspizieren, kann man das mit dem Linkattribut rel=“nofollow“ vermerken. Das soll den Crawlern signalisieren, das dieser Link nicht weiter verfolgt werden soll, und so zählt solch ein Link auch nicht zu den Backlinks, da die Crawler diesen ignorieren.
Warum sind Backlinks gut für die Webseite?
Zeitgleich mit dem Anstieg der Backlinks, steigt in der Regel auch die Linkpopularität (und evtl. auch die Domain- und IP-Popularität) der Webseite. Die Linkpopularität ist ein Maßstab für die Anzahl und Qualität von Hyperlinks, die auf eine Webseite weisen. Je häufiger eine Seite verlinkt wird, desto höher ist die Linkpopularität dieser Seite. Sie steht im Gegensatz zur Click Popularity, welche nur getätigte Klicks zur Bewertung heranzieht. Im einfachsten Fall wird die Linkpopularität nur an der Anzahl der Rückverweise gemessen. Die Linkpopularität wird von Suchmaschinen zur Bewertung von Webseiten verwendet, jedoch wird in der Regel nicht nur die Anzahl, sondern auch die Qualität der Rückverweise berücksichtigt. Der PageRank war ist ein Verfahren, um Linkpopularität festzulegen.
Der PageRank als das erste Bewertungssystem
Google hat Backlinks und den PageRank erstmals eingesetzt und ist damit innerhalb kürzester Zeit zum Marktführer geworden. Wer also in Suchmaschinen auf den vorderen Plätzen stehen wollte, der benötigte viele Backlinks. Am besten waren dabei Backlinks von themenrelevanten Seiten, weil diese nicht nur für die Suchmaschinen interessant waren, sondern den Besuchern auf der verweisenden Website auch weiter helfen konnten. Ein Handy- oder Versicherungen-Link auf einer Hobby-Anglerseite ist für die Besucher weniger interessant als einen Link zu einem Angelshop. Aus diesem Grund gingen die Experten davon aus, dass themenrelevante Backlinks wichtiger waren als themenfremde. Auch heutzutage sind Backlinks immer noch wichtig, doch die Bewertung ist bei weitem komplexer geworden. Der PageRank wurde abgeschafft und die Algorithmen wurden dahingehend immer weiter verbessert, so dass komplexe Vernetzungen und Abhängigkeiten erkannt werden. Dadurch ist selbst ein guter Backlink nicht immer relevant für die Seite, da nun auch andere Faktoren zur Bewertung herangezogen werden.
Backlinks alleine reichen nicht aus
Suchmaschinen verlassen sich somit nicht nur auf Backlinks, sondern auch auf die Seitenanzahl, Interne-Links, Texte auf einer Webseite sowie viele weitere und wichtige Attribute, die das Ranking einer Webseite beeinflussen. Ein weiteres Konzept zur Bewertung von Backlinks ist das sogenannte “Trust”-Konzept, bei dem die Wichtigkeit über manuell als „vertrauenswürdige Seiten“ gekennzeichnete Seiten vererbt wird. Der Ansatz des Trustrank-Verfahrens ist, dass Webseiten, die von vertrauenswürdigen Seiten verlinkt werden, selbst vertrauenswürdig sind, während Spam-Seiten selten oder nie von vertrauenswürdigen Seiten verlinkt werden.
Das Problem mit der Jagd nach der Anzahl der Links ist, dass man nicht aufhören kann. Man befindet sich möglicherweise in einem Kopf-an-Kopf Rennen mit seiner Konkurrenz, indem jeder immer einen Link mehr als der andere zu bekommen versucht. Man kauft sie in großer Zahl, man tauscht sie in großer Zahl, man versucht alles um die Anzahl der Backlinks immer weiter zu erhöhen. Man gerät dabei aber automatisch in eine Falle, weil man oft Links von Seiten mit geringem Trustwert (künstlichen Backlinkseiten) bekommt. So schaden die Backlinks eher, als dass Sie dem Webseitenbesitzer helfen.
Verschiedene Techniken für Linkaufbau
Insbesondere dann, wenn kein organischer Linkaufbau betrieben wird („Black Hat“ SEO). Als organisch („White Hat“ SEO) versteht man einen Linkaufbau, der natürlich, über Referenzen und Empfehlungen und vor allem langsam zu Stande kommt. Wenn man eine neue Domain eröffnet, und gleich schon zu Anfang 50 Backlinks aufweisen kann, so scheint dies künstlich erzeugt, und Erfolge können oftmals nur einige Tage bis Wochen anhalten, bis dann die Seite aus den Suchergebnissen verbannt wird. Wenn man somit einen nachhaltigen Linkaufbau tätigen möchte, der auch langfristig erfolgreich ist, so sollte man seine Backlinks (zumindest die künstlich erzeugten, wie in Branchenbüchern, Webverzeichnissen, Blogs, Foren und Linktausch) mit Bedacht wählen.
Fazit
Backlinks sind imemrnoch wichtige Indikatoren, mit denen auch die Positionierung der Webseite beeinflußbar bleibt. Sie haben aber bei weitem nicht mehr die Relevanz, die sie vor Jahren hatten. Und das hat dazu beigetragen, dass sich Webseitenbetreiber immer mehr dem Inhalt der Seite widmeten und dadurch auch die Qualität der Webseiten gestiegen ist. Die neuen Algorithmen werden immer klüger und erlauben eine sehr differenzierte Anaylse der Backlinkstruktur. White Hat Techniken haben sich mittlerweile durchgesetzt und Suchmaschinen werden in Zukunft den lästigen Spam, der oftmals über künstliche Backlinks generiert wurde, stumpf ausschließen.