Suchmaschinen Teil 1: Von der Suchanfrage zum Suchmaschinenranking

Jeder kennt sie, jeder benutzt sie – die Suchmaschinen. Mit der Entwicklung des World Wide Web entstanden auch die Suchmaschinen, von welchen es mittlerweile unzählig viele gibt. Doch nur wenige davon sind “echte” Suchmaschinen mit eigenem Index. Die bekanntesten Suchmaschinen dieser Art sind Google, Bing und Yahoo.

 

Für uns ist das Prinzip einer Suchmaschine ganz selbstverständlich. Wir geben ein Begriff in die Suchleiste ein und wir erhalten nach nur wenigen Sekunden tausende von Suchergebnissen, perfekt abgestimmt auf unsere Suchanfrage. Doch was steckt eigentlich hinter alledem?

 

Der Weg ab der Suchanfrage bis hin zum tatsächlichen Suchergebnis besteht aus drei grundsätzlichen Schritten:

 

1) Datensammlung – Crawlen

Zur Datensammlung durchsuchen softwaregestützte Suchroboter, die „Crawler“, täglich das Internet und analysieren die Inhalte von Milliarden Websites. Dieser besondere Vorgang nennt sich Harvesting und umfasst primär die Analyse von HTML-Seiten. Neben den HTML-Seiten werden auch .pp oder .pdf-Dateien sowie Meta-Texte angesteuert. Daten, die von den Crawlern erfasst wurden, werden auf Servern abgelegt. Websites, die bereits erfasst wurden, werden ab und an auf neue Inhalte überprüft. Wie oft ein Crawler eine Website besucht, ist von folgenden Faktoren abhängig:

 

  • Häufigkeit der Aktualisierung
  • Anzahl an Backlinks
  • interne Verlinkungen
  • Absprungsrate

 

Suchmaschine

 

2) Datenanalyse – Indexierung

 

Bei der Indexierung geht es darum, unstrukturierte Datensammlungen aufzuarbeiten. Die bereits von den Crawlern erfassten Daten werden in diesem Schritt von einem Bot strukturiert. Neue Inhalte werden in Verzeichnissen angelegt und alte werden überschrieben. Das zentrale Ziel ist es, Daten, Bilder und Videos in einer Datenbank kategorisch abzulegen, um diese später möglichst genau zu einer thematischen Suchanfrage abrufen zu können. Mit Hilfe von Rechenprozessen wertet das System alle Inhalte aus und ordnet die jeweilige Website der Relevanz eines Keywords zu. Bei einer Suchanfrage ist es daher nicht mehr nötig, das komplette World Wide Web nach einem bestimmten Suchbegriff abzusuchen. Suchmaschinen können ganz einfach auf ihr bereits angelegtes Index zurückgreifen und suchen lediglich nach dem angefragten Schlüsselwort beziehungsweise nach bestimmten Buchstabenabfolgen und Mustern.

 

3) Datenausgabe – Ranking

 

Im letzten Schritt geht es um die nutzerfreundliche Anordnung der Suchergebnisse. Hierbei wird die Reihenfolge, also das Ranking der Treffer, nach einem Algorithmus bestimmt. Jede Suchmaschine entscheidet mit Hilfe ihres eigenen Algorithmus darüber, welche Seiten einem Nutzer angezeigt werden, weshalb das Ranking von Suchmaschine zu Suchmaschine sehr unterschiedlich ausfallen kann. Die meisten Suchmaschinen berechnen ihren Algorithmus nicht nur anhand der üblichen SEO-Faktoren, sondern auch anhand des vorherigen Nutzerverhaltens. Das bedeutet, es werden auch ehemalige Suchanfragen, Interessen etc. mit berücksichtigt. Es gibt mehr als 200 Faktoren, die beim Berechnen des Suchmaschienalgorhitmus einen Einfluss nehmen. Um so besser eine Website im Ranking platziert ist, desto höher sind auch die Besucherzahlen und genau das ist das zentrale Ziel eines jeden Websitebetreibers. Um ein möglichst gutes Ranking zu erzielen, sollten folgende Punkte im Online-Marketing berücksichtigt werden:  

 

  • Aktualität der Inhalte
  • externe und interne Verlinkungen
  • technische Aspekte  

Suchmaschine

 

Allgemein lassen sich Suchmaschinen in zwei Kategorien einteilen: die Meta – und Volltextsuchmaschine. Meta-Suchmaschinen haben, anders als oben beschrieben, kein eigenes Index. Sie sammeln nach Eingabe eines Suchbegriffs Suchergebnisse verschiedener Volltextsuchmaschinen und berechnen aus diesen Ergebnissen mit Hilfe ihres eigenen Algorhitmus ein völlig neues Ranking. Da Meta-Suchmaschinen kein eigenes Index haben, sondern auf die ursprünglichen Suchmaschinen zurückgreifen müssen, sind diese für eine schnelle Suche nicht unbedingt geeignet. Sie sind weitestgehend für Suchanfragen zu speziellen Themengebieten gedacht. So hat jede Meta-Suchmaschine eigene spezielle Ranking-Faktoren. Die bekanntesten Meta-Suchmaschienen sind Kniff, Yippy, Metager und Ixquick. Zu den Volltext-Suchmaschinen zählen Bing, Yahoo und besonders Google.

 

Die wichtigsten Keyfacts im Überblick:

 

  • Crawler sind softwaregestützte Suchroboter
  • Crawler analysieren täglich Milliarden von Websites nach neuen Inhalten
  • Wie häufig ein Crawler eine Seite besucht, ist abhängig von: der Häufigkeit der Aktualisierung, Anzahl an Backlinks, Häufigkeit der Absprünge und internen Verlinkungen

 

  • Bots strukturieren die von den Crawlern erfassten Daten
  • Bots legen die Daten im Index ab
  • Suchmaschinen durchsuchen nicht das World Wide Web, sondern ihr Index

 

  • Die Reihenfolge eines Rankings wird anhand eines Algorhitmus bestimmt
  • Jede Suchmaschine hat eigene Ranking-Faktoren
  • Es gibt mehr als 200 SEO-Faktoren

Blog durchsuchen