Tag: SEO
Mitte der 1990er Jahre fingen die allerersten Suchmaschinen im Internet an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten flott den Wert einer lieblings Listung in den Ergebnissen und recht bald fand man Betriebe, die sich auf die Verbesserung qualifitierten.
In den Anfängen vollzogen wurde die Aufnahme oft bezüglich der Übermittlung der URL der richtigen Seite bei der divergenten Suchmaschinen. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Web Server der Suchmaschine, wo ein 2. Angebot, der so genannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu diversen Seiten).
Die späten Varianten der Suchalgorithmen basierten auf Informationen, die durch die Webmaster selbst vorhanden wurden, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben einen Überblick per Essenz einer Seite, doch registrierte sich bald hoch, dass die Benutzung er Vorschläge nicht solide war, da die Wahl der angewendeten Schlagworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts reflektieren hat. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Webseiten bei speziellen Recherchieren listen.[2] Auch versuchten Seitenersteller vielfältige Fähigkeiten binnen des HTML-Codes einer Seite so zu manipulieren, dass die Seite stärker in den Ergebnissen aufgeführt wird.[3]
Da die neuzeitlichen Search Engines sehr auf Punkte angewiesen waren, die ausschließlich in den Taschen der Webmaster lagen, waren sie auch sehr empfänglich für Abusus und Manipulationen in der Positionierung. Um gehobenere und relevantere Resultate in Ergebnissen zu erhalten, musste ich sich die Besitzer der Suchmaschinen im WWW an diese Gegebenheiten adjustieren. Weil der Gelingen einer Suchseite davon abhängig ist, relevante Ergebnisse der Suchmaschine zu den inszenierten Suchbegriffen anzuzeigen, vermochten unangebrachte Vergleichsergebnisse zur Folge haben, dass sich die Benützer nach weiteren Möglichkeiten zur Suche im Web umschauen. Die Rückmeldung der Search Engines vorrat in komplexeren Algorithmen beim Ranking, die Merkmalen beinhalteten, die von Webmastern nicht oder nur schwer beherrschbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Vorläufer von Yahoo – eine Anlaufstelle, die auf einem mathematischen Routine basierte, der anhand der Verlinkungsstruktur Unterseiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch übrige Suchmaschinen im Netz bezogen in der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.