Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Suchmaschinen an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten zügig den Wert einer bevorzugten Positionierung in den Serps und recht bald entwickelten sich Betrieb, die sich auf die Verbesserung spezialisierten.
In Anfängen bis zu diesem Zeitpunkt der Antritt oft über die Übertragung der URL der richtigen Seite bei der vielfältigen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Webserver der Suchseite, wo ein 2. Anwendung, der so genannte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu anderen Seiten).
Die neuzeitlichen Varianten der Suchalgorithmen basierten auf Informationen, die mit den Webmaster selbst existieren werden konnten, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick über den Content einer Seite, aber registrierte sich bald hervor, dass die Anwendung dieser Vorschläge nicht vertrauenswürdig war, da die Wahl der genutzten Schlagworte durch den Webmaster eine ungenaue Vorführung des Seiteninhalts wiedergeben konnte. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Unterseiten bei spezifischen Stöbern listen.[2] Auch versuchten Seitenersteller vielfältige Fähigkeiten in des HTML-Codes einer Seite so zu lenken, dass die Seite überlegen in den Serps gefunden wird.[3]
Da die zeitigen Internet Suchmaschinen sehr auf Kriterien abhängig waren, die alleinig in Fingern der Webmaster lagen, waren sie auch sehr labil für Abusus und Manipulationen in der Positionierung. Um vorteilhaftere und relevantere Vergleichsergebnisse in Ergebnissen zu bekommen, mussten sich die Operatoren der Search Engines an diese Gegebenheiten anpassen. Weil der Gelingen einer Suchseite davon abhängig ist, wichtige Suchergebnisse zu den gestellten Suchbegriffen anzuzeigen, konnten untaugliche Testergebnisse dazu führen, dass sich die Mensch nach weiteren Varianten zur Suche im Web umsehen. Die Rückmeldung der Suchmaschinen im Internet vorrat in komplexeren Algorithmen fürs Rang, die Faktoren beinhalteten, die von Webmastern nicht oder nur kompliziert lenkbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Stammvater von Suchmaschinen – eine Recherche, die auf einem mathematischen Suchsystem basierte, der anhand der Verlinkungsstruktur Webseiten gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch alternative Suchmaschinen im Internet orientiert in Mitten der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.