Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen im Netz an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten unmittelbar den Wert einer nahmen Listung in Suchergebnissen und recht bald entwickelten sich Unternehmen, die sich auf die Besserung qualifizierten.
In den Anfängen bis zu diesem Zeitpunkt der Antritt oft bezüglich der Übertragung der URL der entsprechenden Seite bei der vielfältigen Search Engines. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Web Server der Anlaufstelle, wo ein weiteres Softwaresystem, der bekannte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu diversen Seiten).
Die neuzeitlichen Varianten der Suchalgorithmen basierten auf Infos, die aufgrund der Webmaster selber existieren worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Gesamteindruck via Content einer Seite, jedoch stellte sich bald raus, dass die Nutzung dieser Details nicht solide war, da die Wahl der angewendeten Schlagworte dank dem Webmaster eine ungenaue Erläuterung des Seiteninhalts wiedergeben hat. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Unterseiten bei besonderen Recherchieren listen.[2] Auch versuchten Seitenersteller diverse Merkmale innert des HTML-Codes einer Seite so zu manipulieren, dass die Seite überlegen in den Serps aufgeführt wird.[3]
Da die zeitigen Suchmaschinen im WWW sehr auf Merkmalen dependent waren, die einzig in Koffern der Webmaster lagen, waren sie auch sehr vulnerabel für Falscher Gebrauch und Manipulationen in der Positionierung. Um überlegenere und relevantere Testurteile in Serps zu erhalten, mussten sich die Betreiber der Internet Suchmaschinen an diese Gegebenheiten adaptieren. Weil der Ergebnis einer Anlaufstelle davon anhängig ist, wichtige Ergebnisse der Suchmaschine zu den gestellten Suchbegriffen anzuzeigen, konnten unangebrachte Testergebnisse darin resultieren, dass sich die Anwender nach weiteren Möglichkeiten zur Suche im Web umsehen. Die Auflösung der Suchmaschinen im Internet lagerbestand in komplexeren Algorithmen beim Positionierung, die Punkte beinhalteten, die von Webmastern nicht oder nur kompliziert lenkbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Stammvater von Bing – eine Suchseiten, die auf einem mathematischen KI basierte, der anhand der Verlinkungsstruktur Webseiten gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch weitere Search Engines bedeckt während der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.