Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Search Engines an, das frühe Web zu sortieren. Die Seitenbesitzer erkannten zügig den Wert einer lieblings Listung in Resultaten und recht bald entwickelten sich Anstalt, die sich auf die Aufbesserung professionellen.
In Anfängen bis zu diesem Zeitpunkt die Aufnahme oft über die Übermittlung der URL der speziellen Seite an die divergenten Search Engines. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Server der Anlaufstelle, wo ein zweites Computerprogramm, der die bekannten Indexer, Angaben herauslas und katalogisierte (genannte Ansprüche, Links zu weiteren Seiten).
Die damaligen Versionen der Suchalgorithmen basierten auf Angaben, die anhand der Webmaster eigenständig vorliegen sind, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick via Content einer Seite, allerdings stellte sich bald raus, dass die Inanspruchnahme der Vorschläge nicht solide war, da die Wahl der angewendeten Schlüsselworte durch den Webmaster eine ungenaue Vorführung des Seiteninhalts sonstige Verben konnte. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Internetseiten bei besonderen Stöbern listen.[2] Auch versuchten Seitenersteller mehrere Fähigkeiten im Laufe des HTML-Codes einer Seite so zu beeinflussen, dass die Seite besser in Resultaten gefunden wird.[3]
Da die zeitigen Search Engines sehr auf Gesichtspunkte abhängig waren, die bloß in Koffern der Webmaster lagen, waren sie auch sehr empfänglich für Schindluder und Manipulationen im Ranking. Um tolle und relevantere Testergebnisse in den Resultaten zu erhalten, musste ich sich die Anbieter der Suchmaschinen im Internet an diese Voraussetzungen angleichen. Weil der Ergebnis einer Anlaufstelle davon abhängig ist, essentielle Ergebnisse der Suchmaschine zu den inszenierten Keywords anzuzeigen, konnten ungeeignete Testurteile zur Folge haben, dass sich die Anwender nach sonstigen Optionen bei der Suche im Web umschauen. Die Lösung der Search Engines lagerbestand in komplexeren Algorithmen beim Ranking, die Kriterien beinhalteten, die von Webmastern nicht oder nur kompliziert kontrollierbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Stammvater von Suchmaschinen – eine Recherche, die auf einem mathematischen Suchsystem basierte, der anhand der Verlinkungsstruktur Webseiten gewichtete und dies in Rankingalgorithmus einfluss besitzen ließ. Auch andere Search Engines relevant während der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine