Tag: SEO
Mitte der 1990er Jahre fingen die allerersten Suchmaschinen an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten rasch den Wert einer lieblings Listung in Resultaten und recht bald fand man Einrichtung, die sich auf die Verfeinerung ausgerichteten.
In den Anfängen geschah der Antritt oft bezüglich der Transfer der URL der richtigen Seite in puncto vielfältigen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Webserver der Search Engine, wo ein 2. Software, der so genannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu ähnlichen Seiten).
Die damaligen Varianten der Suchalgorithmen basierten auf Angaben, die dank der Webmaster selber gegeben werden, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben eine Gesamtübersicht mit Gegenstand einer Seite, gewiss setzte sich bald hervor, dass die Inanspruchnahme dieser Tipps nicht vertrauenswürdig war, da die Wahl der verwendeten Schlüsselworte dank dem Webmaster eine ungenaue Beschreibung des Seiteninhalts repräsentieren konnte. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Webseiten bei speziellen Recherchieren listen.[2] Auch versuchten Seitenersteller verschiedenartige Eigenschaften in einem Zeitraum des HTML-Codes einer Seite so zu lenken, dass die Seite stärker in Suchergebnissen gelistet wird.[3]
Da die damaligen Suchmaschinen sehr auf Aspekte abhängig waren, die allein in Fingern der Webmaster lagen, waren sie auch sehr unsicher für Falscher Gebrauch und Manipulationen in der Positionierung. Um überlegenere und relevantere Testergebnisse in den Suchergebnissen zu erhalten, mussten sich die Betreiber der Suchmaschinen an diese Gegebenheiten einstellen. Weil der Triumph einer Suchmaschine davon abhängig ist, essentielle Ergebnisse der Suchmaschine zu den gestellten Keywords anzuzeigen, konnten ungeeignete Resultate zur Folge haben, dass sich die User nach ähnlichen Varianten bei der Suche im Web umschauen. Die Erwiderung der Search Engines inventar in komplexeren Algorithmen beim Ranking, die Punkte beinhalteten, die von Webmastern nicht oder nur mühevoll beherrschbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Stammvater von Google – eine Recherche, die auf einem mathematischen Suchalgorithmus basierte, der mit Hilfe der Verlinkungsstruktur Internetseiten gewichtete und dies in Rankingalgorithmus einfließen ließ. Auch zusätzliche Search Engines überzogen bei Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.