Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Search Engines an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Listung in Resultaten und recht bald entstanden Firma, die sich auf die Besserung professionellen.
In Anfängen erfolgte der Antritt oft bezüglich der Übertragung der URL der entsprechenden Seite in puncto verschiedenartigen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Web Server der Recherche, wo ein 2. Computerprogramm, der allgemein so benannte Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu weiteren Seiten).
Die späten Modellen der Suchalgorithmen basierten auf Angaben, die mit den Webmaster eigenhändig vorgegeben wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben eine Übersicht über den Gehalt einer Seite, gewiss registrierte sich bald raus, dass die Verwendung der Vorschläge nicht gewissenhaft war, da die Wahl der verwendeten Schlagworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts spiegeln konnte. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Seiten bei besonderen Recherchieren listen.[2] Auch versuchten Seitenersteller verschiedene Eigenschaften in des HTML-Codes einer Seite so zu steuern, dass die Seite passender in Serps gelistet wird.[3]
Da die späten Suchmaschinen im Internet sehr auf Kriterien abhängig waren, die alleinig in den Koffern der Webmaster lagen, waren sie auch sehr anfällig für Schindluder und Manipulationen im Ranking. Um höhere und relevantere Ergebnisse in Resultaten zu bekommen, mussten wir sich die Unternhemer der Suchmaschinen im Netz an diese Umständen adaptieren. Weil der Riesenerfolg einer Suchseite davon zusammenhängt, wichtigste Suchresultate zu den gestellten Keywords anzuzeigen, konnten unangebrachte Urteile darin resultieren, dass sich die Benutzer nach ähnlichen Wege zur Suche im Web umblicken. Die Auskunft der Search Engines vorrat in komplexeren Algorithmen fürs Rangordnung, die Aspekte beinhalteten, die von Webmastern nicht oder nur schwierig manipulierbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Stammvater von Google – eine Recherche, die auf einem mathematischen Matching-Verfahren basierte, der anhand der Verlinkungsstruktur Unterseiten gewichtete und dies in Rankingalgorithmus einfluss besitzen ließ. Auch andere Suchmaschinen im WWW bedeckt in Mitten der Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.