Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Suchmaschinen im WWW an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten rasch den Wert einer nahmen Listung in den Ergebnissen und recht bald fand man Organisation, die sich auf die Verfeinerung professionellen.
In Anfängen bis zu diesem Zeitpunkt die Aufnahme oft zu der Übermittlung der URL der geeigneten Seite bei der verschiedenen Search Engines. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Web Server der Suchmaschine, wo ein zweites Softwaresystem, der die bekannten Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu diversen Seiten).
Die zeitigen Varianten der Suchalgorithmen basierten auf Infos, die mithilfe der Webmaster eigenständig vorhanden werden, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Gesamteindruck via Inhalt einer Seite, doch setzte sich bald hervor, dass die Inanspruchnahme der Details nicht vertrauenswürdig war, da die Wahl der benutzten Schlagworte dank dem Webmaster eine ungenaue Vorführung des Seiteninhalts sonstige Verben konnte. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Websites bei spezifischen Ausschau halten listen.[2] Auch versuchten Seitenersteller mehrere Punkte im Laufe des HTML-Codes einer Seite so zu beeinflussen, dass die Seite stärker in den Resultaten gelistet wird.[3]
Da die zeitigen Suchmaschinen im Internet sehr auf Punkte dependent waren, die einzig in den Fingern der Webmaster lagen, waren sie auch sehr anfällig für Straftat und Manipulationen in der Positionierung. Um überlegenere und relevantere Ergebnisse in Serps zu bekommen, mussten sich die Besitzer der Suchmaschinen an diese Umständen integrieren. Weil der Gelingen einer Suchseite davon abhängig ist, relevante Ergebnisse der Suchmaschine zu den gestellten Keywords anzuzeigen, konnten ungünstige Urteile dazu führen, dass sich die Benützer nach weiteren Entwicklungsmöglichkeiten zur Suche im Web umsehen. Die Rückmeldung der Search Engines vorrat in komplexeren Algorithmen fürs Positionierung, die Faktoren beinhalteten, die von Webmastern nicht oder nur nicht ohne Rest durch zwei teilbar leicht beherrschbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Stammvater von Suchmaschinen – eine Search Engine, die auf einem mathematischen Suchalgorithmus basierte, der anhand der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch andere Suchmaschinen im Internet bedeckt während der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen