Tag: SEO
Mitte der 1990er Jahre fingen die allerersten Internet Suchmaschinen an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten direkt den Wert einer bevorzugten Listung in den Ergebnissen und recht bald entwickelten sich Organisation, die sich auf die Optimierung professionellen.
In den Anfängen ereignete sich die Aufnahme oft bezüglich der Transfer der URL der passenden Seite an die verschiedenen Suchmaschinen. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Webserver der Suchseite, wo ein weiteres Computerprogramm, der sogenannte Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die damaligen Versionen der Suchalgorithmen basierten auf Informationen, die dank der Webmaster sogar existieren werden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben eine Gesamtübersicht über den Gehalt einer Seite, allerdings stellte sich bald hoch, dass die Inanspruchnahme dieser Hinweise nicht solide war, da die Wahl der genutzten Schlüsselworte durch den Webmaster eine ungenaue Erläuterung des Seiteninhalts spiegeln kann. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Internetseiten bei individuellen Suchen listen.[2] Auch versuchten Seitenersteller verschiedenartige Attribute innert des HTML-Codes einer Seite so zu steuern, dass die Seite größer in Serps aufgeführt wird.[3]
Da die späten Suchmaschinen sehr auf Gesichtspunkte dependent waren, die nur in den Taschen der Webmaster lagen, waren sie auch sehr vulnerabel für Falscher Gebrauch und Manipulationen im Ranking. Um überlegenere und relevantere Testergebnisse in den Resultaten zu bekommen, mussten wir sich die Unternhemer der Suchmaschinen im WWW an diese Ereignisse integrieren. Weil der Triumph einer Anlaufstelle davon zusammenhängt, wesentliche Suchergebnisse zu den inszenierten Keywords anzuzeigen, vermochten ungeeignete Vergleichsergebnisse zur Folge haben, dass sich die Nutzer nach anderweitigen Chancen für die Suche im Web umblicken. Die Rückmeldung der Suchmaschinen im Netz vorrat in komplexeren Algorithmen fürs Rang, die Punkte beinhalteten, die von Webmastern nicht oder nur nicht ohne Rest durch zwei teilbar leicht kontrollierbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Urahn von Die Suchmaschine – eine Suchseiten, die auf einem mathematischen Suchsystem basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus einfluss besitzen ließ. Auch sonstige Suchmaschinen im WWW bezogen pro Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine