Tag: SEO
Mitte der 1990er Jahre fingen die 1. Internet Suchmaschinen an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten zügig den Wert einer nahmen Listung in Resultaten und recht bald entwickelten sich Unternehmen, die sich auf die Aufbesserung professionellen.
In Anfängen ereignete sich die Aufnahme oft bezüglich der Transfer der URL der richtigen Seite an die vielfältigen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Web Server der Search Engine, wo ein weiteres Software, der gern genutzte Indexer, Angaben herauslas und katalogisierte (genannte Ansprüche, Links zu anderweitigen Seiten).
Die neuzeitlichen Varianten der Suchalgorithmen basierten auf Angaben, die durch die Webmaster selber vorhanden werden konnten, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben eine Übersicht über den Gehalt einer Seite, doch registrierte sich bald raus, dass die Inanspruchnahme er Tipps nicht zuverlässig war, da die Wahl der eingesetzten Schlagworte dank dem Webmaster eine ungenaue Abbildung des Seiteninhalts wiedergeben konnte. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Unterseiten bei besonderen Ausschau halten listen.[2] Auch versuchten Seitenersteller verschiedene Merkmale binnen des HTML-Codes einer Seite so zu beherrschen, dass die Seite passender in Resultaten aufgeführt wird.[3]
Da die frühen Suchmaschinen im Internet sehr auf Kriterien angewiesen waren, die ausschließlich in Fingern der Webmaster lagen, waren sie auch sehr instabil für Schindluder und Manipulationen in der Positionierung. Um vorteilhaftere und relevantere Vergleichsergebnisse in Ergebnissen zu erhalten, mussten sich die Anbieter der Suchmaschinen im WWW an diese Gegebenheiten anpassen. Weil der Gelingen einer Suchmaschine davon anhängig ist, relevante Suchergebnisse zu den inszenierten Suchbegriffen anzuzeigen, konnten unpassende Testergebnisse zur Folge haben, dass sich die Benützer nach diversen Entwicklungsmöglichkeiten für die Suche im Web umschauen. Die Erwiderung der Search Engines vorrat in komplexeren Algorithmen fürs Rang, die Merkmalen beinhalteten, die von Webmastern nicht oder nur kompliziert kontrollierbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Stammvater von Yahoo – eine Suchseiten, die auf einem mathematischen Routine basierte, der anhand der Verlinkungsstruktur Websites gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch andere Suchmaschinen überzogen in der Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine