Da ich eben jene Erfahrungen habe, bin ich insbesondere thommy's Ausführen eigentlich immer recht skeptisch gegenüber. Skeptisch deswegen, weil bei der Datenmenge, die Goo erhebt und vorhält einige der von thommy vermuteten Schlüsse nicht mehr zu ziehen sind.
Insbesondere die Idee, nach der Goo Schlüsse daraus ziehen kann, wer wann auf einen Suchlink geklickt hat und danach wie lange auf dem Suchergebnis war und danach dann den nächsten Link in den SERPs angeklickt hat.
was soll denn daran zauberei sein?
google hat so viele zigtausend server stehen, dass eine solche auswertung nicht wirklich ein hexenwerk ist. zudem HABEN die solche zahlen ja, denn sonst könnten sie sie dir nicht in webmaster tools zeigen.
da kannst du genau sehen wie häufig du bei welchem key eingeblendet wurdet und welche klickrate erzielt wurde - der rest ist doch nur noch abgleich.
ich bin aber nicht der meinung, dass dies das einzige kriterium ist, weil es ja nicht zwingend ein qualitätskriterium sondern eher ein ausschlusskriterium ist.
Technisch sicherlich machbar - aber aufgrund der mit der Datenmenge unweigerlich steigenden Unschärfe der Informationen schlichtweg nicht mehr für verlässliche Statistiken zu gebrauchen.
Ich hatte mal die Gelegenheit, mit einem Statistiker des Deutschen Wetterdienstes über dieses Thema zu reden - ein Grund, warum keine exakten Wettervorhersagen möglich sind, ist schlicht die Tatsache, dass dazu dermaßen viele Informationen notwendig wären, dass deren Informationsgehalt schlicht im weißen Rauschen verschwinden würden.
die unschärfe ist googles zu hause. der gesamte algo basiert auf dem gaussschen gleichverteilungsprinzip, weil das netz wachsen kann wie es will, es wird immer nur 100% zu verteilen geben.
Das ist ein ganz elementares Gesetz der Statistik: der Informationsgehalt einer Datenmenge X gleicht einer Gaußschen Kurve. Es gibt also einen Bereich, der zu wenige Informationen enthält, einen, mit dem man arbeiten kann und einen, der so mächtig ist, dass er keine sinnvolle Arbeit mehr zulässt.
Und ich bin ganz fest davon überzeugt, dass Goo schon lange am rechten Rand der Kurve angekommen ist.
denen qualmt sogar ganz sicher der kopf, was auch immer wieder dadurch bewiesen wird, das anderungen im nachhinein zurückgezogen werden, denn da kommen wir schon in die bereiche der chaostheorie. und diese besagt ja unter anderem, dass der schlag eines schmetterlingsflügels, einen hurrican am anderen ende der welt beeinflussen kann.
ganz sicher ist es so, dass ich beim google algo viele kriterien im wege stehen oder sogar auslöschen.
daher ist ja die kontrolle über das besucherverhalten auch das einzig richtige messwerkzeug.
Und weil das so ist, kommt dem Random-Faktor meiner Meinung nach ein immer höherer Stellenwert zu. Zufälligkeiten ergeben sich irgendwann zwangsläufig bei solchen Datenmassen. Das klingt paradox aber scheint offenbar wirklich so zu sein (ich habs mit Statistik beim Studium nicht so gehabt, kenne aber einige, die darin förmlich aufblühen und eben jene Weisheiten von sich geben).
Was ich dabei höchst interessant finde: sollte es tatsächlich diesen Random-Faktor geben, sind sämtliche SEO-Blasen wirklich nur das - Blasen
an einen random faktor glaube ich nicht - so etwas könnte man mit 5 proggern stemmen und müsste keine tausende davon haben.
dass aber im einen oder anderen status der weiterentwicklung immer wieder mal ein ähnliches ergebnis rauskommt, halte ich eher für plausibel.
kein webmaster dieser welt setzt nur einen link und wartet ab was passiert sondern die position in den serps ist immer eine mischung aus vielen aktivitäten - oft auch welchen, mit denen man selbst gar nichts zu schaffen hat und auf die man gar keinen einfluss hat.
um also zu sagen WAS nun genau WELCHE reaktion bewirkt hat, müsste man das alles auf dem schirm haben. und zwar nicht nuir die eigenen linkpartner sondern auch deren link ururururgrossväter.
dazu kommt eine nicht unerhebliche menge von links, die im netz entstehen und gegen die man gar nichts machen kann.
aber eben nicht nur die links, sondern auch viele viele andere faktoren tragen dazu bei wo eine seite am ende gelistet sein wird.
last not least ist eben mehr und mehr content der king, weil daran google nicht vorbei kommt.
viel spass im netz
thommy