@thommy
Meinst du wirklich, dass Goo Webseiten in Kategorien einsortiert (jetzt mal ohne Ironie oder Sarkasmus)?
dessen bin ich mir sogar GANZ sicher. wobei hier nicht jedes thema gleichermassen tief kategorisiert wird.
im nonadultbereich dazu wesentlich mehr als im adult, wo letztendlich wirklich nur die thematik "adult" als kategorie zählt.
im nonadult ist das bei einigen grossen themen ne ganz andere nummer.
nehmen wir versicherungen. hier unterscheidet google nahezu alle arten von versicherungen bzw. setzt sie in relation.
dies wahrscheinlich nicht zuletzt aus dem grund, weil sich im nonadult relationen herstellen lassen - im adult dagegen nicht.
beispiel: ein mensch der sich für kfz-versicherungen interessiert könnte auch interesse an einer verkehrsrechtschutz haben oder an autoreifen, an nem zweitwagen, an urlaubszielen die mit dem auto erreichbar sind oder oder oder....
ein pornouser der sich gerne lesbenfilme ansieht, lässt darüberhinaus keinen rückschluss zu ausser, dass er pornos konsumiert.
Zu den Links: meiner Meinung nach, ist die Themenrelevanz ein künstlich geschaffenes Konstrukt. Künstlich deswegen, weil eben viele WM versuchen, Links zum Thema ihrer Seite zu bekommen.
selbst wenn es das wäre (was es nicht ist) wäre es dennoch nicht ganz sinnlos, weil google in seinem ranking auch haltezeiten berücksichtigt.
würde man also einen pornouser auf ne briefmarkensammelseite schicken, dann ist davon auszugehen, dass er sich dort nicht lange aufhält. tun das viele, dann hat das durchaus einen negativeffekt aufs ranking.
ein themenrelevanter link dagegen bringt ganz sicher längere haltezeit, damit mehr relevanz und besseres listing.
Was auch mal ganz interessant wäre: wie kann man das überprüfen?
vielfach kann man es mit dem keywordvorschlagstool von google. hier kann man übrigens auch ganz gut die fehler sehen, die google dabei nach wie vor macht.
Was mich ebenfalls daran zweifeln lässt, dass Goo tatsächlich in der Lage ist, ein Thema zu identifizieren, sind die mitunter haarsträubenden Ergebnisse bei AdSense - Einblendungen.
die frage ist ob du die objektiv betrachtest oder subjektiv und die nächste frage wäre, ob der adwords-kunde hier nicht absichtlich eine breite streuung seines keywords wüscht. und zugegebenermassen "lernt" google hier auch noch in weiten teilen.
zu subjektiv und objektiv:
wenn du deine eigenen einbelndergebnisse betrachtest, muss das nicht heissen, dass andere user die selben sehen. das ist nicht mal mehr in der googlesuche selbst so, da google mehr und mehr individualisierte ergebnisse ausliefert. was natürlich wiederum die frage aufwirft, wie sinnvoll SEO dann überhaupt noch ist, wenn da mal der punkt der prefektion näher rückt.
zum adwords kunden:
ich habe schon erlebt, dass kunden einfach alle worte belegen, die irgendwie bei google noch billig zu haben sind. in der masse macht das durchaus sinn.
zu den individualisierten ergebnissen:
google trackt heute schon fast jeden user. um so leichter natürlich wenn er ein google konto hat (ob nun mail oder irgendwas anderes spielt dabei keine geige). aber auch user die völlig ohne ein solches konto leben, arbeitet google längst mit dem electronic fingerprint, so dass zumindest jeder rechner weitestgehend erkannt wird.
man muss diese individualisierte suche EXPLIZIT abschalten, wenn man sie nicht will aber das wissen von 100.000 google user vielleicht 10.
Dazu habe ich mit meinem Forum mal einen Test gemacht und einen Beitrag veröffentlicht, der von Hundefutter handelte (also in das Gesamtthema der Seite passte) und mitten im Text vollkommen aus dem Kontext gerissene Keywords enthielt. Ich habe also künstlich eine Keyworddichte geschaffen, die nichts aber auch gar nichts mit dem Rest des Textes und schon gar nicht mit dem der Seite zu tun hatte.
Das Ergebnis bezüglich der eingeblendeten AdSense-Anzeigen war verblüffend

Und Anzeigen zum Thema Hundefutter hätte es zur Genüge gegeben - also aus einem Mangel an Anzeigen heraus kamen die Ergebnisse nicht zustande.
daraus schliesse ich, dass google an dieser stelle keine hundefutter anzeigen geschaltet hat. was ja aber auch sinnig ist und rein gar nichts mit der kategorisierung der DOMAIN zu tun hat, sondern sich vielmehr nur auf den inhalt der unterseite bezieht.
Ich stelle mir vor, dass Goo das Thema einer Webseite am Vorhandensein von Schlagwörtern fest macht - Schlagwörter, die - wie auch immer geartet - in einem Dictionary vorgehalten werden und dort kategorisiert sind. Und über diesen Brückenschlag stelle ich mir die Themenzuordnung vor. Rein aus dem fließenden Text und dem allgemeinen Kontext der Seite heraus? Schwierig...
da liegst du gar nicht so falsch aber beziehst dich eben auf den inhalt einer einzelnen page und nicht auf den inhalt einer domain.
stell dir das ungefähr so vor:
domain hat eine thematik
100 unterseiten haben die selbe thematik.
links kommen thematisch
ergebnis: seite ist zu 100% themenrelevant zur oberkategorie, der semantisch auch noch nebenbegriffe untergeordenet sind.
nun andersrum:
domain hat eine thematik
50 unterseiten haben die selbe thematik 50 eine völlig andere
links kommen zu 50% thematisch und 50 nicht thematisch
ergebnis: seite ist nur zu 50% themenrelevant - auch mit den dazugehörigen semantischen unterbegriffen.
was aber nicht heisst, dass eine einzelne unterseite dann nicht plötzlich zu etwas anderem ranken kann, weil eben diese UNTERSEITE aufgrund ihres inhaltes und ihrer erhaltenen links plötzlich die am höchsten relevante seite zu diesem thema sein kann.
das kannst du sogar testen:
a. du baust ne domain (abc.com) und gibst ihr den inhalt blumen.
du baust 5 unterseiten
1. blumen
2. schnecken
3. gartenteiche
4. düngemittel
5. briefmarken
b. du baust ne 2. seite (xyz.com) und gibst ihr den inhalt autos
du baust wieder 5 unterseiten
1. sportwagen
2. lieferwagen
3. wohnmobile
4. verkehrsrecht
5. briefmarken
nun gibst du der unterseite "briefmarken" (von domain abc.com) einen link von irgendeiner pornoseite und beobachtest was passiert. nämlich nichts oder so gut wie nichts.
als nächstes entfernst du den link von der pornoseite und linkst von der HAUPTSEITE der domain xyz.com auf die unterseite briefmarken und beobachtest wieder was passiert. und siehe da, das ranking wird sich steigern.
nun entfernst du den den link von der hauptseite von xyz.com und setzt ihn von dort von der unterseite briefmarken und wartest wieder ab.
und nun wirst du merken, dass sich das ranking nochmals erheblich verbessert hat.
ich kenne natürlich den google algo nicht und vor allem nicht die wertigkeit, in der google solche dinge misst, von daher kann ich dir nur grob spekuliert vorrechnen warum das so ist.
1. die seite abc.com hat überwiegend inhalte zum thema blumen aber 20% der unterseiten hat das thema briefmarken. somit ist die hauotseite von abc zu 20% relevant, da sie ihre relevanz auch aus den links der unterseiten zur hauptseite bezieht.
2. die unterseite briefmarken hat eine 100%-ige relevanz zum thema briefmarken, bezieht aber links (eben wegen der internen verlinkung) von unrelevanten seiten. somit ist die seite vielleicht insgesamt zu 40% relevant zum thema briefmarken.
3. bei xyz. sieht das genauso aus
4. durch den gesetzten pornolink verliert abc.com/briefmarken.html sogar an relevanz, weil eine weitere unrelevante verlinkung hinzu gekommen ist und dadurch die relevanz verwässert wurde.
4. durch das setzen des links auf die unterseite von der HAUPTSEITE
von xyz.com wird die relavanz gestärkt, weil nun mwehr ein link von einer seite dazu gekommen ist, die zu 20% relvant zum thema ist.
5. durch das verschieben des links von der hauptseite auf die unterseite xyz.com/briefmarken.html ist der link noch stärker geworden, weil er nun von einer seite kommt, die 40% relevanz hat.
wenn du dir nun vorstellst, wie viele links und um die ecke-links jede domain dieser welt hat, wirst du zu dem schluss kommen, dass es GAR KEINE 100% relevante seite auf der welt geben kann. und das STIMMT und ist sogar das hauptargument von google, für deren algo.
denn genau da wo eine seite 100% relevant wäre, ist der punkt erreicht, der nie erreichbar sein darf, wenn man veränderungen aufzeigen kann.
die rankingpositionen resultieren also auf einem ergebnis das möglicherweise 100 oder mehr stellen hinter dem komma liegt und von so vielen chaotischen umständen begleitet wird, das man es sich kaum ausmalen mag.
stell dir einfach vor, die seite xyz würde morgen eine sechste unterseite bekommen. damit würde der "anteil briefmarken" auf der gesamtdomain von 20% auf 16,66% sinken. entsprechend schwächer wäre dann auch der link, den die seite gibt.
von daher ist die kraft eines relevanten links schon irgendwie messbar aber im chaos des ganzen, kaum bis nicht mehr nachvollziehbar, weil man dadurch nicht mal genau weiss, OB die linkende seite wirklich relevant ist und wenn ja wie stark.
die EINZIGE chance das herauszufinden läge darin, dass man eroiert, ob die linkendende unterseite mit dem verlinkten key selbst ein eigenes listing hat.
so gehen wir zum beispiel beim linktausch vor auch wenn das eine haarsträubende arbeit ist.
viel spass im netz
thommy