Was ist neu?
Digital Marketing & Webmaster Forum

Digital Marketing, Internet-Technologien, Metaverse und mehr interessieren Dich? Registriere Dich gleich kostenlos, um Mitglied zu werden! Sobald Du angemeldet bist, kannst Du loslegen, Themen und Beiträge veröffentlichen und mit anderen Mitgliedern in Kontakt treten! Wir wünschen Dir einen anregenden Austausch!

Ficken

socialexpert

- Premium Member -
natürlich richtet sich google nach den wünschen der user.
und das tun sie auf 2 arten:

1. wieviele NATÜRLICHE links hat ne seite (und da sind die noneroseiten WEIT vorne)

Was ist deiner Meinung nach "natürlich" und woran erkennt google das?

und das sichern sie ab über

2. wie lange dauert es zwischen klick auf ein suchergebnis bis zur rückkehr zur google suche. sind hier nur sekunden vergangen, dann hat der user etwas anderes gesucht als das was ihm angeboten wurde.


das hatten wir schon
.da haste noch daran gezweifelt :) . google hat aber schon wieder was geändert und diese art von tracking verbessert.
 

thommy

- Premium Member -
Was ist deiner Meinung nach "natürlich" und woran erkennt google das?

wie sie das ganz genau machen, hat mir noch keiner verraten aber es gibt für mein dafürhalten ein paar indikatoren, an denen google das festmachen kann:

1. links aus unterschiedlichen netzen und damit meine ich keine IPs sondern ansammlungen vieler seiten die über x verlinkungen miteienander verbandelt sind. (wäre hier wiederum ein ganz anders thema wie google solche netze erkennt und würde daher zu weit führen).

2. einhaltung des pareto-prinzips bei der verlinkung - sprich: eine natürliche gleichverteilung (von linktext, linkart, linkverteilung auf unterseiten und auf hauptseiten, links von unterseiten, links von startseiten usw...) die sich einzig und alleine aus diesem mathematischen prinzip heraus berechnen lässt.

3. populäre seiten müssten sich der logik nach in nahezu allen (oder einem grossen teil) thematisch selben autoritäten finden lassen. sprich: links auf eine beliebte disco müsste in grossen und autoritären jugendforen und social networks entsprechend häufig zu finden sein.

wie gesagt - die erkennung einer natürlichen verteilung ergibt sich aus dem pareto prinzip - für mich die einzige logik, die google als grundlage hernehmen kann, denn warum sollten die eine bereits längst erfundene rechenformel ausser acht lassen?


viel spass im netz

thommy
 

mesh

- Premium Member -
Dieser Theorie würde ich vorbehaltlos zustimmen, wenn das ganze wirklich ein System hätte: hat es aber nicht, wie man mittlerweile weiß.
Die Bewertungskriterien sind uneinheitlich, unsystematisch, nicht stringent.
Wären Sie es, dann würden die ganzen kleinen Dreckwühler, die den ganzen Tag nix anderes machen als Links absetzen, längst mehr Erfolg haben als es tatsächlich der Fall ist.
Kleine Unschärfen würde ich gelten lassen aber wer eine gewisse Erfahrung in der Programmierung hinter sich hat der weiß, daß ab einem gewissen Punkt, sprich, aber einer gewissen Datenmenge, bestimmte Prinzipien einfach nicht mehr funktionieren können.
Ich bin der Meinung, aber ich kann ja falsch liegen, daß die Google-Programmierung nach wie vor schlecht, chaotisch, wetterwendisch und stellenweise einfach nach dem Prinzip Zufall gemacht wird, wobei das Prinzip Zufall der einzige und letzte Rettungsanker für Google ist, um nicht konsequent und nachhaltig ab einem gewissen Punkt systematisch zerschossen zu werden.
Davon ab bin ich im Moment mal wieder erstaunt, daß zur Zeit Mechanismen funktionieren, die ich vor 10 Jahren mal angewandt habe.
Wenn Google mit System arbeiten würde, dann wäre dieser Retro-Effekt kaum erklärlich (auch nicht mit random-Effekten).
Aber wie gesagt: ich kann mich ja irren...
 

Steve

- Premium Member -
Kleine Unschärfen würde ich gelten lassen aber wer eine gewisse Erfahrung in der Programmierung hinter sich hat der weiß, daß ab einem gewissen Punkt, sprich, aber einer gewissen Datenmenge, bestimmte Prinzipien einfach nicht mehr funktionieren können.

Da ich eben jene Erfahrungen habe, bin ich insbesondere thommy's Ausführen eigentlich immer recht skeptisch gegenüber. Skeptisch deswegen, weil bei der Datenmenge, die Goo erhebt und vorhält einige der von thommy vermuteten Schlüsse nicht mehr zu ziehen sind.

Insbesondere die Idee, nach der Goo Schlüsse daraus ziehen kann, wer wann auf einen Suchlink geklickt hat und danach wie lange auf dem Suchergebnis war und danach dann den nächsten Link in den SERPs angeklickt hat.

Technisch sicherlich machbar - aber aufgrund der mit der Datenmenge unweigerlich steigenden Unschärfe der Informationen schlichtweg nicht mehr für verlässliche Statistiken zu gebrauchen.

Ich hatte mal die Gelegenheit, mit einem Statistiker des Deutschen Wetterdienstes über dieses Thema zu reden - ein Grund, warum keine exakten Wettervorhersagen möglich sind, ist schlicht die Tatsache, dass dazu dermaßen viele Informationen notwendig wären, dass deren Informationsgehalt schlicht im weißen Rauschen verschwinden würden.

Das ist ein ganz elementares Gesetz der Statistik: der Informationsgehalt einer Datenmenge X gleicht einer Gaußschen Kurve. Es gibt also einen Bereich, der zu wenige Informationen enthält, einen, mit dem man arbeiten kann und einen, der so mächtig ist, dass er keine sinnvolle Arbeit mehr zulässt.

Und ich bin ganz fest davon überzeugt, dass Goo schon lange am rechten Rand der Kurve angekommen ist.

Und weil das so ist, kommt dem Random-Faktor meiner Meinung nach ein immer höherer Stellenwert zu. Zufälligkeiten ergeben sich irgendwann zwangsläufig bei solchen Datenmassen. Das klingt paradox aber scheint offenbar wirklich so zu sein (ich habs mit Statistik beim Studium nicht so gehabt, kenne aber einige, die darin förmlich aufblühen und eben jene Weisheiten von sich geben).

Was ich dabei höchst interessant finde: sollte es tatsächlich diesen Random-Faktor geben, sind sämtliche SEO-Blasen wirklich nur das - Blasen :D
 

thommy

- Premium Member -
Da ich eben jene Erfahrungen habe, bin ich insbesondere thommy's Ausführen eigentlich immer recht skeptisch gegenüber. Skeptisch deswegen, weil bei der Datenmenge, die Goo erhebt und vorhält einige der von thommy vermuteten Schlüsse nicht mehr zu ziehen sind.

Insbesondere die Idee, nach der Goo Schlüsse daraus ziehen kann, wer wann auf einen Suchlink geklickt hat und danach wie lange auf dem Suchergebnis war und danach dann den nächsten Link in den SERPs angeklickt hat.

was soll denn daran zauberei sein?

google hat so viele zigtausend server stehen, dass eine solche auswertung nicht wirklich ein hexenwerk ist. zudem HABEN die solche zahlen ja, denn sonst könnten sie sie dir nicht in webmaster tools zeigen.

da kannst du genau sehen wie häufig du bei welchem key eingeblendet wurdet und welche klickrate erzielt wurde - der rest ist doch nur noch abgleich.

ich bin aber nicht der meinung, dass dies das einzige kriterium ist, weil es ja nicht zwingend ein qualitätskriterium sondern eher ein ausschlusskriterium ist.

Technisch sicherlich machbar - aber aufgrund der mit der Datenmenge unweigerlich steigenden Unschärfe der Informationen schlichtweg nicht mehr für verlässliche Statistiken zu gebrauchen.

Ich hatte mal die Gelegenheit, mit einem Statistiker des Deutschen Wetterdienstes über dieses Thema zu reden - ein Grund, warum keine exakten Wettervorhersagen möglich sind, ist schlicht die Tatsache, dass dazu dermaßen viele Informationen notwendig wären, dass deren Informationsgehalt schlicht im weißen Rauschen verschwinden würden.

die unschärfe ist googles zu hause. der gesamte algo basiert auf dem gaussschen gleichverteilungsprinzip, weil das netz wachsen kann wie es will, es wird immer nur 100% zu verteilen geben.

Das ist ein ganz elementares Gesetz der Statistik: der Informationsgehalt einer Datenmenge X gleicht einer Gaußschen Kurve. Es gibt also einen Bereich, der zu wenige Informationen enthält, einen, mit dem man arbeiten kann und einen, der so mächtig ist, dass er keine sinnvolle Arbeit mehr zulässt.

Und ich bin ganz fest davon überzeugt, dass Goo schon lange am rechten Rand der Kurve angekommen ist.

denen qualmt sogar ganz sicher der kopf, was auch immer wieder dadurch bewiesen wird, das anderungen im nachhinein zurückgezogen werden, denn da kommen wir schon in die bereiche der chaostheorie. und diese besagt ja unter anderem, dass der schlag eines schmetterlingsflügels, einen hurrican am anderen ende der welt beeinflussen kann.

ganz sicher ist es so, dass ich beim google algo viele kriterien im wege stehen oder sogar auslöschen.
daher ist ja die kontrolle über das besucherverhalten auch das einzig richtige messwerkzeug.

Und weil das so ist, kommt dem Random-Faktor meiner Meinung nach ein immer höherer Stellenwert zu. Zufälligkeiten ergeben sich irgendwann zwangsläufig bei solchen Datenmassen. Das klingt paradox aber scheint offenbar wirklich so zu sein (ich habs mit Statistik beim Studium nicht so gehabt, kenne aber einige, die darin förmlich aufblühen und eben jene Weisheiten von sich geben).

Was ich dabei höchst interessant finde: sollte es tatsächlich diesen Random-Faktor geben, sind sämtliche SEO-Blasen wirklich nur das - Blasen :D

an einen random faktor glaube ich nicht - so etwas könnte man mit 5 proggern stemmen und müsste keine tausende davon haben.

dass aber im einen oder anderen status der weiterentwicklung immer wieder mal ein ähnliches ergebnis rauskommt, halte ich eher für plausibel.

kein webmaster dieser welt setzt nur einen link und wartet ab was passiert sondern die position in den serps ist immer eine mischung aus vielen aktivitäten - oft auch welchen, mit denen man selbst gar nichts zu schaffen hat und auf die man gar keinen einfluss hat.
um also zu sagen WAS nun genau WELCHE reaktion bewirkt hat, müsste man das alles auf dem schirm haben. und zwar nicht nuir die eigenen linkpartner sondern auch deren link ururururgrossväter.
dazu kommt eine nicht unerhebliche menge von links, die im netz entstehen und gegen die man gar nichts machen kann.

aber eben nicht nur die links, sondern auch viele viele andere faktoren tragen dazu bei wo eine seite am ende gelistet sein wird.

last not least ist eben mehr und mehr content der king, weil daran google nicht vorbei kommt.

viel spass im netz

thommy
 

mesh

- Premium Member -
last not least ist eben mehr und mehr content der king, weil daran google nicht vorbei kommt.
Und da ist dann noch eher Ende Gelände als bei den anderen Datenmengen.
Man darf ja nicht vergessen, daß es auch und insbesondere gilt, die verschiedenen Datencenter miteinander abzugleichen, weil man sonst die Murkserei gleich ganz sein lassen kann, es sei denn, man favorisiert Insellösungen schon allein dafür, um die SEOs zu ärgern.
Wenn ich aber auf der einen Seite die DC Urban Legend auch nur ansatzweise erfolgreich am Leben halten will, auf der anderen Seite wie auch immer geartete Verlinkung im Auge behalten und dazu noch Nutzerverhalten speichern und analysieren soll: mit Verlaub- das läuft auch mit Datenfabriken nicht mehr in einem vernünftigen Maß, irgendwann wird so was völlig unüberschaubar und damit sinnlos, allenfalls noch punktuell nutzbar bei irgendwelchen wirklich ganz, ganz harten Moneykeys.
Ausserdem dürfte Google Weitblick genug haben um nicht allzuviel des Systems um Nutzerspuren herum zu etablieren, denn diese Schnüffelgeschichte dürfte kaum für die Ewigkeit bestand haben, auch nicht in Nordamerika.
Bliebe die Verweildauer und die kann ich ggfs. mit recht wenig Aufwand manipulieren, eher noch als andere Faktoren.
Nur, und das ist irgendwann mal für jeden die Frage: ab wann lohnt sich der Aufwand für die Seitenbetreiber nicht mehr, denn so was kostet ja abseits der Selbstversklavung Geld und ein Erfolg ist entweder nicht garantiert oder von möglicherweise kurzer Halbwertszeit.
Insofern ist die Kardinalfrage nicht, wie ich Google bescheissen kann (was stellenweise gar nicht so dolle ist weil die Besucher von dort nicht so dolle sind) sondern, wie ich effektiver Nutzer generieren kann, die wirklich was in die Kasse spülen.
Und da gibt es bereits jetzt wesentlich ertragreichere Alternativen aus der Serie "If you can't beat them, join them" als es Google momentan ist.
 

Steve

- Premium Member -
was soll denn daran zauberei sein?

google hat so viele zigtausend server stehen, dass eine solche auswertung nicht wirklich ein hexenwerk ist. zudem HABEN die solche zahlen ja, denn sonst könnten sie sie dir nicht in webmaster tools zeigen.

da kannst du genau sehen wie häufig du bei welchem key eingeblendet wurdet und welche klickrate erzielt wurde - der rest ist doch nur noch abgleich.

Dass das technisch keine Meisterleistung ist, ist mir klar und auch, dass die solche Daten erheben (ich sehs ja in den Analytics-Daten teilweise).

Aber ob die Daten dazu geeignet sind, in einen Algo einzufließen ...

Insbesondere die Klickstatistik für einen Key halte ich für absolut ungeeignet, weil sie unvorhersagbares Userverhalten abbildet und im besten Fall nichtmal reproduzierbar ist.

Wie sieht denn das Nutzerverhalten in der Regel aus? Es werden die Links der ersten Suchergebnisse angeklickt.

Und warum tauchen die Links da an den ersten Plätzen auf? Weil sie so oft angeklickt wurden?

Zugegeben, sehr vereinfacht ausgedrückt - aber es macht deutlich, dass ein Großteil der Daten, die Goo erhebt, gar nicht dazu geeignet sind, in einen verlässlichen Algo mit einzufließen, weil sie sich selbst bedingen oder aber ein chaotisches System abbilden müssen.

Domaintrust, PR ... diese Daten sind maximal fiktiv und maximal punktuell. Es gibt schlicht keine technische Möglichkeit, solche abstrakten Daten im Gesamtsystem sinnvoll zu erfassen bzw. über die Gesamtheit der betrachteten Objekte (Domains) auszuwerten.

Da helfen auch Serverfarmen auf dem Mond nicht - das ganze hat technische bzw. logische Grenzen.

Und weil das so ist, MUSS Goo einen Unschärfefilter über sämtliche Ergebnisse seiner Datenabgleiche legen - sonst würde das ganze System daran zerbrechen, dass man Zirkelbezüge geschaffen hat (das Userverhalten, das man als Kriterium heranzieht, ergibt sich erst durch das Ergebnis der Betrachtung des Userverhaltens, dass sich aus dem Ergebnis der Betrachtung des Userverhaltens ergibt, dass sich aus der Betrachtung ... ) die zu vollkommen chaotischen Ergebnisketten führen.

Das heißt aber, dass zwar eine Anzahl an Parametern in die Ergebnisskette mit einfließt aber am Ende doch ein Random-Faktor unabdingbar ist.
 

Globi

- Premium Member -
naja, ist doch wie der pr algo.
das kann eigentlich garnicht funken, weil entweder schiesst alles nach oben, weil immer mehr seiten mehr pr bekommen, und somit ander auch wieder mehr hochpuschen, oder das ganze umgekehrt ins negative.

man sagte dem geheimnisvollen ding das dann alles im zaun hielt einfach daempfungsfaktor.
aber im grunde musste dort doch auch pausenlos wieder korigiert und rumgeschraubt werden.

hat man teilweise auch gemerkt, wenn die seiten ploetzlich pr 5 hatten, und par monate spaeter dann mal wieder zurueck auf ne 4, obwohl man in der zeit mehr backlinks gesammelt hatte.

aber ich finde den ganzen pingu scheiss voll ok, damit ist endlich die scheissverlinkerei nichtmehr das wichtigste, und man kann sich wieder auf die eigentliche arbeit konzentrieren, naehmlich wirklich was fuer user zu machen.

und die katastrophalen suchergebnisse im moment werden sich auch wieder einpendeln, das ganze ist noch lange nicht vorbei, und braucht eben seine zeit, weil nach jedem durchgang die ergebnisse wieder und wieder neu berechnet werden muessen, bis das ganze sich irgendwo in der mitte einpendelt (man nennt das iteration), und erst dann kann man wieder weiterschrauben.

also es kann wirklich nur besser werden als vorher mit dem scheiss pr und link sammeln, nur dauert es eben bei den milliarden seiten die da alle vernetzt sind.
einfach ein filter einbauen, wie man das immer so schoen sagt ist eben nur symbolisch gemeint, realitaet ist eben rechnen, rechnen, rechnen, schrauben, korigieren, wieder rechnen ergebnis abwarten, wieder korigieren usw....
 

thommy

- Premium Member -
Dass das technisch keine Meisterleistung ist, ist mir klar und auch, dass die solche Daten erheben (ich sehs ja in den Analytics-Daten teilweise).

Aber ob die Daten dazu geeignet sind, in einen Algo einzufließen ...

Insbesondere die Klickstatistik für einen Key halte ich für absolut ungeeignet, weil sie unvorhersagbares Userverhalten abbildet und im besten Fall nichtmal reproduzierbar ist.

es ist zumindest in teilen reproduzierbar, weil es da sicherlich einen wert X gibt, den google annimmt.

beispiel:
klickrate = hoch
wiederkehrrate = niedrig
= user hat gefunden was er sucht

degegen:
klickrate = hoch
wiederkehrrate = hoch
= seite verspricht was sie nicht hält

so simpel KÖNNTE google die errechneten platzierungen gegenprüfen.


Wie sieht denn das Nutzerverhalten in der Regel aus? Es werden die Links der ersten Suchergebnisse angeklickt.

Und warum tauchen die Links da an den ersten Plätzen auf? Weil sie so oft angeklickt wurden?

siehe oben.
weil sie errechnet und gegengeprüft wurden, bzw. vielleicht sogar gerade gegengeprüft werden.

ich habe gerade so ein phänomen mit einer seite, die pro woche mit mindestens 3 neuen keys vorne ist. in der nächsten woche bleibt davon noch einer oder 2 oder gar keiner. bei den "gefestigten keys" steht die seite aber wie angemauert auf platz 1. und hier gehts nicht um irgendwelche minikeys sondern um welche, die am tag mal eben 10-15 k user bringen.


.
Domaintrust, PR ... diese Daten sind maximal fiktiv und maximal punktuell. Es gibt schlicht keine technische Möglichkeit, solche abstrakten Daten im Gesamtsystem sinnvoll zu erfassen bzw. über die Gesamtheit der betrachteten Objekte (Domains) auszuwerten.

Da helfen auch Serverfarmen auf dem Mond nicht - das ganze hat technische bzw. logische Grenzen.

domaintrust ist ganz und gar nicht fiktiv. der algo dazu wurde bereits in den 90ern entwickelt und später von google gekauft und im eigenen algo verflochten. TR ist demnach nicht der einzige faktor aber EIN WICHTIGER im google algo.

im gegensatz zu PR und linkstärkenvererbung lässt sich der trust einzig und alleine über die entfernung zur hightrustet domain berechnen, während beim PR und der vererbung von linkpower auch die zahl der ausgehenden links eine rolle spielt, weil sich ausgehende linkstärke durch die zahl der ausgehenden links dividiert.

Und weil das so ist, MUSS Goo einen Unschärfefilter über sämtliche Ergebnisse seiner Datenabgleiche legen - sonst würde das ganze System daran zerbrechen, dass man Zirkelbezüge geschaffen hat (das Userverhalten, das man als Kriterium heranzieht, ergibt sich erst durch das Ergebnis der Betrachtung des Userverhaltens, dass sich aus dem Ergebnis der Betrachtung des Userverhaltens ergibt, dass sich aus der Betrachtung ... ) die zu vollkommen chaotischen Ergebnisketten führen.

Das heißt aber, dass zwar eine Anzahl an Parametern in die Ergebnisskette mit einfließt aber am Ende doch ein Random-Faktor unabdingbar ist.

das wäre dann richtig, wenn das ranking AUSSCHLIESSLICH durch rechenfaktoren beeinflusst würde.
hier ist es aber so, dass google in jedem land der welt hunderte bis tausende von händischen prüfern beschäftigt hat (es gibt sogar hier im forum einen, den ich kenne, der das mal gemacht hat).

natürlich prüfen die nicht alle milliarden von seiten im index, sondern nur solche, die vom algo auf die vorderen plätze befördert wurden und ein entsprechend hohes suchvolumen haben.

letztendlich würde also ein spamseite, welche hohe zugriffszahlen auf einen key hat, relativ schnell erkannt werden.
diese jungs sind auch nicht das problem von google, sondern eher die longtailer, die das spiel mit zigtausenden von seiten machen, die dann eben, wegen der geringen fallzahlen, sehr viel schwerer erkennbar und prüfbar sind.

viel spass im netz

thommy
 

thommy

- Premium Member -
naja, ist doch wie der pr algo.
das kann eigentlich garnicht funken, weil entweder schiesst alles nach oben, weil immer mehr seiten mehr pr bekommen, und somit ander auch wieder mehr hochpuschen, oder das ganze umgekehrt ins negative.

daher kann ja der PR auch nicht das mass für die listung sein.

der wert nämlich ist gleich 1 oder 1 million oder was auch immer - aber bleibt konstant egal wie gross das netz wird.
genau hier greift ja das gesetz der gausschen gleichverteilung.

man sagte dem geheimnisvollen ding das dann alles im zaun hielt einfach daempfungsfaktor.
aber im grunde musste dort doch auch pausenlos wieder korigiert und rumgeschraubt werden.

dieser faktor ist ebenfalls von gaus.

bildhaft vorstellen kannst du dir das, wenn du dich mit grafik ein wenig beschäftigst.

hierzu nimmst du ein 2-dimensionales bild und verkrümmst es dreidimensional (drehst es zum beispiel so als wäre die linke seiten weiter hinten als die rechte).
da die fläche dabei gleich bleibt ist die zahl der pixel im bild immer noch die selbe - links werden aber pixel zusammengeschoben und rechts welche dazu gemacht.

oder du stellst dir eine wanne mit wasser vor, die du einmal links und einmal rechts anhebst. dann hast du immer noch die selbe menge wasser aber links und rechts unterscheidliche wassertiefen.

hat man teilweise auch gemerkt, wenn die seiten ploetzlich pr 5 hatten, und par monate spaeter dann mal wieder zurueck auf ne 4, obwohl man in der zeit mehr backlinks gesammelt hatte.

wie gesagt - der PR ist hier nicht der wichtige rankingfaktor - aber wenn dein PR fällt und deine linkpartner den PR behalten haben, dann ist die einzige anwtort darauf, dass die zahl der links bei deinen linkpartnern erhöht wurde und dein link entsprechend weniger power bekommt.

aber ich finde den ganzen pingu scheiss voll ok, damit ist endlich die scheissverlinkerei nichtmehr das wichtigste, und man kann sich wieder auf die eigentliche arbeit konzentrieren, naehmlich wirklich was fuer user zu machen.

links spielen beim pinguin aber weiterhin eine grosse rolle. nur berechnet sich der wert von links anders, weil google offenbar erkannt hat, dass die einzige möglichkeit natürliche links zu erkennen auf dem pareto-prinzip beruht.

und die katastrophalen suchergebnisse im moment werden sich auch wieder einpendeln, das ganze ist noch lange nicht vorbei, und braucht eben seine zeit, weil nach jedem durchgang die ergebnisse wieder und wieder neu berechnet werden muessen, bis das ganze sich irgendwo in der mitte einpendelt (man nennt das iteration), und erst dann kann man wieder weiterschrauben.

also ich sehe nicht wirklich katastrophen suchergebnisse (von ein paar ausrutschern mal abgesehen). ich wüsste jetzt aus dem stand kein wirklich unlogisches ergebnis, von dem man nicht sagen kann warum es da ist.

also es kann wirklich nur besser werden als vorher mit dem scheiss pr und link sammeln, nur dauert es eben bei den milliarden seiten die da alle vernetzt sind.
einfach ein filter einbauen, wie man das immer so schoen sagt ist eben nur symbolisch gemeint, realitaet ist eben rechnen, rechnen, rechnen, schrauben, korigieren, wieder rechnen ergebnis abwarten, wieder korigieren usw....

jup und augen auf halten, denn im moment sind sogar noch viel mehr faktoren im spiel, an die man gar nicht gedacht hat.

ich wage sogar mal die these in den raum zu stellen, dass bestimmte seiten mit bestimmten keys bei google nicht vorkommen, weil sie bei BING gut gelistet sind. zumindest habe ich diesen effekt nun schon mehrfach beobachtet.

viel spass im netz

thommy
 

Cherry

- Premium Member -
aber ich finde den ganzen pingu scheiss voll ok, damit ist endlich die scheissverlinkerei nichtmehr das wichtigste, und man kann sich wieder auf die eigentliche arbeit konzentrieren, naehmlich wirklich was fuer user zu machen.

und die katastrophalen suchergebnisse im moment werden sich auch wieder einpendeln, das ganze ist noch lange nicht vorbei, und braucht eben seine zeit, weil nach jedem durchgang die ergebnisse wieder und wieder neu berechnet werden muessen, bis das ganze sich irgendwo in der mitte einpendelt (man nennt das iteration), und erst dann kann man wieder weiterschrauben.

Legt man die sehr guten ausführungen von mesh und Steve aber zugrunde, ist es äusserst fraglich ob google überhaupt in der lage ist, das alles wieder zu korrigieren. M. e. müssten sie völlig zum anfang zurückgehen und wie Yahoo und Bing, wieder ordentliche onpage-optimierung bewerten.

Die ganze verlinkungsarie ist schon deshalb schwachsinn, weil der user, der nach einem kühlschrank sucht, in der regel weder eine eigene webseite noch interesse hat, um sich mit seinem suchergebnis zu verlinken. Offensichtlich denken google-developer in ähnlichen sphären wie politiker - mämlich gar nicht.
Und wenn google was dran läge dem user ordentliche suchergbnisse zu präsentieren und keinen doppelten content in den seps zu haben würden sie als erstes mal die ganzen automatisch erstellten scrapebot-seiten killen.

Aber sind wir doch mal ehrlich, der gemeine user, welcher über google etwas anderes sucht als die googleeigenen dienste, ist google doch schon lange scheissegal. Im grunde geht's google doch nur noch darum, jedem suchenden einen googleaccount aufzudrücken und irgendwelche schwachsinnigen daten zu sammeln, userverhalten zu kontrollieren und zu manipulieren - mit deren auswertung sie zum glück genauso überfordert sind, wie damit ihre suchmaschine sauberzuhalten. Wenn ich allerdings sehe wie oft google meine "safesearch aus" eigenmächtig wieder auf "moderat" setzt, kann ich nur sagen, das manipulieren und kontrollieren funktioniert schon ganz gut.
 

Globi

- Premium Member -
also ich sehe nicht wirklich katastrophen suchergebnisse (von ein paar ausrutschern mal abgesehen). ich wüsste jetzt aus dem stand kein wirklich unlogisches ergebnis, von dem man nicht sagen kann warum es da ist.
ja nicht unlogisch, aber eben muell.
und das bezieh ich jetzt nichtmal auf meine seiten, oder ueberhaupt den adultbereich, weil wenn ich was suche, suche ich nicht nach porn, sondern eben irgendetwas was ich brauche, bezw. mich gerade interessiert.

und da fangt eben der muell an, weil wenn ich ein youtube video sehen will, suche ich bei youtube, nicht bei google, und wenn ich ne info ueber computer oder ne stereo anlage will, dann will ich nix von ebay kaufen.

egal was, die ersten 5 ergebnisse kann man meist vergessen, logick hin oder her, die ergebnisse sind muell.

frueher war das nicht so, hat man ne fehlermeldung eingegeben, hat man unter den ersten ergebnissen die loesung fuer sein problem gefunden, heute muss man erst 5 seiten durchackern, bevor man zu ner loesung kommt.

nur weil youtube 10000de natuerliche backlinks hat, und grosse verweildauer der user, ist das noch lange kein grund den muell bei jedem suchbegriff oben zu listen.

vielleicht sind auch all die suchenden viel zu bloede, und suchen genau den scheiss, aber fuer einen "inteligenten menschen" der was schlaues sucht, wird da auf den ersten plaetzen wirklich nurnoch muell angezeigt.
 

MisterAustria

- Premium Member -
vielleicht sind auch all die suchenden viel zu bloede, und suchen genau den scheiss, aber fuer einen "inteligenten menschen" der was schlaues sucht, wird da auf den ersten plaetzen wirklich nurnoch muell angezeigt.

das stimmt. so viel müll wie nach pingu gabs vorher nie wenn man was suchte.
das fängt bei unrelevanten müll an der nur aus listen mit schlagwörtern besteht und endet mit spinningtexten die weiterhin gut dastehn. zumindest bei schwächeren keys/kombis.
letztens such ich was zu nem gesundheitsthema und was ich vorgesetzt bekam war ihresymptome.de auf den ersten 3 seiten von goo mit müll und die interessanten seiten waren irgendwo im nirvana.. wenn man da als suchender keine geduld hat kann man nur zu der erkenntnis kommen das goo kacke ist.


MA
 

john-smith

- Premium Member -
ich wage sogar mal die these in den raum zu stellen, dass bestimmte seiten mit bestimmten keys bei google nicht vorkommen, weil sie bei BING gut gelistet sind. zumindest habe ich diesen effekt nun schon mehrfach beobachtet.

kann ich aktuell nur unterstreichen. alle unsere domains die jetzt noch bei bing in den top 10 stehen spielen bei google seit dem eismann fast keine rolle mehr ...
 

mesh

- Premium Member -
letztens such ich was zu nem gesundheitsthema und was ich vorgesetzt bekam war ihresymptome.de auf den ersten 3 seiten von goo mit müll und die interessanten seiten waren irgendwo im nirvana..
Gerade im deutschsprachigen Gesundheitssektor tummeln sich Leute, die, um es mal vorsichtig zu sagen, sehr intensiv verlinken.
Das, was da vorn steht, ist teilweise ein sehr gutes Beispiel für die faktische Funktionsunfähigkeit von Google hinsichtlich der Verlinkungskriterien, die angeblich gelten sollen. Immer vorausgesetzt, es gibt sie wirklich.
Die Verwandschaft der Seiten ist für den sprichwörtlichen Blinden mit dem Krückstock ersichtlich, nur nicht für Google.
Ich habe säckeweise solche Beispiele aus allen Bereichen und insbesondere auch im Adult-Bereich (hier logischerweise eher aus dem englischsprachigen Sektor), wo die Fußnägel nach oben klappen, ob Pinguin oder nicht.
Ich bin sicher, daß man mit einem Bruchteil des Aufwandes vernünftige und für den Besucher 1a-Suchergebnisse erstellen könnte.
Allerdings muß man dabei beachten, daß das nicht wirklich im Sinne von Google ist...
 

che

- Premium Member -
ne hab ich nicht - ich bin ja auch erst seit 16 jahren dabei und war noch nie mit irgendeiner seite bei google gelistet.

Also, wenn du mit 16 Jahren Erfahrung noch nie bei Google gelistet warst, dann hast du aber nun wirklich keine Ahnung.
Bestätigt aber doch nur, daß du Blödsinn verzapfst, wie ich sagte.
Dann höre bitte auf hier einen auf SEO zu machen, du hast NULL Ahnung davon, wie du ja selber sagtest.

Falls du Hilfe brauchst, google mal nach CHE-SEO (Bei dir aber nur Prepaid)

:cool:
 

Steve

- Premium Member -
das wäre dann richtig, wenn das ranking AUSSCHLIESSLICH durch rechenfaktoren beeinflusst würde.
hier ist es aber so, dass google in jedem land der welt hunderte bis tausende von händischen prüfern beschäftigt hat (es gibt sogar hier im forum einen, den ich kenne, der das mal gemacht hat).

natürlich prüfen die nicht alle milliarden von seiten im index, sondern nur solche, die vom algo auf die vorderen plätze befördert wurden und ein entsprechend hohes suchvolumen haben.

Was für mich der Beweis ist, dass die technische Machbarkeit längst ausgereizt und im Grunde sogar überschritten ist.

Du und ich - wir sind Geschäftsleute, die hin und wieder mal auch so denken ... wenn du etwas verlässlich von einer Maschine erledigen lassen kannst, dann machst du das. Das simples Gesetz der Wirtschaft: Gewinn maximiert man durch Minimierung der Kosten.

Warum also sollte sich Goo ein Heer von Menschen halten, wenn ein Computer die selbe Arbeit leisten könnte. Kann er also offenbar nicht ... und spätestens, wenn menschliches kreatives Denken und Entscheiden ein Rolle für einen Gewichtungsprozess spielt, fällt dir jedes technisches Statistikkartenhaus in sich zusammen.

Random-Faktor ... nenn es, wie du willst aber es geht nicht (mehr) anders. Wie man es aber auch betrachtet: Fakt ist, dass SEO Blahblah ist.

Ich hab mit Spannung die letzte webeline gelesen. Bastian lese ich gern - macht wirklich Spaß. Aber das, was er da bezüglich Linkrückbau von sich gegeben hat, halte ich persönlich für ganz großen Bullshit.

Würde nämlich die Verlinkung eine derart große Rolle spielen (zumindest habe ich seine beiden letzten Beiträge dazu so verstanden), würde das bedeuten, dass Goo immens schlagkräftige Waffen damit schaffen würde.

Kann ich dich nicht leiden, lasse ich einen Scrapebox-Blast los und bombe eine deiner MoMo-Seiten binnen weniger Stunden via dreckiger Links in's digitale Nirvana? Ernsthaft?
 

mesh

- Premium Member -
Was für mich der Beweis ist, dass die technische Machbarkeit längst ausgereizt und im Grunde sogar überschritten ist.
Die Blockwart-Problematik zeigt ja seit seiner Einführung daß Google bestimmte Dinge nicht kann und die Tatsache, daß dieses Heer an Datenknechten weiterexistiert zeigt, daß das immer noch der Fall ist und vielleicht sogar durch Verschlimmbesserung des Algos einen traurigen Höhepunkt erreicht hat.
Random-Faktor ... nenn es, wie du willst aber es geht nicht (mehr) anders. Wie man es aber auch betrachtet: Fakt ist, dass SEO Blahblah ist.
Dafür spricht ja allein die Statistik.
Nehmen wir ein mässig umkämpftes Gebiet in englischer Sprache.
-Die Annahme von 8stelligen Seiten in diesem Segment dürfte eher konservativ sein
-selbst bei 200 Kriterien (so diese überhaupt existieren) gibt es in jeder Konfiguration genügend Ergebnisse, die absolut gleiche Kriterien erfüllen für die ersten 100 Suchergebnisse- der Rest dahinter ist eh wurscht.
Wie will ich Seiten mit exakt gleichen Voraussetzungen gewichten und plazieren?
Google erlebt im Prinzip den Dinosaurier-Effekt: man ist so groß, daß das eigene Gewicht erdrückend ist. Und das nicht zuletzt deswegen, weil die Zeit offenbar in wirren Spielchen wie Linkgewichtung investiert wurde anstatt in intelligente System der Textanalyse, was bis heute nicht klappt.
Google ist also quasi bereits tot im Sinne einer vernünftigen Nutzbarkeit durch den User, hat es allerdings geschickt verstanden, diesen Umstand weitestgehend zu kaschieren.
Ich bin mir nach wie vor sicher, daß man mit einem vernünftigen Datenstamm im unteren 7stelligen Bereich über 95% der User wird zufriedenstellen können, also ohne den Bau einer Riesentalsperre zur Energieversorgung der Maschinen...
 

thommy

- Premium Member -
Also, wenn du mit 16 Jahren Erfahrung noch nie bei Google gelistet warst, dann hast du aber nun wirklich keine Ahnung.

ich sag doch ich muss nicht gelistet werden. larry page hat beim pokern eine milliarde user an mich verloren und die arbeitet er grade ab.

Bestätigt aber doch nur, daß du Blödsinn verzapfst, wie ich sagte.
Dann höre bitte auf hier einen auf SEO zu machen, du hast NULL Ahnung davon, wie du ja selber sagtest.

aber ich kann dafür gut pokern ;-)

Falls du Hilfe brauchst, google mal nach CHE-SEO (Bei dir aber nur Prepaid)

:cool:

brüllllllll - ich lach mich grad weg - vielleicht solltest du mal auf "warmluftpinguine" optimieren das hats nur 24 konkurrenten - da könntest es sogar du auf platz 1 schaffen, grosser meister.


https://www.google.com/search?hl=de&newwindow=1&safe=off&client=firefox-a&hs=yCL&rls=org.mozilla%3Ade%3Aofficial&q=CHE-SEO&oq=CHE-SEO&gs_l=serp.3..0i7i30l3j0i10i30j0i30l3j0i7i30l2j0i30.22683.23288.0.23986.2.2.0.0.0.0.168.328.0j2.2.0...0.0...1c.7iNDgN465NQ


viel spass im netz

thommy
 
Oben