Was ist neu?
Digital Marketing & Webmaster Forum

Digital Marketing, Internet-Technologien, Metaverse und mehr interessieren Dich? Registriere Dich gleich kostenlos, um Mitglied zu werden! Sobald Du angemeldet bist, kannst Du loslegen, Themen und Beiträge veröffentlichen und mit anderen Mitgliedern in Kontakt treten! Wir wünschen Dir einen anregenden Austausch!

Netzwerkverlinkung Programm?

thommy

- Premium Member -
Das war kein Scherz, sollte aber sein oder? :D

nein das ist kein schwerz. google stolpert im moment vor lauter rennen um innovationen über seine eigenen füsse.
sie bedenken dabei nicht, dass google einstmals von unsern deshalb benutzt wurde weils so einfach war.

mittlerweile ist google ein hochkomplizierter moloch, den kaum ein user noch bedienen kann.

das werden irgendwann andere suchmaschinen ausnutzen und google mit seiner eigenen, früheren einfachheit in die flucht schlagen.

Was ich in vielen Jahren gelernt und mitbekommen habe ist, dass viele
Deppen sich irgendwelche apps holen können.Das stimmt.aber die
meisten..Nein..99% von den sind so depp in der Birne, dass sie damit eh nicht
umgehen können und ihre Seiten aus dem nidex hauen oder schlimmer noch
sich in den Ruin treiben (können), weil sie nicht aufgeben wollen und immer
mehr investieren.Diejenigen, die damit nicht umgehen konnten und ihre
backlink Strategie auf good content und hin und wieder handmade backlinks
umgeändert hatten, haben heute noch Erfolg.

hab ich irgendwo was anderes geschrieben?


Die wirklich "grossen" .
Tja..diese haben auch grosse netzwerke.Schaut einfach mal die standard top
seiten an und deren backlinks.Kann sein dass hier und da Gästebücher ,
blogs oder sonst was mit aufgelistet sind, jedoch sind die meisten links an echte Seiten mit content verankert.

das ist korrekt. allerdings bringst du da mit den netzwerken was durcheinander. die haben eben meist gar keine oder nur sehr kleine (eigene) netzwerke.


viel spass im netz

thommy
 

socialexpert

- Premium Member -
sie bedenken dabei nicht, dass google einstmals von unsern deshalb benutzt wurde weils so einfach war.

ist es doch immer noch oder nicht?
keyword eingeben und suchen.
Das wars :) oder was meinst du genau?

das werden irgendwann andere suchmaschinen ausnutzen und google mit seiner eigenen, früheren einfachheit in die flucht schlagen.
google entwickelt sich immer weiter.Es gab mal ne Zeit , wo google voll mit keywordlastige spamtexte war, dann gesäubert wurde.Ich finde im Moment hat google eher das Problem mit doppelten content.Ansonsten gibt es viele neue webmaster, die neue Texte schreiben und versuchen ihr Geld zu verdienen.

hab ich irgendwo was anderes geschrieben?

nicht wirklich..würde bedeuten, scheiden sich die Geister..du schreibst nichts konkretes..Ja..Stimmt..Nirgends hast du etwas anderes geschrieben.Oder konkretes...


das ist korrekt. allerdings bringst du da mit den netzwerken was durcheinander. die haben eben meist gar keine oder nur sehr kleine (eigene) netzwerke.

nein.Ich glaube ich bringe da nichts durcheinander.
du bringst jetzt das wort (eigene) ins Spiel und ich beziehe mich nicht auf misteraustrias Fall.Klar ändert sich somit der Kontext.
Was meinst du mit eigene?meinst du , dass sie ein Bündel von sites nicht untereinander verlinken?
 

mesh

- Premium Member -
ist es doch immer noch oder nicht?
keyword eingeben und suchen.
Das wars :)
Das war's vor 13 Jahren, das war's vor 10 Jahren, das war's vielleicht noch vor 5 Jahren (wenn auch da schon eingeschränkt)- jetzt ist es das eben nicht mehr.
Und das hat nix mit dem Suchschlitz zu tun oder ob es um den Suchschlitz herum wimmelt, das hat was mit Masse zu tun (und auch damit, daß Google diese Masse erst erzeugt hat)
Es ist halt ein fundamentaler Irrtum zu erwarten, daß eine Suchmaschine mit dem Anspruch, wie Google ihn hat, heute überhaupt noch funktionieren kann- sie kann es nicht (mehr).
Wenn ich 1 Million Domains habe, nur mal als grobe Zahl, und ich suche nach Themen, die die deutsche Nationalmannschaft betreffen und das Turnier in England 1966, dann komme ich als Suchmaschine mit dieser Datenmenge gut zurecht, weil die Seiten, die sich gleichzeitig mit diesem Thema beschäftigen, überschaubar sind.
Wenn ich aber 1 Milliarde Seiten habe oder 10 Milliarden (ich weiß, es sind natürlich mehr), dann ist die Anzahl der Seiten, die sich mit diesem Thema beschäftigen, naturgemäß größer. Vergleichbares gilt natürlich für "Ficken", "Amateure" und "Livecams".
Die Position Google's ist jetzt sehr diffizil, denn es gilt die Seiten herauszufinden, die es wert sind, oben zu stehen.
Und dabei zählt schon lange nicht mehr der Content, deswegen ist es einfach albern zu behaupten, daß derjenige der "guten Content" produziert (was immer das sein mag weiß wohl nur der jeweilige Schöpfer) naturgegeben bessere Rankings aufweist. Das ist realitätsnegierender Quatsch auf die Masse bezogen.
Wie soll man also die ersten 10, oder schlimmer, die ersten 3 Plätze vergeben für 66.426 Seiten, die sich alle mit dem Turnier 1966 befassen? Auch die Zahl der Protagonisten von damals ist überschaubar und selbst die Suche nach Nordkorea fördert mehr als 3 lesenswerte Seiten zutage, eine besser als die andere, oder halt: eben nicht besser, sondern mindestens gleich gut.
Da kommen dann so infantile Hilfskonstruktionen zum Tragen wie die Zahl der Backlinks. Als man vor ein paar Jahren die Gefahr roch, hat Google NoFollow versucht unter das gebende Volk zu streuen. Ging ein paar Jahre gut- in den Jahren relativer Ruhe hätte man sich was besseres ausdenken können, hat man aber nicht und der Schlamassel ist immer größer geworden.
Denkt an die anderen Kriterien, die herhalten müssen für die Bewertung, fast alle lächerlich bis albern und indiskutabel.
Man kann sich in Suchmaschinenhausen nicht mit dem Gedanken anfreunden, daß vom suchtechnischen Sinn her Google heute sinnlos geworden ist, weil es die Masse auf diese Art gar nicht bewältigen kann. Warum auch? Die Gelddruckmaschine rattert doch noch 1a!
So dachte man bei Lehman's wahrscheinlich kurz vor dem Orkus auch.
Auf der anderen Seite ist man aber auch unfähig zu diversifizieren, was eine mögliche, zugegebenermassen zeitlich limitierte Lösung wäre, aber da sei die schlecht programmierte Software vor, die nicht mal ansatzweise in der Lage ist, semantische Zusammenhänge zu begreifen.
Und das sind nur Ansätze, in die Tiefe will ich nicht gehen, aber wer programmiert weiß, welche unmögliche Aufgabe da im Raum steht wenn man es so angeht, wie sie es offenbar immer noch angehen. Google hat es in den letzten Jahren versemmelt weil man sich auf dämliche Spielerein wie Satellitenbilder oder Hausfassaden knipsen geworfen hat aber den Kern nur bespielt hat ohne ihn wirklich epochal weiterzuentwickeln.
In meine Augen ist Google längst kollabiert nur hat man es auf dem Bergblickhof selbst offenbar noch nicht gecheckt.
Wie heißt es immer so schön in Fußballforen vor Ablauf der Transferperiode:"Jetzt kann alles ganz schnell gehen."

5 Mücken in's Phrasenschwein.
 

thommy

- Premium Member -
ist es doch immer noch oder nicht?
keyword eingeben und suchen.
Das wars :) oder was meinst du genau?

nun ja, wenn ich zum beispiel immer wieder die selben suchergebnisse bekomme, nur weil ich einmal auf nen link geklickt habe, dann find ich das nicht witzig und die user wahrscheinlich ziemlich langweilig.

wenn google innovationen vor die füsse knallt, die ottonormaluser weder begreifen noch abschalten kann (weil er einfach nicht weiss wie es geht) dann fängt die bevormundung an und es wird nicht mehr lange dauern, bis die ersten wirklich mal wechseln, denn andere suchmaschinen sind nicht schlechter als google.

google entwickelt sich immer weiter.Es gab mal ne Zeit , wo google voll mit keywordlastige spamtexte war, dann gesäubert wurde.Ich finde im Moment hat google eher das Problem mit doppelten content.Ansonsten gibt es viele neue webmaster, die neue Texte schreiben und versuchen ihr Geld zu verdienen.

was aht denn bitteschön der kunde davon, wenn immer die selbe spamleier mit anderen worten beschrieben wird?

und von weiterentwicklungen she ich ausser grafischem schnickschnack und google logos, die man nicht man mehr mit viel phantasie deuten kann, gar nichts.

google entwickelt sich zur suchmaschine für intellektuelle und die menschheit besteht nun mal zu 80% aus doofen.

nicht wirklich..würde bedeuten, scheiden sich die Geister..du schreibst nichts konkretes..Ja..Stimmt..Nirgends hast du etwas anderes geschrieben.Oder konkretes...

ich habe in diesem ganzen thread - in nahezu allen beiträgen betont, dass nichts über handgemachtes geht. ich weiss also nicht wo das nicht konkret sein soll.

dass ich mein knowhow nicht in ein forum posten werde, versteht sich ja wohl von selbst. ich versuche hier lediglich auf die sprünge zu helfen - aber eben nicht mit vorgekauten brei sondern mit denkanstössen.

nein.Ich glaube ich bringe da nichts durcheinander.
du bringst jetzt das wort (eigene) ins Spiel und ich beziehe mich nicht auf misteraustrias Fall.Klar ändert sich somit der Kontext.
Was meinst du mit eigene?meinst du , dass sie ein Bündel von sites nicht untereinander verlinken?

jetzt erklär mir doch bitte mal, was du unter "netzwerk" verstehst, damit wir da ggf. auf einem nenner reden.

ein netzwerk ist alles was miteinander verbandelt ist - egal ob fremd oder eigen. und sobald man ein eigenes netzwerk hat und es massiv mit anderen netzwerken verlinkt wird eine neues, grösseres netzwerk draus.

google pfeift auf seiten sondern erkennt netzwerke. alleine deshalb ist diese ganze debatte um links hin oder her oder rauf oder runter völlig sinnlos, weil google schon lange nicht mehr so arbeitet, wie es immer noch frisch und fröhlich von den dächern trällert.

die haben sich einfach nur einmal im leben XING angesehen und haben aus ihrem eigenen algo, dem zusätzlich gekauften trust rank und dem was sie da gesehen haben etwas ziemlich logisches gemacht.

nur leider hat das bisher noch keiner richtig gedeuted und deshalb bleiben auch immer noch so viele antworten einfach unlogisch.

wenn du wissen willst warum eine seite oben und die andere unten steht, dann analysiere links in bezug auf ihre netzwerke und du wirst die antwort finden.

ein link ist immer nur so gut wie das netzwerk aus dem er kommt. die einzelne seite spielt dabei eine völlig untergeordnete rolle.

aber ich will jetzt hier wirklich nicht zu tief aus dem nähkästchen plaudern sonst werdet ihr mir alle noch zu schlau :)

viel spass im netz

thommy
 

socialexpert

- Premium Member -
Hallo Thommy

nun ja, wenn ich zum beispiel immer wieder die selben suchergebnisse bekomme, nur weil ich einmal auf nen link geklickt habe, dann find ich das nicht witzig und die user wahrscheinlich ziemlich langweilig.

Ich persönlich muss oft auf dem Link klicken um diesen auf Platz1 zu sehen.
Der Nutzer der diesen link (mit sicherheit) mehrmals besucht hat, der wird
diesen gern wieder besuchen oder nicht? Du musst verstehen, dass google
Informationen möglichst lange und gut zugänglich mag, denn jemand, der
etwas bereits gefunden und oft besucht hat, der wird sich ungern wieder auf
die Suche machen. Eine art "auto search bookmark" .


wenn google innovationen vor die füsse knallt, die ottonormaluser weder begreifen noch abschalten kann (weil er einfach nicht weiss wie es geht) dann fängt die bevormundung an und es wird nicht mehr lange dauern, bis die ersten wirklich mal wechseln, denn andere suchmaschinen sind nicht schlechter als google.

wie du schon schreibst..80% sind "doofe". Diese art Bevormundung werden
sie nicht bemerken oder als solches sehen.Wie schon oben bereits
geschrieben..Wenn ich ein link mehrmals besuche , dann erst habe ich diesen
link für dieses Keyword oben in den serps..Das aber nur solange bis ich die
coockies gelöscht habe.


was aht denn bitteschön der kunde davon, wenn immer die selbe spamleier mit anderen worten beschrieben wird?

Weiss ich auch nicht..die sollte alle zu mir kommen aber nunja :). wir
bewegen uns im Bereich Porno und Abwechslung ist in Sachen Porno für den
user nur gut.Leider ist google da nicht so "flexibel" .


jetzt erklär mir doch bitte mal, was du unter "netzwerk" verstehst, damit wir da ggf. auf einem nenner reden.
ein netzwerk ist alles was miteinander verbandelt ist - egal ob fremd oder eigen. und sobald man ein eigenes netzwerk hat und es massiv mit anderen netzwerken verlinkt wird eine neues, grösseres netzwerk draus.

Ich stimme zu.

google pfeift auf seiten sondern erkennt netzwerke. alleine deshalb ist diese ganze debatte um links hin oder her oder rauf oder runter völlig sinnlos, weil google schon lange nicht mehr so arbeitet, wie es immer noch frisch und fröhlich von den dächern trällert.

Ich stimme nicht zu, denn es finden sich unzählige Seiten im Index mit
wenige bis 0 backlinks, aber bereits von google nutzer besucht .Schön mit
toolbar, coockie und vielleicht auch noch im searchprotocol, wenn sie
angemeldet waren, wurden diese Seiten dann erfasst.Wenn es so wäre , wie
du es beschreibst, dann hätten ALLE "netzwerkschwachen" Seiten keine Chance.


die haben sich einfach nur einmal im leben XING angesehen und haben aus ihrem eigenen algo, dem zusätzlich gekauften trust rank und dem was sie da gesehen haben etwas ziemlich logisches gemacht.
nur leider hat das bisher noch keiner richtig gedeuted und deshalb bleiben auch immer noch so viele antworten einfach unlogisch.

Kannst du das bitte erklären?Wer hat was gemacht? google hat sein algo
wegen xing geändert? nee oder?..also..Twitter, xing etc pp haben einen
kleinen Einfluss auf die serps, jedoch ist dieser Einfluss minimal.



Ich will dich hier mal zittieren, da ich deine Aussage nicht wirklich deuten kann.

google pfeift auf seiten sondern erkennt netzwerke. alleine deshalb ist diese ganze debatte um links hin oder her oder rauf oder runter völlig sinnlos, weil google schon lange nicht mehr so arbeitet, wie es immer noch frisch und fröhlich von den dächern trällert.
ein link ist immer nur so gut wie das netzwerk aus dem er kommt. die
einzelne seite spielt dabei eine völlig untergeordnete rolle.

viel spass im netz

thommy

Wenn ich das richtig verstehe, dann existieren keine neuen Seiten und es
entstehen keine neuen Netzwerke mehr. Mir ist leider googles Patentänderung
diesbezüglich nicht bekannt oder ich habe es überlesen.

Ein Netzwerk ist eine Ansammlung von Verweise , welche ein Netzwerk bilden.

Beispiel 1:
Eine Seite verweist auf die andere.2 Seiten nur.
Verwiesen wird von a nach b und von b nach a.Ein Netzwerk.

Beispiel 2:
Twitter - angefangen mit 0 backlinks.Twitter wurde interessant und hat jetzt
die Authority von so ziemlich allen verweisenden Seiten überholt.Bedeutet
also, twitter hat nicht den trust , weil das Netzwerk stark ist, sondern weil
es sich etabliert hat.

Jetzt zurück zu deiner aussage weiter oben "debatte um links hin oder
her
.. sinnlos..."

Und was nun.Ist eine Debatte über Links sinnlos oder sinnvoll?
Ich meine nur..Ohne links, kein Netzwerk.Kein content, keine Ergebnisse.
 

Lemon

- Royal Clan Member -
Selbst wenn Google mal von anderen Suchmaschinen überholt wird, Yahoo & Bing sind auch schwanzgesteuert (Links gesteuert).
 

Harry

- Premium Member -
Wenn ich 1 Million Domains habe, nur mal als grobe Zahl, und ich suche nach Themen, die die deutsche Nationalmannschaft betreffen und das Turnier in England 1966, dann komme ich als Suchmaschine mit dieser Datenmenge gut zurecht, weil die Seiten, die sich gleichzeitig mit diesem Thema beschäftigen, überschaubar sind.
Wenn ich aber 1 Milliarde Seiten habe oder 10 Milliarden (ich weiß, es sind natürlich mehr), dann ist die Anzahl der Seiten, die sich mit diesem Thema beschäftigen, naturgemäß größer. Vergleichbares gilt natürlich für "Ficken", "Amateure" und "Livecams".
Die Position Google's ist jetzt sehr diffizil, denn es gilt die Seiten herauszufinden, die es wert sind, oben zu stehen.

Mich wundert es eh schon lange dass Google die Unterseiten indexiert, das läuft aus Google sicht zwangläufig irgendwann aus dem Ruder. Ich glaube es ist absehbar, dass Google irgendwann mal nur nocht die Startseiten indexiert, dann bricht das ganze Linkkartenhaus eh zusammen.
 

develish

- Premium Member -
Mich wundert es eh schon lange dass Google die Unterseiten indexiert, das läuft aus Google sicht zwangläufig irgendwann aus dem Ruder. Ich glaube es ist absehbar, dass Google irgendwann mal nur nocht die Startseiten indexiert, dann bricht das ganze Linkkartenhaus eh zusammen.

Es macht aber wenig sinn nur die Startseiten zu indizieren weil sich da zwar meist die neusten informationen befinden, aber die meisten informationen befinden sich auf den unterseiten; Wenn ein user nach Gardinen schaut will er bei Otto nicht erstmal auf der Startseite landen wo es im zweifel gar keine Gardinen gibt sondern direkt auf der Gardinen-seite.
 

MisterAustria

- Premium Member -
ein link ist immer nur so gut wie das netzwerk aus dem er kommt. die einzelne seite spielt dabei eine völlig untergeordnete rolle

hmm, das ist dann mal grob gesagt eigentlich das selbe wie die jedem bekannte PR regel... such dir links auf PR seiten ... weil PR = die seite hat viele links .. also is auch sowas wie ein netzwerk dahinter.. deshalb link dort gut... ABER erweitert um den ansatz.. schau dir das netzwerk dahinter an ob da was dabei ist mit dem du selber schon verbandelt bist.. wenn ja weniger gut.. wenn nein.. besser..

obwohl irgendwie sagt der satz.. "link ist so gut wie das netzwerk aus dem er kommt. einzelne seite spielt dabei keine rolle" das jede seite die mit einem guten netzwerk verbandelt ist wervoll ist linkmässig auch wenn die seite schwach ist... also so gesehn wenn z.b ein blog mit einem guten netzwerk verbandelt ist hat sie einen wert der aufn ersten blick nicht erkennbar ist..
nur da is wieder der haken dran zu erkennen wie so ne seite mit einem netzwerk verbandelt is um diesen wert zu sehn.. machts wieder komplizierter.. wenn der ansatz so hinkommt wie ichs zamreime ..

PS: was mir dazu noch einfällt.. der denkansatz könnte dann auch die frage beantworten warum manche seiten mit wenigen links gut ranken was andere wiederum mit 10 mal so vielen links nicht schaffen.. weil wenn ne masse der linkpartner den selben hintergrund hat wie man selber.. z.b in der basis viel mit den bekannten freehost/thumblog arbeitn.. so wie man das vielleicht selber auch gemacht hat dann hat man hier schon die verwandschaft drin..(auch wenn weit entfernt) die das ganze was man von dort bekommt abwertet.. auch wenn die seite von der man den link bekommt aufn ersten blick stark ist und viel bringen müsste.!

obwohl wenn mans so angeht wird linkaufbau schon zur archäologie *gg* weis nicht..

MA
 

thommy

- Premium Member -
Ich persönlich muss oft auf dem Link klicken um diesen auf Platz1 zu sehen.
Der Nutzer der diesen link (mit sicherheit) mehrmals besucht hat, der wird
diesen gern wieder besuchen oder nicht? Du musst verstehen, dass google
Informationen möglichst lange und gut zugänglich mag, denn jemand, der
etwas bereits gefunden und oft besucht hat, der wird sich ungern wieder auf
die Suche machen. Eine art "auto search bookmark" .

es reicht mitunter ein einziger klick. und selbst wenn ich "suchergebnisse auf basis der suchanfragen" abschalte, schaltet sich das ding nach einer gewissen zeit wie von geisterhand wieder ein.

wie du schon schreibst..80% sind "doofe". Diese art Bevormundung werden
sie nicht bemerken oder als solches sehen.Wie schon oben bereits
geschrieben..Wenn ich ein link mehrmals besuche , dann erst habe ich diesen
link für dieses Keyword oben in den serps..Das aber nur solange bis ich die
coockies gelöscht habe.

da gibts nur einen einzigen haken dabei: die trends werden von den intellektuellen gesetzt und die doofen plappern dann nach und rennen hinterher.

Ich stimme nicht zu, denn es finden sich unzählige Seiten im Index mit
wenige bis 0 backlinks, aber bereits von google nutzer besucht .Schön mit
toolbar, coockie und vielleicht auch noch im searchprotocol, wenn sie
angemeldet waren, wurden diese Seiten dann erfasst.Wenn es so wäre , wie
du es beschreibst, dann hätten ALLE "netzwerkschwachen" Seiten keine Chance.

nun ich rede hier nicht von seiten die auf "dreibeinige negerhuren mit lockenwicklern in der telefonzelle" optimiert sind. die einmaligkeit eines inhaltes ist natürlich neben anderen faktoren ein rankingauslösender aspekt.

ABER:

wenn es um kluge und gewinnbringende verlinkung geht, dann rede ich eben nicht von den longtails sondern von den hart umworbenen suchbegriffen. und da wirste mir kaum ne seite zeigen können die keine links hat (zumal du sowieso die hälfte der exostenten links nicht findest).


Kannst du das bitte erklären?Wer hat was gemacht? google hat sein algo
wegen xing geändert? nee oder?..also..Twitter, xing etc pp haben einen
kleinen Einfluss auf die serps, jedoch ist dieser Einfluss minimal.

google hat schon vor etlichen jahren den sogenannten trust rank algo gekauft und ihn mit seinem eigenen algo verbandelt.

während der pagerank früher lediglich die anzahl von links gewertet hat, misst der trustrank andere kriterien - vetrauen halt.

vertrauen kann man aber gar nicht auf eine einzelne seite geben weil das viel zu sehr manipulierbar ist.

infolgedessen: sag mir mit wem du umgehst und ich sag dir wer du bist.


Wenn ich das richtig verstehe, dann existieren keine neuen Seiten und es
entstehen keine neuen Netzwerke mehr. Mir ist leider googles Patentänderung
diesbezüglich nicht bekannt oder ich habe es überlesen.

natürlich entstehen neue seiten und es entstehen auch neue netzwerke. nur ist das gewicht der einzelnen seite vom gewicht seines zugehörigen netzwerkes abhängig.



Ein Netzwerk ist eine Ansammlung von Verweise , welche ein Netzwerk bilden.

Beispiel 1:
Eine Seite verweist auf die andere.2 Seiten nur.
Verwiesen wird von a nach b und von b nach a.Ein Netzwerk.

auch ein netzwerk ist es wenn von a nach b von b nach c und von ca nach a verlinkt wird.

100% KEIN netzwerk ist es (bzw. kein mathematisch unterteilbares mehr) wenn du a - b - c - d - e - f - a linkst

und genau DAS ist die mathematische grundlage von trustrank, die auf einer mathematischen gleichung beruht, welche besagt, dass jeder menschen jeden anderen um genau 6,6 ecken kennt.

heisst: würde google verhältnismässigkeiten in der grössenordnung von 6,6 tiefen berechnen, dann wäre das ganze nichts wert weil es dann nur EIN EINZIGES grosses netzwerk auf der welt gäbe.

infolgedessen werden die verhältnismässigkeiten weiter unten gestrickt. also so, dass man verbindungen in einer art knäuelbildung darstellt.

und das meinte ich auch mit dem besipiel xing oder wer kennt wen.
versuchs mal ob du dort irgendeinen menschen auf dieser welt um mehr als 6 ecken kennst.

aber jeder einzelne von denen hat beziehungen ersten grades, 2. grades usw....

die tiefe dieser beziehungen bezeichnet das netzwerk, von dem der trustrank ausgeht.



Beispiel 2:
Twitter - angefangen mit 0 backlinks.Twitter wurde interessant und hat jetzt
die Authority von so ziemlich allen verweisenden Seiten überholt.Bedeutet
also, twitter hat nicht den trust , weil das Netzwerk stark ist, sondern weil
es sich etabliert hat.

jup hat aber den trust deshalb, weil die links nicht vom twitterbruder, der twitterschwester oder dem twitteronkel kommen, sondern weil eine VIELFALT von links aus weit entfernten netzwerken geschieht.


Jetzt zurück zu deiner aussage weiter oben "debatte um links hin oder
her
.. sinnlos..."

Und was nun.Ist eine Debatte über Links sinnlos oder sinnvoll?
Ich meine nur..Ohne links, kein Netzwerk.Kein content, keine Ergebnisse.

eine debatte über linkbuilding ist schon sinnvoll. aber dann eben mit den massstäben, die auch für die wertung von links anwendung finden und nicht mit nachgeplapperter hühnerkacke aus selbstbeweihräucherungs seo-foren.

ich bin halt der festen meinung, dass jegliche seo-erfolge zufällig passieren - was zwar nicht heisst dass es keinen grund dafür gibt - aber heissen soll, dass diejenigen die diese erfolge haben, gar nicht WISSEN warum sie sie haben.

genau damit erklärt sich nämlich auch, warum seiten mit vielen links sehr häufig sehr weit vorne stehen. viele interpretieren das als folge der linkmenge.
die richtige interpretation aber lautet: derjenige hat heftig blind um sich geschossen und hat daher auch die grössere chance öfters zu treffen.

anders ist es bei seiten die auch mit wenigen links vorne stehen. da wollte es halt der zufall, dass es schon bei wenigen gelegten feuern irgendwo gebrannt hat.

viel spass im netz

thommy
 

thommy

- Premium Member -
hmm, das ist dann mal grob gesagt eigentlich das selbe wie die jedem bekannte PR regel... such dir links auf PR seiten ... weil PR = die seite hat viele links .. also is auch sowas wie ein netzwerk dahinter.. deshalb link dort gut...

PR hat nichts mit menge zu tun.
ich kann mit einem einzigen link von einer PR5 seite einer anderen seite ohne weitere links einen PR4 hinzaubern.

aber PR ist die einzige messlatte in die uns google schauen lässt und hat somit eine bestimmte wertigkeit.

ABER erweitert um den ansatz.. schau dir das netzwerk dahinter an ob da was dabei ist mit dem du selber schon verbandelt bist.. wenn ja weniger gut.. wenn nein.. besser..

das ist zwar so nicht ganz richtig aber fast.
das man gar nicht verbandelt sein darf wäre ja paradox, denn alleine mit dem link um den es geht wärst du ja verbandelt.

die frage ist wie tief du verbandelt bist und wie oft.

wenn netzwerke zu viel untereinander linken wird daraufs ein neues, grösseres netzwerk. sprich die links die du dann hast, werden so gewertet, als wären es links von deinen eigenen seiten auf deine eigenen seiten.


obwohl irgendwie sagt der satz.. "link ist so gut wie das netzwerk aus dem er kommt. einzelne seite spielt dabei keine rolle" das jede seite die mit einem guten netzwerk verbandelt ist wervoll ist linkmässig auch wenn die seite schwach ist... also so gesehn wenn z.b ein blog mit einem guten netzwerk verbandelt ist hat sie einen wert der aufn ersten blick nicht erkennbar ist..
nur da is wieder der haken dran zu erkennen wie so ne seite mit einem netzwerk verbandelt is um diesen wert zu sehn.. machts wieder komplizierter.. wenn der ansatz so hinkommt wie ichs zamreime ..

ja der ansatz ist schon nicht so falsch.
wobei man hier auch noch andere faktoren nicht ausser acht lassen darf, denn eine seite wird nicht nur nach ihren eingehenden links bewertet sondern auch nach ihren ausgehenden.

ich kenne da ein paar erfolgreiche beispile, bei denen die betreiber mindestens genauso viel wert auf ihre ausgehenden links legen. und zwar nicht in bezug auf thematische gleichheit oder gleiche stärke sondern rein in bezug auf netzwerkbildung bzw. nichtbildung.

PS: was mir dazu noch einfällt.. der denkansatz könnte dann auch die frage beantworten warum manche seiten mit wenigen links gut ranken was andere wiederum mit 10 mal so vielen links nicht schaffen.. weil wenn ne masse der linkpartner den selben hintergrund hat wie man selber.. z.b in der basis viel mit den bekannten freehost/thumblog arbeitn.. so wie man das vielleicht selber auch gemacht hat dann hat man hier schon die verwandschaft drin..(auch wenn weit entfernt) die das ganze was man von dort bekommt abwertet.. auch wenn die seite von der man den link bekommt aufn ersten blick stark ist und viel bringen müsste.!


genau DAS ist der kasus knacksus und NUR mit dieser netzwerktheorie kannst du JEDES scheinbare paradoxon erklären, dass augenscheinlich trotz nichteinhaltung der "regeln und seo-gesetze" funktioniert.


obwohl wenn mans so angeht wird linkaufbau schon zur archäologie *gg* weis nicht..

MA

eben nicht. ich habs weiter oben schon geschrieben. das schöne an dieser formel ist, dass ihre maximaltiefe bei 6,6 erreicht ist. also WESENTLICH weniger rechenarbeit bedeutet als dies bei indivualbewertung einzelner seiten notwendig wäre (der rechenaufwand hierfür wäre ums zugtausendfache grösser)

der archäologische teil an dieser theorie bestand eingentlich nur darin heraus zu finden, dass diese formel schon viele jahrzehnte älter ist als das internet.

stell dir das mal ganz plump so vor:

10 leute empfehlen mir das webroyals forum als das beste und tollste awm-forum der welt.

nun guck ich nach und finde heraus, dass alle diese 10 leute selbst betreiber des webroyals-forums sind.

nun bekomme ich eine weitere empfehlung von jemandem, der im JF schreibt aber hier und dort beteiligt ist.

und nun bekomme ich eine 3. empfehlung von jemanden der sich nur im JF aufhält und mit dem WR nichts zu tun hat.

die erste empfehlung ist rein subjektiv
die 2. ist halb subjektiv halb objektiv
die 3. ist objektiv

was aber gleichzeitig bedeutet, dass das JF plötzlich zur wichtigen institution für WR wird eben WEIL diese foren nicht direkt miteinander verbandelt sind aber ein eigenständige bewertungsgruppe darstellt.

genau so funktionieren netzwerke.

wären ALLE JF-user bei WR angemedlet und umgekehrt, dann wäre das EIN netzwerk und nicht 2.
und haargenau so funktioniert google.

und deshalb gehen mir solche SEO-legenden, wie sie bisher hier und in anderen foren ausdiskutiert wurden auch so auf den geist. weil sie so sinnlos sind wie eine debatte darüber, wie man sich mit dem vorschlaghammer die haare föhnt.

basic is all - wäre schön, wenn ein paar leute mehr diese basics verstehen und danach handeln anstatt zu versuchen mit eiswürfeln den kamin zu heizen.

viel spass im netz

thommy
 

socialexpert

- Premium Member -
genau damit erklärt sich nämlich auch, warum seiten mit vielen links sehr häufig sehr weit vorne stehen. viele interpretieren das als folge der linkmenge.
die richtige interpretation aber lautet: derjenige hat heftig blind um sich geschossen und hat daher auch die grössere chance öfters zu treffen.

anders ist es bei seiten die auch mit wenigen links vorne stehen. da wollte es halt der zufall, dass es schon bei wenigen gelegten feuern irgendwo gebrannt hat.

viel spass im netz

thommy

Du Thommy.Ich stimme nicht zu und es gibt klare Gründe warum, aber ich will hier nicht aus dem Nähkästchen plaudern. Suchmaschinen wurden programmiert. Es gibt also keine Zufälle, sondern nur Raster indem Seiten hineinpassen.

mich schockiert auch , dass du es so siehst und so interpretierst.

Alles Gute

edit:

100% KEIN netzwerk ist es (bzw. kein mathematisch unterteilbares mehr) wenn du a - b - c - d - e - f - a linkst

Auch das ist ein Netzwerk. Eine Seite verfügt über ein inneres Netzwerk und kann auch ein Teil eines anderen Netzwerks sein.
Sobald eine Seite über einen externen link verfügt, ist diese mit einem anderen Netzwerk verbunden, bzw bietet es dem user die
Möglichkeit ein anderes Netzwerk zu betretten. Es muss kein "Rücklink" besitzen , um dieses als "Netzwerk" zu bezeichnen.
Wenn wir beide also dein Beispiel bildlich vorstellen, dann schaut dieses netzwerk so aus {___.____.______.____.___.___}
Ein in sich geschlossenes Netzwerk.
 

thommy

- Premium Member -
Du Thommy.Ich stimme nicht zu und es gibt klare Gründe warum, aber ich will hier nicht aus dem Nähkästchen plaudern. Suchmaschinen wurden programmiert. Es gibt also keine Zufälle, sondern nur Raster indem Seiten hineinpassen.

mich schockiert auch , dass du es so siehst und so interpretierst.

du musst mir doch nicht zustimmen.

kann doch jeder halten wie er will :)

Auch das ist ein Netzwerk. Eine Seite verfügt über ein inneres Netzwerk und kann auch ein Teil eines anderen Netzwerks sein.
Sobald eine Seite über einen externen link verfügt, ist diese mit einem anderen Netzwerk verbunden, bzw bietet es dem user die
Möglichkeit ein anderes Netzwerk zu betretten. Es muss kein "Rücklink" besitzen , um dieses als "Netzwerk" zu bezeichnen.
Wenn wir beide also dein Beispiel bildlich vorstellen, dann schaut dieses netzwerk so aus {___.____.______.____.___.___}
Ein in sich geschlossenes Netzwerk.

das ist eben KEIN netzwerk mehr, weil es damit nur EIN netzwerk gäbe.
6.6 ecken und dann biste überall.

und das ist keine annahme sondern eine mathematische TATSACHE.

viel spass im netz

thommy
 

mesh

- Premium Member -
Suchmaschinen wurden programmiert. Es gibt also keine Zufälle, sondern nur Raster indem Seiten hineinpassen.
...
push (@welt,"$irgendwas");
...(Mehr davon! Gib's mir!)...
print "Ihre Suche ergab: $welt[rand(@welt)]";

Wenn ich mir 'nen Jux machen wollte, würde ich es genau so anstellen.
Wenn ich Google wäre.
Und was lernen wir daraus?
Man kann Zufälle auch programmieren...:)
 

mesh

- Premium Member -
Putzig..

Dann richte doch mal eine google Lotto site ein.
Bei abakus bekommt man bestimmt Spieler.
Wenn Du mir das sagen willst, was ich vermute, dann wäre es zu spät: bereits in den frühen Tagen von Google gab es eine Seite, die Google-Roulette (oder so ähnlich) hieß und auf Zufallsmischungen der SERPs beruhte.
Nicht wirklich originell wäre so was heute mithin.
Und: bei Abakus findet man keine Spieler sondern Spinner....:eek:
 
Oben