Was ist neu?
Digital Marketing & Webmaster Forum

Digital Marketing, Internet-Technologien, Metaverse und mehr interessieren Dich? Registriere Dich gleich kostenlos, um Mitglied zu werden! Sobald Du angemeldet bist, kannst Du loslegen, Themen und Beiträge veröffentlichen und mit anderen Mitgliedern in Kontakt treten! Wir wünschen Dir einen anregenden Austausch!

Wie Domains auf einer Ip

thommy

- Premium Member -
Das lieber thommy, war schlecht angeführt, ganz schlecht.
Herr Cutts wird gelegentlich auch die lebende Nebelkerze genannt und es ist allgemein bekannt, daß man ihm aber nun wirklich nix glauben sollte...:rolleyes:

genau deshalb gibts sich google auch so ne mühe, um webmastern zu sagen wie man es RICHTIG macht. um im nächsten sxchritt diese bemühungen mit fehlinformationen wieder ad absurdum zu führen.

google erklärt öffentlich, DASS sie

a. auf whois-daten zugreifen
b. änderungen wie domainübetragungen sehr wohl einfluss aufs ranking haben
c. sogar der serverstandort ein rolle beim ranking spielt

wieso verraten die diese geheimnisse und erzählen dann auf der anderen seite blödsinn, wenn es um die wertung von IPs geht?

google kann sehr wohl rechnen und kennst sowohl die zahl der angemeldeten domains als auch die grössenordnung der vorhandenen IPs - die müsste ja mit dem hammer gebohnert sein, wenn die mit dem resultat dieses wissens, ein solches "gesetz" schaffen würden.

sorry tut mir leid - du hast zu viel abakus gelesen.

Abschliessend: bei der von Google ausgebrüteten Gehirnkrankheit bzgl. Links muß man heute schon ein mächtiges, wirklich mächtiges eigenes Linknetzwerk haben um daraus wirklich Honig saugen zu können.
Links sammelt man besser auf andere Weise- ist halt nur blöd, daß man dieses schwachsinnige Spielchen mitmachen muß...

es spielt natürlich ganz sicher eine rolle ob 90% deiner GESAMTEN links von der selben IP kommen - aber haste schon mal drüber nachgedacht dass auch alle INTERNEN LINKS von der selben IP kommen?

deine theorie würde also die wichtigkeit interner linkpops ad absurdum führen.

irgendjemand hat mal ausgrechnet, dass google, sofern sie wirklich alle von seos unterstellten (und völlig wirren und teilweise widersprüchlichen) regeln, maschinell abarbeiten wollten, einen hardwarepark haben müssten, der auf der mondoberfläche keinen platz haben würde. und die dazugehörige rechenzeit und all diese wenn und aber regeln abzuarbeiten würde im 1000-jahre bereich liegen.

wir können uns gerne über ufos oder ein leben nach dem tod unterhalten - wir können uns von mir aus auch über zauberei und die richtigkeit von millionen urbaner legenden unterhalten - aber ich werde mir davon nicht das leben schwer machen lassen, weil ich leider die erfahrung gemacht habe, dass all die seiten, bei denen ich streng nach solchen szenarien gearbeitet habe eben NICHT funktionieren und andere, die mit subtilsten und einfachsten mitteln (keine tricks) arbeiten, an den vordersten positionen in den SERPS stehen.

wichtig ist nicht von wo man linkt sondern WIE man linkt und wie SINNVOLL ein link ist. und klar kann man das selbe ergebnis auch mit 100.000 spamlinks haben, die man dann ganz sicher verschleiern muss (wobei da eben die IP alleine nicht hilft) - man kanns aber auch mit ein paar 100 guten und sinnvollen links erreichen - und zwar NACHHALTIGER.

viel spass im netz

thommy
 

mesh

- Premium Member -
genau deshalb gibts sich google auch so ne mühe, um webmastern zu sagen wie man es RICHTIG macht. um im nächsten sxchritt diese bemühungen mit fehlinformationen wieder ad absurdum zu führen.
Google hat die Webmaster auch hinsichtlich der PR-Anzeige gezielt verarscht, nur, weil es ihnen Spaß macht- und das öffentlich zugegeben. Quelle: Cutts.
google erklärt öffentlich, DASS sie
a. auf whois-daten zugreifen
Können sie machen, wie sie lustig sind.
Bringt nur relativ wenig bei WhoIs-Protect.
b. änderungen wie domainübetragungen sehr wohl einfluss aufs ranking haben
Möglicherweise.
Von Protect zu Protect eher diffizil nachzuvollziehen. Noch schwieriger wird es beim Einsatz mehrerer Registrare.
c. sogar der serverstandort ein rolle beim ranking spielt
Ich kenne genau die gegenteilige Aussage, witzigerweise eben von: genau, Google.
Soviel zu systematischer Verarschung, oder: 3 Mitarbeiter, 4 Aussagen.
wieso verraten die diese geheimnisse und erzählen dann auf der anderen seite blödsinn, wenn es um die wertung von IPs geht?
Was fragst Du mich?
Bin ich Goot?
google kann sehr wohl rechnen und kennst sowohl die zahl der angemeldeten domains als auch die grössenordnung der vorhandenen IPs
Nö. Wenn man doof genug ist, die Google-Tools einzusetzen, vielleicht, aber sonst wohl kaum.
Ziehe gerade 2 Server um, da sind IPs und Domains aufgetaucht, von denen ich selbst nix mehr wußte, wie soll das also Google können?
Genügend IP-Blöcke, genug Server in genug Ländern und niemand kommt drauf ausser dir selbst. Ausser man ist blöd genug, alles untereinander irgendwie zu verlinken. Bei geschickter ringförmiger Verlinkung ohne Überschneidung kommt da niemand drauf. Google ist nicht Goot.
sorry tut mir leid - du hast zu viel abakus gelesen.
Zuviel eher nicht. Mache ich meistens, wenn nix an Kabarett im Fernsehen kommt und ich mich amüsieren will.
Sonst mache ich alles seit 15 Jahren ohne Einflüsterungen von aussen.
Niemand wird ausserdem in einem Forum, auch nicht bei den Geeks von Abakus, wirklich harte Fakten preisgeben.
es spielt natürlich ganz sicher eine rolle ob 90% deiner GESAMTEN links von der selben IP kommen - aber haste schon mal drüber nachgedacht dass auch alle INTERNEN LINKS von der selben IP kommen?
Sischadat. Ist aber nicht das Thema.
wichtig ist nicht von wo man linkt sondern WIE man linkt und wie SINNVOLL ein link ist.
Definiere SINNVOLL. Was heute bei Goot sinnvoll ist, ist morgen Müll. Und das ist natürlich auch ein Selbstschutz-Mechanismus.
man kanns aber auch mit ein paar 100 guten und sinnvollen links erreichen - und zwar NACHHALTIGER.
Sicher.
Im Sex-Bereich vielleicht.
Wenn Du aber im Nonerotik-Bereich an die dicken Futtertöpfe willst, dann sind 100 ein bisserl wenig, selbst wenn diese Links in anderen Bereichen substanzhaltig sind.
Wenn man seine Mitbewerber ausreichend analysiert merkt man das recht schnell.
 

thommy

- Premium Member -
Google hat die Webmaster auch hinsichtlich der PR-Anzeige gezielt verarscht, nur, weil es ihnen Spaß macht- und das öffentlich zugegeben. Quelle: Cutts.

verstehe da grade nicht was du meinst ???

Können sie machen, wie sie lustig sind.
Bringt nur relativ wenig bei WhoIs-Protect.

haste schon mal tests gemacht mit links von und zu whoisprotected seiten ud die ergebnisse verglichen?
solltest du mal machen !!!

Möglicherweise.
Von Protect zu Protect eher diffizil nachzuvollziehen. Noch schwieriger wird es beim Einsatz mehrerer Registrare.

eine änderung im whois eintrag wird selbst dann sichtbar wenn die übertragung von einem whois protect zum anderen whois protect geht.

Ich kenne genau die gegenteilige Aussage, witzigerweise eben von: genau, Google.
Soviel zu systematischer Verarschung, oder: 3 Mitarbeiter, 4 Aussagen.

auch hier kann ich nur sagen: probiers aus!
wir haben es ausprobiert!

Was fragst Du mich?
Bin ich Goot?

naja offenbar ja schon, wenn du ratschläge erteilst die nicht durch tests bestätigt werden können.


Nö. Wenn man doof genug ist, die Google-Tools einzusetzen, vielleicht, aber sonst wohl kaum.
Ziehe gerade 2 Server um, da sind IPs und Domains aufgetaucht, von denen ich selbst nix mehr wußte, wie soll das also Google können?
Genügend IP-Blöcke, genug Server in genug Ländern und niemand kommt drauf ausser dir selbst. Ausser man ist blöd genug, alles untereinander irgendwie zu verlinken. Bei geschickter ringförmiger Verlinkung ohne Überschneidung kommt da niemand drauf. Google ist nicht Goot.

was ich eigentlich damit sagen wollte ist, dass die zahl der domains im netz jetzt schon sehr viel höher ist als die zahl der verfügbaren IPs.
es MUSS also zwangsläufig zu gleichen IPs kommen, weil die mehrzahl der domains auf dieser welt bereits jetzt auf gesharten IPs liegt. welchen sinn sollte also so eine regel dann noch machen?

Zuviel eher nicht. Mache ich meistens, wenn nix an Kabarett im Fernsehen kommt und ich mich amüsieren will.
Sonst mache ich alles seit 15 Jahren ohne Einflüsterungen von aussen.
Niemand wird ausserdem in einem Forum, auch nicht bei den Geeks von Abakus, wirklich harte Fakten preisgeben.

das ist in der tat so - und genau so entsteht ja auch die gerüchteküche mit regeln, bei denen sich bei hund und katz die haare sträuben.
ich habe sehr oft den eindruck, dass da die echten wisser einfach nur arbeit unter die kollegen schaufeln, damit sie langsamer oder gar nicht voran kommen.

Sischadat. Ist aber nicht das Thema.

doch, dass ist teil des themas, wenn man sagt, dass IPs ne rolle spielen.
das würde nämlich bedeuten, dass eine neue regel definiert werden muss.

grundregel: wenn IP= dieselbe strafe ab
ausnahme: wenn IP dieselbe und domain ist die selbe strafe nicht ab

weisst du wieviele regeln und ausnahmeregeln google definieren muss?
weisst du wie viel rechenleistung jede einzelne regel braucht wenn man milliarden von seiten berechnen muss?

ich bin mir GANZ sicher, dass jede neue miniregel bei google durch zig entscheidungsebenen gejagt wird, bevor sie eingebaut wird.
daher bin ich überzeugt davon, dass da nur platz für sinnvolle ist, denn sonst schiessen die ihren rieseigen serverpark ruckzuck selber weg.

Definiere SINNVOLL. Was heute bei Goot sinnvoll ist, ist morgen Müll. Und das ist natürlich auch ein Selbstschutz-Mechanismus.

korrekt - und warum?
weil jeder neuen regel, die eben durch 50 etagen und 200 abstimmungen gelaufen ist, eine alte weichen muss, wenn google nicht jeden tag ein bisschen langsamer werden will.

bei google funktionieren heute noch (teilweise sogar wieder) so uralte kniffe, die eigentlich schon seit 2000 keiner mehr benutzt, weil sie laut seo-informationen eben nicht gehen. das ist darauf zurück zu führen, dass neue regeln aufgestellt werden MUSSTEN und alte dafür einfach gekickt wurden.

Sicher.
Im Sex-Bereich vielleicht.
Wenn Du aber im Nonerotik-Bereich an die dicken Futtertöpfe willst, dann sind 100 ein bisserl wenig, selbst wenn diese Links in anderen Bereichen substanzhaltig sind.
Wenn man seine Mitbewerber ausreichend analysiert merkt man das recht schnell.

es gibt hier und dort keys die mit wenig und die mit viel links funktionieren, weil sie hart umkämpft sind.

auch wenn man mich nur aus der erotik kennt, bin ich nonadult auch dabei und weiss wie hart das leben da ist.

und damit hast du ja auch schon das beste beispiel.
bei hart umkäpften suchbegriffen, die mit vielen links arbeiten, die alle auf VIIEEELE regeln und ausnahmen überprüft werden wollen, dauert eine rankingveränderung verdammt lange.

wir haben gerade einen aktuellen fall im umkämpften nonadult, bei dem eine seite sich (trotz täglichem besuch durch den go-robot) heute noch auf einer position befindet. die auf einen status aufbaut, der älter als 3 monate ist.
und das bei der angeblich aktuellsten suchmaschine der welt.

nur eine einzige kleine regel oder ausnahmeregel mehr im google algo, würde die zeitverschiebung sicher nochmal um wochen verlängern.

sieh es doch mal aus deren warte. die lassen von herzen gerne einige regeln weg, bevor sie nur eine einzige unsinnige dazu nehmen. noch dazu eine, die sich ja laut deiner definition und der in allen seo-foren dieser welt gültigen meinung, gar zu leicht umgehen lässt.

viel spass im netz

thommy
 

thommy

- Premium Member -
Nur ein Beispiel mein Lieber... ;)

gibs doch zu dass du ein hobbywebmaster bist.

dass du um die zeit überhaupt noch wach bist ??? du musst doch um 5 aufstehen um zeitungen auszutragen...rofl.....


viel spass im netz

thommy
 

mesh

- Premium Member -
verstehe da grade nicht was du meinst ???
Desinformationspolitik ist ein fester Bestandteil des Erfolges von Google, gezielt oder über nicht unterbundene Urban Legends.
Völlig verständlich, denn nichts wäre schlimmer als Berechenbarkeit, also ist das lebensnotwendig. Ergo: glaube nichts, was Google freiwillig von sich gibt.
haste schon mal tests gemacht mit links von und zu whoisprotected seiten ud die ergebnisse verglichen?
solltest du mal machen !!!
Mache ich ständig. Geht gar nicht anders wenn man in vielen Feldern arbeitet.
eine änderung im whois eintrag wird selbst dann sichtbar wenn die übertragung von einem whois protect zum anderen whois protect geht.
Mag sein, dennoch ist es zunächst mal Protected. Bei mir sind sogar die Adressen nicht nachvollziehbar, die ich dem Registrar mitteile für eine Protected Domain.
So much for paranoia- und was soll ich sagen? Ich bin damit bis jetzt bestens gefahren.
Die einzige mögliche Übereinstimmung sind bei einem Wechsel die Nameserver und über die habe ich volle Kontrolle.
wir haben es ausprobiert!
Me2
naja offenbar ja schon, wenn du ratschläge erteilst die nicht durch tests bestätigt werden können.
Du hast mich gefragt warum Google Ratschläge erteilt, die nicht stimmen können und ich habe gesagt, daß ich es nicht weiß. Nicht mehr.
was ich eigentlich damit sagen wollte ist, dass die zahl der domains im netz jetzt schon sehr viel höher ist als die zahl der verfügbaren IPs.
es MUSS also zwangsläufig zu gleichen IPs kommen, weil die mehrzahl der domains auf dieser welt bereits jetzt auf gesharten IPs liegt. welchen sinn sollte also so eine regel dann noch machen?
Du kannst relativ leicht auseinanderhalten zwischen Großprovidern und nicht Großprovidern. Die Vergabe der C-Klassen ist bekannt bis auf den Namen der Firma herunter. Auf dieser Kenntnis Ausnahmeregeln zu fixieren (1&1 IPs sind aussen vor, Firma Quietschhausen's IPs nicht) ist nun wirklich kein Problem da die C-Klassen überschaubar sind. Insofern lassen sich Netzwerke innerhalb der Blöcke nachvollziehen.
das ist in der tat so - und genau so entsteht ja auch die gerüchteküche mit regeln, bei denen sich bei hund und katz die haare sträuben.
ich habe sehr oft den eindruck, dass da die echten wisser einfach nur arbeit unter die kollegen schaufeln, damit sie langsamer oder gar nicht voran kommen.
Wenn sich z.B. bei Abakus jemand als kommender Konkurrent im Reisebusiness outet und nach Informationen hechelt und ich da bereits drin bin wäre ich doch blöde wenn ich die Gelegenheit zur Desinformation verstreichen lassen würde. Also gebe ich den guten Onkel und lasse den guten Mann Monate Zeit verschwenden. Deswegen lache ich manchmal recht herzlich über die in manchen Foren angebotenen "Tips".
ich bin mir GANZ sicher, dass jede neue miniregel bei google durch zig entscheidungsebenen gejagt wird, bevor sie eingebaut wird.
Der Meinung bin ich durchaus nicht. Es hat in der Vergangenheit genügend Blutbäder gegeben, die aufgrund fehlgeschlagener Algos entstanden sind und viele der vorhandenen Lücken bestehen nur aufgrund schlampiger Programmierung.
bei google funktionieren heute noch (teilweise sogar wieder) so uralte kniffe, die eigentlich schon seit 2000 keiner mehr benutzt, weil sie laut seo-informationen eben nicht gehen.
Stimmt. Panta rei, Stillstand ist Rückschritt usw. usf.
Ausserdem sorgen die Wiederaufführungen oller Kamellen für allgemeine Verwirrung.
es gibt hier und dort keys die mit wenig und die mit viel links funktionieren, weil sie hart umkämpft sind.
bei hart umkäpften suchbegriffen, die mit vielen links arbeiten, die alle auf VIIEEELE regeln und ausnahmen überprüft werden wollen, dauert eine rankingveränderung verdammt lange.
Naja, niemand behauptet, daß man bei hart umkämpften Keys innerhalb ein paar Wochen oben ist (und sich dann da auch noch hält).
wir haben gerade einen aktuellen fall im umkämpften nonadult, bei dem eine seite sich (trotz täglichem besuch durch den go-robot) heute noch auf einer position befindet. die auf einen status aufbaut, der älter als 3 monate ist.
und das bei der angeblich aktuellsten suchmaschine der welt.
Paradigmenwechsel, mangelnde Ressourcen oder schlampige Programmierung.
Kannste Dir jetzt aussuchen...:D
 

JOE

- Premium Member -
gibs doch zu dass du ein hobbywebmaster bist.

dass du um die zeit überhaupt noch wach bist ??? du musst doch um 5 aufstehen um zeitungen auszutragen...rofl.....

Bin leider krank, konnte auch keine Vertretung finden...
vielleicht könntest Du ja meine Zeitungen mit Deinen zusammen verteilen? Würde dir auch mein Fahrrad leihen, damit Du nicht laufen musst...:D

Aber Kohle bekommst Du natürlich keine, erst wenn ich BROFIWebmaster bin...
 

thommy

- Premium Member -
Desinformationspolitik ist ein fester Bestandteil des Erfolges von Google, gezielt oder über nicht unterbundene Urban Legends.
Völlig verständlich, denn nichts wäre schlimmer als Berechenbarkeit, also ist das lebensnotwendig. Ergo: glaube nichts, was Google freiwillig von sich gibt.

ich weiss nicht wie du auf die idee kommst, google würde selbst missinformationen streuen. mit welchem ziel denn?
etwas dass alle webmaster alles falsch machen und google dann 90% davon aus dem listing streichen darf, damit sienicht mehr so viel arbeit haben?

du musst zugeben, dass dein verfolgungswahn recht unlogisch ist.

Mache ich ständig. Geht gar nicht anders wenn man in vielen Feldern arbeitet.

dann hätte man ja zu gleichen ergebnissen kommen müssen. wenn das nicht so ist heisst das, dass es gar keine regeln gibt und google das nach dem zufallsprinzip auswürfelt.
fazit hieraus wäre, dass man alle tipps und regeln vergessen könnte und das wort seo keine bedeutung hat.

Mag sein, dennoch ist es zunächst mal Protected. Bei mir sind sogar die Adressen nicht nachvollziehbar, die ich dem Registrar mitteile für eine Protected Domain.
So much for paranoia- und was soll ich sagen? Ich bin damit bis jetzt bestens gefahren.
Die einzige mögliche Übereinstimmung sind bei einem Wechsel die Nameserver und über die habe ich volle Kontrolle.

ich habe von halterwechsel gesprochen - der immer nachvollziehbar ist und von google ofiziell bestätigt wird. warum sollte google solche geheimtricks preisgeben und andererseits eine IP-verfolgung der links verheimlichen?
welchen grund gäbe es dafür?


siehe oben - auch hier hätten wir zum selben ergebnis kommen müssen und wenn nicht GIBET ES KEINE regeln und somit kein SEO.

Du hast mich gefragt warum Google Ratschläge erteilt, die nicht stimmen können und ich habe gesagt, daß ich es nicht weiß. Nicht mehr.

tja eben und das weiss keiner was du sagst, denn es würde keinen sinn machen. die firma wäre schlichtweg dumm und wäre die erste dumme firma, die ein solches imperium aufgebaut hat.

Du kannst relativ leicht auseinanderhalten zwischen Großprovidern und nicht Großprovidern. Die Vergabe der C-Klassen ist bekannt bis auf den Namen der Firma herunter. Auf dieser Kenntnis Ausnahmeregeln zu fixieren (1&1 IPs sind aussen vor, Firma Quietschhausen's IPs nicht) ist nun wirklich kein Problem da die C-Klassen überschaubar sind. Insofern lassen sich Netzwerke innerhalb der Blöcke nachvollziehen.

seltsamerweise bieten aber gerade die quietschfirmen fast ausschliesslich v-server an. also auch hier kann dein argument nicht greifen.

eine verfolgung von IPs findet möglicherweise statt, wenn tatsächlich der verdacht von linkspamming besteht. da aber links nicht gleich linkspamming ist, kommt es selbst dann noch drauf an, ob links sinnvoll oder nicht sind.

glaubst du nicht, google hätte nicht längst registriert, dass linknetzwerke mittlerweile über linktauschbörsen stattfinden und somit in den meisten spamfällen die IP eben nicht die selbe ist? also warum sollten sie dann mit einer regel - unterstellt es hätte sie jemals gegeben - aufrechterhalten und damit ihre eigenen server erlahmen lassen?

Wenn sich z.B. bei Abakus jemand als kommender Konkurrent im Reisebusiness outet und nach Informationen hechelt und ich da bereits drin bin wäre ich doch blöde wenn ich die Gelegenheit zur Desinformation verstreichen lassen würde. Also gebe ich den guten Onkel und lasse den guten Mann Monate Zeit verschwenden. Deswegen lache ich manchmal recht herzlich über die in manchen Foren angebotenen "Tips".

absolut agree - meine worte!

Der Meinung bin ich durchaus nicht. Es hat in der Vergangenheit genügend Blutbäder gegeben, die aufgrund fehlgeschlagener Algos entstanden sind und viele der vorhandenen Lücken bestehen nur aufgrund schlampiger Programmierung.

ich würde es mal nicht schlampig nennen, denn ein also mit so vielen wenns und abers hat in der x-ten potenz eine konsequenz, die einfach vorher nicht erkennbar und berechnebar ist. hier kommen wir in den bereich der chaoswissenschaft und der quantenphysik und genau daher ist es auch unmöglich den algo wachsen zu lassen sondern jede unnütze regel raus zu nehmen.

google hat halt leider keine webmaster als programmierer, sonst würden die das bestimmt besser machen :D

Stimmt. Panta rei, Stillstand ist Rückschritt usw. usf.
Ausserdem sorgen die Wiederaufführungen oller Kamellen für allgemeine Verwirrung.

da ist was dran. dass google bestimmte grundalgoversionen immer wieder mal wechselt ist nachvollziehbar, weil der umbau von seiten und linkstrukturen immer länger dauern wird als der druck aufs knöpfchen.

daher gibt es auch nur einige wenige sinnige regeln auf die man sich verlassen kann und auf die man als webmaster aufbauen sollte. alles andere ist ein wettlauf gegen die zeit.

Naja, niemand behauptet, daß man bei hart umkämpften Keys innerhalb ein paar Wochen oben ist (und sich dann da auch noch hält).

das hab ich damit auch nicht behauptet - lediglich dass google bei solchen hart umkämpften keys VIEL MEHR daten zum auswerten hat und daher einfach viel länger braucht um ergebnisse darzustellen.

Paradigmenwechsel, mangelnde Ressourcen oder schlampige Programmierung.
Kannste Dir jetzt aussuchen...:D

meinste wirklich dass ein unternehmen in der grössenordnung mangelnde ressourcen hat oder nur schlampige programmierer findet?

ist schon etwas weit her geholt, findest du nicht?

viel spass im netz

thommy
 

mesh

- Premium Member -
ich weiss nicht wie du auf die idee kommst, google würde selbst missinformationen streuen. mit welchem ziel denn?
Reine Selbsterhaltung.
Je mehr im Nebel stochern um so weniger schaffen es, die Schwachstellen für sich zu nutzen.
Sobald zu viele wissen wie es geht, wird Google geflutet- ist ja schon mehr als einmal passiert in der Vergangenheit.
du musst zugeben, dass dein verfolgungswahn recht unlogisch ist.
Verfolgungswahn ist immer unlogisch. Ich nenne es lieber gesundes Misstrauen. Deswegen gibt's mich auch noch.:)
wenn das nicht so ist heisst das, dass es gar keine regeln gibt und google das nach dem zufallsprinzip auswürfelt.
Nicht nur, aber ein Teil der Programmierung einer Suchmaschine sollte immer aus randomisierten Elementen bestehen.
ich habe von halterwechsel gesprochen - der immer nachvollziehbar ist und von google ofiziell bestätigt wird.
Verstehe ich nicht.
Seit wann muß/kann Google meinen Wechsel "offiziell" bestätigen? Habe ich das was verpaßt?
siehe oben - auch hier hätten wir zum selben ergebnis kommen müssen und wenn nicht GIBET ES KEINE regeln und somit kein SEO.
Natürlich gibt es Regeln.
Davon lebe ich ja.
ich würde es mal nicht schlampig nennen, denn ein also mit so vielen wenns und abers hat in der x-ten potenz eine konsequenz, die einfach vorher nicht erkennbar und berechnebar ist. hier kommen wir in den bereich der chaoswissenschaft und der quantenphysik und genau daher ist es auch unmöglich den algo wachsen zu lassen sondern jede unnütze regel raus zu nehmen.
Es war schlampig. Und Schroedinger's Katze lassen wir mal in der Schachtel, das wäre zu viel der Ehre für die Tante.
google hat halt leider keine webmaster als programmierer, sonst würden die das bestimmt besser machen :D
Programmierer sind Menschen und Menschen machen Fehler. Und sie machen um so mehr Fehler, je komplexer Hardware aufgebaut ist- und Google ist mittlerweile ein Moloch.
Wäre Google überschaubar wäre es dem Chinamann nicht so leicht gefallen, bis in's Herz vorzudringen.
daher gibt es auch nur einige wenige sinnige regeln auf die man sich verlassen kann und auf die man als webmaster aufbauen sollte.
Nach unbestätigten, aber hartnäckigen Meinungen rd. 200. Und das ist nicht gerade wenig.
alles andere ist ein wettlauf gegen die zeit.
Es ist immer Hase vs Igel und das macht ja den Spaß aus. Andere Leute lösen Kreuzworträtsel, wir versuchen, die Tante flachzulegen.:D
das hab ich damit auch nicht behauptet - lediglich dass google bei solchen hart umkämpften keys VIEL MEHR daten zum auswerten hat und daher einfach viel länger braucht um ergebnisse darzustellen.
Nehmen wir mal ein Beispiel aus dem echten Leben:
eine wirklich gute Domain aus dem Finanzbereich besteht rd. 10 Jahre. In den 10 Jahren sind rd. 100.000 Links aufgelaufen. Google hat das Wachstum gespeichert und analysiert, und zwar nicht erst heute, sondern über die Jahre.
Selbst wenn wir rein rechnerisch vorgehen und 100.000 durch 10 teilen haben wir mal gerade 10.000 Links/Jahr oder gut 800/Monat. (Wie wir alle wissen, können wir aber nicht so einfach rechnen) Tatsächlich gilt es also, mal gerade ein hohe dreistellige bzw. niedrige vierstellige Anzahl an Links zu analysieren bei einer Neubewertung. Das ist, mit Verlaub, ein furzmässiger Blitz im Google-Universum. Selbst wenn wir, wie es sich gehört, die Konkurrenz in Relation zu Firma X berechnen, ist es nicht mal anderthalb Furz.
Insofern: wer Kraftwerke für seine Rechnerparks baut, der macht sich um solche albernen Rechenvorgänge nicht wirklich Gedanken...
 

PornoDussel

- Premium Member -
Um es vorweg zu sagen: Im großen und ganzen gebe ich Thommy recht und die Wichtigkeit unterschiedlicher IPs wird mit Sicherheit stark überschätzt. Aber ohne etwas falsches sagen zu wollen – gibt es einen kleinen gedanklichen Fehler. Kann natürlich auch sein, das ich mich irre und einen gedanklichen Fehler mache, daher mal aus Neugier auf Antwort mein Gedanken hierzu:

Google wird mit ziemlicher Sicherheit neben der Domain die zugehörige IP speichern. Der Grund hierfür ist denkbar einfach – man kann sich so beim nächsten Besuch die Namensauflösung sparen.

Wenn man sich weiterhin überlegt, das man über die IP halbwegs genau bestimmen kann, wie weit zwei Domains voneinander entfernt sind und man die IP sowieso schon gespeichert hat, wäre es recht unsinnig, dies nicht in die Bewertung eines Links miteinfließend zu lassen. Eine Kost / Nutzrechnung würde auf jeden Fall positiv ausfallen ;) Je weiter entfernt die Domains sind um so unwahrscheinlicher ist eine Einflussnahme und somit ist der Link hochwertiger.

Was ein Whois-Abfrage angeht – nun ja, die ist recht ungenau und überaus aufwendig. Man überlege nur mal, wie viele Peter Maier ein *.com Domain haben und aus de kommen? Anders gesagt, um hier eine genaue Aussage machen zu können, müsste man auf die Rechnungsdaten der Provider zugreifen können und ich bezweifele mal, das google das kann ;)

Aber wie schon zu Beginn gesagt, sind das nur meine Gedanken hierzu. Viel wichtiger als die IP sind wohl Alter und Qualität der Domain, von der ich den Link bekomme. Auch das wie, wo und wann dürfte entscheidender sein, als die IP...


PS:
Ich bezweifele mal, dass Google IPs oder Whois-Daten nutzt um Linknetzwerke aufspüren zu wollen – das kann man einfacher haben.
 

Mandy

Neues Mitglied
Als ich zusätzlich IP benötigte hab ich bei meinem Provider nachgefragt und hatte 10 Minuten später 4 neue :D:D
kann ich bei alfahosting auch so sehen. als reseller bekommste ganz schnell neue ip's. auch die letzten beiden x.x.[x.x ] sind auf anfrage unterschiedlich.

mal aber so ganz nebenbei. google ist wohl auch ein registrar geworden und kann dadurch die ips besser zuordnen. natürlich bieten sie diese dienstleistung nicht an. es geht wohl nur darum, sich informationen von den hostern und deren ip's zu verschaffen. hoffe ich finde diesen artikel noch. kann das einer bestätigen ?
 

Tiburon

- Premium Member -
Bei Alfahosting ist nur der Support gut, der Rest ist scheisse. Für alles wollen die geld haben.

Z.b für Webmaster haben ihre Domains bei anderen Hoster. Alfahosting verlangt 9 Euro pro Domain (Namensserver)

Für einige scripte (cam-content schnittstelle) braucht man das teuerste Webspace Packet.

u.s.w
 

thommy

- Premium Member -
kann ich bei alfahosting auch so sehen. als reseller bekommste ganz schnell neue ip's. auch die letzten beiden x.x.[x.x ] sind auf anfrage unterschiedlich.

mal aber so ganz nebenbei. google ist wohl auch ein registrar geworden und kann dadurch die ips besser zuordnen. natürlich bieten sie diese dienstleistung nicht an. es geht wohl nur darum, sich informationen von den hostern und deren ip's zu verschaffen. hoffe ich finde diesen artikel noch. kann das einer bestätigen ?

was reitet ihr denn immerzu auf den IPs rum?

hast du schon eimal ne IP abgecheckt, die dir ein hoster FREIWILIG gibt?

mittlerweile sind von allen im umlauf befindlichen IPs mehr als 50% verbrannt und befinden sich auf listen, die google angeblich ebenfalls in sein ranking einbezieht.

von den letzten 100 IPs die ich von providern bekommen haben konnte ich nicht mal 10 mehr dazu benutzen um auch nur eine automatisierte antwortmail darüber zuzustellen.

die sache mit den IPs spielt nur bei neuen domains ne rolle, die noch keine links haben, weil sumas das unterschiedlich bewerten.

bei yahoo z.b. spielts gar keine rolle

google dagegen dividiert die eingehenden links zunächst durch die zahl der linkgebenden domains und danach nochmal durch die zahl der unterschiedlichen IPs.

also fakt ist: wenn du eine neue domain hast, die nur 2 linkpartner hat und deine links von dort schlimmstenfalls aus nem blogroll kommen, der auf 100 unterseiten auftaucht und die beiden domains zufällig noch auf der selben IP liegen, dann kannste die domain wegwerfen.

warum?

weil du dann 100 links hast die von der selben domain kommen und 200 links die von der selben IP kommen.

das ist unnatürlich und damit fliegen nicht nur die verlinkten domains aus dem index, sondern auch die linkgebenden domains aller "blogkünstler" ala "ich hab wordpress ich bin profi" werden ebenfalls derbe abgestraft.

hat eine seite aber schon 1000 ander reguläre links, werden die links von den genannten seiten keinen schaden anrichten - auch dann wenn sie im blogroll so sinnlos sind wie ein kropf.

viel spass im netz

thommy
 

Rocko

Neues Mitglied
Es spielt keine Rolle wieviel Domains Du auf einer IP hast, wichtig ist das die Domains nicht untereinander verlinkt werden, denn das macht keinen Sinn.

Ich habe auf einer IP ca 20 Domains, alle behandeln aber ein anderes Thema, die eine dicke Frauen, die andere alte Frauen, versaut geil ficken usw usw wenn Du davon mehrer Blöcke hast als sagen wir mal Du hast 4 unterschiedliche Serveranbieter oder Webspaceanbieter dann packst Du auf jede 20 Domains die alle wirklich unterschiedliche Theme abgreifen also nicht nur im Telefonsexbereich wildern, kannst Du sogar Blockweise Linktausch betreiben und diese Blöcke auch untereinander verlinken.

Bietest Links von 20 Kolido IP und suchst Links vür 20 Artergo Ips und kommst Dir somit nicht in die Quere.

Ganz wichtig, die Domains die auf einer Ip liegen nicht miteinander verlinken und aus Sicherheitsgründen würden ich die anderen Ips auch nicht miteinander verlinken sonder nur zum Linktausch nutzen.
 

Rocko

Neues Mitglied
was reitet ihr denn immerzu auf den IPs rum?

hast du schon eimal ne IP abgecheckt, die dir ein hoster FREIWILIG gibt?

mittlerweile sind von allen im umlauf befindlichen IPs mehr als 50% verbrannt und befinden sich auf listen, die google angeblich ebenfalls in sein ranking einbezieht.

von den letzten 100 IPs die ich von providern bekommen haben konnte ich nicht mal 10 mehr dazu benutzen um auch nur eine automatisierte antwortmail darüber zuzustellen.

die sache mit den IPs spielt nur bei neuen domains ne rolle, die noch keine links haben, weil sumas das unterschiedlich bewerten.

bei yahoo z.b. spielts gar keine rolle

google dagegen dividiert die eingehenden links zunächst durch die zahl der linkgebenden domains und danach nochmal durch die zahl der unterschiedlichen IPs.

also fakt ist: wenn du eine neue domain hast, die nur 2 linkpartner hat und deine links von dort schlimmstenfalls aus nem blogroll kommen, der auf 100 unterseiten auftaucht und die beiden domains zufällig noch auf der selben IP liegen, dann kannste die domain wegwerfen.

warum?

weil du dann 100 links hast die von der selben domain kommen und 200 links die von der selben IP kommen.

das ist unnatürlich und damit fliegen nicht nur die verlinkten domains aus dem index, sondern auch die linkgebenden domains aller "blogkünstler" ala "ich hab wordpress ich bin profi" werden ebenfalls derbe abgestraft.

hat eine seite aber schon 1000 ander reguläre links, werden die links von den genannten seiten keinen schaden anrichten - auch dann wenn sie im blogroll so sinnlos sind wie ein kropf.

viel spass im netz

thommy

Das glaube ich nicht, Google kennt ja die Blogroll Problemtatik und ich könnte mir vorstellen das Google diese nicht allzu negativ bewertet, denn Google mag ja wie schon erwähnt das natürliche und alles was speziell bei Wordpress optmiert wird hat nichts mehr mit Natürlichkeit zu tun, der einfach gestrickte Web2,0 Webby macht sich darüber keine Gedanken, alles was mit Scripten und proggen gelöst wird hat schon wieder was mit Seo zu tun.

Es gibt viele Seo Fehlerquellen im Wordpress Blog welche keine Auswirkungen im Ranking haben.
 

thommy

- Premium Member -
Das glaube ich nicht, Google kennt ja die Blogroll Problemtatik und ich könnte mir vorstellen das Google diese nicht allzu negativ bewertet,

die tante wirds zumindets mal nicht positiv bewerten.
dazu kommt, dass sich die linkkraft auf JEDER seite durch die zahl der gesamt ausgehenden links dividiert.

man nimmt sich also selbst die möglichkeit, starke links auf unterseiten zu setzen.

denn Google mag ja wie schon erwähnt das natürliche und alles was speziell bei Wordpress optmiert wird hat nichts mehr mit Natürlichkeit zu tun, der einfach gestrickte Web2,0 Webby macht sich darüber keine Gedanken, alles was mit Scripten und proggen gelöst wird hat schon wieder was mit Seo zu tun.

ich glaube nicht, dass google überhaupt registriert mit welchem system eine seite gebaut wurde. denn dazu gäbe es ja auch viel zu viele ad-ons.

ich sehe nur, dass es sehr wenige blogseiten gibt, die top ranken und das muss ja einen grund haben.

Es gibt viele Seo Fehlerquellen im Wordpress Blog welche keine Auswirkungen im Ranking haben.

kann man so nicht sagen, denn dazu müsste man die platzierung der seite wissen, wenn keiner dieser fehler drin ist.

aber eben gerade in bezug auf die sidewide links sprechen eben viele dinge dafür, dass sie sich negativ auswirken.

HIER gibts zu dem thema nen ganz interessanten bericht, der diese these doch ziemlich stark unterstützt.

viel spass im netz

thommy
 

Rocko

Neues Mitglied
Naja so ganz sollen wir dort wahrscheinlich auch nicht durchsehen. Also ich arbeite sehr gerne mit Wordpress und eigentlich auch fast nur und ich bekomme so gut wie alle meine Blogs positioniert, ich bilde mir auch ein den Vorteil des Wordpressblogs erkannt zu haben speziell den des Standart Tamplets.

Wie es in den einzelnen Bereichen aussieht mag ich nicht zu beurteilen, speziell sind die Keys Porno, Erotik und Sex doch sehr schwer zu knacken, doch ich denke es liegt dort weniger am verwendeten System, es gab vor Jahren mal die Aussage mit Webkatalogen schafft man das nie bei solchen Keys und gerade im Bereich Erotik findest Du dort viele Webkataloge.

Also meine Blogs landen früher oder später immmer in den Top10 nun nicht immer die berauschenden Hammerkeys aber auch für einzelne reicht es.

Blogs machen Sinn bei kleinen Keys und Nebenkeys aber auch bei sehr schweren Singelkeys habe ich es geschafft einen Blog in den Top10 und Top1 zu bekommen.

Kommen wir mal vom Web2,0 etwas weg und reden über Barrierefreiheit das ist der Schlüssel, bilde ich mir zumindestens ein :)

EDIT: Fällt mir grad ein, wir sind ja schon verbandelt, nicht gleich erkannt ;-)

Mann kann das auch schwer vergleichen da es mehr statische Domains gibt, trotzdem sollte man seinen Blog natürlich etwas umfummeln und das Script zum begrenzen der ausgehenden Links ist natürlich Gold wert.

Aber bei Google gilt auch der Zusatz " Weniger ist manchmal mehr "
 

MisterAustria

- Premium Member -
passt vielleicht nicht ganz zum thema aber will wegn so einer pfurzfrage kein neues thema starten...

welchen einfluss hat eigentlich das stärken der hauptdomain auf die subs? wenn wir davon ausgehn das domain und subs in keiner form miteinander verlinkt sind... hat es trotzdem einen sinn sich beim verlinken auf die hauptdomain zu konsentriern weil man damit in jedem fall die subs auch mitzieht?

MA
 
Oben