Was ist neu?
Digital Marketing & Webmaster Forum

Digital Marketing, Internet-Technologien, Metaverse und mehr interessieren Dich? Registriere Dich gleich kostenlos, um Mitglied zu werden! Sobald Du angemeldet bist, kannst Du loslegen, Themen und Beiträge veröffentlichen und mit anderen Mitgliedern in Kontakt treten! Wir wünschen Dir einen anregenden Austausch!

Google Cache nervt

Ruby

- Premium Member -
Ich habe ein Problem mit einer Cloaking Seite von mir und dem Bot von Google der bekanntlich gerne einen kompletten Abzug einer besuchten Seite macht und sie in seinem Cache speichert. Wenn ein Besucher über Google dann meine indexierten Seiten abruft und auf den kleinen Google Cache Link unter dem Eintrag der Suchmaschine klickt, sieht er die Seite wie sie vom Google Bot zum Zeitpunkt des indexierens gesehen wurde. Das will ich nicht haben.

Kann man diesen Cache-Dreck unterbinden?
 

multi

- Premium Member -
Normalerweise reicht diese Zeile:

<META CONTENT="NOARCHIVE" name="GOOGLEBOT" />


Eine 301 Weiterleitung ist übrigens viel hübscher und sicherer als Cloaking, da die Suchmaschinen nicht jedesmal als Googlebot deine Seiten besuchen.
 

onkelfritz

- Premium Member -
Hallo

Ist dieser Meta Tag nicht dazu da, um diese Cache Proxys wie senderpush.com von ihrem Tun abzuhalten?

Also mir ist das mal als Lösung genannt worden, weil dieses Senderpush.com immer für Double Content gesort hat, jedenfalls hat der Scanner (copyscape) das so angezeigt. Google und die anderen haben meine Seiten aber trotzdem im Cache, obwohl dieser Tag überall drin ist. Hm, ich stehe da wohl ein bisl aufm Schlauch.

Also habs gerade nochmal geprüft, der Meta Tag ist drin und das Problem, wie oben beschrieben ist auch bei mir vorhanden. Wobei es aber auch nicht stört.

onkelfritz
 

multi

- Premium Member -
Onkelfritz, danke, hab mich vertan gehabt, war wohl noch nicht ganz munter....

Wies jetzt oben steht, sollte es richtig sein ;-)
 

Raptor

- Royal Clan Member -
@Multi
funktioniert das? Ich habe leider bei einem ganz anderen Thema feststellen müssen dass Google heute teilweise Dinge missachtet und wild spidert obwohl Regeln festgelegt wurden. Verhindert der Code das cachen oder kanns passieren dass trotzdem weiter munter gecached wird?
 

multi

- Premium Member -
Also grundsätzlich verhindert es das cachen, wenns allerdings schon im cache ist, kann man (muss man) den unliebsamen cache über die webmasterconsole entfernen, sonst bleibts wohl ewig drin.
Ich selber hab das noch nie gebraucht, von daher kann ich nicht Sagen obs 100% funktioniert, sollte es aber :)
 

onkelfritz

- Premium Member -
HI

Warum wollt ihr das Cachen der Seiten von den Sumas eigentlich unterbinden? Also bei dem senderpush.com kann ich ja verstehen, denn das erzeugt DC, aber warum darf die Seite nicht im Suma Cache sein?

onkelfritz
 

thommy

- Premium Member -
HI

Warum wollt ihr das Cachen der Seiten von den Sumas eigentlich unterbinden? Also bei dem senderpush.com kann ich ja verstehen, denn das erzeugt DC, aber warum darf die Seite nicht im Suma Cache sein?

onkelfritz

naja wenn man mit cloakingtricks arbeitet (die übrigens nicht sehr lange gut gehen) wirds einem nicht so recht sein, wenn da im cache die harmlose googleseite drin ist, wenn man google damit verarscht aber den den besucher doch auf was ganz anderes locken will.

viel spass im netz

thommy
 

multi

- Premium Member -
Cloaking ist auf jeden Fall gefährlich, ne 301 Weiterleitung erfüllt den selben Zweck, jedoch muss man eben nicht extra für den googlebot ne Seite anlegen. Wenn man dann noch ohne cache arbeitet, kommt man üblicherweise damit durch. Ich selber brauch das nicht, hab nix zu verstecken...
 

pornoawm

- Premium Member -
Sollte man da nicht in die metas schreiben
<meta name="ROBOTS" content="NOARCHIVE">
?

oder <meta name="ROBOTS" content="NOCACHE">

bei Google müßte man zu diesem Thema in den Hilfe Funktionen sicher was finden bloß ich brauche diese Funktion nicht und bin deshalb einfach zu faul um zu suchen.
 

mesh

- Premium Member -
Sollte man da nicht in die metas schreiben
<meta name="ROBOTS" content="NOARCHIVE">
oder <meta name="ROBOTS" content="NOCACHE">
"ROBOTS" "NOARCHIVE": immer.
Ich würde ausserdem noch die "Pragma" und "Cache-Control" Anweisungen in die Metas schreiben.
Kann nützlich sein.
 

t-rex

- Premium Member -
Hi,

also ich habe bei mir auf einigen Seiten das hier drin:
Code:
<meta name="robots" content="noarchive">
<meta name="pragma" content="nocache">

Und der Cachelink wird nicht angezeigt.

Sonnige Grüsse
HaPe
 
Oben