Was ist neu?

Nofollow

gemo

- Premium Member -
Gibt es eigentlich eine Möglichkeit, Suchmaschinen anzuweisen Sripte, wie z.B Countern oder PP-Scripte nicht zu verfolgen?
Über Nofollow oder robots.txt oder htaccess oder anderes?
 

Babstu

Neues Mitglied
So handhabe ich das
Meiner Beobachtung nach funktioniert das in jedem JavaScript

Beispiel pphlogger:

HTML:
<!-- PowerPhlogger Code START -->
<script language="JavaScript" type="text/javascript" src="pphlogger.js" rel="nofollow"></script>
<noscript><img alt="" src="http://www.yourserver.irgendwas/counter/pphlogger.php?id=brauchterauch&st=img" rel="nofollow"></noscript>
<!-- PowerPhlogger Code END -->
 

sophie

- Premium Member -
genau das habe ich mich auch schon länger gefragt....
Vielen Dank!!!
Ich war davon ausgegangen das man das eben mit Scripten nicht machen kann.
 

m3xx

- Premium Member -
Das "rel" Attribut ist im Script und im img Tag nicht vorgesehen und somit kein gültiges HTML und findet dem entsprechend auch keinerlei Beachtung.

@gemo mittels robots.txt wäre eine Option, bei dem pphlogger z.b. die pphlogger.js über die robots.txt aus zu sperren das gleiche gilt für Bilder z.b. die einzelnen Bilder oder eben denn ganzen Ordner dafür ist die robots.txt vorgesehen.

Code:
User-agent: *
Disallow: /images/
Disallow: phhlogger.js
Disallow: pic.jpg
 

gemo

- Premium Member -
OK, würde dann auch das als Platzhalter funktionieren?

User-agent: *
Disallow: *.js
 

gemo

- Premium Member -
Also das würde dann dem entsprechen was ich wollte.
Wenns jemand brauchen kann, einfach kopieren und als robots.txt einsetzen:

User-agent: *
Disallow: /cgi-bin/
Disallow: /*.css$
Disallow: /*.js$
Disallow: /*.txt$
Disallow: /*?


### /*.css$ bewirkt das alle Dateien mit der Endung .css nicht verfolgt werden
### /*.js$ bewirkt das alle Dateien mit der Endung .js nicht verfolgt werden
### /*.txt$ bewirkt das alle Dateien mit der Endung .txt nicht verfolgt werden
### /*? bewirkt das alle Dateien die ein ? enthalten nicht verfolgt werden. (Oft bei Links zum Partnerprogramm)
 

Babstu

Neues Mitglied
Links im Javascript und im Noscript werden von google verfolgt.
Ich weiss nicht mehr genau die Stelle an der das Matt Wright von sich gegeben hat.
Seine Aussage war Links in JavaScript zu packen, genügt nicht.
Seitdem mache ich das so.
Das mit der Robots funktioniert nur wenn die Seiten auf der eigenen Domain liegen. Will man z. B. den pphlogger auch ausschliessen wenn man den von einer fremden Seite angelegt hat, hilft die robots auch nicht.
Von dem Fall bin ich ausgegangen.

Wenn man den auf einer eigenen Seite pflegt, ist natürlich das einfachste die robots.txt
 

gemo

- Premium Member -
Sind leider alles Themen mit denen man sich viel zu wenig beschäftigt. Obwohl das schon einen guten Kick geben kann, wenn du keine "unnötige" Seite von Deiner Domain aus verlinkst.

@Babstu, bist Du denn sicher, dass das mit dem rel="nofollow" beim pphlogger funktioniert?
 

m3xx

- Premium Member -
Links im Javascript und im Noscript werden von google verfolgt.
Ich weiss nicht mehr genau die Stelle an der das Matt Wright von sich gegeben hat.
Das was Matt Cuttes <- denn meinst du bestimmt ;) sind Links in Javascript also solche hier z.b.:
Code:
<script type="text/javascript">
document.write("<a href=\"http://example.com/\">example link<\/a>");
</script>
Die src verweise sind damit nicht gemeint.

Das rel="nofollow" im img o. im script tag hat denn gleichen defekt wenn ich rein schreibe suma="ne hier nicht".
 

Babstu

Neues Mitglied
Stimmt, die Matts hab ich vergewechselt :)

Ich meinte die auslesbaren links, die mit javascript "verkleidet sind".
Bei den src links bin ich mir auch nicht sicher, schliesslich werden Bilder auch ausgelesen, bewertet und sortiert.
Wer die Nofollow Paranoia richtig auslebt, wird das nofollow da auch einsetzen.

@gemo
es funktioniert, wie gesagt nach meiner Beobachtung.
Die counter die ich so eingebunden habe, werden in den Webmastertools nicht als Link angezeigt.
Das Verzeichnis mit dem Counter existiert nicht, es war auch nicht per robots ausgeschlossen.
Hatte ich vergessen, aber dann gedacht, lass mal sehen was passiert.
Sicher bin ich mir bei goo nie, der crawler hat auch schon genug ausgelesen was er nicht sollte,
trotz richtiger robots.txt
 

gemo

- Premium Member -
OK aber ich denke wenn ich die oben genannte robots.txt einsetze, reicht das ja, da alles mit .js nicht verfolgt werden soll.
 

Neue Themen

Oben