02-12-2008, Tuesday-15:56:20
Nur wird google hier kaum unser Problem sein. Der googlebot sollte möglichst einmal am Tag hier sein oder öfter.
Das Problem das viel Traffic verursacht sind SPAM-Bots und viele kleine unbekannte Bots.
Per .htaccess kann ma jeden einzelnen bot den Zugriff verweigern. Macht aber viel Arbeit jeden einzeln einzutragen. http://www.nerdcenter.de/apache-bots-aus...-htaccess/
Hier steht wie man google zuläßt und den Rest verbietet:
http://dereinzige.de/2007/03/27/vom-rich...robotstxt/
Wer google und seinen großen Geschwistern den Zugriff verweigert oder limitiert hat den Sinn von Suchmaschinen nicht verstanden. Je öfter der Zugriff, je wertvoller die Seite, desto bessere Platzierung.
Ich habe gerade gelesen, das manche Großen Bots die Seiten trotz robots.txt-Schutz lesen aber in den Suchergebnissen keine Beschreibung anzeigen. Das dürfte dann also auch nur einen Bruchteil an Trafiic einsparen.
Ach und Pagerank!? Was ist das? Interessant das immernoch viele Leute auf grüne Balken stehen, vermitteln sie einem doch eine gewisse Sicherheit. Google selbst weißt oft genug daraufhin, das der PR nicht überbewertet werden sollte. Eine Seite nach ihrem PR zu bewerten könnte zu schlimmen Fehleinschätzungen führen.
Stellt euch mal vor Ihr wollt einen Link tauschen und sollt dafür Geld bezahlen. Nur weil die Seite PR 3 hat sollt ihr X Euro bezahlen. Später seht ihr das die Seite gerade mal 5 Backlinks hat und total suchmaschinenunfreundlich ist. Was bringt da der kleine Balken? (Hatte übrigens letztens selbst solch eine Seite bewerten müssen!)
Das Problem das viel Traffic verursacht sind SPAM-Bots und viele kleine unbekannte Bots.
Per .htaccess kann ma jeden einzelnen bot den Zugriff verweigern. Macht aber viel Arbeit jeden einzeln einzutragen. http://www.nerdcenter.de/apache-bots-aus...-htaccess/
Hier steht wie man google zuläßt und den Rest verbietet:
http://dereinzige.de/2007/03/27/vom-rich...robotstxt/
Wer google und seinen großen Geschwistern den Zugriff verweigert oder limitiert hat den Sinn von Suchmaschinen nicht verstanden. Je öfter der Zugriff, je wertvoller die Seite, desto bessere Platzierung.
Ich habe gerade gelesen, das manche Großen Bots die Seiten trotz robots.txt-Schutz lesen aber in den Suchergebnissen keine Beschreibung anzeigen. Das dürfte dann also auch nur einen Bruchteil an Trafiic einsparen.
Ach und Pagerank!? Was ist das? Interessant das immernoch viele Leute auf grüne Balken stehen, vermitteln sie einem doch eine gewisse Sicherheit. Google selbst weißt oft genug daraufhin, das der PR nicht überbewertet werden sollte. Eine Seite nach ihrem PR zu bewerten könnte zu schlimmen Fehleinschätzungen führen.
Stellt euch mal vor Ihr wollt einen Link tauschen und sollt dafür Geld bezahlen. Nur weil die Seite PR 3 hat sollt ihr X Euro bezahlen. Später seht ihr das die Seite gerade mal 5 Backlinks hat und total suchmaschinenunfreundlich ist. Was bringt da der kleine Balken? (Hatte übrigens letztens selbst solch eine Seite bewerten müssen!)