Hallo,
ich möchte ein kleines Tool vorstellen, was sich für Webmaster als sehr nützlich erweist.
Problemstellung:
Neben nützlichen Bots, wie die Spider von Google, Yahoo usw., gibt es auch Bots, die sogar schädlich sein können. Einige klauen Inhalte und andere erzeugen unnötig Traffic. Besonders wenn eine Seite für Suchmaschinen optimiert wurde, tummeln sich zahlreiche unerwünschte Bots.
Wie kann ein Bot der Seite schaden?
- Contentklau
- Bilderklau
- E-Mail Collector
- Spams in Gästebüchern oder Foren
- defekte Bots, die unnötig Traffic verursachen
- Bots von ausländischen Suchmaschinen, die nicht relevant sind
- ...
Problemlösung:
Jeder Bot hat seine eigene "Signatur", den UserAgent. Darüber lassen sie sich eindeutig identifizieren. Über Ausschlußregeln in einer .htaccess lassen sich diese Bots sperren.
Vorraussetzung: Der Webspace unterstützt eine eigene .htaccess
Das s.e.o. Tool
Die Anzahl der Bots ist sehr groß und nicht jeder Webmaster ist in der Lage die richtige .htaccess selbst anzulegen.
Hier hilft das s.e.o. Tool, welches anhand einer Botliste die .htaccess erstellen kann. Später kann man überprüfen, ob Bots von der Seite ausgesperrt werden oder nicht. Dazu kann man entweder den UserAgent selber eingeben oder unsere Botliste benutzten.
Das Tool bringt auch noch weitere Funktionen mit, wie z.B. Metataggenerator oder Erzeugung einer .htaccess gegen Trafficklau (externe Verlinkung).
Achtung: Das Tool ist noch eine Betaversion, funktioniert soweit aber schon vollständig. Die Botliste kann später direkt aus dem Internet aktualisiert werden, weitere Funktionen werden folgen.
zum Download
Gruß, CN-Techniker
ich möchte ein kleines Tool vorstellen, was sich für Webmaster als sehr nützlich erweist.
Problemstellung:
Neben nützlichen Bots, wie die Spider von Google, Yahoo usw., gibt es auch Bots, die sogar schädlich sein können. Einige klauen Inhalte und andere erzeugen unnötig Traffic. Besonders wenn eine Seite für Suchmaschinen optimiert wurde, tummeln sich zahlreiche unerwünschte Bots.
Wie kann ein Bot der Seite schaden?
- Contentklau
- Bilderklau
- E-Mail Collector
- Spams in Gästebüchern oder Foren
- defekte Bots, die unnötig Traffic verursachen
- Bots von ausländischen Suchmaschinen, die nicht relevant sind
- ...
Problemlösung:
Jeder Bot hat seine eigene "Signatur", den UserAgent. Darüber lassen sie sich eindeutig identifizieren. Über Ausschlußregeln in einer .htaccess lassen sich diese Bots sperren.
Vorraussetzung: Der Webspace unterstützt eine eigene .htaccess
Das s.e.o. Tool
Die Anzahl der Bots ist sehr groß und nicht jeder Webmaster ist in der Lage die richtige .htaccess selbst anzulegen.
Hier hilft das s.e.o. Tool, welches anhand einer Botliste die .htaccess erstellen kann. Später kann man überprüfen, ob Bots von der Seite ausgesperrt werden oder nicht. Dazu kann man entweder den UserAgent selber eingeben oder unsere Botliste benutzten.
Das Tool bringt auch noch weitere Funktionen mit, wie z.B. Metataggenerator oder Erzeugung einer .htaccess gegen Trafficklau (externe Verlinkung).
Achtung: Das Tool ist noch eine Betaversion, funktioniert soweit aber schon vollständig. Die Botliste kann später direkt aus dem Internet aktualisiert werden, weitere Funktionen werden folgen.
zum Download
Gruß, CN-Techniker
Kommentar