English version
German version
Spanish version
French version
Italian version
Portuguese / Brazilian version
Dutch version
Greek version
Russian version
Japanese version
Korean version
Simplified Chinese version
Traditional Chinese version
Hindi version
Czech version
Slovak version
Bulgarian version
 

Invasion des snatchers d'email

Blocage de spam RSS Feed





Ils sont sneaky. Et furtif. Ils sont tranquilles et la plupart du temps discrets, mais une fois que vous avez été rendu visite par eux, vous le saurez. Puisque vous serez inondé avec apparemment un interminable coulez des Spam-courrier.

Ils sont email moissonnant des robots, et les chances sont vous ont été visitées par on.

Ce que ces créatures insidieuses est rampement votre emplacement, tout comme les araignées de Search Engine en faites, et rassemblez et toutes les adresses d'email qu'elles trouvent là. Bon nombre d'entre elles rampement votre emplacement entier, suivant chaque lien, recueillant des adresses d'email de votre guestbook, vos panneaux de message, bases de données, et partout d'autre elles peuvent obtenir à.

Ce qui se produit après est si sinistre, si impensable ; Je peux à peine le dire. Ils mettent vos adresses d'email sur CDRom et les vendent comme OPT-DANS des listes. Vous les avez vus, "20.000 adresses visées d'email pour seulement $29.95!", ou mon favori personnel, "envoient 10 email de Bazillion SANS Spamming !!". Ce que vous n'avez pas su était que c'était VOTRE email address qu'elles se vendaient.

Pour découvrir si votre emplacement a été visité par une moissonneuse d'email, vous devez seulement regarder vos notations. Si votre centre serveur d'enchaînement vous fournit votre stat, vous pouvez regarder dans le rapport de Navigateur pour n'importe lequel de ce qui suit : EmailSiphon Paquet En croissant v1.0 D'Outil D'Internet Récolteuse De Cerise Collecteur D'Email Libwww-Perl 1.0

Si vous n'avez pas un programme de stat, vous pouvez examiner vos notations pour des visites de ces agents. La manière la plus facile de faire ceci est les télécharger et de les ouvrir dans un programme avec une fonction de recherche (comme Wordpad). Alors vous pouvez rechercher les noms énumérés ci-dessus.

Ainsi, que pouvez-vous faire pour protéger votre emplacement contre ces robots mauvais ? Malheureusement, il n'y a aucune solution magique. Il y a, toutefois les étapes vous peuvent prendre pour les décourager.

La première chose que vous pouvez faire est de créer un dossier d'exclusion de robots. C'est simplement un dossier des textes appelé robots.txt que vous placez dans votre répertoire racine. Ce que ce dossier est dit des robots où elles bidon et ne peut pas aller (aussi bien que quels robots peuvent et ne peuvent pas visiter votre emplacement). L'inconvénient d'employer ce dossier pour combattre l'email moissonnant des robots est celui en règle générale, le dossier de robots.txt est basé sur une sorte de système d'honneur de robot. C'est-à-dire que vous supposez que n'importe quel robot qui visite demandera et sera conforme aux directives que vous mettez là. Malheureusement, moissonnant les robots sont des robots en général mal élevés qui ignorent ce dossier. Pour plus d'information sur l'exclusion de robot, visitez la norme d'exclusion de robots

Vraiment une solution d'amusement est d'employer un cgi-manuscrit qui punit de mauvais robots. Ce que ceux-ci doit diriger le robot vers une page complètement d'un bon nombre d'adresses d'email d'article truqué et d'un bon nombre d'eux. Ainsi, ce qui obtient l'inondateur est un tas de messages rebondis d'email, qui les décourageront de vous rendre visite encore. Le du côté incliné de cette méthode est qu'elles rassemblent également les adresses valides d'email. En outre, la plupart des manuscrits de ce type ont un petit déni attaché à elles déclarant qu'ils ne seront pas jugés responsables d'aucune issue légale qui résultent de l'utilisation de leur manuscrit et qui doit vous faire la merveille.

Il y a d'autres manuscrits qui cachent votre email address des robots, mais non vos visiteurs d'emplacement. C'est une grande solution pour de plus petits emplacements qui n'ont pas plus d'un ou deux adresses énumérées. Vous pouvez trouver les deux types de manuscrits à l'index de ressource de cgi

Un autre manuscrit maniable est un qui vérifiera pour voir si un robot est amical, et si pas il le mettra pour dormir pour la parole, 10.000 minutes. Ceci fera terminer la demande et passer le robot à une autre victime. $number = #} ;
(#, $b, $c, $d)=split(/./, $number) ;
#, $a, $b, $c, $d) ;
(#, $aliases, $addrtype, $length,
@addrs)=(gethostbyaddr("$ipadr", 2)) ;


si (# = ~ /foo.com/i) {
#} = ~ /emailsiphon/i ;
# ;
sleep(10000) ;
}

La dernière option est, à mon avis humble, la meilleure option. Si vous avez la capacité à modifier vos htaccess classent, vous peuvent indiquer certains agents de centre serveur qui ne sont pas permis de visiter votre emplacement en utilisant le dossier de mod_rewrite. Ceci bloque efficacement les robots offensants de toucher jamais votre emplacement. Vous devriez certainement vérifier avec votre fournisseur d'accueil pour voir si vous pouvez faire une telle modification. La plupart des hôtes seront davantage qu'heureux de faire la modification pour vous.

Pour ceux de vous disposé et capable à faire les changements vous-même, ajoutez juste le suivant au dossier de your.htaccess :

RewriteEngine dessus
^EmailSiphon De RewriteCond %{HTTP_USER_AGENT} [ OU ]
^EmailWolf De RewriteCond %{HTTP_USER_AGENT} [ OU ]
^ExtractorPro De RewriteCond %{HTTP_USER_AGENT} [ OU ]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla.*NEWT [ OU ]
RewriteCond %{HTTP_USER_AGENT} ^Crescent [ OU ]
^CherryPicker De RewriteCond %{HTTP_USER_AGENT} [ OU ]
^[Ww]eb[Bb]andit De RewriteCond %{HTTP_USER_AGENT} [ OU ]
^WebEMailExtrac de RewriteCond %{HTTP_USER_AGENT}. * [ OU ]
RewriteCond %{HTTP_USER_AGENT} ^NICErsPRO [ OU ]
^Telesoft De RewriteCond %{HTTP_USER_AGENT} [ OU ]
RewriteCond %{HTTP_USER_AGENT} ^Zeus.*Webster [ OU ]
RewriteCond %{HTTP_USER_AGENT} ^Microsoft.URL [ OU ]
RewriteCond %{HTTP_USER_AGENT} ^Mozilla/3.Mozilla/2.01 [ OU ]
^EmailCollector de RewriteCond %{HTTP_USER_AGENT}
RewriteRule ^. * $ /badspammer.html [ L ]

Tandis que ce sont toutes des mesures efficaces de combattre l'email Snatchers, il y a de nouveaux robots évoluant chaque jour. Il est important pour le séjour informé avec les derniers outils que les inondateurs emploient. Quelques excellentes sources d'information peuvent être trouvées à :

Monde De Search Engine
http://searchengineworld.com/engine/denied.htm

Apache aujourd'hui
"accès limiteur par Host"

SpiderHunter.com
http://www.spiderhunter.com/



Ã?Æ'ââ"¬Å¡Ã?â??Ã"© Copyright Sharon 2001 Davis. Quand elle ne fait pas la guerre sur des inondateurs, elle est la propriétaire de 2Work--Home.Com, le travail à à la maison Articles.net et la rédactrice de l'ezine mensuel de l'emplacement, Amérique à la maison. Dans son temps disponible elle se rappelle au sujet comme de ce qu'il devait avoir le temps disponible. Pour souscrire à son ezine libre, Cliquez ici

Source D'Article: Messaggiamo.Com

Translation by Google Translator





Related:

» Seo Elite: New Seo Software!
» AntiSpywareBOT
» Reverse Mobile
» Error Nuker


Webmaster obtenir le code html
Ajouter cet article sur votre site Web dès maintenant!

Webmaster envoyer vos articles
Aucune inscription requise! Remplissez le formulaire et votre article est dans le Messaggiamo.Com répertoire!

Add to Google RSS Feed See our mobile site See our desktop site Follow us on Twitter!

Soumettez vos articles à Messaggiamo.Com Directory

Catégories


Copyright 2006-2011 Messaggiamo.Com - Plan du site - Privacy - Webmaster soumettre vos articles à Messaggiamo.Com Directory [0.01]
Hosting by webhosting24.com
Dedicated servers sponsored by server24.eu