English version
German version
Spanish version
French version
Italian version
Portuguese / Brazilian version
Dutch version
Greek version
Russian version
Japanese version
Korean version
Simplified Chinese version
Traditional Chinese version
Hindi version
Czech version
Slovak version
Bulgarian version
 

Quel est le dossier des textes de robot ?

Blocage de spam RSS Feed







Le dossier des textes de robot est employé rejettent le détail ou l'accès de toute l'araignée de Search Engine aux chemises ou aux pages que vous ne voulez pas classé.
Pourquoi voudriez-vous faire ceci ?

Vous avez pu avoir créé une page de personnel pour les employés de compagnie que vous ne voulez pas énuméré. Quelques webmasters l'emploient pour exclure leurs pages de livre d'invité ainsi pour éviter le Spamming de personnes. Il y a beaucoup de différentes raisons d'employer le dossier des textes de robots.
Comment est-ce que je l'emploie ?

Vous devez le télécharger à la racine de votre site Web ou cela ne fonctionnera pas - si vous n'avez pas accès à la racine alors que vous devrez employer une étiquette de méta rejetez l'accès. Vous devez inclure l'agent d'utilisateur et un dossier ou la chemise rejettent.
À quoi ressemble-t-il ?
Il n'est vraiment rien davantage qu'un type le txt "robots.txt" appelé par dossier d'"Bloc-notes"
La syntaxe de base est
Utilisateur-agent : nom d'araignées ici
Nom de fichier de Disallow:/ ici
Si vous employez
Utilisateur-agent : *
* les agir comme un wildcard et rejette toutes les araignées. Vous pouvez vouloir employer ceci pour arrêter des moteurs de recherche énumérant les pages non finies.
Rejetez une utilisation entière d'annuaire
Disallow:/mydirectory/
Rejetez une utilisation individuelle de dossier
Disallow:/file.htm
Vous devez employer une ligne séparée pour chacun rejetez. Vous ne pouvez pas vous par exemple utilisation
Disallow:/file1.htm, file2.html
Vous devriez employer
Employer-agent/*
Disallow:/file1.htm
Disallow:/file2.htm

Pour une liste de visite de noms d'araignée
http://www.robotstxt.org/wc/active/html/
Assurez-vous que vous employez la bonne syntaxe si vous pas il ne travaillerez pas. Vous pouvez vous vérifier la syntaxe ici http://www.searchengineworld.com/cgi-bin/robotcheck.cgi

Pour l'aide sur créer des dossiers des textes de robot il y a un robogen d'appel de programme.
Il y a une version libre et une version avançée, qui coûte $12.99 http://www.rietta.com/robogen/


Au sujet de l'auteur :
Alan Murray est un Internet certifié Webmaster professionnel et fournit la conception de services et de site Web de SEO.

http://www.designprofessional.co.uk/SEO-Services.htm

Source D'Article: Messaggiamo.Com

Translation by Google Translator





Related:

» Seo Elite: New Seo Software!
» AntiSpywareBOT
» Reverse Mobile
» Error Nuker


Webmaster obtenir le code html
Ajouter cet article sur votre site Web dès maintenant!

Webmaster envoyer vos articles
Aucune inscription requise! Remplissez le formulaire et votre article est dans le Messaggiamo.Com répertoire!

Add to Google RSS Feed See our mobile site See our desktop site Follow us on Twitter!

Soumettez vos articles à Messaggiamo.Com Directory

Catégories


Copyright 2006-2011 Messaggiamo.Com - Plan du site - Privacy - Webmaster soumettre vos articles à Messaggiamo.Com Directory [0.01]
Hosting by webhosting24.com
Dedicated servers sponsored by server24.eu