English version
German version
Spanish version
French version
Italian version
Portuguese / Brazilian version
Dutch version
Greek version
Russian version
Japanese version
Korean version
Simplified Chinese version
Traditional Chinese version
Hindi version
Czech version
Slovak version
Bulgarian version
 

Vyhľadávačov, bez toho by stratili vedenie - po tomto znamení!

Seo RSS Feed





Súbor robots.txt je vylúčenie úroveň požadovanú všetky webové roboti / roboty im povedať, aké súbory a adresáre, ktoré chcete, aby sa vyhýbali na vašich stránkach. Nie všetci roboti / roboty nasledovať vylúčenie štandardné a bude pokračovať v prehliadaní vašich stránok rovnako. Rád sa nazývajú "Bad boti" alebo nepovolaných osôb. Máme ich zablokovať vylúčením IP, ktorý je iný príbeh entirely.This je veľmi jednoduchý prehľad o robots.txt základy webmasters. Pre kompletné a dôkladnú lekciu nájdete http://www.robotstxt.org/To pozri správnom formáte na trochu štandardný súbor robots.txt pozrieť priamo pod. Súbor, ktorý by mal byť v koreňovom adresári domény, pretože že je-li roboti, že to bude, nie je v niektorých sekundárnych directory.Below je na správnom formáte súboru robots.txt -----> User-agent: * Disallow: / cgi-bin / Disallow: / images / Disallow: / group / User-agent: Msnbot crawl-delay: 10User-agent: Teoma crawl-delay: 10User-agent: Slurp crawl-delay: 10User-agent: aipbot Disallow: / User-agent: BecomeBot Disallow: / User-agent: PsBot Disallow: / --- -----> Koniec robots.txt fileThis malý textový súbor je uložený ako holý text dokumentu a vždy s názvom "robots.txt" v koreňovom adresári domain.A rýchly prehľad sú uvedené informácie z vyššie uvedeného vyplýva súboru robots.txt. "User Agent: Explorer "je z MSN, Yahoo Slurp je z Teoma a je z AskJeeves. Uvedeny ostatné sú" zlé "roboty, že prechádzať veľmi rýchlo a nikto využívať, ale svoje vlastné, takže žiadame, aby ostali úplne mimo. * Hviezdička divoká karta, ktorá znamená "všetko" roboty / pavúky / roboti by mali zostať mimo túto skupinu súborov a adresárov listed.The roboty daný pokyn "Disallow: /" znamená, že by mala zostať úplne mimo a tie sa "Crawl-delay: 10", sú tie, ktoré lezli naše stránky príliš rýchlo, a spôsobilo, že zapadnúť a nadužívaniu zdrojov servera. Google prechádza pomalšie ako ostatné, a nevyžaduje, aby výuka, takže nie je výslovne uvedené vo vyššie súboru robots.txt. Crawl-oneskorenie Výučba je potrebný len na veľkých plochách s stovky či tisíce strán. Zástupný hviezdičkou sa vzťahuje na všetky prehľadávače, topánky a pavúky, vrátane Googlebot.Those sme za predpokladu, že "Crawl-delay: 10" pokyn boli žiadosti až 7 strán každý druhý, a aj sme požiadali ich, aby spomalili. Číslo, ktoré je vidieť sekúnd a môžete si ho zmeniť tak, aby vyhovovali kapacity servera, na základe ich prehliadania sadzby. Desať sekúnd medzi stránka žiadostí je oveľa kľudu a zastaví im so žiadosťou o viac stránok, ako váš server môže servírovať. (Môžete zistiť, ako rýchlo a roboty pavúky sú plazenie sa pozrieme na váš surový protokoly servera - stránky, ktoré ukazujú, vyžaduje presný čas s presnosťou na stotinu sekundy - k dispozícii na webovej hostiteľa alebo sa opýtajte svojho webu alebo IT osobu. Vaša protokoly servera môžu sa nachádza v koreňovom adresári, ak máte prístup na server, môžete sa vo väčšine stiahnuť komprimovaných súborov protokolu servera pravým kalendárny deň z vášho servera. Budete potrebovať nástroj, ktorý môže rozšíriť komprimované súbory otvoriť a holý text čítať tieto suroviny súbory protokolu servera.) Ak chcete zobraziť obsah ľubovoľného súboru robots.txt robots.txt, stačí napísať po každej doménové meno. Ak majú tento súbor hore, uvidíte ho zobrazí ako textový súbor vo vašom prehliadača. Kliknite na odkaz nižšie a uvidíte, že súbor pre Amazon.comhttp: / / www.Amazon.com / robots.txtYou vidíte obsah ľubovoľnej webovej stránky súboru robots.txt, ktorý způsobem.VR robots.txt je uvedené vyššie, je to, čo sme v súčasnosti používajú v Publish101 Web Content Distribútor, práve začal v máji 2005. Urobili sme rozsiahlu prípadovú štúdiu a publikoval sériu článkov o pásovom správania a indexovanie meškanie známy ako Google Sandbox. Že Google Pieskovisko Prípadová štúdia je veľmi poučné na mnohých úrovniach pre webmasterov všade okolo význam tohto často ignoruje málo textu file.One vec, ktorú sme nečakali, aby zbierala z výskumu podieľajú na indexovanie oneskorenie (známy ako Google Sandbox), bolo dôležité súbory robots.txt k rýchlej a účinnej prehľadávanie pavúky z veľkých vyhľadávačov a počet ťažkých leze z roboty, že bude robiť nepotrebný dobré, aby majiteľ webu ešte prechádzať najviac miest intenzívne a silne, cedenie servery na prasknutie s požiadavkami na stránky prichádza tak rýchlo, ako 7 strán za second.We objavil v našej spustenie nových stránok , Že Google a Yahoo budú prechádzať stránky, či budete pomocou súboru robots.txt, MSN, ale zdá sa to potrebujú, ako sa začnú plaziť vôbec. Všetky roboti vyhľadávačov Zdá sa, že žiadosť o súbore pravidelne overovať, že nie je changed.Then keď meníte to, prestanú plaziť po veľmi krátku dobu a opakovane žiadať, aby súbor robots.txt v tej dobe bez akéhokoľvek prehliadania ďalších stránok. (Možno, že zoznam stránok, na návštevu, že súčasťou adresáre alebo súbory, ktoré ste im pokyn, aby sa vyhýbali a teraz musia prispôsobiť svoj rozvrh plaziť na odstránenie týchto súborov z ich zoznamu.) Most webmasteri pokyn roboty zostať mimo "obraz" adresárov a "cgi-bin" adresára, ako aj všetky adresáre, ktoré obsahujú súkromné alebo chránené súbory určené iba pre užívateľov intranetu alebo heslo chránenej časti webu. Samozrejme, že by si priamo botov na pobyt z akéhokoľvek súkromného oblastí, ktoré nechcete indexovať podľa dôležitosti hľadania engines.The v robots.txt je zriedka diskutovaný priemernej webmasterov a ja som mal dokonca niektorí z mojich klientov podnikania 'webmasteri sa ma, čo to je a ako to urobiť, keď poviem im, ako dôležité je aj miesto zabezpečenie a efektívne prehľadávanie vyhľadávačov. To by malo byť štandardné vedomosti webmasteri podstatná, firmy, ale ukazuje, ako malá pozornosť je venovaná využívaniu robots.txt.The vyhľadávačov naozaj chcem svoje vedenie, a to malého textu súbor je najlepší spôsob, ako zabezpečiť prehľadávače a roboty jasný ukazovateľ varovať z nepovolaných osôb a ochrane súkromného majetku - a srdečne privítať pozvaných hostí, ako sú tri veľké vyhľadávače a zároveň požiadal ich, pekne zostať mimo súkromných areas.Copyright ÃÆ'à ¢ â, ¬ Å ¡Ã € SA, © 17.srpna 2005 Mike Banks ValentineGoogle Sandbox Prípadová štúdia http://publish101.com/Sandbox2 Mike Banks Valentine prevádzkuje http://Publish101.com Free Web Content Distribúcia pre článok Obchodníci a poskytuje obsah sčítania, tlačová správa optimalizácia a vlastný webový obsah pre vyhľadávače polohy

Článok Zdroj: Messaggiamo.Com

Translation by Google Translator





Related:

» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula


Webmaster si html kód
Pridajte tento článok do svojich webových stránok sa!

Webmaster Pošlite svoj článok
Nie nutná registrácia! Vyplňte formulár a Váš článok je v Messaggiamo.Com Adresár!

Add to Google RSS Feed See our mobile site See our desktop site Follow us on Twitter!

Odošlite svoje články na Messaggiamo.Com Adresár

Kategória


Copyright 2006-2011 Messaggiamo.Com - Mapa - Privacy - Webmaster predložiť vaše články na Messaggiamo.Com Adresár [0.01]
Hosting by webhosting24.com
Dedicated servers sponsored by server24.eu