English version
German version
Spanish version
French version
Italian version
Portuguese / Brazilian version
Dutch version
Greek version
Russian version
Japanese version
Korean version
Simplified Chinese version
Traditional Chinese version
Hindi version
Czech version
Slovak version
Bulgarian version
 

खोज इंजन के मार्गदर्शन के बिना खो मकड़ियों - इस पर हस्ताक्षर के बाद!

एसईओ RSS Feed





Robots.txt फ़ाइल एक अपवर्जन सभी वेब crawlers द्वारा जरूरी मानक है / रोबोट उन्हें बताने के लिए क्या फ़ाइलें और निर्देशिका है कि आप उन्हें अपनी साइट पर के बाहर रहना चाहता हूँ. नहीं सभी crawlers / बॉट अपवर्जन का पालन करें मानक और अपनी साइट रेंगने वैसे भी जारी रहेगा. मैं कॉल की तरह उन्हें 'बुरा Bots "या trespassers. हम उन्हें आईपी बहिष्करण द्वारा ब्लॉक जो एक और कहानी entirely.This है robots.txt मूल के एक के लिए बहुत आसान है सिंहावलोकन वेबमास्टर्स. पूरी तरह से और पूरी तरह से सबक के लिए, यात्रा http://www.robotstxt.org/To एक कुछ मानक robots.txt फ़ाइल के लिए उचित प्रारूप में देखने के सीधे नीचे देखो. यह फाइल डोमेन के रूट पर होना चाहिए क्योंकि कि है, जहां crawlers यह है, नहीं कुछ माध्यमिक directory.Below में उम्मीद एक robots.txt फ़ाइल के लिए उचित प्रारूप है -----> User-एजेंट: * अस्वीकार: / cgi-bin / अस्वीकार: / images / अस्वीकार: समूह / / User-एजेंट: एजेंट msnbot क्रॉल-देरी: 10User-: Teoma क्रॉल-देरी: 10User-एजेंट: Slurp क्रॉल-देरी: 10User-एजेंट: aipbot अस्वीकार: User /-एजेंट: BecomeBot अस्वीकार: User /-एजेंट: psbot अस्वीकार: / --- robots.txt fileThis की समाप्ति -----> छोटे पाठ फ़ाइल एक सादा पाठ दस्तावेज़ का नाम "इसके बाद के संस्करण robots.txt फ़ाइल से सूचीबद्ध सूचना के अपने domain.A शीघ्र समीक्षा की जड़ में robots.txt" के साथ है और हमेशा की तरह बचाया है पीछा करता है. "प्रयोक्ता एजेंट: MSNbot "MSN से है, Slurp याहू से है और Teoma AskJeeves से है. सूचीबद्ध दूसरों रहे हैं" "बुरा bots कि क्रॉल बहुत कोई नहीं है, लेकिन अपने स्वयं के लाभ के लिए और तेजी से है, तो हम उन्हें पूछने के लिए पूरी तरह से बाहर रहते हैं. Asterisk * है एक जंगली कार्ड इसका मतलब है कि "सभी crawlers" मकड़ियों / / बॉट बाहर फाइल या निर्देशिका listed.The की है कि समूह के रहने बॉट अनुदेश 'अस्वीकार: / अर्थ है कि वे पूरी तरह से रहना चाहिए और उन के साथ दी जानी चाहिए "क्रॉल-देरी: 10" उन है कि हमारी साइट क्रॉल भी जल्दी और यह नीचे दलदल और अति प्रयोग सर्वर संसाधनों का कारण बना रहे हैं. गूगल और धीरे क्रॉल दूसरों की तुलना में और है कि शिक्षा की आवश्यकता नहीं होती है, इसलिए नहीं है विशेष संस्करण की robots.txt फ़ाइल में सूचीबद्ध. क्रॉल-देरी अनुदेश ही सैकड़ों या हजारों पृष्ठों के साथ बहुत बड़ी साइटों पर की जरूरत है. वाइल्डकार्ड asterisk * सभी crawlers, bots और मकड़ियों पर लागू होता है, Googlebot.Those हम प्रदान की है कि "क्रॉल-देरी: 10 अनुदेश" कई के रूप में 7 पृष्ठ के रूप में थे और हर दूसरा हम ने उन से पूछा को धीरे अनुरोध भी शामिल है. जिस नंबर पर आप देख सेकंड है और आप इसे सूट को बदल सकते हैं अपने अपने रेंगने दर पर आधारित सर्वर की क्षमता. पृष्ठ अनुरोधों के बीच दस सेकंड तक आराम से अधिक है और उन्हें रोकता है आपके सर्वर से अधिक पृष्ठों के लिए पूछ सकते हैं अप पकवान से. (आप कितनी तेजी से और रोबोट की खोज कर सकते हैं मकड़ियों अपने कच्चे सर्वर लॉग देखने के द्वारा खंगालने के हैं - जो एक दूसरे के लिए अपने वेब होस्ट से - उपलब्ध की एक hundredth के भीतर निर्धारित समय से अनुरोध किया है या अपने वेब पृष्ठ या व्यक्ति पूछना दिखाओ. आपके सर्वर लॉग कर सकते हैं रूट निर्देशिका में पाया यदि आप सर्वर का उपयोग है, तो आप आमतौर पर डाउनलोड कर सकते हैं आपके सर्वर से कैलेंडर दिन ठीक से सर्वर लॉग इन फ़ाइलों को संकुचित सकता है. तुम एक उपयोगिता है कि संपीड़ित फ़ाइलों का विस्तार करने और खोल सकता है की आवश्यकता होगी पढ़ें उन सादे पाठ कच्चे सर्वर लॉग इन फ़ाइलों.) किसी robots.txt फ़ाइल की सामग्री को किसी भी डोमेन नाम के बाद बस प्रकार robots.txt देखने के लिए. यदि वे ऊपर है कि फ़ाइल, आप देखेंगे इसे अपने जाल में एक पाठ फ़ाइल के रूप में प्रदर्शित ब्राउज़र. नीचे दिए गए लिंक पर क्लिक करें Amazon.comhttp के लिए कि फ़ाइल को देखने के लिए: / / www.Amazon.com robots.txtYou किसी भी वेबसाइट robots.txt फ़ाइल कि way.The robots.txt ऊपर दिखाए की सामग्री / देख सकते है जो हम इस समय का उपयोग करें पर Publish101 वेब सामग्री वितरक, सिर्फ 2005 के मई में शुरू किया. हम एक व्यापक मामले का अध्ययन किया और क्रॉलर व्यवहार और अनुक्रमण गूगल sandbox रूप में जाना जाता देरी पर लेख की एक श्रृंखला प्रकाशित किया. कि गूगल Sandbox केस अध्ययन हर जगह इस बार छोटे पाठ file.One बात हम अनुक्रमण में शामिल अनुसंधान से बीनना उम्मीद नहीं की थी की अनदेखी के महत्व के बारे में बहुत वेबमास्टरों के लिए कई स्तरों पर है शिक्षाप्रद देरी (गूगल sandbox के रूप में जाना) को robots.txt फाइल के महत्व था जल्दी और प्रमुख खोज इंजनों से मकड़ियों और भारी bots से क्रॉल कि क्या करेंगे की संख्या के द्वारा खंगालने के कुशल कोई सांसारिक साइट स्वामी के लिए अच्छा है, अभी तक सबसे साइटों को बड़े पैमाने पर और भारी क्रॉल, नई साइट हमारे प्रक्षेपण में पता चला second.We प्रति 7 पृष्ठों के रूप में के रूप में तेजी से आ रही पन्नों के लिए अनुरोध के साथ तोड़ मुद्दे पर सर्वर तनाव कि गूगल और याहू साइट क्रॉल करेंगे या नहीं, आप एक robots.txt फ़ाइल का उपयोग करें MSN लेकिन यह आवश्यक लगता है इससे पहले कि वे सभी पर रेंगने शुरू हो जाएगा. खोज इंजन रोबोटों सभी को एक पर फ़ाइल अनुरोध लगते नियमित रूप से सत्यापित करने के लिए कि यह changed.Then नहीं है जब तुम यह परिवर्तन करते हैं, वे संक्षिप्त अवधि के लिए रेंगने बंद करो और किसी भी अतिरिक्त पृष्ठों रेंगने बिना बार बार उस समय के दौरान कि robots.txt फ़ाइल के लिए पूछेंगे. (शायद वे पृष्ठों की सूची की यात्रा है कि निर्देशिका या फ़ाइलें तुम उन्हें बाहर के रहने के लिए और अब अपने रेंगने समय समायोजित करना होगा अपनी सूची से उन फ़ाइलों को खत्म करने के निर्देश दिए हैं शामिल था.) अधिकांश वेबमास्टर्स के लिए bots "छवि" निर्देशिका और cgi "के बाहर बिन निर्देशिका" रहना किसी भी निजी या स्वामित्व के उद्देश्य से युक्त फ़ाइलों को निर्देशिका के रूप में के रूप में अच्छी तरह से केवल एक इंट्रानेट या पासवर्ड के उपयोगकर्ताओं के लिए निर्देश आपकी साइट के संरक्षित वर्गों. जाहिर है, तुम बॉट निर्देशित करने के लिए किसी भी निजी क्षेत्रों है कि आप robots.txt की खोज engines.The महत्व से नहीं अनुक्रमित करना चाहते से बाहर रहना चाहिए शायद ही कभी औसत से चर्चा की है वेबमास्टरों और मैं भी मेरे मुवक्किल 'व्यापार के कुछ वेबमास्टर्स लिया है मुझसे पूछा कि यह क्या है और इसे कैसे लागू करने के लिए जब मैं उन्हें बता कैसे महत्वपूर्ण यह दोनों साइट सुरक्षा और खोज इंजनों के द्वारा खंगालने के लिए सक्षम है. पर्याप्त कंपनियों में वेबमास्टर्स द्वारा यह मानक होना चाहिए ज्ञान है, लेकिन इस मिसाल कैसे थोड़ा ध्यान robots.txt.The खोज इंजन मकड़ियों का उपयोग करना चाहते हो सच में मार्गदर्शन दिया जाता है और इस छोटे पाठ आपके फ़ाइल का सबसे अच्छा तरीका crawlers और बॉट एक स्पष्ट पताका का स्तंभ प्रदान करने के लिए बंद trespassers चेतावनी और निजी संपत्ति की रक्षा है - और गर्मजोशी से स्वागत अतिथियों को आमंत्रित किया, जैसे तीन बड़ी खोज इंजन के रूप में करते हुए उन्हें पूछ अच्छी तरह से निजी areas.Copyright ÃÆ'à ¢ एक, ¬ Å ¡Ãƒâ € SA, एक माइक बैंकों ValentineGoogle sandbox केस अध्ययन http://publish101.com/Sandbox2 माइक वेलेंटाइन बैंकों द्वारा 17 अगस्त 2005 © संचालन के रहने के लिए http://Publish101.com नि: शुल्क प्रदान करता है और अनुच्छेद बाजार सामग्री एकत्रीकरण, प्रेस विज्ञप्ति जारी अनुकूलन और कस्टम खोज इंजन पोजिशनिंग के लिए वेब सामग्री के लिए वेब सामग्री वितरण

Article Source: Messaggiamo.Com

Translation by Google Translator



Online CPM Advertising | Advertising blog



Related:

» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula


Webmaster Get Html Code
Add this article to your website now!

Webmaster Submit your Articles
No registration required! Fill in the form and your article is in the Messaggiamo.Com Directory!

Add to Google RSS Feed See our mobile site See our desktop site Follow us on Twitter!

Submit your articles to Messaggiamo.Com Directory

Categories


Copyright 2006-2011 Messaggiamo.Com - Site Map - Privacy - Webmaster submit your articles to Messaggiamo.Com Directory [0.01]
Hosting by webhosting24.com
Dedicated servers sponsored by server24.eu