English version
German version
Spanish version
French version
Italian version
Portuguese / Brazilian version
Dutch version
Greek version
Russian version
Japanese version
Korean version
Simplified Chinese version
Traditional Chinese version
Hindi version
Czech version
Slovak version
Bulgarian version
 

Как да се предпазим дублиране на съдържанието с ефективно използване на robots.txt и роботи мета тагове

Seo RSS Feed





Дублиране на съдържание е един от проблемите, които ние редовно се намира като част от услугите за търсене на двигателя оптимизация, които предлагаме. Ако търсачките определят вашия сайт съдържа подобно съдържание, това може да доведе до глоби и дори лишаване от търсачките. За щастие това е един проблем, който е лесно rectified.Your първоначално оръжие на избор срещу дубликат съдържание може да се намери в рамките на "Роботът изключване Протокол ", който вече е приет от всички основни търсене engines.There два начина за контрол на начина, по който търсачката паяци индекса си site.1. Роботът изключване на файла или" robots.txt "and2. В Роботи <мета> TagThe роботи за изключване на файла (robots.txt) Това е обикновен текстов файл, който може да бъде създаден в Notepad. След като е създаден, трябва да качите файла в главната директория на вашия сайт например www.yourwebsite.com / robots.txt. Преди търсене индекси двигател паяк вашия сайт те търсят този файл, който им казва как точно да се индексират content.The използване на сайта си на robots.txt файл е най-подходящ за статични HTML сайтове или за изключване на определени файлове в динамични сайтове. Ако по-голямата част на вашия сайт е динамично създадените след това помислете за използването на роботи Tag.Creating си robots.txt fileExample един сценарий Ако искате да направи. списък файл, приложими към всички търсачката паяци и да направи целия сайт на разположение за индексиране. В robots.txt файл ще изглежда така: User-Agent: * Забрана: Обяснение Използването на звездичка с "Потребителски агент" означава този файл robots.txt се прилага за всички търсачката паяци. С напускане на "Забрана за" празни всички части на обекта са подходящи за indexing.Example 2 Сценарий Ако искаше да направи на. списък файл, приложими към всички търсачката паяци и за спиране на паяци от индексиране на често задавани въпроси, CGI-бен на изображения директории и специална страница, наречена faqs.html, съдържащи се в главната директория, в robots.txt файл ще изглежда така: User-Agent: * Забрана: / въпроси / Забрана: / CGI-BIN / Забрана: / снимки / Забрана: / faqs.htmlExplanation Използването на звезда с "потребителски агент" означава този robots.txt файл се прилага за всички търсачката паяци. Предотвратяване на достъпа до директориите се постига чрез тяхното наименование, както и конкретната страница е посочен директно. Посочените файлове & директории сега няма да бъдат индексирани от всички spiders.Example търсачката 3 сценарий Ако искаш да направиш. списък файл, приложим за паяк Google, Googlebot и престани да индексира често задавани въпроси, CGI-BIN, изображения директории и специфична HTML страница, наречена faqs.html, съдържащи се в главната директория, в robots.txt файла ще изглежда така: User-Agent: Googlebot Забрана: / въпроси / Забрана: / CGI-BIN / Забрана: / снимки / Забрана: / faqs.htmlExplanationBy именуване на специално за търсене паяк в "потребителски агент" можете да предпазите от индексиране на съдържанието, което да определи. Предотвратяване на достъпа до директориите се постига само чрез тяхното наименование, както и конкретната страница е посочен директно. Посочените файлове & директории няма да бъдат индексирани от Google.That е всичко там е до него! Както бе споменато по-рано robots.txt файл може да бъде трудно да се приложи в случай на динамични сайтове и в този случай това е Вероятно е необходимо да се използва комбинация от robots.txt и роботи tag.The роботи Етикет Този алтернативен начин на казвам търсачката какво да прави с съдържанието на сайта се появява в раздела на дадена уеб страница. А просто Например ще бъде както следва: В този пример се казва не всички търсачки да индексират страница или да проследите на връзките, съдържащи се в page.In Вторият пример аз не искам Google да кешира страницата, тъй като сайтът съдържа актуална информация. Това може да се постигне само чрез добавяне на "noarchive" directive.What може да се прости! Въпреки че има и други начини за предотвратяване на дублиране на съдържанието от фигуриращи в търсачките това е най-лесният за изпълнение и всички сайтове трябва да работят или файл robots.txt и / или маркер Робот combination.Should се нуждаете от допълнителна информация за търсачката маркетинг или оптимизация на услуги, моля посетете ни на http://www.e-prominence.co.uk? Компанията Search Marketing

Член Източник: Messaggiamo.Com

Translation by Google Translator





Related:

» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula


уебмастъра Вземи Html кодекс
Добави тази статия на вашия сайт сега!

уебмастъра Подайте членове
Не е необходима регистрация! Попълнете формата и статията ви е в Messaggiamo.Com директория!

Add to Google RSS Feed See our mobile site See our desktop site Follow us on Twitter!

Подайте членове на Messaggiamo.Com директория

Категории


Авторско право 2006-2011 Messaggiamo.Com - Карта на сайта - Privacy - уебмастъра представят вашите статии за Messaggiamo.Com директория [0.01]
Hosting by webhosting24.com
Dedicated servers sponsored by server24.eu