English version
German version
Spanish version
French version
Italian version
Portuguese / Brazilian version
Dutch version
Greek version
Russian version
Japanese version
Korean version
Simplified Chinese version
Traditional Chinese version
Hindi version
Czech version
Slovak version
Bulgarian version
 

Как сделать так, чтобы дублировать содержание эффективного использования в robots.txt и метатегов роботов

Сео RSS Feed





Повторяющееся содержание является одной из проблем, с которыми мы регулярно сталкивались в рамках поисковой оптимизации услуг, которые мы предлагаем. Если поисковики определить ваш сайт содержит аналогичного содержания, это может привести к штрафов и даже исключение из поисковых систем. К счастью, это проблема, которая легко rectified.Your первичного выбора оружия против дублированное содержание может быть найдено в рамках "исключений для роботов Протокол ", который был принят всеми основными поиск engines.There два способа управления, как" пауков "поисковых систем индексировать site.1. Роботов Исключение файлов или" robots.txt "and2. В Роботы <Мета> TagThe Роботы Исключение файлов (robots.txt) Это простой текстовый файл, который может быть создан в Блокноте. После создания вы должны загрузить этот файл в корневую директорию вашего веб-сайта, например www.yourwebsite.com / robots.txt. До того, как "пауки" поисковых систем индексирует сайт они смотрят на этот файл, который рассказывает им, как именно индексировать ваш сайт content.The использование файла robots.txt наиболее подходит для статические HTML-сайты или для освобождения от некоторых файлов в динамических сайтов. Если большинство ваших сайте динамически создаются затем рассмотреть вопрос об использовании роботов Tag.Creating robots.txt вашего fileExample 1 сценарий Если вы хотите сделать. текстовый файл, применимых для всех поисковых систем пауков и сделать весь сайт для индексации. Файл robots.txt будет выглядеть следующим образом: User-Agent: * Disallow: Разъяснение применение звездочка с "User-Agent" означает, что файл robots.txt, применяется для всех поисковых систем пауков. Оставляя "Запретить" пустые всех частях сайта пригодны для indexing.Example 2 Сценарий Если вы хотите сделать о. текстовый файл, применимых для всех поисковых систем пауков и прекратить пауков от индексирования FAQ, CGI-BIN образы каталогов и конкретной странице faqs.html, содержащихся в корневом каталоге, то robots.txt файл будет выглядеть так: User-Agent: * Disallow: / FAQ / Disallow: / CGI-BIN / Disallow: / фото / Disallow: / faqs.htmlExplanation использование звездочка с "User-Agent" означает этот robots.txt Файл относится ко всем "пауков" поисковых систем. Предотвращение доступа к каталогам достигается, назвав их, и конкретные страницы ссылаются непосредственно. Названные файлы каталогов И теперь не индексируются любым Поисковая система spiders.Example 3 сценарий Если вы хотите сделать. текстовый файл, применимых к Google паук, робот Google, и остановить его индексировать FAQ, CGI-BIN, каталоги картинок и конкретного HTML-странице faqs.html, содержащихся в корневом каталоге файл robots.txt будет выглядеть следующим образом: User-Agent: Googlebot Disallow: / FAQ / Disallow: / CGI-BIN / Disallow: / фото / Disallow: / faqs.htmlExplanationBy имен частности, поиск паук в "User-Agent" вы предотвратить индексирование содержания вы укажете. Предотвращение доступа к каталогам достигается только их имена, а также конкретные страницы ссылаются напрямую. Названные файлы И каталоги не будут индексироваться в Google.That 'S Нет ничего проще! Как упоминалось ранее, файл robots.txt может быть трудно осуществлять, в случае динамических сайтов и в этом случае он вероятно, необходимо использовать комбинацию из robots.txt и роботы tag.The Роботы тегов Этот альтернативный способ рассказывать о поисковых системах, что делать с сайта отображается в разделе веб-страницы. Простая пример будет выглядеть следующим образом, в этом примере мы рассказывать всем поисковым системам, не индексировать страницу или следовать какой-либо из ссылок, содержащихся в page.In второго примера я не хочу, чтобы Google кэшировал страницы потому, что сайт содержит время чувствительной информации. Это может быть достигнуто лишь путем добавления "NOARCHIVE" directive.What может быть проще! Хотя Существуют другие способы предотвращения дублировать содержание из появляться в поисковиках, это самый простой для реализации, и все веб-сайты должны работать либо в файле robots.txt или робот тегом combination.Should вам потребуется дополнительная информация о нашей поисковой системе маркетинг и оптимизация услуг, пожалуйста, посетите нас на http://www.e-prominence.co.uk? В поисках маркетинга компании

Статья Источник: Messaggiamo.Com

Translation by Google Translator





Related:

» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula


Вебмастер получить html-код
Добавить эту статью на Вашем сайте прямо сейчас!

Вебмастер представить свои статьи
Не требуется регистрация! Заполните форму и ваша статья в Messaggiamo.Com каталог!

Add to Google RSS Feed See our mobile site See our desktop site Follow us on Twitter!

Отправьте статей Messaggiamo.Com Справочник

Категории


Авторские права 2006-2011 Messaggiamo.Com - Карта сайта - Privacy - Вебмастер представить свои статьи для Messaggiamo.Com Справочник [0.01]
Hosting by webhosting24.com
Dedicated servers sponsored by server24.eu