English version
German version
Spanish version
French version
Italian version
Portuguese / Brazilian version
Dutch version
Greek version
Russian version
Japanese version
Korean version
Simplified Chinese version
Traditional Chinese version
Hindi version
Czech version
Slovak version
Bulgarian version
 

Роботы двигателя поиска - как они работают, они делают (часть ii1)

Сео RSS Feed





Автоматизированные иногда вызываемые роботы двигателя поиска, "спайдерами" или "crawlers", будут искателями страниц стержня. Как они работают? Будет он ими реально делает? Почему они важны?

Вы думали бы с полностью возней о страницах стержня индицирования для того чтобы добавить к базам данных двигателя поиска, тем роботы были бы большие и мощные существования. Неправда. Роботы двигателя поиска имеют только основную функциональность как то из предыдущих браузеров in terms of они могут понять в web page. Как предыдущие браузеры, роботы как раз не могут сделать некоторые вещи. Роботы не понимают рамки, внезапные киноих, изображения или javaScript. Они не могут вписать области защищенные паролем и они не могут щелкнуть всеми теми кнопками, котор вы имеете на вашем website. Они могут быть остановленным холодом пока индексирующ dynamically произведенный url и после того как они замедлены к стопу с навигацией javaScript. Как Роботы Двигателя Поиска Работают?

Думайте роботов двигателя поиска как автоматизированные программы, перемещать стержень к данным по находки и соединения поисков данных.

Когда вы представляете web page к двигателю поиска на "представьте странице url", новый url добавляет, что к косе робота websites посетить на своем следующем foray вне на стержень. Even if вы сразу не представляете страницу, много роботов найдут ваше место из-за соединений от других мест которые указывают back to твое. Это одной из причин почему важно построить ваше славолюбие соединения и получить соединения от других злободневных мест back to твои.

Приезжая в ваше website, автоматизированная проверка роботов сперва для того чтобы увидеть если вы имеете архив robots.txt. Этот архив использован для того чтобы сказать роботам которые зоны вашего места off-limits к им. Типично эти могут быть директории содержа только binaries или другое хранит робот связать с.

Роботы собирают соединения от каждой страницы, котор они посещают, и более поздно следуют за теми соединениями до конца к другим страницам. В эту дорогу, они необходимо следуют за соединениями от одной страницы к другим. Все world wide web сделано вверх соединений, первоначально идеи что вы смогли последовать за соединениями от одного места к другим. Это как роботы получают вокруг.

"smarts" о классификационнаяа страница online приходят от инженеров двигателя поиска, которые изобретают методы используемые для того чтобы оценить информацию роботы двигателя поиска, котор retrieve. После того как я введена в базу данных двигателя поиска, информация имеющяяся для искателей запрашивая двигатель поиска. Когда потребитель двигателя поиска входит в их query в двигатель поиска, будут несколько быстро вычисления сделанные для того чтобы make sure что двигатель поиска представляет как раз правый комплект результатов для того чтобы дать их визитеру самую уместную реакцию к их query.

Вы можете увидеть которые страницы на вашем месте роботы двигателя поиска посещали путем смотреть ваши журналы сервера или результаты от вашей программы статистик журнала. Определять роботы покажет вам когда они посетили ваше website, которое страницы они посетили и how often они посещают. Некоторые роботы готово identifiable их именами вещества потребителя, как "Googlebot" Google's; другие сдержанные неясными, как "Slurp" Inktomi's. Все еще другие роботы могут быть перечислены в ваших журналах вы не можете готово определить; некоторые из их могут даже показаться, что были людск-privedennymi в действие браузерами.

Вместе с определять индивидуальные роботы и подсчитывать число их посещений, статистик могут также показать вам завоевательные ширин полосы частот-xvata4 роботы или роботы, котор вы не можете хотеть посещение вашего website. В разделе ресурсов конца этой статьи, вы найдете места которые имена списка и адресы ip роботов двигателя поиска, котор нужно помочь вам определить их. Как Они Читают Страницы На Вашем Website?

Когда робот двигателя поиска посещает вашу страницу, он смотрит видимый текст на странице, содержании различных бирок в Кодем источника вашей страницы (бирке названия, бирках meta, ETC), и hyperlinks на вашей странице. От слов и соединений робот находит, двигатель поиска решает ваша страница о. Будут много факторов используемых для того чтобы вычислять из "имеет значение" и каждый двигатель поиска имеет свой собственный алгоритм оценить и обработать информацию. В зависимости от как робот установлен вверх через двигатель поиска, информация индексирована и после этого поставлена к базе данных двигателя поиска.

Информация поставленная к базам данных после этого будет частью процесса ранжировки двигателя и директории поиска. Когда визитер двигателя поиска представляет их query, двигатель поиска выкапывает через свою базу данных для того чтобы дать окончательное перечисление которое показано на странице результатов.

Уточнение баз данных двигателя поиска на меняя временах. Как только вы находитесь в базах данных двигателя поиска, роботы держат навещать вы периодически, для того чтобы выбрать вверх все изменения к вашим страницам, и make sure они имеют самый последний info. Число времен, котор вы навещаны зависит на как двигатель поиска устанавливает вверх свои посещения, которые могут поменять в двигатель поиска.

Иногда посещая роботы неспособны достигнуть website, котор они посещают. Если ваше место вниз, или вы испытываете огромное количество движения, то робот не может мочь достигнуть вашего места. Когда это случается, website не может быть переиндексировано, в зависимости от частоты посещений робота к вашему website. In most cases, роботы которые не могут достигнуть ваших страниц будут пытаться снова более поздно, надеющся что ваше место будет доступно после этого.

Ресурсы

* SpiderSpotting - вахта http://searchenginewatch.com/webmasters/spiders.html двигателя поиска

* Перечень Robotstxt.org роботы и протоколы для устанавливать вверх архив http://www.robotstxt.org/ robots.txt

* Консультации, форумы и статьи Спайдер-Edy о спайдерах двигателя поиска и маркетинге http://spider-food.net/ двигателя поиска

* Статьи и ресурсы Spiderhunter.com о отслеживать спайдеры http://www.spiderhunter.com/ двигателя поиска

* Мир двигателя поиска имитатора робота двигателя поиска спайдера Sim имеет спайдер имитирует роботы двигателя поиска читают от вашего website. http://www.searchengineworld.com/cgi-bin/sim_spider.cgi

Daria Goetsch будет консультанта по организации сбыта для маркетинга рационализаторства поиска, компания двигателя основателя и поиска оптимизирования двигателя поиска служя мелкие предпринимательства. Она специализирует в промотировании двигателя поиска с 1998, включая 3 лет как специалист по двигателя поиска для О'Реиллы Средств, Inc., компании технически книги опубликовывая.

Маркетинг Рационализаторства© Поиска Авторского права 6A?Ж'6Aў4a"¬8AЎ6A?4a??6A"@4a 2002-2005. http://www.searchinnovation.com все выпрямляет reserved.

Позволение перепечатать эту статью дарено если статья воспроизведена в целом, без редактировать, включая bio информацию. Пожалуйста включите hyperlink к http://www.searchinnovation.com при использовании этой статьи в информационых бюллетенях или online.

Статья Источник: Messaggiamo.Com

Translation by Google Translator





Related:

» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula


Вебмастер получить html-код
Добавить эту статью на Вашем сайте прямо сейчас!

Вебмастер представить свои статьи
Не требуется регистрация! Заполните форму и ваша статья в Messaggiamo.Com каталог!

Add to Google RSS Feed See our mobile site See our desktop site Follow us on Twitter!

Отправьте статей Messaggiamo.Com Справочник

Категории


Авторские права 2006-2011 Messaggiamo.Com - Карта сайта - Privacy - Вебмастер представить свои статьи для Messaggiamo.Com Справочник [0.01]
Hosting by webhosting24.com
Dedicated servers sponsored by server24.eu