English version
German version
Spanish version
French version
Italian version
Portuguese / Brazilian version
Dutch version
Greek version
Russian version
Japanese version
Korean version
Simplified Chinese version
Traditional Chinese version
Hindi version
Czech version
Slovak version
Bulgarian version
 

어떻게는 robots.txt 및 로봇 메타태그의 효율적인 사용을 방지하기 위해 중복 콘텐츠

서재응 RSS Feed





중복 콘텐츠가 하나의 문제는 우리가 정기적으로 건너가 와서 우리가 제공하는 검색 엔진 최적화 서비스의 일환으로. 만약 검색 엔진이 귀하의 사이트와 유사한 콘텐츠가 포함된 결정이 발생할 수있습니다 처벌을하고 심지어는 검색 엔진에서 제외합니다. 로봇 제외 "시간이 중복 콘텐츠를 쉽게 찾을 수있습니다 다행히 그 반대의 선택의 문제가 주요 무기 rectified.Your입니다 프로토콜 "지금은 모든 주요 검색 engines.There 제어하는 두 가지 방법이있습니다 채택되었습니다 색인을 생성하는 방법은 검색 엔진 스파이더 site.1. 로봇 제외 파일 또는"robots.txt를 "and2. 로봇 <메타> TagThe 로봇 제외 파일 (robots.txt)에 따라서 메모장에서 만들 수있는 간단한 텍스트 파일입니다. 예를 들어 일단 귀하의 웹사이트의 루트 디렉토리에 파일을 업로드해야합니다 www.yourwebsite.com / robots.txt에있습니다. 그들은 정확하게 귀하의 robots.txt 파일의 색인을 생성하는 방법을 사용하여 귀하의 사이트 content.The 보이는 그들에게이 파일에 대한 색인을 생성하기 전에 웹사이트는 검색 엔진 거미가 가장 적합하다 정적 HTML 사이트 또는 동적 사이트에서 특정 파일을 제외합니다. 당신이 원해서하는 경우 귀하의 사이트의 경우 대부분의 동적 다음 귀하의 robots.txt fileExample 1 시나리오 Tag.Creating 로봇을 사용하여 만들어집니다 the. txt로 모든 검색 엔진 스파이더가 사이트 전체에 적용되는 파일 및 색인 생성을 위해 사용할 수 있도록합니다. robots.txt 파일이 :은 User - Agent : * Disallow입니다 : 설명처럼 보이는 것이 함께 별표의 사용 은 "user - agent"뜻이 robots.txt 파일은 모든 검색 엔진 스파이더가에 적용됩니다. 만약 당신이 그것을하길 원한다 "금지"이 사이트의 모든 부분을 공백으로 떠남으로서 indexing.Example 2 시나리오에 적합합니다 the. txt로 모든 검색 엔진 스파이더가를 적용하고 파일도 cgi - bin에 대한 색인 생성은 FAQ 이미지 디렉토리와 특정 페이지에서 거미를 막을 수있는 루트 디렉토리에 포함된 faqs.html라는 robots.txt 파일이 :은 User - Agent : * Disallow입니다 : / FAQ를 /은 Disallow :이 / cgi - bin /은 Disallow : / 이미지 /은 Disallow : / faqs.htmlExplanation "사용자와 별표의 사용 - 대리인"처럼 보인다는 뜻 이 robots.txt 파일은 모든 검색 엔진 스파이더가에 적용됩니다. 그들의 이름을 지정하여 디렉터리에 대한 액세스를 방지하고 달성하는 특정 페이지로 직접 참조됩니다. 그 이름의 파일 및 디렉토리 지금 어떤하여 색인에 추가되지 않습니다 검색 엔진 spiders.Example 3 시나리오 만약 당신이. txt로 구글 거미, Googlebot에 해당 파일과,도 cgi - bin에 대한 색인 생성은 FAQ에서 확인하고 싶었 그만, 이미지, 디렉토리 및 특정 html 페이지라는 faqs.html 루트 디렉토리 내에, robots.txt 파일이 :은 User - Agent : Googlebot이 금지 : / FAQ를 /은 Disallow :이 / cgi - bin /은 Disallow : / 이미지 / 금지 :처럼 보이는 것이 포함된 faqs.htmlExplanationBy 명명 / "사용자에 특정 검색 거미 - agent를"당신의 콘텐츠를 색인 생성하지 않도록 지정합니다. 디렉토리에 대한 액세스를 방지 간단하게, 그리고 특정 페이지들을 명명에 의해 이루어집니다 참조 직접. 그 이름의 파일 및 디렉토리 Google.That '모두 거기에있다하여 색인에 추가되지 않습니다! 앞서 언급한 바와 같이 robots.txt 파일을 동적 사이트의 경우를 구현하고,이 경우에 어려울 수있습니다 아마도이 robots.txt의 조합을 사용하도록하고 필요한 로봇이 로봇은 어떤 사이트 콘텐츠를 함께 할 수있는 검색 엔진을 말하는 방식이 대안 태그 tag.The 웹 페이지의 해당 섹션에 나타납니다. 간단한 시간이 있기 때문에 사이트의 민감한 정보가 포함되어있습니다. 이것은 단순히 directive.What 간단하게 될 수있는 "noarchive"를 추가하여 얻을 수있습니다! 비록 거기에서 중복 콘텐츠 방지의 다른 방법이있습니다 이것은하고 구현하는 모든 웹 사이트 중 하나와 혹은 로봇 태그를 사용하면 Google 검색 엔진에 대한 자세한 정보가 필요 combination.Should 간단한 robots.txt 파일을 조작해야하는 검색 엔진에 나타나지 마케팅 또는 최적화 서비스 http://www.e-prominence.co.uk에서 우리를 방문하시기 바랍니다? 검색 마케팅 회사

ꀰ사냴ꀰ: Messaggiamo.Com

Translation by Google Translator





Related:

» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula


샹냈 삤퀰 삻쁄 쁔냜
ꃀ큘쁘 샹사쁴킸샐쁴 뀸쀜끼 삔ꀀ 샀ꀈ 냹삥!

샹냈 삤퀰샐ꂌ ꀰ사끼 쀜삜큘ꀰ
쁄냈삔 냱끝 큄쀘! ꃀ큘쁘 삑생쁄 삑쀱큘ꃠ쁴 뀸쀜낔 Messaggiamo.Com 뀔뀉킠났!

Add to Google RSS Feed See our mobile site See our desktop site Follow us on Twitter!

Messaggiamo.Com 뀔뀉킠났샐 ꀰ사끼 쀜삜큘ꀰ

쁴큌ꃠ났


쀀삑ꂌ 2006-2011 Messaggiamo.Com - 사쁴킸 냵 - Privacy - 샹냈 삤퀰 Messaggiamo.Com 뀔뀉킠났샐 ꀰ사끼 쀜삜큘ꀰ [0.01]
Hosting by webhosting24.com
Dedicated servers sponsored by server24.eu