English version
German version
Spanish version
French version
Italian version
Portuguese / Brazilian version
Dutch version
Greek version
Russian version
Japanese version
Korean version
Simplified Chinese version
Traditional Chinese version
Hindi version
Czech version
Slovak version
Bulgarian version
 

Hoe te voorkomen dat dubbele inhoud met effectief gebruik van de robots.txt en robots-metatag

Seo RSS Feed





Duplicate content is een van de problemen die we regelmatig tegenkomen als onderdeel van de zoekmachine optimalisatie diensten die wij aanbieden. Als de zoekmachines uw site te bepalen soortgelijke inhoud bevat, kan dit resulteren in sancties en zelfs uitsluiting uit de zoekmachines. Gelukkig is het een probleem dat gemakkelijk rectified.Your primaire wapen van keuze tegen dubbele inhoud kan gevonden worden in "The Robot Exclusion Protocol ", dat inmiddels is goedgekeurd door alle belangrijke zoeken engines.There zijn twee manieren om te bepalen hoe de zoekmachine spiders indexeren van uw site.1. De Robot Exclusion bestand of" robots.txt "en 2. De Robots <Meta> TagThe Robots Exclusion File (Robots.txt) Dit is een eenvoudig tekstbestand dat kan worden gemaakt in Kladblok. Eens gemaakt moet je het bestand uploaden naar de root directory van uw website bijvoorbeeld www.yourwebsite.com / robots.txt. Voordat een spider zoekmachine indexeert uw website zien ze er voor dit dossier in hun vertelt precies hoe content.The gebruiken voor het indexeren van uw site van het robots.txt-bestand is het meest geschikt is voor statische html websites of voor het uitsluiten van bepaalde bestanden in dynamische sites. Als de meerderheid van uw site dynamisch gemaakt wordt dan overwegen om de robots Tag.Creating uw robots.txt fileExample 1 Scenario Als je wilde maken. txt bestand van toepassing op alle spiders van zoekmachines en maken de hele site beschikbaar voor indexering. Het robots.txt bestand zou er als volgt uitzien: User-agent: * Disallow: Toelichting Het gebruik van de asterisk met "User-agent" betekent dit robots.txt-bestand geldt voor alle spiders van zoekmachines. Bij het verlaten van de "Disallow" blank alle delen van de site zijn geschikt voor indexing.Example 2 Scenario Als je wilde maken het. txt bestand van toepassing op alle spiders van zoekmachines en om de spinnen te stoppen indexeren van de faq, cgi-bin directory's en de beelden van een specifieke pagina genaamd faqs.html vervat in de root directory, de robots.txt-bestand zou er als volgt uitzien: User-agent: * Disallow: / faq / Disallow: / cgi-bin / Disallow: / images / Disallow: / faqs.htmlExplanation Het gebruik van de asterisk met de "User-agent": dit robots.txt bestand van toepassing op alle spiders van zoekmachines. Waardoor de toegang tot de mappen wordt bereikt door ze te benoemen, en de specifieke pagina wordt rechtstreeks verwezen. De genoemde bestanden en mappen worden nu niet geïndexeerd worden door een Search Engine spiders.Example 3 Scenario Als je wilde maken. txt-bestand van toepassing op de Google-spider, googlebot en stop het indexeren van de FAQ, cgi-bin, afbeeldingen en mappen van een specifiek HTML-pagina genoemd faqs.html vervat in de root directory, zou het robots.txt-bestand als volgt uitzien: User-agent: Googlebot Disallow: / faq / Disallow: / cgi-bin / Disallow: / images / Disallow: / faqs.htmlExplanationBy benoemen van de name zoeken spin in het "User-agent 'je voorkomen dat het indexeren van de inhoud die u opgeeft. Waardoor de toegang tot de mappen wordt bereikt door simpelweg te benoemen hen, en de specifieke pagina wordt verwezen direct. De genoemde bestanden en mappen worden niet geïndexeerd door Google.That is er allemaal is het! Zoals eerder vermeld het robots.txt-bestand kan moeilijk zijn uit te voeren in het geval van dynamische sites en in dit geval is het Waarschijnlijk moet een combinatie van het robots.txt-gebruik en de robots tag.The Robots Tag Deze alternatieve manier van het vertellen van de zoekmachines wat te doen met de inhoud van de site verschijnt in het gedeelte van een webpagina. Een eenvoudige voorbeeld hiervan is als volgt; In dit voorbeeld hebben we vertellen alle zoekmachines niet aan de index van de pagina of voor een van de links die zijn opgenomen in het page.In dit tweede voorbeeld wil ik niet dat Google cache van de pagina te volgen, omdat de site bevat tijd gevoelige informatie. Dit kan eenvoudig worden bereikt door het toevoegen van de "noarchive" directive.What kon worden eenvoudiger! Hoewel er andere methoden ter voorkoming van dubbele inhoud van verschijnt in de zoekmachines is dit de eenvoudigste te implementeren en alle websites moet ofwel een robots.txt-bestand te beheren en of een Robot tag combination.Should u meer informatie over onze zoekmachine marketing of optimalisatie diensten bezoekt u ons op http://www.e-prominence.co.uk? De search marketing bedrijf

Artikel Bron: Messaggiamo.Com

Translation by Google Translator





Related:

» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula


Webmaster krijgen html code
Voeg dit artikel aan uw website!

Webmaster verzenden van artikelen
Geen registratie vereist! Vul het formulier in en uw artikel is in de Messaggiamo.Com Directory!

Add to Google RSS Feed See our mobile site See our desktop site Follow us on Twitter!

Dien uw artikelen te Messaggiamo.Com Directory

Categorieën


Copyright 2006-2011 Messaggiamo.Com - Sitemap - Privacy - Webmaster verzenden van artikelen naar Messaggiamo.Com Directory [0.01]
Hosting by webhosting24.com
Dedicated servers sponsored by server24.eu