English version
German version
Spanish version
French version
Italian version
Portuguese / Brazilian version
Dutch version
Greek version
Russian version
Japanese version
Korean version
Simplified Chinese version
Traditional Chinese version
Hindi version
Czech version
Slovak version
Bulgarian version
 

Zoekmachine optimalisatie: het binnenkort onmogelijk droom!

Seo RSS Feed





Er zijn vandaag zoekmachine en internet marketing diensten, in feite een nieuwe industrie is ontstaan, om te profiteren van de angst van lage zoek rankings.This is niet een nieuwe trend, toen gewoon opnieuw op uw website de motoren resulteerde in de lijn van uw site aan de top van de index, was er een hausse in de begeleidende opnieuw "ondernemingen", zoals we weten, deze waren alleen mannen in terug slaapkamers met een groot aantal CGI en Perl indienen scripts en een timetable.Search Engine Optimisation of "SEO", is de nieuwste incarnatie van dit slaapkamer profitariaat, het belangrijkste verschil is dat nu de webmaster's zijn niet alleen maar passief betrokken worden gedwongen om volledig kunstmatig en onmaatschappelijk praktijken die uiteindelijk alleen maar om te helpen de schade het Internet! SEO is zogezegd de methodologie en processen met betrekking tot het ontwerpen van zoekmachine "vriendelijke" web inhoud, het uitgangspunt is iets als "Als ik volg alle motoren formatteren en connectiviteit criteria, dan is mijn website zal rang hoger dan een vergelijkbare website dat niet." Alle andere factoren gelijk blijven, Dit lijkt heel positief gegeven dat de kwaliteit van een zoekmachines database (index) rechtstreeks gevolgen voor haar productie, vandaar webmaster van de optimalisering van hun inhoud, zodat zoekmachines kan correct indelen het internet moet logischerwijze het verbeteren van de snelheid en de kwaliteit van "de crawl '. SEO dan, logischerwijs, moeten goed voor de zoekmachines, te kunnen handhaven een efficiënte index, moet dit gebruik minder ruwe verwerkingskracht, vereisen minder apparatuur en dus minder energie; dit moet ook goed zijn voor de gebruikers in staat om snel en intuïtief vinden wat ze willen van een betrouwbare bron. Klinkt redelijk toch? Nou dat is het gelukkig versie. De Feit is dat in eerste instantie kan dit waar is, kunt u krijgen op korte termijn voordeel, maar zodra we hebben allemaal onze content geoptimaliseerd voor analyse en (daarmee) genegeerd onze gebruikers; Wij zullen dan terug naar waar we begonnen, en de zoekmachines zal gewoon bedenken wat nog meer belachelijk "wetten" door te "rechter" ons door, en net als schapen zullen wij allemaal doen dat ook, dus de causale paradox wordt bestendigd en de gebruikers het gevoel misbruikt! Ook dit is een enorme zwak, de ware aard van de SEO is een stuk ingewikkelder; Het hart van het probleem en het echte probleem is hier in verband met de zoekmachines taak, namelijk het strippen van mij de informatie die rotzooi werf ook wel bekend als het internet, kan het vol met interessante dingen, maar ook veel afval en ze moeten bedenken intelligente technieken voor mijn interessante stuff! De huidige "oplossing" is letterlijk voor de zoekmachines te gebruiken hun hegemonische staande te bullebak de webmaster's in de organisatie van hun werk op een manier die het primaire effect van het toestaan van snelle "analyse" zodat ze kunnen indelen de website, maar dit heeft de secundair effect van die inhoud worden ontworpen "voor" analyse, die meestal vertaald naar zeer verspreide connectiviteit, dwz de website daadwerkelijk verdeeld in "micro-sites", waardoor de onderhoud van de links en de inhoud meer lastig! Dit is niet noodzakelijk een slechte zaak is, de meeste van deze opgelegde koppelen en ontwerp methodieken zijn vaak positief en gunstig voor een heleboel onderwerpen. Mijn probleem is dat dit is eenzijdig afgedwongen en het is dit soort kwesties dat het genereren van al het geld voor de SEO boys.However zal dit binnenkort geen gevolg. Om inzicht te krijgen in het probleem met dit soort SEO operatie, is het nodig om na te denken over hoe we kunnen benaderen en simuleren van het menselijk proces van informatie-en mijnbouw knowledge.Let ons veronderstellen we hebben onze crawlers te werken, automatisch indexeren van pagina's (in willekeurige volgorde, te kijken naar vorige indexering en begeleid door gebruiker verzoeken); we dan het formatteren van de resulterende tekst: ASCII wordt meestal gebruikt en validatie volgt deze zoekmachines geneigd te negeren sommige tags en gebruik maken van goede die helpen identificeren de inhoud. Op dit punt zouden we hebben het internet om een corpora, dwz de verzameling van alle HTML-documenten over geen bijzondere subject.We dan zou item over normalisatie, dat wil zeggen de identificatie van tokens (woorden), de karakterisering van tokens (tagging betekenis aan woorden), en uiteindelijk draait die algoritmen te verwijderen achtervoegsels (en / of voorvoegsels) om de databank van de termen; dit kan worden efficiënt en compact vertegenwoordigd in de lagere termijn dimensionale ruimten (Goggle nog steeds grotendeels met behulp van omgekeerde bestand structuren). Stel je voor elk document van een corpus als een punt dat wil zeggen een term in een N-dimensionale ruimte, hier de letterlijke woord matching type zoek verloren is gegaan, maar we krijgen meer van een semantische smaak, waar nauw verwante informatie kan worden gegroepeerd in clusters van documenten met gelijkenissen, maar N-dimensionale vectorruimten zijn van geen helpen bij de toepassing van onze users.After algoritmen aan de corpora, krijgen we een term bij document matrix, waar de voorwaarden en documenten die worden vertegenwoordigd door vectoren, een zoekopdracht kan ook worden vertegenwoordigd door een vector. Dus hebben we een query en onze corpora (vertegenwoordigd als vectoren, beide met dezelfde afmetingen), kunnen we nu beginnen met het afstemmen van de vraag tegen alle beschikbare documenten met behulp van de cosinus hoek tussen deze twee vectors.But hebben we nu een nieuwe kunstmatige "probleem", we weten het algemene antwoord op de vraag "welke website het beste overeen met mijn zoektermen", deze informatie bestaat nu in onze wiskundige object, op een hoog niveau van abstractie, dwz de cosinus hoektoleranties voor alle termen tegen de query vector, dit wordt uitgedrukt als een vector die overeenkomen met de gezochte kolom en dus het document we zijn na alles wat we moeten doen is dit aan de gebruiker, rechts, en .... De probleem is dat een zoekmachine nodig om een lineaire index, dwz de omzetting van vectoren die overeenkomt met de minimale cosinus hoeken in een leesbaar formaat, en tot die tijd als iemand denkt dat een betere manier om doen, alle motoren output lijsten, zoals uw boodschappenlijst, het heeft een begin, een midden en een eind, daar ligt het probleem, hoe de volgorde van de lijst! De hypothese lijkt eenvoudig, het bestellen van informatie die zou kunnen kijken chaotisch ten eerste, het gebruik van het feit dat nauw betrokken documenten vaak te maken hebben met soortgelijke verzoeken. Echter, het internet (een schaal gratis netwerk) is zo uitgebreid dat het niet mogelijk is om een gekozen functie de ruimte die de x dichtst documenten aan de convergentie punt in een bepaald cluster van de gemeenschappelijke Euclidische afstand. Dit is wat er moet vervolgens worden voorgelegd aan de gebruiker op een meer begrijpelijke (semantische) display.The motoren konden alleen de rendementen worden geproduceerd door de matching algoritmen na ontleding, omdat de combinatie gegenereerd met behulp van probabilistische / fuzzy patronen rechtstreeks uit de cluster zou behoren tot meer dan een klasse, maar de sterkte (graad van lidmaatschap) waarde gemeten op een schaal met behulp van waarschijnlijkheid op een [0,1] interval, is vrij adequate.The reden ontleding in enkelvoud waarden werkt voor het bestellen is gerelateerd aan het feit dat het optreden van twee termen (bijvoorbeeld tomaat en aardappel) is zeer hoog en komt tot uiting in de term-by-document matrix door te laten zien dat slechts x van de n termen worden gebruikt zeer frequently.The idee is dat, aangezien de termijn zeggen peper wordt gebruikt / genoemd weinig, dan zijn as / dimensie heeft geen invloed op het zoeken veel ruimte, waardoor het plat en slechts relevant in de andere twee dimensionsHowever de motor van de demonische makers niet kunnen doen dit omdat ze nog steeds in essentie met behulp van een omgekeerde bestand structuur, maar ze willen nog steeds de absolute correctheid in hun indexen en resultaten wat betekent dat de problemen, want dit gaat ervan uit uw index is perfect, niet worden gemanipuleerd en dat kun je ergens Om het rendement op een zinvolle manier! Dus de resultaten niet kan vertegenwoordigen de documenten die overeenkomen met semantisch, we moeten nu goed voor ongeveer subjectieve hoeveelheden, die niet kunnen worden rechtstreeks afgeleid van de corpora, ze proberen om te gaan met deze door een cocktail van criteria die een rangorde van de rendementen op een zodanige wijze dat het meer waarschijnlijk dat het "beter" resultaat dichter bij de top van de list.There zijn vele manieren om dit te doen, de huidige trend is het gebruik van inferentie over de kwaliteit van de websites waren mogelijk omdat deze hoeveelheden vallen buiten de directe controle van de inhoud makers en de webmaster's. PageRank geeft een meer verfijnde manier van aanhaling tellen, maar dit is vastgelegd in het concept van de link-analyse, met een relatieve waarde van belang is voor een pagina, gemeten op basis van de gemiddelde aantal citaties per uitdrukking item.PageRank is momenteel een van de belangrijkste manieren om te bepalen wie krijgt in de top van de aanbiedingen, maar binnenkort zal dit allemaal irrelevant geworden als de motoren stoppen met het gebruik van ondersteboven bestand structuren, want ze kunnen gewoon gebruik maken van de groepering wordt gegenereerd met behulp van probabilistische / fuzzy patronen als gevolg van de convergentie punt in een bepaald cluster van de gemeenschappelijke Euclidische distance.When de overgang van ondersteboven bestand structuren gebeurt, zullen er twee directe gevolgen: 1) De corpora in staat veel meer representatieve en meer gedetailleerde gegevens dan op dit moment possible.2) De corpora zal niet meer worden geïndexeerd zoals nu gebeurt, zullen ze belichamen semantische betekenis en waarde, waar een aantal subjectieve hoeveelheden kunnen worden rechtstreeks afgeleid van de corpora zonder de noodzaak voor cocktails of volledig kunstmatige rules.The effect is dat corpora zal nauwkeuriger en niet te manipuleren, waardoor variaties van SEO dat betrekken indirecte manipulatie van de index zal worden zinloos overnight.It is vermeldenswaard dat de zoekmachines worden steeds pessimistisch over website promotie in alle vormen, zij thans benadelen veel dingen die invloed op de resultaten, zoals dubbele inhoud (dat kan perfect legitiem), en satelliet-locaties, dat wil zeggen een webmaster interlinking schijnbaar afzonderlijke maar zeer relevante website. Ze kunnen goed begin straffen webmasterhulpprogramma's die hun website via artikels zij voor derde distributie, als ze doen voor mensen die na hun sites informatie bulletin boards! Being verboden vanaf de top zoekmachines daadwerkelijk kunnen vernietigen uw bedrijf, indien deze niet direct door het verlies van zichtbaarheid vervolgens indirect in dat mensen de neiging om te oordelen over u weer uw organisatie genoeg om te worden opgenomen! De criteria zijn voortdurend veranderen, zoals de amorele SOE jongens proberen te pervert de resultes, deze "wetten" zijn niet altijd duidelijk en er zijn geen beroep, waar we allemaal afhankelijk van de aanbieders van de beëindiging van een trommel dan toedieningseenheden snelle en harde "uitspraken", dat kan straf ons te allen tijde! Het deel dat erks het belangrijkste is dat als de indexen convergeren, (kijkbuis de index is die direct gebruikt worden door 2 van de 3 boven motoren en 5 anderen indirect gebruiken voor hun ranglijst) een Bann door iedereen van deze motoren is afgedwongen door hen all.ÃƒÆ 'à ¢ â, ¬ Å ¡Ãƒâ € SA, © Ik ben de beheerder van de website Wandle industriemuseum (http://www.wandle.org). Opgericht in 1983 door de lokale bevolking vastbesloten ervoor te zorgen dat de geschiedenis van de

Artikel Bron: Messaggiamo.Com

Translation by Google Translator





Related:

» Credit Secrets Bible
» Cash Making Power Sites
» Home Cash Course
» Automated Cash Formula


Webmaster krijgen html code
Voeg dit artikel aan uw website!

Webmaster verzenden van artikelen
Geen registratie vereist! Vul het formulier in en uw artikel is in de Messaggiamo.Com Directory!

Add to Google RSS Feed See our mobile site See our desktop site Follow us on Twitter!

Dien uw artikelen te Messaggiamo.Com Directory

Categorieën


Copyright 2006-2011 Messaggiamo.Com - Sitemap - Privacy - Webmaster verzenden van artikelen naar Messaggiamo.Com Directory [0.01]
Hosting by webhosting24.com
Dedicated servers sponsored by server24.eu