Zoekmachines begrijpen en beïnvloeden

Wanneer je veel tijd en energie in jouw website steekt, dan wil je ook dat deze goed gevonden kan worden. Natuurlijk is mond tot mond reclame een onzettend belangrijke manier om al aan de eerste bezoekers te komen. Daarvoor kun je makkelijk jouw social media kanalen inzetten, maar je wilt natuurlijk ook goed gevonden kunnen worden in zoekmachines.

Zoekmachines staan niet stil

De manier waarop wij informatie zoeken op Internet verandert continu. Vroeger was het standaard dat je alles zocht via een zoekmachine, maar zelfs toen waren bijvoorbeeld websites met een verzameling van links (“link directories”) ook een populaire wegwijzer. Inmiddels zijn daar social media kanalen bijgekomen, zoals YouTube en Twitter. De kans is nu groter, dat je actueel, real time, nieuws nu eerder vindt op Twitter, dan op Google.

Voorheen was het ook standaard dat we het Internet alleen maar konden bereiken via een computer, maar ook dit is over de jaren veranderd. Je kunt nu Internet bereiken via je smartphone, tablet, televisie en nog meer.

Daarnaast is de manier waarop we informatie van websites aanbieden ook veranderd. Waar we vroeger alleen wat meta tags instelden voor de vindbaarheid van onze websites, zorgen we nu dat alle webcontent, en zelfs opbouw van onze site, zoveel mogelijk geoptimaliseerd is om de vindbaarheid te vergroten. Wij hebben ons aangepast op de eisen van de zoekmachines.

Dit alles ontgaat de zoekmachines uiteraard ook niet, dus zij passen zich altijd op de ontwikkelingen aan. Als je serieus met jouw website aan de slag wilt, dan is het zeker in jouw belang om dit in de gaten te houden.

De basistechniek van een zoekmachine

Hoe dan ook, de basis van een zoekmachine blijft ongewijzigd. Zij willen betrouwbare informatie aanbieden, die hun gebruikers als waardevol beschouwen. Om dit te kunnen doen, zijn ze dag in dag uit bezig met twee dingen. Het Internet afspeuren op zoek naar informatie en deze opnemen.

Crawlen

Het zoeken naar informatie noemen we “crawlen” en dit wordt inmiddels geheel door robots gedaan. Zogenaamde crawlbots speuren het Internet af en bezoeken daarbij hoogstwaarschijnlijk ook jouw site. Als ze daar iets interessants aantreffen, dan willen ze die informatie binnenhalen en gaat je site door naar de volgende fase:

Indexeren

Met het indexeren van je website, wordt de inhoud van jouw site door de zoekmachine geheel doorgezocht en beoordeeld. In veel gevallen gebeurt dit automatisch, maar sommige zoekmachines laten het beoordelen nog geheel over aan mensen.

Wanneer is een site interessant voor een crawler?

Elke website is interessant voor een crawler. Daar maakt de crawlbot geen onderscheid in. Echter zal een website vooral doorgegeven worden voor indexering, wanneer er een leesbaar URL is en er content te vinden is. Als er alleen maar codes gevonden wordt, zal de bot hoogstwaarschijnlijk afhaken, maar bij tekst en foto’s niet. Zodra dat gevonden wordt, zal je site geïndexeerd worden.

De crawler is te beïnvloeden en tegen te houden

Op serverniveau is het mogelijk de crawler te beïnvloeden en zelfs tegen te houden. Het beïnvloeden kun je heel simpel regelen middels een robots.txt bestand. Hierin kun je bijvoorbeeld aangeven dat je bepaalde locaties op je server niet of juist wel openstelt voor zoekmachines. Zodoende kun je de crawler letterlijk vertellen wat deze wel en niet mag gaan bekijken.

Als je echt “last” hebt van bepaalde crawlers, dan kan het verkeer (bezoek) van een crawler geblokkeerd worden via het .htaccess bestand. Dit is ook op serverniveau. Van de zoekmachine crawlers zul je vaak geen last hebben, maar er zijn, met name SEO gerelateerde, bedrijven die met crawlers je site veelvoudig bezoeken, om zo in je Google Analytics of andere statistieken software zichtbaar te worden. Zo proberen ze zich bij jou in de picture te spelen en daarom wordt dit veelal gezien als reclame, ofwel een vorm van spam. Op zich heb je er geen last van, met als uitzondering dat je statistieken vervuild raken. Veel blogsites hebben hier last van en blokkeren dergelijk verkeer zoveel mogelijk. Het is echter een klus dat je bij moet houden.

In de codering van de website zelf, kun je met de meta tag “robot” ook veel beinvloeden. Waar je het robots.txt file op serverniveau veelal gebruikt om directories af te schermen (bijvoorbeeld de directory waar je CMS staat; die hoeft natuurlijk niet in een zoekmachine te komen), kun je met meta tags op paginaniveau nog aangeven of iets wel of niet meegenomen mag worden in de zoektocht van de crawler.

Hoe werkt het indexeren?

Bij het indexeren van jouw website, zal de zoekmachine de site op een andere manier bekijken, dan wij dat doen in een browser. Ten eerste komen er links binnen en vervolgens platte content. En al die content, is gewoon een bulk aan informatie, waar nog geen touw aan vast te knopen is.

Structuur aanbrengen

Als eerste zal er, tijdens de indexatie, gezocht worden naar een structuur. Structuur komt al door de navigatie die je hebt opgezet en je kunt hierbij ook een handje helpen door op jouw site een sitemap te plaatsen. Je hoeft deze niet letterlijk op de site te zetten (en dus openbaar, al kan dat ook handig zijn), maar zorg dat deze wel op de server staat.

Makkelijke URL’s

Zorg dat jouw URL’s voornamelijk bestaan uit woorden. Dit noemen we “Friendly URLs”. Iedereen kan er dan een beetje uit opmaken wat er op die pagina te vinden is. Voor het indexeren helpt dit om te bepalen waar de content over gaat. Woorden die in de URL opgenomen worden, tellen ook mee bij het bepalen van het belang van jouw website in vergelijking met de rest van de bronnen, die over hetzelfde onderwerp geschreven hebben (dit heet “ranking”).

De meeste websites worden momenteel met scripting talen gemaakt, als PHP of ASP, maar deze genereren altijd dynamische URL’s. Kortom, totaal niet zoekmachine vriendelijk. Gelukkig hebben populaire pakketten als WordPress en vele webwinkelpakket al gezorgd dat alle URLs automatisch een Friendly URL krijgen. In veel gevallen kun je ze zelfs nog aanpassen. Maak hier gebruik van!

Gun het tijd

Alle pagina’s van jouw site zullen geïndexeerd worden. Dit gaat allemaal automatisch, maar kan wel even duren. Bij Google kun je overigens controleren wat er van jouw site geïndexeerd is. Ga hiervoor naar Google en gebruik de “site:”-opdracht in de zoekbalk, die je normaal gesproken ook gebruikt. Dit houdt in, dat je de opdracht geeft aan Google om alleen de resultaten van 1 site te tonen, namelijk de jouwe. In mijn geval, zou mijn opdracht er dus zo uitzien: site:www.noratol.nl
Jij vervangt mijn URL met de jouwe en kunt dan zien wat Google al van jouw site opgenomen heeft.

Merk je dat er pagina’s niet opgenomen worden, dan moet je de pagina aanpassen en kijken of het later wel opgenomen is. Verder kun je met een aantal Meta tags, op paginaniveau nog de indexatie positief beïnvloeden. Er zijn echter ook veel dingen die tegen je kunnen werken.

Meerdere domeinnamen en dubbele content

Als jouw website meerdere domeinnamen heeft, kan het zijn dat een zoekmachine jouw website gevonden heeft op al deze domeinnamen (URL’s dus), maar al die URL’s leiden de zoekmachine steeds naar dezelfde content. Een zoekmachine denkt dan, dat jouw website een kopie is van wat anders, en indexeert deze niet. Dus ook in deze tijd van “delen”, is het heel belangrijk om origineel te blijven.

Echter, kan het natuurlijk zo zijn dat je juist bewust voor 2 domeinnamen hebt gekozen, bijvoorbeeld een .nl domein en een .com domein. In dat geval moet je aangeven welk domein leidend is. Dit doe je met de Canonical tag, een meta tag.

Heb je 1 hosting account, waarop je meerdere sites draait? Zorg dan dat elk domeinnaam op de juiste site uitkomt. Je zult dan in principe geen last hebben van de andere domeinnamen, die op hetzelfde account draaien.

Ranking, ofwel in de bovenste zoekresultaten komen

Ze zeggen wel eens: “Als je op de tweede of derde pagina staat van Google, dan besta je eigenlijk niet”. Iedereen wil natuurlijk bovenaan komen te staan, maar dat is best een opgave. De manier waarop een zoekmachine de resultaten weergeeft is per zoekmachine verschillend en wordt ook vaak gewijzigd. Dat moet ook wel om de kwaliteit van de zoekresultaten te waarborgen. Een hedendaagse zoekmachine is namelijk ambitieus en wil je niet alleen naar de juiste informatie leiden, maar het liefst ook naar de meest betrouwbare. Daardoor zijn ze altijd op zoek naar een manier om dit, automatisch, te kunnen afwegen.

Woorden herhalen

Om te bepalen waar jouw website over gaat, worden trefwoorden gezocht en geteld. Hoe vaker een woord voorkomt, hoe belangrijker dat woord wordt voor de zoekmachine in het proces om het onderwerp te bepalen. Komt het woord ook voor in de URL en in koppen van de site, dan telt dat ook mee.

Headers (koppen)

Des te groter de koppen, des te groter het nieuws. Zo werkt het in de kranten, maar het is, deels, ook een logica die zoekmachines hanteren. Met de Header tag kun je de grootte van een kop instellen. Met name de <h1>-tag wordt als belangrijk gezien. Het liefst gebruik je de grote koppen maar één keer op een pagina en gebruik je een kleiner formaat voor subkoppen, maar soms staan delen van jouw teksten gelijk in prioriteit en alleen dan wissel je ze af, waarbij je altijd een duidelijk systeem hanteert (bijv. H2 voor een belangrijke kop en H3 voor subkoppen).

Maak de koppen niet te lang. Sommige SEO bronnen houden een advies aan van maximaal 70 – 80 karakters.

Hoe belangrijk is jouw site?

Om te bepalen of de informatie die je biedt met jouw website, ook belangrijk is, gaat een zoekmachine van een simpel principe uit. Des te meer mensen linken of “praten” over jouw content/website, des te meer dit opgevat wordt als een betrouwbare site. Het is dus erg belangrijk om gelinkt te worden, maar ook om naar andere sites te linken, en mensen over jouw site te laten praten op social media. (Dit wordt link building genoemd).

Al deze elementen helpen allemaal mee om hoger in de resultaten te komen. Is het echt een keiharde doelstelling voor jou om jouw website op een bepaald trefwoord bovenaan te laten komen, doe dan research naar het keyword en de concurrentie. In sommige gevallen, is het een betere optie om een ander, minder populair trefwoord te kiezen om op aan te sturen of om advertentiecampagnes te laten lopen op het populaire trefwoord. Google Adwords biedt je overigens een heel handige tool om keywords te onderzoeken en te zien hoe populair ze zijn.

 

 

 

Bookmark the permalink.

Comments are closed.