Alle zoekmachines werken in principe hetzelfde. Automatische robots kruipen het web af, volgen links en indexeren de gevonden pagina’s in enorme databases. Wanneer een andere site naar u linkt, kan op deze manier uw website geïndexeerd en gevonden worden.

Een zoekmachine bestaat uit drie belangrijke componenten:

  1. De Crawler (spider, robot)
  2. De index (database)
  3. Het Algoritme (formule)

De crawler

De crawler, ook wel ’spider’ of ‘(ro)bot’ genoemd, is een computer programma dat niets anders doet dan links op websites volgen en de HTML versie van de webpagina opslaan in een database, de index genaamd. De HTML versie van een webpagina is de pagina die je ziet met een web browser. Een crawler kan alleen pagina’s vinden waarnaar gelinkt wordt. Als er geen link naar een pagina loopt, zal deze pagina nooit gevonden kunnen worden.

De index

De crawler of spider slaat de gevonden HTML versie van een webpagina op in een gigantische database, de index. Op dat moment is een webpagina geïndexeerd. Primair wordt alleen de tekst op een webpagina opgeslagen in de index, maar de zoekmachines gaan steeds meer informatie opslaan. Deze index is te vergelijken met de index achterin het boek. De index ‘weet’ welke woorden op welke pagina staan. Vervolgens is het aan het algoritme van de zoekmachine om te bepalen in welke volgorde de zoekresultaten worden gerangschikt.

Het algoritme

Het algoritme van een zoekmachine is een complexe wiskundige formule met de belangrijke taak om te bepalen welke webpagina’s uit de index getoond worden bij een zoekopdracht en op welke plek deze pagina’s in de ranking komen. Dit algoritme verandert vaak. De zoekmachines willen continue de kwaliteit van de gevonden pagina’s (waarop gezocht wordt) vergroten.  Ook doen ze dit om de zogenaamde “algoritme specialisten” niet te verleiden tot manipulerende acties om op kunstmatige wijze (door het algoritme proberen te bestuderen) hoog in de zoekmachines te komen. Met name Google verandert regelmatig heel rigoureus zijn algoritme, met wanhopige reacties van SEO specialisten tot gevolg.

Het belangrijkste doel van een zoekmachine is om zo relevant mogelijke zoekresultaten te leveren op basis van een zoekopdracht. Deze zeer complexe taak schuilt in het algoritme van zoekmachines.

Hoe werkt het algoritme van zoekmachines?

Het algoritme van een zoekmachine is een wiskundige formule die honderden factoren hanteert voor het bepalen van de relevantie van een webpagina t.o.v. een zoekopdracht.

De specifieke werking van dergelijke algoritmes is geheim, omdat het succes van een zoekmachine afhangt van de relevantie van de zoekresultaten. Door veel testen en experimenteren zijn er enkele belangrijke factoren bekend, maar de precieze werking is onbekend. Denk maar aan het recept van Coca Cola, het is dicht te benaderen, maar nog steeds al jaren supergeheim 🙂

met dank aan: edwords.nl