Hoe je webpagina’s uit de zoekmachines houden

Content-blokkeren-300x289Deze blog staat vol tips voor het verhogen van je positie in zoekmachines. Maar soms kan het zijn dat je bepaalde pagina’s helemaal niet in zoekmachines wil zien verschijnen. Dit soort pagina’s moet je zelf zien af te schermen van zoekmachines, aangezien ze je pagina anders vroeg of laat wel weten te vinden, via links of sitemaps bijvoorbeeld. En wanneer zoekmachines de bewuste pagina toch geïndexeerd hebben, zal het doorgaans een hele tijd duren vooraleer je deze terug uit de zoekresultaten krijgt.

Daarom enkele tips waarmee je ervoor kan zorgen dat een pagina niet wordt gevonden door zoekmachines.

1. Robots.txt file

Via een disallow regel in de robots.txt file vermijd je dat bestanden en zelfs hele directories worden geïndexeerd door zoekmachines. Om individuele files uit te sluiten, gebruik je de volgende regel:

User-agent: *

Disallow: /directory/name-of-file.html

Voor directories geldt de volgende regel:

User-agent: *

Disallow: /first-directory/

Disallow: /second-directory/

Verifieer uiteraard wel of je geen pagina’s uitsluit die wel mogen geïndexeerd worden. Dat zoekmachines worden geblokkeerd, betekent niet dat deze pagina’s onzichtbaar zijn voor bezoekers.

2. Noindex tag

Ook via de noindex tag kan je een zoekmachine vertellen om een bepaalde pagina niet te indexeren. Vaak kan je dankzij een robots meta plugin een checkbox aanvinken. Maar wil je het handmatig doen, dan moet je de volgende regel toevoegen in de sectie van de pagina:

<meta name=”robots” content=”noindex, nofollow”>

Indien de zoekmachines de links wel mogen volgen, dan moet je de follow tag gebruiken.

<meta name=”robots” content=”noindex, follow”>

3. Server header status

Dankzij de server header status kan je bezoekers van je website en zoekmachines naar een bepaalde plaats op je website sturen. In normale gevallen heeft een webpagina de status “200 OK”. Maar een webpagina kan bijvoorbeeld ook volgende statussen hebben:

  • 301: beter bekend als de redirect. Dankzij deze regel in je .htaccess file zullen bezoekers die op deze pagina terechtkomen worden omgeleid naar een andere pagina. De 301 code is met name interessant indien je verouderde content wil redirecten naar nieuwere content.
  • 403 forbidden: in dit geval is de content verboden voor elke gebruiker.

4. Paswoordbescherming

Je hebt ook de mogelijkheid om je content te beschermen met een paswoord. Bezoekers hebben dan een paswoord nodig om je content te kunnen zien. Ook zoekmachines kunnen je content niet zien.

Pagina’s beschermen met een paswoord heeft een heel negatief effect op de gebruiksvriendelijkheid van je website. Test dus vooraf uitvoerig.

5. Cookies en Javascript

Maak gebruik van cookies en ingewikkelde Javascript om je content te vertonen. Zo kan je er bijvoorbeeld voor kiezen om je content enkel te vertonen aan gebruikers die ervoor kiezen om cookies te accepteren. Dit zal veel zoekmachines uitsluiten.
Vele zoekmachines kunnen ook niet om met ingewikkelde Javascript, en zullen die content links laten liggen.

Executive Summary

Content blokkeren voor zoekmachines
Hoe kan je content blokkeren voor zoekmachines? We geven hier 5 manieren om dit te doen.

Leave A Comment




    Leave a Reply

    Your email address will not be published. Required fields are marked *