Teamwork foto met mensen en laptop van boven

Drupal SEO pitfalls

Van 28 t/m 31 oktober vond DrupalCon Amsterdam 2019 plaats in de RAI. 1500 ontwikkelaars, project managers en gebruikers kwamen naar deze Drupal conferentie om te netwerken, kennis te delen en samen te werken aan Drupal. LimoenGroen was erbij en heeft veel waargenomen, bijgedragen en geleerd. Deze post van Erik over SEO valkuilen is onderdeel van de blogpost serie over DrupalCon Amsterdam 2019.

Dit zijn 10 valkuilen bij het optimaliseren van Drupal voor zoekmachines:

  1. Voorkom indexeren van content die een eigen URL heeft, maar geen eigen pagina heeft. Bijvoorbeeld nodes die alleen als embedded content worden gebruikt. Oplossing: Gebruik de Rabbit hole-module voor een omleiding of een 404.

  2. Maak altijd pagina's met behulp van een entity (bijv. node) als de redactie zelf pagina’s kan aanmaken met de Page Manager-module. Door een Node te gebruiken zijn Meta-tags standaard aanwezig.

  3. Maak een zoekpagina niet indexeerbaar. Een wél indexeerbare zoekpagina zijn leidt tot een groot aantal indexeerbare pagina’s. Oplossingen: 1. Gebruik de Metag Views-module (alleen Drupal 7) en de configureer de zoek-View met noindex; 2. Gebruik een node als basis voor de pagina en configureer die met niet-indexeren.

  4. Verberg de ontwikkel- en acceptatie-omgeving voor zoekmachines. Oplossing: Scherm deze omgevingen af met gebruikersnaam en wachtwoord.

  5. Bewaar de assets die door robots.txt worden geblokkeerd (bijv afbeeldingen, icons, etc.) altijd in het publieke files-directory.

  6. Verwijder ongebruikte modules uit de site; Deze vertragen een site. Gebruik de Unused modules-module om mee te controleren.

  7. Voorkom meerdere redirects, bijvoorbeeld: http://www.example.com > http://example.com > https://example.com.

  8. Sla bestanden die door bezoekers worden geüpload (bijvoorbeeld bij een contactformulier) op in een afgeschermd directory. File uploads die in het openbare directory worden weggeschreven kunnen door Google geïndexeerd worden. Dit kan manual action (punishment) door Google opleveren. Oplossing: Gebruik de Captcha-module of Simple Google Recapcha-module (bij de laatste blijft de pagina-caching in tact).

  9. Zorg er voor dat alle geïndexeerde content een beschijving heeft. Als een URL met disallow in robots.txt wordt opgenomen, wordt crawling voorkomen maar indexering blijft mogelijk en wordt niet ongedaan gemaakt. Indexering kan bijvoorbeeld plaatsvinden als de URL wordt gebruikt in een link op een wél bezochte pagina. De URL wordt nu wel in de zoekindex opgenomen, maar er is geen metadata (bijv. beschrijving) bekend.

  10. Gebruik niet Google Analytics én Google Tag Manager tegelijkertijd. Gebruik de een of de ander, beide is slecht voor performance.

Deze 10 valkuilen voor SEO met Drupal is een samenvatting van de presentatie Drupal SEO Pitfalls and How To Avoid Them op DrupalCon Amsterdam 2019. Heb je behoefte aan een betere score in Google of heb je hulp nodig bij de SEO van je online platform? Stuur ons een bericht en kom langs voor een vrijblijvend gesprek. 

Foto door Illek Peter (CC BY-SA 2.0)