Alles over technische SEO

Inhoud

Technische SEO is essentieel voor een goede vindbaarheid

Technische SEO is essentieel, geen optie! Technische SEO blijft de cruciale basis voor elke succesvolle strategie. Hier lees je waarom technische SEO belangrijker is dan ooit.

SEO is in het afgelopen decennium meer veranderd dan enig ander marketingkanaal.

Via een reeks algoritmische ontwikkelingen is SEO de hoeksteen gebleven van een succesvolle digitale strategie – 51% van het online verkeer komt immers via organische zoekopdrachten op websites terecht.

SEO is mainstream geworden. Toch moeten we erkennen dat SEO nieuwe vaardigheden en benaderingen vereist om succesvol te zijn in een steeds competitievere wereld.

Met meer dan 5.000 apparaten geïntegreerd met Google Assistant en de opkomst van spraakzoekopdrachten, zijn de focuspunten van zoekopdrachten gedecentraliseerd.

De SERP zoals we die kenden is verleden tijd; zoeken is nu dynamisch, visueel en overal. Dit heeft een aanzienlijke impact op organisaties, omdat SEO een collaboratieve discipline is die de synthese van meerdere specialismen vereist om optimale resultaten te bereiken.

Centraal in dit alles staat technische SEO, dat nog steeds de basis vormt voor elke succesvolle strategie.

Grofweg kan technische SEO opgedeeld worden in de volgende onderwerpen:

Inhoud van de site

Zorg ervoor dat de inhoud door alle belangrijke zoekmachines kan worden gecrawld en geïndexeerd, met name door logbestandsanalyse te gebruiken om hun toegangspatronen te interpreteren en gestructureerde gegevens om efficiënte toegang tot contentelementen mogelijk te maken.

Structuur

Creëer een sitehiërarchie en URL-structuur die zowel zoekmachines als gebruikers in staat stelt om de meest relevante inhoud te vinden. Dit moet ook de stroom van interne link equity door de site vergemakkelijken.

Conversie

Identificeer en los eventuele blokkades op die gebruikers verhinderen om door de site te navigeren.

Prestaties

Een belangrijke ontwikkeling is de evolutie van technische SEO naar een op prestaties gerichte specialisatie.

Dit is altijd al zo geweest, maar marketeers van alle soorten hebben gerealiseerd dat technische SEO veel meer is dan alleen “huishoudelijk werk”.

Het op orde brengen van de drie bovengenoemde gebieden zal leiden tot betere siteprestaties door zoekopdrachten en andere kanalen.

Site, zoekmachine & content optimalisatie

De term “zoekmachineoptimalisatie” is misschien niet meer toereikend, aangezien we ons werkterrein uitbreiden met contentmarketing, conversieoptimalisatie en gebruikerservaring.

Ons werk omvat nu ook:

  • De site optimaliseren voor gebruikers.
  • Toegankelijkheid van content waarborgen voor alle belangrijke zoekmachines en sociale netwerken.
  • Content creëren die de juiste doelgroep aanspreekt over meerdere marketingkanalen.

Technische SEO belangrijker dan ooit

SEO heeft zich ontwikkeld tot een onderdeel van iets groters, waarbij technische vaardigheden op een andere manier toegepast moeten worden.

Het is uitgegroeid tot een veelzijdiger en genuanceerder digitaal kanaal dat de traditionele categorie “Zoekmachineoptimalisatie” ontstegen is.

De basisprincipes van organisch zoeken blijven stevig staan, met een welverdiende nadruk op technische SEO als drijfveer voor prestaties op web, mobiel en apparaten.

SEO-specialisten lopen vaak voorop bij technologische innovaties, en dit lijkt niet te veranderen in een wereld van spraakgestuurde zoekopdrachten, digitale assistenten en Progressive Web Apps.

Nieuwe benaderingen zijn vereist om deze kansen te maximaliseren. Dit begint met de definitie van wat SEO precies inhoudt en strekt zich uit tot de manieren waarop we samenwerking binnen onze organisaties leiden.

Het vereiste niveau van technische kennis is terug op het niveau van vroeger.

Echter, waar en hoe je die kennis toepast, is cruciaal voor technisch succes. Richt je vaardigheden op het optimaliseren van:

  • Je website
  • Mobiele en desktopapparaten
  • Mobiele apps
  • Spraakgestuurde zoekopdrachten
  • Virtual reality
  • Verschillende zoekmachines (niet alleen Google meer – denk bijvoorbeeld aan Amazon)

De AI-revolutie vraagt om meer inzet van technische SEO-professionals en datawetenschappers om deze vooruit te helpen.

Technische SEO is belangrijk

Je URL structuur

De URL structuur van een website dient duidelijk te zijn, en leesbaar voor de gebruiker. De URL is er namelijk niet alleen voor zoekmachines zoals Google, maar ook als indicatie voor de gebruiker zodat deze in één oogopslag kan zien waar hij is.

Het nut van trefwoorden in een URL

Los van een kleine mogelijke invloed op de ranking, zijn er duidelijke voordelen voor sitebezoekers wanneer er trefwoorden in een URL staan.

Trefwoorden in de URL kunnen gebruikers helpen begrijpen waarover een pagina gaat. Ook al verschijnen deze trefwoorden misschien niet altijd in de SERP’s, ze worden wel zichtbaar wanneer gelinkt als een kale URL.

Voorbeeld van een kale URL: https://voorbeeld.com/infographics/blog-schrijven

Bij twijfel, optimaliseer voor de gebruiker, omdat Google altijd aanbeveelt om pagina’s nuttig te maken voor gebruikers.

Dit komt vaak overeen met de soort webpagina’s die Google graag hoog plaatst in zoekresultaten.

Best practice voor URL structuur

Er zijn enkele best practice regels die je kunt toepassen voor je URL structuur. Hierdoor zorgt je dat zoekmachines jouw pagina’s beter kunnen indexeren, maar zorg je er ook voor dat mensen de URL begrijpen.

Je URL’s altijd in kleine letters

De meeste servers hebben geen problemen met URL’s met gemengde hoofdletters en kleine letters. Toch is het een goed idee om te standaardiseren hoe je URL’s eruitzien.

URL’s worden doorgaans geschreven in kleine letters “zoals-dit-dot-com”, in tegenstelling tot gemengde hoofdletters “Zoals-Dit-Dot-Com” of volledig in hoofdletters “ZOALS-DIT-DOT-COM.”

Doe dit ook, omdat dat is wat gebruikers verwachten en het is makkelijker te lezen dan alles in hoofdletters.

Het standaardiseren van je URL’s helpt om linkfouten binnen en buiten de site te voorkomen.

Gebruik koppeltekens

Gebruik altijd koppeltekens (-) en geen onderstrepingen (_), omdat onderstrepingen niet zichtbaar zijn wanneer de URL als een kale link wordt gepubliceerd.

Hier is een voorbeeld van hoe onderstrepingen in links een slechte praktijk zijn:

Zonder onderstreping:

https://voorbeeld.com/welkom_op_mijn_blog

Dezelfde URL maar met onderstreping:

https://voorbeeld.com/welkom_op_mijn_blog

Dit betekent dat gebruikers de URL niet nauwkeurig kunnen zien.

Gebruik nauwkeurige trefwoorden in categorie URL’s

Een minder relevant trefwoord gebruiken als de categorienaam is een veelvoorkomende fout die voortkomt uit het kiezen van het trefwoord met de meeste traffic.

Soms is het trefwoord met de hoogste traffic niet noodzakelijk waar de pagina’s in de categorie over gaan. Kies categorienamen die echt beschrijven waar de pagina’s binnenin over gaan.

Bij twijfel, kies de woorden die het meest relevant zijn voor gebruikers die op zoek zijn naar de inhoud of producten die in die categorieën staan.

Vermijd overbodige woorden in de URL

Soms voegt een CMS het woord /categorie/ toe aan de URL-structuur.

Dit is een ongewenste URL-structuur. Er is geen rechtvaardiging voor een URL-structuur die eruitziet als /categorie/infographics/.

Het moet gewoon /infographics/ zijn.

Evenzo, als er een beter woord dan “blog” bestaat om gebruikers te vertellen wat ze van een sectie op je site kunnen verwachten, gebruik dan dat in plaats daarvan.

Woorden leiden gebruikers naar de inhoud waarnaar ze op zoek zijn.

Gebruik ze op de juiste manier. Toekomstbestendig Je URL’s Alleen omdat er een datum in de titel van het artikel staat, betekent dit niet dat het in de URL hoort.

Als je van plan bent om een “Top xxx voor 20xx” soort bericht te maken, is het over het algemeen beter om jaar na jaar dezelfde URL te gebruiken.

Dus in plaats van:

voorbeeld.com/infographics/blog-schrijven-2023

Probeer de jaar te verwijderen en gebruik gewoon:

voorbeeld.com/infographics/blog-schrijven

Het voordeel van het jaarlijks bijwerken van de inhoud en de titel, terwijl dezelfde URL behouden blijft, is dat alle links die naar de inhoud van het vorige jaar gingen behouden blijven.

Iedereen die de oude links volgt, vindt de bijgewerkte inhoud. Het is ook mogelijk om een archief van voorgaande jaren te maken. Dat is een persoonlijke keuze.

Technische SEO vergroot je vindbaarheid

De trailing slash

Een trailing slash is dit symbool: /.

Het Wereldwijde Web Consortium (W3C) – de groep verantwoordelijk voor webstandaarden – adviseert als beste praktijk dat de trailing slash gebruikt moet worden om een “container URI” aan te duiden voor het aangeven van ouder/kind-relaties.

(Een URI wordt gebruikt om bronnen te identificeren op dezelfde manier als een URL, behalve dat die bronnen mogelijk niet op het web zijn.)

Een ouder/kind-relatie is wanneer een categorie meerdere webpagina’s bevat. De categorie “container” is de ouder en de webpagina’s die erin zitten, zijn de kinddocumenten die binnen de categorie vallen.

Bijvoorbeeld:

https://www.voorbeeld.com/infographics

kan een andere pagina zijn dan:

https://www.voorbeeld.com/infographics/

Muellers tweet in 2017 bevestigde een officiële Google-blogpost uit 2010 (To Slash or Not to Slash) die soortgelijke uitspraken deed.

Echter, zelfs in die blogpost uit 2010 liet Google het grotendeels aan uitgevers over om te beslissen hoe ze trailing slashes gebruiken. Maar Google’s naleving van een algemene trailing slash-conventie weerspiegelt dat standpunt.

Hoe verwerkt Google zijn URL’s?

Hier is een voorbeeld van hoe Google URL’s codeert.

Deze URL eindigt met .html en is duidelijk een webpagina:

https://webmasters.googleblog.com/2020/11/timing-for-page-experience.html

Deze URL die eindigt met een trailing slash is een categoriepagina:

https://webmasters.googleblog.com/2020/11/

En dit is de container voor de maand en het jaar 2020:

https://webmasters.googleblog.com/2020/

De bovenstaande voorbeelden voldoen aan de standaardaanbeveling om trailing slashes te gebruiken aan het einde voor een categoriedirectory en om het niet te gebruiken aan het einde van de URL wanneer het een webpagina betreft.

SEO-vriendelijke URL’s

Het onderwerp van SEO-vriendelijke URL’s is uitgebreider dan men zou vermoeden, met veel nuances.

Hoewel Google steeds minder vaak URL’s toont in de SERP’s, doen populaire zoekmachines zoals Bing en DuckDuckGo dit nog wel.

URL’s zijn een goede manier om aan een potentiële sitebezoeker te laten zien waar een pagina over gaat.

Het juiste gebruik van URL’s kan de klikfrequentie verbeteren, waar de links ook gedeeld worden.

En kortere URL’s zijn gebruiksvriendelijker en gemakkelijker te delen.

Webpagina’s die gemakkelijk te delen zijn, helpen gebruikers om de pagina’s populair te maken.

Onderschat de kracht van populariteit voor rankingdoeleinden niet, omdat zoekmachines deels laten zien wat gebruikers verwachten te zien.

De URL is een bescheiden en enigszins over het hoofd gezien onderdeel van de SEO-vergelijking, maar het kan veel bijdragen aan het goed ranken van je pagina’s.

XML sitemaps voor SEO

In eenvoudige termen is een XML-sitemap een lijst van URL’s van je website.

Het fungeert als een routekaart om zoekmachines te vertellen welke inhoud beschikbaar is en hoe deze te bereiken is.

In het bovenstaande voorbeeld zal een zoekmachine alle negen pagina’s in een sitemap vinden met één bezoek aan het XML-sitemapbestand.

Op de website moet het door vijf interne links springen om pagina 9 te vinden.

Dit vermogen van een XML-sitemap om crawlers te helpen bij snellere indexatie is vooral belangrijk voor websites die:

  • Duizenden pagina’s en/of een diepe websitearchitectuur hebben.
  • Regelmatig nieuwe pagina’s toevoegen.
  • Vaak de inhoud van bestaande pagina’s wijzigen.
  • Lijden onder zwakke interne linking en weespagina’s.
  • Geen sterke externe linkprofiel hebben.
XML sitemap voorbeeld

In het bovenstaande voorbeeld zal een zoekmachine alle negen pagina’s in een sitemap vinden met slechts één bezoek aan het XML sitemapbestand.

Op de website moet de zoekmachine door zes interne links navigeren om pagina 9 te vinden. Deze capaciteit van een XML-sitemap om zoekmachines te helpen met snellere indexering is bijzonder belangrijk voor websites die:

  • Duizenden pagina’s hebben en/of een complexe website-architectuur.
  • Regelmatig nieuwe pagina’s toevoegen.
  • Vaak de inhoud van bestaande pagina’s wijzigen.
  • Problemen ondervinden met zwakke interne links en weespagina’s.
  • Geen sterke externe linkprofiel hebben.

Vergeet nooit om je Sitemap aan te geven in de Google Search Console en andere platformen zoals Bing webmaster.

Verschillende soorten sitemaps

Er zijn diverse soorten sitemaps. Laten we kijken naar degenen die je echt nodig hebt.

XML Sitemaps

XML-sitemaps hebben een paar beperkingen:

  • Een maximum van 50.000 URL’s.
  • Een ongecomprimeerde bestandsgrootte-limiet van 50MB.

Sitemaps kunnen worden gecomprimeerd met gzip (het bestand zou dan iets als sitemap.xml.gz worden genoemd) om bandbreedte van je server te besparen. Maar eenmaal uitgepakt, mag de sitemap geen van beide limieten overschrijden.

Wanneer je een van deze limieten overschrijdt, moet je je URL’s over meerdere XML-sitemaps verdelen.

Deze sitemaps kunnen dan worden gecombineerd in een enkel XML sitemap indexbestand, vaak sitemap-index.xml genoemd. Eigenlijk een sitemap voor sitemaps.

Voor uitzonderlijk grote websites die een meer gedetailleerde aanpak willen, kun je ook meerdere sitemap indexbestanden maken. Bijvoorbeeld:

  • sitemap-index-artikelen.xml
  • sitemap-index-producten.xml
  • sitemap-index-categorieën.xml

Let op dat je geen sitemap indexbestanden in elkaar kunt nesten.

Om zoekmachines gemakkelijk al je sitemapbestanden tegelijk te laten vinden, wil je:

  • Je sitemap index(en) indienen bij Google Search Console en Bing Webmaster Tools.
  • Je sitemap index URL(s) specificeren in je robots.txt-bestand. Hiermee wijs je zoekmachines direct naar je sitemap terwijl je ze uitnodigt om je site te crawlen.

Sitemap voor afbeeldingen

Afbeeldings sitemaps zijn ontworpen om de indexatie van afbeeldingscontent te verbeteren.

In de moderne SEO worden afbeeldingen echter ingebed in paginainhoud, dus worden ze samen met de pagina-URL gecrawld.

Bovendien is het een goede praktijk om JSON-LD schema.org/ImageObject-markering te gebruiken om afbeeldingseigenschappen aan zoekmachines te benadrukken, omdat dit meer attributen biedt dan een XML-afbeeldings sitemap.

Daarom is een XML afbeeldings sitemap voor de meeste websites overbodig. Het opnemen van een afbeeldings sitemap zou alleen maar crawl budget verspillen.

De uitzondering hierop is als afbeeldingen je bedrijf aansturen, zoals een stockfotowebsite of een e-commerce site die productpaginasessies haalt uit Google Image-zoekopdrachten.

Weet dat afbeeldingen niet op hetzelfde domein als je website hoeven te zijn om ingediend te worden in een sitemap. Je kunt een CDN gebruiken zolang deze is geverifieerd in Search Console.

Sitemap voor video

Net zoals bij afbeeldingen, als video’s cruciaal zijn voor jouw bedrijf, dien dan een XML video sitemap in. Zo niet, dan is een video sitemap overbodig.

Bespaar je crawl budget voor de pagina waar de video is ingebed, en zorg ervoor dat je alle video’s markeert met JSON-LD als een schema.org/VideoObject. Dit helpt bij het effectief doorzoeken en indexeren van je videocontent door zoekmachines.

Sitemap voor Google news

Alleen sites die geregistreerd zijn bij Google Nieuws moeten deze sitemap gebruiken.

Als je geregistreerd bent, voeg dan artikelen toe die in de laatste twee dagen zijn gepubliceerd, tot een limiet van 1.000 URL’s per sitemap, en werk bij met verse artikelen zodra ze gepubliceerd zijn.

In tegenstelling tot sommige online adviezen ondersteunen Google Nieuws sitemaps geen afbeeldings URL’s.

Dynamische sitemaps

Dynamische XML sitemaps worden automatisch bijgewerkt door je server om relevante websiteveranderingen weer te geven zodra ze plaatsvinden.

Om een dynamische XML sitemap te maken:

  • Vraag je ontwikkelaar om een aangepast script te coderen, zorg ervoor dat je duidelijke specificaties geeft
  • Gebruik een dynamische sitemap generator tool
  • Installeer een plugin voor je CMS, bijvoorbeeld de Yoast SEO plugin voor WordPress of de XML sitemap generator for Google.

Checklist voor best practice Sitemaps

Investeer tijd om:

  • Hreflang-tags in XML-sitemaps op te nemen
  • De tags <loc> en <lastmod> te gebruiken
  • Sitemapbestanden te comprimeren met gzip
  • Een sitemap-indexbestand te gebruiken
  • Afbeeldings-, video- en Google Nieuws-sitemaps alleen te gebruiken als dexatie je KPI’s bevordert
  • XML-sitemaps dynamisch te genereren
  • Erop te letten dat URL’s slechts in één sitemap worden opgenomen
  • Sitemap-index-URL’s in robots.txt te vermelden
  • Sitemap-index in te dienen bij zowel Google Search Console als Bing Webmaster Tools
  • Alleen SEO-relevante pagina’s in XML-sitemaps op te nemen
  • Alle fouten en waarschuwingen te herstellen
  • Trends en soorten geldige pagina’s te analyseren
  • Indexeringspercentages van ingediende pagina’s te berekenen
  • Oorzaken van uitsluiting voor ingediende pagina’s aan te pakken

Robot tags en robots.txt

Voordat we ingaan op de basis van wat meta robots tags en robots.txt bestanden zijn, is het belangrijk om te weten dat er geen kant is die beter is dan de ander voor gebruik in SEO.

Robots.txt bestanden geven crawlers instructies over de gehele site. Terwijl meta robots tags dieper ingaan op de details van een specifieke pagina.

Er is geen goed of fout antwoord. Het is een persoonlijke voorkeur gebaseerd op je ervaring.

Wat is Robots.txt?

Een robots.txt bestand geeft crawlers instructies over wat ze wel of niet moeten doorzoeken. Het maakt deel uit van het robots exclusion protocol (REP).

Googlebot is een voorbeeld van zo’n crawler. Google gebruikt Googlebot om websites te doorzoeken en informatie over die site te verzamelen om te begrijpen hoe de site gerangschikt moet worden in de zoekresultaten van Google.

Je kunt het robots.txt bestand van elke website vinden door /robots.txt toe te voegen aan het webadres, zoals:

example.com/robots.txt

User-agent: *
Disallow: /

Allow: /infographics/
Disallow: /archives/

De asterisk * na user-agent geeft aan dat het robots.txt bestand bedoeld is voor alle bots die de site bezoeken.

De schuine streep / na “Disallow” geeft aan de robot de instructie om geen enkele pagina op de site te bezoeken (dit is slechts ter illustratie).

In de robots.txt-bestandsstructuur vind je commando’s zoals “allow” en “disallow”, waarmee specifiek wordt aangegeven welke mappen of bestanden door zoekmachines gescand mogen worden of juist niet.

Deze instructies zijn essentieel om te bepalen welke delen van een website toegankelijk zijn voor zoekmachinecrawlers en welke delen privé of verborgen moeten blijven.

Dit is een cruciaal aspect voor websitebeheerders om effectief hun site-structuur en -inhoud te beheren en te optimaliseren voor zoekmachines.

Het crawl budget

Een andere reden waarom robots.txt van belang is, heeft te maken met het zogenaamde ‘crawl budget’ van Google.

Google heeft uitgelegd dat elke website een bepaald crawl budget heeft, wat betekent dat er een limiet is aan hoeveel en hoe vaak hun crawlers een website bezoeken en indexeren.

Door effectief gebruik te maken van robots.txt, kunnen webmasters ervoor zorgen dat Google’s crawlers hun tijd en middelen besteden aan het indexeren van de belangrijkste pagina’s, in plaats van tijd te verspillen aan minder relevante of duplicaat inhoud.

Google geeft aan:

Googlebot is designed to be a good citizen of the web. Crawling is its main priority, while making sure it doesn’t degrade the experience of users visiting the site. We call this the “crawl rate limit,” which limits the maximum fetching rate for a given site.

 

Simply put, this represents the number of simultaneous parallel connections Googlebot may use to crawl the site, as well as the time it has to wait between the fetches.

Google

Als je een grote website hebt met pagina’s van lage kwaliteit die je niet wilt dat Google indexeert, kun je Google instrueren om deze pagina’s te “Weigeren” in je robots.txt-bestand.

Dit maakt meer van je crawl budget beschikbaar voor het crawlen van de hoogwaardige pagina’s waarvoor je wilt dat Google je goed positioneert.

Door selectief te zijn in welke pagina’s geïndexeerd worden, kun je de effectiviteit van je site in zoekresultaten optimaliseren.

Hoe zit een Robots.txt nu in elkaar?

Het gebruiken van een robots.txt-bestand is cruciaal voor SEO-succes. Onjuist gebruik kan echter verwarring veroorzaken over waarom je website niet goed scoort. Zoekmachines crawlen en indexeren je site op basis van de instructies in je robots.txt-bestand. Enkele veelvoorkomende richtlijnen in robots.txt zijn:

  • User-agent: * — Geeft aan alle spiders de regels voor het crawlen van je site. De asterisk staat voor alle spiders.
  • User-agent: Googlebot — Specificeert instructies alleen voor Google’s spider.
  • Disallow: / — Instrueert alle crawlers om je hele site niet te crawlen.
  • Disallow: — Geeft alle crawlers toestemming je hele site te crawlen.
  • Disallow: /staging/ — Vertelt alle crawlers om je staging-site te negeren.
  • Disallow: /ebooks/*.pdf — Voorkomt dat crawlers PDF-bestanden crawlen, wat duplicaat content problemen kan veroorzaken.
  • User-agent: Googlebot Disallow: /images/ — Specificeert dat alleen Googlebot alle afbeeldingen op je site moet negeren.
    • — Een wildcard die elke reeks tekens vertegenwoordigt.
  • $ — Wordt gebruikt om het einde van een URL aan te duiden.

Wat moet je verbergen?

Het robots.txt-bestand wordt vaak gebruikt om bepaalde mappen, categorieën of pagina’s uit de zoekresultaten te houden. Dit doe je met de “disallow”-richtlijn. Hier zijn enkele veelvoorkomende pagina’s die ik verberg met een robots.txt-bestand:

  • Pagina’s met dubbele inhoud (vaak printer-vriendelijke versies)
  • Pagineringpagina’s
  • Dynamische product- en dienstenpagina’s
  • Accountpagina’s
  • Beheerderspagina’s
  • Winkelwagentjes
  • Chatfuncties
  • Bedanktpagina’s

Meta robots

Meta-robots-tags, ook bekend als meta-robots-richtlijnen, zijn HTML-codefragmenten die zoekmachinecrawlers instructies geven over hoe ze pagina’s op je website moeten crawlen en indexeren.

Deze tags worden toegevoegd aan het <head> gedeelte van een webpagina. Bijvoorbeeld:

<meta name="robots" content="noindex" />

Meta-robots-tags bestaan uit twee delen. Het eerste deel van de tag, ‘name=’, identificeert de gebruikersagent, zoals “Googlebot.” Het tweede deel, ‘content=’, geeft aan wat je wilt dat de bots doen.

Verschillende soorten

Meta-robots-tags kennen twee soorten:

Meta-robots-tag

Deze tags worden vaak gebruikt door SEO-marketeers. Ze stellen je in staat specifieke instructies te geven aan gebruikersagents (zoals Googlebot) over welke delen van een website gecrawld moeten worden. Een voorbeeld is:

<meta name=”googlebot” content=”noindex,nofollow”>

Deze tag geeft aan Googlebot de instructie om de pagina niet te indexeren en geen backlinks te volgen, waardoor de pagina niet in de SERPs verschijnt.

Zo’n tag zou bijvoorbeeld gebruikt kunnen worden voor een bedankpagina.

X-robots-tag

Deze tag biedt dezelfde functionaliteit als de meta-robots-tags, maar dan binnen de headers van een HTTP-respons. Dit biedt meer functionaliteit dan de meta-robots-tags, maar vereist toegang tot .php-, .htaccess- of serverbestanden.

Deze tag zou je bijvoorbeeld gebruiken als je een afbeelding of video wilt blokkeren zonder de hele pagina te blokkeren.

De verschillende parameters

De meta-robots-tag biedt verschillende richtlijnen die je in je code kunt gebruiken, maar het is eerst belangrijk om deze richtlijnen en hun functies te begrijpen. Hier volgt een uiteenzetting van de belangrijkste meta-robots-tag richtlijnen:

  • all – Standaardinstelling zonder beperkingen voor indexering en inhoud.
  • index – Staat zoekmachines toe deze pagina te indexeren in hun zoekresultaten. Dit is de standaardinstelling.
  • noindex – Verwijdert de pagina uit de zoekindex en zoekresultaten.
  • follow – Staat zoekmachines toe interne en externe backlinks op de pagina te volgen.
  • nofollow – Laat zoekmachines niet toe interne en externe backlinks te volgen.
  • none – Hetzelfde als noindex en nofollow.
  • noarchive – Toont geen ‘Opgeslagen kopie’-link in de SERPs.
  • nosnippet – Toont geen uitgebreide beschrijving van deze pagina in de SERPs.
  • notranslate – Biedt geen vertaling van deze pagina in de SERPs.
  • noimageindex – Indexeert de afbeeldingen op de pagina niet.
  • unavailable_after: [RFC-850 datum/tijd] – Toont deze pagina na de opgegeven datum/tijd niet meer in de SERPs.
  • max-snippet – Bepaalt een maximum aantal tekens voor de meta-beschrijving.
  • max-video-preview – Bepaalt het aantal seconden voor een videovoorbeeld.
  • max-image-preview – Bepaalt de maximale grootte voor een afbeeldingsvoorbeeld.

Let op: Verschillende zoekmachines kunnen verschillende parameters voor meta-tags accepteren.

Het belang van technische SEO

404 en soft 404 meldingen

Google Search Console waarschuwt uitgevers over twee soorten 404-fouten: de standaard 404 en de zogenaamde ‘soft 404’. Hoewel ze beide de code 404 dragen, verschillen ze aanzienlijk van elkaar.

Daarom is het cruciaal om het onderscheid tussen deze fouten te begrijpen om ze effectief te kunnen oplossen.

HTTP status codes

Wanneer een webpagina wordt geopend door een browser, stuurt deze een statuscode terug die aangeeft of het verzoek succesvol was, en zo niet, waarom niet.

Deze reacties worden gegeven door wat bekend staat als HTTP-reactiecodes, maar officieel worden ze HTTP-statuscodes genoemd.

Een server geeft vijf categorieën van reactiecodes; dit artikel gaat specifiek over één respons, de 404-statuscode voor ‘pagina niet gevonden’.

Waarom gebeuren 404 status codes?

Alle codes binnen de reeks van 4xx-reacties betekenen dat het verzoek niet kon worden vervuld omdat de pagina niet werd gevonden. De officiële definitie luidt:

4xx (Clientfout): Het verzoek bevat een slechte syntaxis of kan niet worden vervuld.

De 404-reactie laat in het midden of de webpagina mogelijk terugkomt. Voorbeelden van waarom de foutmelding ‘404 Pagina Niet Gevonden’ optreedt:

  • Als iemand per ongeluk een webpagina verwijdert, reageert de server met de 404-pagina niet gevonden.
  • Als iemand linkt naar een niet-bestaande webpagina, antwoordt de server dat de pagina niet is gevonden (404).

De officiële documentatie is duidelijk over de ambiguïteit of een pagina tijdelijk of permanent weg is:

“De 404 (Niet Gevonden) statuscode geeft aan dat de oorspronkelijke server geen huidige representatie voor het doelbron heeft gevonden of niet bereid is om te onthullen dat er een bestaat.

Een 404-statuscode geeft niet aan of dit gebrek aan representatie tijdelijk of permanent is…”

Wat is een soft 404?

Een soft 404-fout is geen officiële statuscode. De server stuurt geen soft 404-antwoord naar een browser, omdat er geen soft 404-statuscode bestaat.

Soft 404 beschrijft een situatie waarin de server een webpagina presenteert en reageert met een 200 OK-statuscode, wat wijst op succes, terwijl de webpagina of inhoud eigenlijk ontbreekt.

Dit kan verwarrend zijn omdat de server lijkt aan te geven dat alles in orde is, terwijl de gewenste inhoud niet beschikbaar is. Dit kan leiden tot problemen met de gebruikerservaring en SEO, omdat het lijkt alsof de pagina bestaat, terwijl dat in werkelijkheid niet zo is.

Redenen voor een soft 404

Er zijn vier gebruikelijke redenen voor een soft 404:

  1. Een ontbrekende webpagina waarbij de server een 200 OK-status stuurt. Dit gebeurt wanneer een pagina ontbreekt, maar de serverconfiguratie de ontbrekende pagina omleidt naar de startpagina of een aangepaste URL.
  2. Ontbrekende of “dunne” inhoud. Als inhoud volledig ontbreekt of erg beperkt is (ook bekend als dunne inhoud), reageert de server met een 200 statuscode. Zoekmachines classificeren dit als soft 404’s.
  3. De ontbrekende pagina wordt omgeleid naar de startpagina. Sommigen leiden een ontbrekende pagina om naar de startpagina om 404-foutmeldingen te voorkomen, ook al werd de startpagina niet gevraagd.
  4. Ontbrekende pagina omgeleid naar een aangepaste webpagina. Soms leiden ontbrekende pagina’s om naar een speciaal ontworpen webpagina die een 200 statuscode geeft, wat resulteert in het classificeren door Google als soft 404’s.

Soft 404 fouten door fouten in code

Soms is een pagina niet echt ontbrekend, maar veroorzaken bepaalde problemen, zoals programmeerfouten, dat Google de pagina als ontbrekend classificeert. Soft 404’s zijn belangrijk om te onderzoeken omdat ze op kapotte code kunnen wijzen. Veelvoorkomende programmeerproblemen zijn:

  1. Een ontbrekend bestand of onderdeel dat inhoud op een webpagina moet plaatsen.
  2. Databasefouten.
  3. Ontbrekend JavaScript.
  4. Lege zoekresultatenpagina’s.

404-fouten hebben twee hoofdoorzaken:

  1. Een fout in de link stuurt gebruikers naar een niet-bestaande pagina.
  2. Een link naar een pagina die ooit bestond, maar plotseling verdwenen is.

Link fouten

Wanneer een 404-fout wordt veroorzaakt door een linkfout, moet je de gebroken links herstellen. Het uitdagende deel van deze taak is het vinden van alle defecte links op een site.

Dit kan bijzonder lastig zijn voor grote, complexe websites met duizenden of zelfs miljoenen pagina’s.

In dergelijke gevallen zijn crawlertools erg nuttig. Er zijn veel softwareopties voor website-crawling beschikbaar: gratis tools zoals Xenu en Greenflare, of betaalde software zoals Screaming Frog, DeepCrawl, Botify, Sitebulb en OnCrawl.

Verschillende van deze programma’s bieden gratis proefversies of gratis versies met beperkte functies.

Natuurlijk kan je ook je favoriete SEO tool zoals SEMrush, Ahrefs of Ubersuggest gebruiken en een technische SEO scan uitvoeren van je website.

Wat als een pagina niet meer bestaat?

Als een pagina niet meer bestaat, heb je twee opties:

  1. Herstel de pagina als deze per ongeluk is verwijderd.
  2. Maak een 301-omleiding naar de meest gerelateerde pagina als de verwijdering opzettelijk was.

Allereerst moet je alle linkfouten op de site lokaliseren. Net als bij het opsporen van alle linkfouten voor een grootschalige website, kun je hiervoor crawlertools gebruiken.

Crawlertools kunnen echter geen weespagina’s vinden: pagina’s die nergens vanuit de navigatielinks of vanaf een van de pagina’s gelinkt zijn.

Weespagina’s kunnen bestaan als ze ooit deel uitmaakten van de website, maar na een herontwerp van de website verdwijnt de link naar deze oude pagina, terwijl externe links van andere websites er nog steeds naartoe kunnen leiden.

Om te controleren of dergelijke pagina’s op jouw site bestaan, kun je verschillende tools gebruiken.

Hoe los je 404 problemen op?

Crawling tools detecteren geen soft 404, omdat het geen 404-fout is. Maar je kunt ze gebruiken om iets anders te vinden.

Hier zijn enkele dingen om op te letten:

  • Dunne Inhoud: Sommige crawlers rapporteren pagina’s met weinig inhoud en een sorteerbare woordtelling. Begin met pagina’s met de minste woorden om te beoordelen of de pagina dunne inhoud heeft.
  • Dubbele Inhoud: Sommige crawlers zijn geavanceerd genoeg om te bepalen welk percentage van de pagina sjablooninhoud is. Er zijn ook specifieke tools voor het vinden van interne dubbele inhoud, zoals SiteLiner. Als de hoofdinhoud bijna hetzelfde is als vele andere pagina’s, moet je deze pagina’s onderzoeken en bepalen waarom er dubbele inhoud op je site bestaat.

Naast crawlers, kun je ook Google Search Console gebruiken en onder crawl-fouten zoeken naar pagina’s die als soft 404’s worden vermeld.

Het crawlen van een hele site om problemen die soft 404’s veroorzaken te vinden, stelt je in staat om problemen te lokaliseren en op te lossen voordat Google ze detecteert.

Na het detecteren van deze soft 404-problemen, moet je ze corrigeren.

Vaak lijken de oplossingen voor de hand liggend. Dit kan eenvoudige zaken omvatten, zoals het uitbreiden van pagina’s met dunne inhoud of het vervangen van dubbele inhoud door nieuwe en unieke inhoud.

Tijdens dit proces zijn hier een paar punten om te overwegen:

Pagina’s samenvoegen

Soms wordt dunne inhoud veroorzaakt door te specifiek te zijn met het paginathema, waardoor je weinig te zeggen hebt.

Het samenvoegen van meerdere dunne pagina’s in één pagina kan geschikter zijn als de onderwerpen gerelateerd zijn. Dit lost niet alleen problemen met dunne inhoud op, maar kan ook problemen met dubbele inhoud oplossen.

Technische problemen vinden die dubbele inhoud veroorzaken

Zelfs met een eenvoudige webcrawler zoals Xenu (die alleen naar URL’s, reactiecodes en titeltags kijkt en niet naar inhoud), kun je nog steeds dubbele inhoudsproblemen vinden door naar URL’s te kijken.

Dit omvat www versus non-www URL’s, HTTP en HTTPS, met index.html en zonder, met trackingparameters en zonder, enz.

Technische SEO optimalisatie is belangrijk

Waarom HTTPS gebruiken?

HTTP-websites zijn al lange tijd een vast onderdeel van het internet.

Tegenwoordig is HTTPS, de nieuwere variant, in opkomst. Maar wat is nu precies het verschil?

HTTP staat voor HyperText Transfer Protocol en wordt gebruikt om informatie van het web te ontvangen. Het werd oorspronkelijk ontwikkeld om transacties op het web te beveiligen en te autoriseren. In eenvoudige termen, het toont informatie aan de internetgebruiker.

Echter, zonder een beveiligde verbinding kan elk netwerk tussen de bronhost en de doelhost de informatie die de doelhost ontvangt wijzigen.

Hier komt HTTPS om de hoek kijken. HTTPS, wat staat voor HyperText Transfer Protocol Secure, gebruikt SSL (Secure Sockets Layer) voor een veiligere manier van datatransport. Dit zorgt voor een beveiligde verbinding, wat een winst is voor iedereen.

Het voordeel van HTTPS

Laten we eens kijken naar de voordelen van het gebruik van HTTPS.
Verbeterde Zoekresultaten

Google heeft niet bevestigd dat HTTPS een rankingfactor is, maar geeft wel de voorkeur aan sites die HTTPS gebruiken.

Onderzoek toonde aan dat HTTPS een positieve impact heeft op de zichtbaarheid in de SERP’s.

Betere Gebruikerservaring

Browsers zoals Firefox en Chrome geven aan of een website veilig is. Onderzoeken tonen aan dat 84% van de gebruikers een aankoop zou stoppen op een onveilige site. Een veilige browse-ervaring verhoogt de retentie.

Bescherm de Informatie van je Gebruikers

Met HTTPS bescherm je de gegevens van je gebruikers. Een datalek zoals bij Marriott of Facebook kan voorkomen worden door HTTPS status met SSL/TLS certificaat te behouden.

Krijg het slot-icoon

77% van de bezoekers maakt zich zorgen over misbruik van hun gegevens online. Het slot-icoon bouwt vertrouwen en geloofwaardigheid op.

HTTPS is Noodzakelijk voor AMP

Voor mobiele optimalisatie en het gebruik van AMP is een beveiligde site met SSL nodig.

Effectievere PPC campagnes

HTTPS helpt slechte advertentiepraktijken te verminderen en conversies te verhogen. Google Ads begon in 2018 automatisch HTTP zoekadvertenties naar HTTPS om te leiden en waarschuwde adverteerders om te stoppen met het gebruik van HTTP-adres voor bestemmingspagina’s.

Gecorrigeerde data in Google Analytics

Een toename in direct verkeer kan te wijten zijn aan HTTPS dat bezoeken naar HTTP stuurt, wat door Google Analytics als direct verkeer wordt gerapporteerd. Dit is ook belangrijk tijdens een migratie.

Pagina snelheid optimaliseren is belangrijk

Paginasnelheid optimaliseren

Paginasnelheid is tegenwoordig een cruciale factor in digitale marketing. Het heeft een aanzienlijke invloed op:

  • Hoe lang bezoekers op je site blijven.
  • Hoeveel van hen betalende klanten worden.
  • Hoeveel je betaalt per klik in betaalde zoekopdrachten.
  • Waar je rankt in organische zoekresultaten.

Helaas presteren veel websites slecht wat betreft paginasnelheid, wat directe negatieve gevolgen heeft voor hun inkomsten.

Er zijn ontelbare taken waaraan digitale marketeers hun dagen kunnen besteden, en er is nooit genoeg tijd om ze allemaal uit te voeren. Hierdoor worden sommige taken naar de achtergrond geschoven.

Het optimaliseren van paginasnelheid is een van die taken die vaak wordt uitgesteld. Dit is begrijpelijk omdat veel mensen het belang van deze vaak over het hoofd geziene factor niet volledig begrijpen, waardoor ze de waarde van het investeren van tijd en geld om het met slechts enkele seconden te verbeteren niet inzien.

Wat voor sommige marketeers, inclusief degenen die zich enkel op zoekmachineoptimalisatie richten, als een onbeduidende hoeveelheid tijd lijkt, is volgens gegevens van zowel industriegiganten als onze eigen analytische gegevens aanzienlijk gebleken.

Stap over op een goede hosting provider

In ons streven om kosten te drukken, vooral gezien de cumulatieve kosten van dagelijkse tools zoals Raven, SEMrush, Moz en meer, lijkt het soms alsof we een extra financiële last dragen.

Velen kiezen voor betaalbare, gedeelde webhosting waarop talloze sites worden ondergebracht, als een compacte auto vol met circusclowns. Helaas gaat dit ten koste van de prestaties.

Je site is misschien wel toegankelijk, zoals bij de meeste hosts, maar trage laadtijden kunnen bezoekers ontmoedigen en weerhouden van aankopen.

Sommigen zien dit probleem misschien niet in, maar voor bezoekers telt elke seconde.

Voor gebruikers is een websitebezoek doelgericht, of dat nu is voor informatie of een aankoop. Enige vertraging kan hun ervaring negatief beïnvloeden, waardoor ze de site verlaten zonder actie te ondernemen.

Hoeveel verschil kan het maken?

Uit onderzoek van Amazon bleek dat zelfs een onopmerkelijke vertraging van 100 milliseconden al leidde tot een omzetdaling van 1%. Een soortgelijke trend werd waargenomen bij Walmart.

Deze bijna onwaarneembare tijdsmarge heeft dus een aanzienlijke impact. Bedenk hoeveel groter de impact is bij een nog langere laadtijd.

Een snelle website is niet alleen goed voor je verkoop, maar verbetert ook je positie in zoekmachines en verlaagt de kosten van je advertenties.

Kort gezegd, een langzame website kan nadelig zijn in de concurrentiestrijd. Kies dus voor een webhost die snelheid biedt tegen een redelijke prijs, zoals die voor WordPress-websites. Door zelf te onderzoeken en te testen, kun je een webhost kiezen die zowel je publiek als zoekmachines tevreden stelt.

Verminder het aantal HTTP calls

Elke afzonderlijke bestandstype dat nodig is om een webpagina te tonen en te laten functioneren, zoals HTML, CSS, JavaScript, afbeeldingen en lettertypen, vereist een aparte HTTP-aanvraag. Hoe meer aanvragen, hoe langzamer de pagina laadt.

Het probleem zit hem vaak in de opbouw van de website: veel thema’s laden meerdere CSS- en JavaScript-bestanden. Sommige, zoals jQuery of FontAwesome, worden zelfs vanaf een externe server geladen, wat de laadtijd aanzienlijk verhoogt.

Dit wordt verergerd door extra CSS- en JavaScript-bestanden die door plugins worden toegevoegd. Het resultaat is al snel een flink aantal HTTP-aanvragen enkel voor CSS- en JavaScript-bestanden.

Voeg hier de afzonderlijke aanvragen voor elke afbeelding op een pagina aan toe, en het aantal aanvragen loopt snel op.

Om dit te verminderen, kun je het volgende doen:

  • Combineer JavaScript-bestanden in één bestand.
  • Voeg CSS-bestanden samen in één bestand.
  • Beperk of elimineer plugins die hun eigen JavaScript en/of CSS-bestanden laden.
  • Gebruik sprites voor veelgebruikte afbeeldingen.
  • Gebruik waar mogelijk een lettertype zoals HeroIcons in plaats van afbeeldingsbestanden, omdat dan slechts één bestand geladen hoeft te worden.

Activeer compressie

Door GZIP-compressie in te schakelen, kun je de downloadtijd van je HTML-, CSS- en JavaScript-bestanden aanzienlijk verkorten. Deze bestanden worden namelijk als kleinere, gecomprimeerde bestanden gedownload en vervolgens gedecomprimeerd in de browser van de gebruiker.

Geen zorgen, je bezoekers hoeven hier niets extra’s voor te doen. Alle moderne browsers ondersteunen GZIP en verwerken het automatisch bij alle HTTP-verzoeken. Dit leidt tot snellere laadtijden van je webpagina’s, zonder dat het extra inspanning van je bezoekers vereist.

Activeer browsercaching

Door browsercaching te activeren, worden elementen van een webpagina opgeslagen in de browser van je bezoekers.

Wanneer ze je site opnieuw bezoeken of een andere pagina bezoeken, kan hun browser de pagina laden zonder een nieuwe HTTP-verzoek naar de server te hoeven sturen voor de gecachte elementen.

Zodra de eerste pagina is geladen en de elementen ervan in de cache van de gebruiker zijn opgeslagen, hoeven alleen nieuwe elementen te worden gedownload op volgende pagina’s.

Dit kan het aantal bestanden dat tijdens een typische browsersessie moet worden gedownload aanzienlijk verminderen, wat leidt tot snellere laadtijden en een betere gebruikerservaring.

Minimaliseer bronnen

Het minimaliseren van je CSS- en JavaScript-bestanden door overbodige witruimte en commentaar te verwijderen, verkleint de bestandsgrootte en daarmee de downloadtijd.

Gelukkig hoef je dit proces niet handmatig uit te voeren, want er zijn verschillende online tools beschikbaar die een bestand kunnen omzetten in een kleinere, geminimaliseerde versie.

Er zijn ook meerdere WordPress-plugins die de links in de head van je website voor je reguliere CSS- en JavaScript-bestanden vervangen door een geminimaliseerde versie, zonder je originele bestanden aan te passen. Enkele populaire caching-plugins zijn:

Het kan wat moeite kosten om de instellingen goed te krijgen, omdat minimalisatie vaak CSS en JavaScript kan breken. Test daarom je website grondig nadat je alles hebt geminimaliseerd.

Geef voorrang aan content boven de vouw

Je website kan sneller lijken te laden als deze is geprogrammeerd om content boven de vouw te prioriteren, oftewel de inhoud die zichtbaar is voordat een bezoeker naar beneden scrolt.

Dit betekent dat je ervoor zorgt dat elementen die boven de vouw verschijnen ook dichtbij het begin van de HTML-code staan, zodat de browser ze als eerste kan downloaden en weergeven. Het is ook belangrijk om eventuele CSS en JavaScript die nodig zijn om dat gebied weer te geven, inline te plaatsen in plaats van in een extern CSS-bestand.

De snelheid van je website is belangrijk

Optimaliseer mediabestanden

Door het gebruik van mobiele apparaten met hoogwaardige camera’s en handige contentmanagementsystemen zoals WordPress, laden veel mensen foto’s direct op zonder te beseffen dat deze vaak minstens vier keer groter zijn dan nodig. Dit vertraagt je website aanzienlijk, vooral voor mobiele gebruikers.

Het optimaliseren van mediabestanden op je website kan je paginasnelheid enorm verbeteren en is relatief eenvoudig, dus een goede tijdsinvestering. Optimaliseren van Afbeeldingen

  • Kies het ideale formaat: JPG is perfect voor fotografische afbeeldingen, terwijl GIF of PNG beter zijn voor afbeeldingen met grote vlakken in één kleur. Gebruik 8-bit PNG voor afbeeldingen zonder transparante achtergrond en 24-bit voor afbeeldingen met een transparante achtergrond. Nog beter, maar gebruik van het nieuwste formaat webp.
  • Schaal afbeeldingen. Als een afbeelding op je website 800 pixels breed wordt weergegeven, heeft het geen zin om een afbeelding van 1600 pixels breed te gebruiken.
  • Comprimeer afbeeldingenNaast dat Adobe Photoshop een top beeldbewerkingsprogramma is, biedt het ook uitstekende beeldcompressiemogelijkheden vanaf een paar euro per maand. Je kunt ook gratis WordPress-plugins gebruiken, zoals EWWW Image Optimizer, Smush en TinyJPG, die geüploade afbeeldingen automatisch comprimeren.

Hiermee ben je er echter nog niet. Om media op je website echt te optimaliseren, moet je afbeeldingen aanbieden die qua grootte zijn aangepast aan het scherm, in plaats van ze gewoon te verkleinen.

Er zijn twee manieren om dit te doen, afhankelijk van hoe een afbeelding wordt geïmplementeerd:

  • Afbeeldingen binnen de HTML van je website kunnen worden aangeboden met src set, waardoor de browser de juiste afbeelding kan selecteren, downloaden en weergeven op basis van de schermgrootte van het apparaat dat een bezoeker gebruikt.
  • Afbeeldingen die via CSS worden geplaatst, meestal als achtergrondafbeeldingen, kunnen worden geserveerd met behulp van mediaqueries om de juiste afbeelding te selecteren op basis van de schermgrootte van het apparaat dat een bezoeker gebruikt.

Optimaliseer video

  • Kies het beste formaat. MP4 is meestal de beste keuze omdat het de kleinste bestandsgrootte levert.
  • Bied de optimale grootte (afmetingen) aan, afgestemd op de schermgrootte van bezoekers.
  • Verwijder de audiotrack als de video als designelement op de achtergrond wordt gebruikt.
  • Comprimeer het videobestand. Ik gebruik vaak Adobe Premiere of nog beter Adobe Media Encoder, maar Camtasia is ook een goede optie.
  • Verkort de videolengte.
  • Overweeg om video’s te uploaden naar YouTube of Vimeo in plaats van ze lokaal te hosten, en gebruik hun iframe inbedcode.

Gebruik Caching en CDN’s

Caching stelt je webserver in staat om een statische kopie van je webpagina’s op te slaan, zodat ze sneller aan de browser van een bezoeker kunnen worden geleverd.

Een CDN (Content Delivery Network) maakt het mogelijk om deze kopieën te verspreiden over servers wereldwijd. Zo kan de browser van een bezoeker de pagina’s downloaden vanaf de server die het dichtst bij hun locatie staat. Dit verbetert de snelheid van je pagina aanzienlijk.

Enkele populaire CDN’s zijn:

Wat is duplicate content?

Voorkom dubbele inhoud

In de wereld van SEO en website-architectuur is het elimineren van dubbele inhoud vaak een van de grootste uitdagingen.

Veel contentmanagementsystemen en ontwikkelaars bouwen sites die prima zijn voor het tonen van inhoud, maar niet optimaal werken vanuit een SEO-perspectief.

Dit leidt vaak tot problemen met dubbele inhoud, die de SEO moet oplossen. Er zijn twee soorten dubbele inhoud, beide problematisch:

On-site duplicate content

dezelfde inhoud staat op twee of meer unieke URL’s van je site. Dit is meestal te beheren door de sitebeheerder en het webontwikkelingsteam.

Off-site duplicate content

wanneer twee of meer websites exact dezelfde inhoud publiceren. Dit kan vaak niet direct worden beheerst, maar vereist samenwerking met derde partijen en eigenaren van de betreffende websites.

Waarom is duplicate content een probleem?

Het probleem van dubbele inhoud kan het beste worden uitgelegd door eerst uit te leggen waarom unieke inhoud goed is.

Unieke inhoud is een van de beste manieren om je te onderscheiden van andere websites. Wanneer de inhoud op je website uniek is, val je op.

Bij dubbele inhoud, of het nu gaat om inhoud die je gebruikt om je producten of diensten te beschrijven of om inhoud die op andere sites wordt gepubliceerd, verlies je het voordeel van uniekheid.

In het geval van dubbele inhoud op je eigen site, verliezen individuele pagina’s hun uniekheid.

Bekijk de onderstaande illustratie. Als A inhoud vertegenwoordigt die op twee pagina’s wordt gedupliceerd, en B tot en met Q pagina’s die naar die inhoud linken, dan zorgt de duplicatie ervoor dat de linkwaarde wordt gesplitst.

Stel je nu voor dat pagina’s B-Q allemaal linken naar slechts één pagina A. In plaats van de waarde van elke link te splitsen, zou alle waarde naar een enkele URL gaan, wat de kans vergroot dat die inhoud in zoekresultaten scoort.

Of het nu gaat om onsite of offsite, alle dubbele inhoud concurreert met zichzelf. Elke versie kan wellicht aandacht en links trekken, maar geen enkele zal de volledige waarde ontvangen die het zou krijgen als het de enige en unieke versie was.

Wanneer waardevolle en unieke inhoud echter op niet meer dan één URL op het web te vinden is, heeft die URL de beste kans om gevonden te worden omdat het de enige verzamelaar van autoriteitssignalen voor die inhoud is.

Nu we dit begrijpen, laten we kijken naar de problemen en oplossingen voor dubbele inhoud.

Off-site duplicate content

Dubbele inhoud van externe bronnen kan in drie hoofdcategorieën worden ingedeeld:

  1. Inhoud van derden die op je eigen site is gepubliceerd. Dit gebeurt vaak in de vorm van standaard productbeschrijvingen die door de fabrikant worden verstrekt.
  2. Jouw eigen inhoud die met jouw toestemming op sites van derden is gepubliceerd. Dit vindt meestal plaats in de vorm van artikelverspreiding of soms omgekeerde artikelverspreiding.
  3. Inhoud die zonder jouw goedkeuring van jouw site is gekopieerd en elders gepubliceerd. Dit is het domein van content scrapers en dieven.

Elk van deze situaties vereist een specifieke aanpak. Bij het eerste en tweede punt is het belangrijk om de uniekheid van je eigen content te bewaken, terwijl je bij het derde punt actie moet ondernemen tegen ongeautoriseerde duplicatie.

Content scrapers en dieven

Content scrapers, ofwel inhoudsschrapers, zijn een grote bron van dubbele inhoud op het web. Ze gebruiken geautomatiseerde tools om inhoud van andere websites te kopiëren en op hun eigen sites te publiceren.

Deze sites proberen vaak verkeer te genereren om inkomsten uit advertenties te halen. Een effectieve aanpak tegen deze praktijken is beperkt. Je kunt een melding van auteursrechtinbreuk indienen bij zoekmachines zoals Google, maar dit kan tijdrovend zijn.

Een andere strategie is het gebruik van absolute links in je content, die verwijzen naar je eigen site. Degenen die jouw inhoud kopiëren, zullen vaak deze links intact laten, waardoor bezoekers teruggeleid kunnen worden naar jouw site.

Ook het toevoegen van een canonical tag naar de oorspronkelijke pagina kan helpen. Als de schrapers deze tag kopiëren, geeft dit een signaal aan Google dat jij de oorspronkelijke bron bent. Dit is een goede praktijk, ongeacht of je te maken hebt met schrapers.

Content herpubliceren

Enkele jaren geleden was het populair onder SEO-experts om hun content te herpubliceren op “ezine”-websites als linkbuilding strategie. Toen Google echter strenger werd op contentkwaliteit en linkschema’s, nam deze praktijk af.

Desondanks kan het herpubliceren van content met de juiste focus een effectieve marketingstrategie zijn. Het is belangrijk om te beseffen dat veel uitgevers unieke rechten op deze content willen, om te voorkomen dat meerdere versies ervan de waarde ervan op het web verminderen.

Hoewel Google steeds beter wordt in het toewijzen van rechten aan de oorspronkelijke maker van de content, kan het herpubliceren nog steeds leiden tot een klein probleem van dubbele content, vooral als er twee versies zijn die beide links genereren.

Toch zal de impact beperkt zijn als het aantal dubbele versies beheersbaar blijft. Meestal wordt de eerste gepubliceerde versie gezien als de canonieke versie, waardoor uitgevers vaak meer waarde uit de content halen dan de auteur die het herpubliceert op zijn eigen site.

On-site duplicate content

Technisch gezien behandelt Google alle dubbele content op dezelfde manier, wat betekent dat interne dubbele content net zo wordt behandeld als externe.

Echter, interne duplicatie is minder excusabel omdat je hier daadwerkelijk controle over hebt. Het komt vaak voort uit slechte sitearchitectuur of ontwikkeling.

Een sterke sitearchitectuur is essentieel voor een sterke website. Als ontwikkelaars niet de beste praktijken voor zoekmachinevriendelijkheid volgen, kan dit leiden tot zelfcompetitie en verlies van rangschikkingsmogelijkheden voor je content.

Sommigen betogen dat een goede architectuur niet nodig is, omdat Google het “wel uitzoekt.” Maar dit vertrouwen op Google brengt risico’s met zich mee.

Google kan inderdaad soms duplicaten als één geheel beschouwen, maar er is geen garantie dat dit altijd gebeurt. Het is dus beter om zelf actie te ondernemen en niet volledig te vertrouwen op Google’s algoritmes.

Een slechte website architectuur

Een veelvoorkomend probleem in website-architectuur is hoe pagina’s in de browser benaderd worden. Standaard kunnen bijna alle pagina’s van je site worden geopend met een lichtelijk andere URL. Als dit niet wordt aangepakt, leiden deze URL’s naar dezelfde pagina met dezelfde inhoud.

Bijvoorbeeld, alleen al voor de startpagina zijn er vier verschillende toegangswegen:

  • http://voorbeeld.com
  • http://www.voorbeeld.com
  • https://voorbeeld.com
  • https://www.voorbeeld.com

Voor interne pagina’s ontstaan extra variaties door het toevoegen of weglaten van een slash aan het einde van de URL, zoals:

  • http://voorbeeld.com/pagina
  • http://voorbeeld.com/pagina/
  • http://www.voorbeeld.com/pagina
  • http://www.voorbeeld.com/pagina/
  • Enz.

Dit betekent tot acht alternatieve URL’s voor elke pagina!

Hoewel Google in principe zou moeten begrijpen dat al deze URL’s als één behandeld moeten worden, blijft de vraag welke URL de voorkeur heeft.

De oplossing met 301 redirects en consistente interne links

Naast de canonical tag, die ik eerder besprak, is de oplossing hier het zorgen dat alle alternatieve versies van de URL’s doorverwijzen naar de canonieke URL.

Dit is niet alleen een probleem voor de startpagina. Dezelfde kwestie geldt voor elke URL op je site. Daarom moeten de doorverwijzingen globaal worden geïmplementeerd.

Zorg ervoor dat elke doorverwijzing naar de canonieke versie leidt. Als bijvoorbeeld de canonieke URL https://www.voorbeeld.com is, moet elke doorverwijzing hiernaar wijzen. Een veelgemaakte fout is het creëren van extra doorverwijzingsstappen die er zo uit kunnen zien:

  • voorbeeld.com > https://voorbeeld.com > https://www.voorbeeld.com
  • voorbeeld.com > www.voorbeeld.com > https://www.voorbeeld.com

In plaats daarvan, moeten de doorverwijzingen direct zijn:

  • http://voorbeeld.com > https://www.voorbeeld.com/
  • http://www.voorbeeld.com > https://www.voorbeeld.com/
  • https://voorbeeld.com > https://www.voorbeeld.com/
  • https://www.voorbeeld.com > https://www.voorbeeld.com/
  • http://voorbeeld.com/ > https://www.voorbeeld.com/
  • http://www.voorbeeld.com/ > https://www.voorbeeld.com/
  • https://voorbeeld.com/ > https://www.voorbeeld.com/

Door het aantal doorverwijzingsstappen te verminderen, versnel je de paginalading, verminder je de bandbreedte van de server en verminder je de kans op fouten tijdens het proces.

Zorg ten slotte dat alle interne links op de site naar de canonieke versie wijzen. Hoewel de doorverwijzing het duplicate content zou moeten oplossen, kunnen doorverwijzingen falen door problemen aan de server- of implementatiezijde.

Als dat gebeurt, zelfs tijdelijk, kan het intern linken naar alleen de canonieke pagina’s helpen om een plotselinge toename van duplicate content problemen te voorkomen.

URL parameters en query stringen

URL-parameters worden gebruikt om nieuwe inhoud van de server te halen, meestal op basis van bepaalde filters of keuzes.

Neem bijvoorbeeld de URL voorbeeld.com/infograhics/. Hieronder staan twee alternatieve URL’s voor dezelfde pagina:

  1. voorbeeld.com/infograhics/?type=seo
  2. voorbeeld.com/infograhics/?sort=age&display=12

Deze filters kunnen leiden tot meerdere unieke URL’s, afhankelijk van de volgorde waarin de filters worden toegepast:

  • voorbeeld.com/infograhics/?type=seo&sort=age
  • voorbeeld.com/infograhics/?type=seo&sort=name
  • voorbeeld.com/infograhics/?type=seo&sort=name&sub=onpage

Zoals je ziet, kunnen deze parameters een groot aantal URL’s genereren, waarvan de meeste geen unieke inhoud bevatten.

Van de genoemde parameters is ‘type’ waarschijnlijk de enige waarvoor je specifieke inhoud zou willen schrijven. De andere parameters voegen meestal geen unieke inhoud toe.

Parameters voor filters

Het strategisch plannen van je navigatie en URL-structuur is essentieel om dubbele content problemen te voorkomen.

Dit proces omvat het begrijpen van het verschil tussen een legitieme landingspagina en een pagina die bezoekers in staat stelt om resultaten te filteren.

Landingspagina’s (en canonieke) URL’s moeten er bijvoorbeeld zo uitzien:

  • voorbeeld.com/infographics/on-page-seo/
  • voorbeeld.com/infographics/off-page-seo/
  • voorbeeld.com/infographics/social-media/

En de URL’s voor gefilterde resultaten zouden er als volgt uit kunnen zien:

  • voorbeeld.com/infographics/on-page-seo/?sort=age&sub=social-media
  • voorbeeld.com/infographics/on-page-seo/?sort=age

Met correct opgebouwde URL’s kun je twee dingen doen:

  1. Voeg de juiste canonieke tag toe (alles voor de “?” in de URL).
  2. Geef in Google Search Console aan dat Google alle dergelijke parameters moet negeren.

Als je consistent parameters gebruikt voor het filteren en sorteren van inhoud, hoef je je geen zorgen te maken dat je Google per ongeluk vertelt niet te crawlen op een waardevolle parameter, omdat geen van hen dat is.

Alles over paginatie en SEO

Paginatie

Paginatie op websites is een veelzijdig fenomeen, gebruikt in verschillende contexten zoals het tonen van producten op categoriepagina’s, artikelarchieven, diavoorstellingen van galerijen en forumdiscussies.

Voor SEO-professionals is het omgaan met paginatie niet een vraag van ‘of’, maar ‘wanneer’. Naarmate websites groeien, wordt content vaak verdeeld over meerdere pagina’s om de gebruikerservaring (UX) te verbeteren.

Het is onze taak om zoekmachines te helpen bij het crawlen en begrijpen van de relatie tussen deze URL’s, zodat zij de meest relevante pagina kunnen indexeren.

Hoe paginatie nadelig kan zijn

Je hebt wellicht gehoord dat paginatie slecht is voor SEO. Dit komt echter meestal door een incorrecte aanpak van paginatie, en niet door de paginatie zelf.

Laten we de veronderstelde nadelen van paginatie bekijken en hoe je de SEO-problemen die het kan veroorzaken kunt overwinnen.

Paginatie zorgt voor dunne inhoud

Dit is correct als je een artikel of fotogalerij over meerdere pagina’s verdeelt (om advertentie-inkomsten te verhogen door het aantal paginaweergaven te vergroten), waardoor elke pagina te weinig inhoud heeft.

Dit is echter onjuist als je de wensen van de gebruiker om jouw inhoud gemakkelijk te consumeren boven de inkomsten uit banner advertenties of kunstmatig opgeblazen paginaweergaven stelt. Plaats een gebruiksvriendelijke hoeveelheid inhoud op elke pagina.

Paginatie gebruikt crawl budget

Dit is correct als je Google toestaat om door paginatiepagina’s te crawlen. Er zijn gevallen waarin je dit crawl budget zou willen gebruiken.

Bijvoorbeeld, voor Googlebot om door gepagineerde URL’s te navigeren om dieperliggende inhoudspagina’s te bereiken.

Vaak incorrect wanneer je in Google Search Console de paginatie parameter instellingen instelt op “Niet crawlen” of een ‘disallow’ in robots.txt gebruikt, in gevallen waarin je je crawl budget wilt besparen voor belangrijkere pagina’s.

SEO best practice voor paginatie

Voor een efficiënte crawl van gepagineerde pagina’s door zoekmachines, moet je website ankerteksten met href-attributen naar deze gepagineerde URL’s bevatten.

Zorg ervoor dat je site <a href=”je-gepagineerde-url-hier”> gebruikt voor interne links naar gepagineerde pagina’s. Laad geen gepagineerde ankerteksten of href-attributen via JavaScript.

Geef ook de relatie tussen component-URL’s in een gepagineerde reeks aan met rel=”next” en rel=”prev” attributen.

Vul de rel=”next” / “prev” aan met een zelfverwijzende rel=”canonical” link.

Dus /categorie?page=4 moet rel=”canonical” naar /categorie?page=4 verwijzen.

Dit is passend omdat paginatie de pagina-inhoud verandert en dus de hoofdkopie van die pagina is.

Als de URL aanvullende parameters bevat, neem deze dan op in de rel=”prev” / “next” links, maar niet in de rel=”canonical”.

Bijvoorbeeld:

<link rel="next" href="https://www.voorbeeld.com/categorie?page=2&order=nieuwste" />
<link rel="canonical" href="https://www.voorbeeld.com/categorie?page=2" />

Dit zal een duidelijke relatie tussen de pagina’s aangeven en het potentieel voor dubbele inhoud voorkomen.

Verander meta gegevens op de pagina’s

John Mueller heeft opgemerkt: “We behandelen paginatie niet anders. We zien ze als normale pagina’s.”

Dit betekent dat paginatiepagina’s door Google niet worden herkend als een reeks pagina’s samengevoegd tot één stuk inhoud, zoals ze eerder adviseerden. Elke gepagineerde pagina kan concurreren met de hoofdpagina voor ranking.

Om Google aan te moedigen de hoofdpagina in de SERP’s te retourneren en waarschuwingen voor “Dubbele meta-beschrijvingen” of “Dubbele titeltags” in Google Search Console te voorkomen, kun je een eenvoudige wijziging in je code aanbrengen.

Pas bijvoorbeeld de titel en meta-beschrijving van elke paginatiepagina aan om ze uniek te maken en voorkom duplicatie. Dit kan helpen de relevantie van elke individuele pagina te benadrukken en de kans op een hogere ranking te vergroten.

Niet in sitemap weergeven

Hoewel gepagineerde URL’s technisch gezien indexeerbaar zijn, zijn ze geen prioriteit voor SEO en dus niet iets waarop je crawl-budget moet besteden. Daarom horen ze niet thuis in je XML-sitemap.

Door ze daaruit weg te laten, richt je de aandacht van zoekmachines meer op je hoofdpagina’s, wat de algehele SEO-prestaties van je site kan verbeteren.

Denk aan gepagineerde pagina’s als secundaire elementen die de gebruikerservaring ondersteunen, maar niet noodzakelijkerwijs bijdragen aan de kern van je zoekmachineoptimalisatie strategie.

Een ‘laat alles zien’ pagina

De “Alles Bekijken”-pagina was bedacht om alle inhoud van de componentpagina op één URL samen te voegen, waarbij alle gepagineerde pagina’s via een rel=”canonical” naar de “Alles Bekijken”-pagina verwijzen om rang signaal te consolideren.

Het idee was dat als je gepagineerde serie een alternatieve “Alles Bekijken” versie heeft die een betere gebruikerservaring biedt, zoekmachines deze pagina zullen bevoordelen voor opname in de zoekresultaten in plaats van een relevante segmentpagina van de paginatie keten.

Dit roept de vraag op: waarom heb je überhaupt gepagineerde pagina’s?

Simpel gesteld, als je je inhoud op een enkele URL kunt aanbieden met een goede gebruikerservaring, is er geen behoefte aan paginatie of een “Alles Bekijken” versie.

Als dat niet kan, bijvoorbeeld bij een categoriepagina met duizenden producten, dan zou het belachelijk groot en te traag zijn om te laden, en is paginatie de betere optie.

Een “Alles Bekijken” versie zou in zo’n geval geen goede gebruikerservaring bieden. Het gebruik van zowel rel=”next” / “prev” als een “Alles Bekijken” versie geeft geen duidelijke richting aan zoekmachines en zal leiden tot verwarde crawlers. Doe het dus niet.

Noindex paginatie pagina’s

Een klassieke methode om paginatieproblemen op te lossen was het gebruik van een robots noindex-tag, om te voorkomen dat gepagineerde inhoud geïndexeerd wordt door zoekmachines.

Echter, enkel vertrouwen op de noindex-tag voor paginatiebeheer leidt ertoe dat eventuele rangsignalen van componentpagina’s genegeerd worden.

Een groter probleem met deze methode is dat een langdurige noindex op een pagina uiteindelijk Google ertoe kan leiden de links op die pagina niet te volgen (nofollow).

Dit kan ertoe leiden dat inhoud gelinkt vanaf de gepagineerde pagina’s uit de index verwijderd wordt.

Infinite scrolling of meer laden

Een modernere aanpak van paginatie beheer omvat:

  1. Infinite Scroll: Hierbij wordt inhoud vooraf opgehaald en direct toegevoegd aan de huidige pagina van de gebruiker terwijl ze naar beneden scrollen.
  2. ‘Laad Meer’ Knop: Waarbij inhoud wordt geladen na het klikken op een ‘meer bekijken’ knop.

Deze methoden zijn populair bij gebruikers, maar minder bij Googlebot. Googlebot bootst geen gedrag na zoals het scrollen naar de onderkant van een pagina of klikken om meer te laden. Zonder aanpassingen kunnen zoekmachines je inhoud niet effectief doorzoeken.

Om SEO-vriendelijk te zijn, converteer je oneindige scroll of ‘laad meer’ pagina naar een equivalent gepagineerde serie, gebaseerd op doorzoekbare ankerlinks met href-attributen, die toegankelijk zijn, ook met uitgeschakelde JavaScript.

Gebruik JavaScript om de URL in de adresbalk aan te passen aan de betreffende gepagineerde pagina als de gebruiker scrollt of klikt.

Implementeer daarnaast een pushState voor elke gebruikersactie die lijkt op een klik of het omslaan van een pagina. Dit is te zien in een demo gemaakt door John Mueller.

In wezen pas je de aanbevolen SEO-best practices nog steeds toe, maar voeg je extra functionaliteit toe voor de gebruikerservaring

Paginatie crawling blokkeren

Sommige SEO-professionals adviseren om de kwestie van paginatiebeheer volledig te vermijden door Google simpelweg te blokkeren van het crawlen van gepagineerde URL’s.

Gebruik één van deze methoden om zoekmachines te ontmoedigen om gepagineerde URL’s te crawlen:

  1. De rommelige manier: Voeg ‘nofollow’ toe aan alle links die naar gepagineerde pagina’s wijzen.
  2. De schone manier: Gebruik een ‘robots.txt disallow’.
  3. De manier zonder ontwikkelaar: Stel de paginatiepagina-parameter in op “Paginates” en voor Google om “Geen URL’s” te crawlen in Google Search Console.

Door een van deze methoden te gebruiken, voorkom je dat zoekmachines de ranking signalen van gepagineerde pagina’s herkennen, en beperk je de interne link equity van gepagineerde pagina’s naar de bestemmingscontentpagina’s.

Tegelijkertijd belemmer je het vermogen van Google om je bestemmingscontentpagina’s te ontdekken.

Het duidelijke voordeel is dat je bespaart op de crawl budget.

Er is hier geen duidelijke juiste of onjuiste aanpak. Je moet bepalen wat de prioriteit is voor jouw website.

Persoonlijk zou ik, als ik prioriteit zou geven aan crawl budget, dit doen door middel van paginatiebeheer in Google Search Console, aangezien dit de meest flexibele optie biedt om later van gedachten te veranderen.

Het voordeel van schema markup

Schema markup

Schema Markup, te vinden op Schema.org, is een vorm van microdata die eenmaal toegevoegd aan een webpagina, een verrijkte beschrijving creëert, bekend als een ‘rich snippet’, die zichtbaar is in zoekresultaten.

Grote zoekmachines zoals Google, Yahoo, Bing en Yandex begonnen in 2011 samen te werken aan het creëren van Schema.org.

Schema markup is bijzonder belangrijk in het tijdperk van zoekalgoritmes zoals Hummingbird en RankBrain. Hoe een zoekmachine de context van een zoekopdracht interpreteert, bepaalt de kwaliteit van het zoekresultaat.

Schema kan context bieden aan een anderszins onduidelijke webpagina, wat de relevantie en helderheid van de informatie voor zoekmachines verhoogt.

Waar kan je schema voor gebruiken?

Er is geen bewijs dat microdata directe invloed heeft op organische zoekranglijsten.

Desalniettemin zorgen rich snippets ervoor dat webpagina’s prominenter in de SERP’s verschijnen, wat heeft aangetoond dat het de doorklikpercentages verbetert.

Weinig dingen in SEO kunnen tegenwoordig snel een verschil maken. Schema markup kan dit wel.

Waar wordt Schema voor gebruikt?

  • Bedrijven en organisaties
  • Evenementen
  • Mensen
  • Producten
  • Recepten
  • Beoordelingen
  • Video’s

Hierboven zijn enkele van de populairste toepassingen van schema weergegeven. Maar als je website enige vorm van data bevat, is de kans groot dat deze geassocieerd kan worden met een ‘itemscope’, ‘itemtype’, en ‘itemprop’.

Deze termen verwijzen naar de structuur van schema-markering, die helpt bij het definiëren en specificeren van gegevens op je website, waardoor zoekmachines deze gegevens beter kunnen begrijpen en indexeren.

Microdata gebruiken

Het toevoegen van schema aan je webpagina’s met Microdata is een proces van het labelen van HTML-elementen met tags die voor zoekmachines leesbaar zijn. Microdata is een uitstekend startpunt voor beginners vanwege het gebruiksgemak.

Stel, je hebt een winkel die cursusses verkoopt. In je broncode zou je iets als dit kunnen hebben:

<div>
  <h1>Google SEO cursus</h1>
  <h2>De beste SEO cursus van Nederland</h2>
  <!-- Overige inhoud -->
</div>

Je begint met het bepalen van het ‘itemtype’ van je inhoud. Vervolgens label je specifieke eigenschappen van het item, zoals de naam van het bedrijf, met ‘itemprop’. 

Op deze manier markeer je relevante delen van je webpagina om aan zoekmachines duidelijk te maken waar je inhoud over gaat.

<div itemscope itemtype="http://schema.org/LocalBusiness">
  <h1 itemprop="name">Google SEO cursus</h1>
  <h2>De beste SEO cursus van Nederland</h2>
</div>

Deze methode helpt bij het verbeteren van de zichtbaarheid in zoekresultaten door gestructureerde data te leveren.

Voor een volledige lijst van itemtypes en verdere specificaties kun je terecht op Schema.org.

Je kunt ook gebruik maken van JSON-LD. JSON-LD is een gebruiksvriendelijk formaat voor gekoppelde gegevens. Het is eenvoudig te begrijpen en te bewerken door mensen.

Gebaseerd op het succesvolle JSON-formaat, biedt JSON-LD een manier om JSON-gegevens op het webniveau te laten werken. Dit formaat is uitermate geschikt voor programmeeromgevingen, REST-webdiensten en ongestructureerde databases zoals Apache CouchDB en MongoDB.

JSON-LD combineert de eenvoud van JSON met extra functionaliteit om gegevens efficiënter te laten samenwerken en uitwisselen op het web.

Onderstaand vind je een voorbeeld van een JSON-LD code fragment dat binnen de <head> tags van je HTML pagina geplaatst kan worden.

<script type="application/ld+json">
{
  "@context": "http://schema.org",
  "@type": "Store",
  "name": "Google SEO cursus",
  "description": "De beste SEO cursus van Nederland",
  "address": {
    "@type": "PostalAddress",
    "streetAddress": "Beltmolen 22",
    "addressLocality": "Papendrecht",
    "addressRegion": "Zuid-Holland"
  },
  "telephone": "+31 (0) 6 21 65 84 92",
  "openingHours": [
    "Mo-Sa 09:00-172:00",
  ],
  "url": "http://googleseocursus.nl"
}
</script>

Tools om een SEO audit te doen

Er bestaan een groot aantal verschillende tools die jou kunnen helpen om een SEO audit uit te voeren. Onderstaand vind je een korte lijst van populaire tools die je kunnen helpen.

1 reactie op “Wat is technische SEO en wat komt er bij kijken?”

  1. Pingback: De wereld van Technische SEO – Google SEO Cursus

Laat een reactie achter

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *