27 min. lezen

Technische SEO-checklist: de ultieme lijst om uw website te verbeteren

De technische gezondheid van een website is de basis voor succesvolle SEO-optimalisatie. Als zoekmachines het moeilijk vinden om uw website te scannen, te lang wachten tot de server reageert of in de war raken door dubbele inhoud, zal het bijna onmogelijk zijn om hoge posities in SERP's te krijgen. Slechte technische optimalisatie van een website kan alle inspanningen van on-page en off-page optimalisatie teniet doen.  In deze technische SEO-checklist hebben we de belangrijkste aspecten van technische optimalisatie verzameld die u zullen helpen de prestaties van uw website te verbeteren.

Darya Maksimava Darya Maksimava
Senor SEO Specialist, Evisions
Dit artikel werd voor u vertaald door kunstmatige intelligentie
Technische SEO-checklist: de ultieme lijst om uw website te verbeteren
Bron: Canva Pro License

Technische SEO Checklist

Crawlen en indexeren

Het eerste waar u tijdens de technische audit naar moet kijken, is hoe uw site wordt geïndexeerd en gecrawld door zoekmachines. Immers, als de pagina’s op uw site niet kunnen worden gecrawld, worden ze (op enkele uitzonderingen na) niet geïndexeerd. Als gevolg hiervan zullen de pagina’s die niet in de index zijn vertegenwoordigd, niet deelnemen aan de ranglijst.

Doorloop het rapport Pagina-indexering in Google Search Console

De meest nauwkeurige en betrouwbare manier om de indexering van uw website te analyseren, is door het Page Indexing Report in Google Search Console te analyseren.

Bekijk het rapport Geïndexeerde pagina’s en controleer welke pagina’s in de index staan. Kijk of er pagina’s zijn met filter- of sorteeropties, of er testpagina’s of andere pagina’s zijn die u niet wilt indexeren.

Kijk ook naar pagina’s die zijn uitgesloten.

Niet alle statussen in het rapport Uitgesloten pagina’s vormen een probleem. U moet uw aandacht niet richten op alle uitgesloten pagina’s, maar alleen op die pagina’s waar het gedrag van Google niet overeenkomt met uw bedoelingen.

In de onderstaande tabel ziet u de statussen die vaak aandacht en diepere analyse vereisen:

Status Wat het betekent Wat je moet doen
Omleiding fout Google kon de URL niet volgen vanwege omleidingsproblemen.
  • Verminder het aantal redirects (naar 1-2).
  • Vermijd oneindige en cirkelvormige omleidingen.- Zorg ervoor dat de uiteindelijke URL 200 OK retourneert en niet wordt geblokkeerd in robots.txt/noindex.
Server fout De server heeft een 5xx-fout geretourneerd.
  • Controleer serverlogboeken.
  • Zorg ervoor dat de site niet overbelast is.- Los interne fouten op, vooral als ze zich herhalen.
Ontdekt – niet geïndexeerd Google is op de hoogte van de pagina, maar heeft deze nog niet gecrawld. Geeft problemen aan met het crawlbudget.
  • Zorg ervoor dat de pagina in de sitemap staat.
  • Voeg er interne links aan toe.
  • Optimaliseer het crawlbudget.
Gecrawld – niet geïndexeerd Google heeft de pagina bezocht, maar ervoor gekozen deze niet te indexeren. Geeft meestal een lage paginakwaliteit aan.
  • Verbeter de kwaliteit en uniciteit van de inhoud.
  • Zorg ervoor dat de pagina geen duplicaten bevat.
  • Voeg er interne links aan toe.
Dupliceren zonder door de gebruiker geselecteerde canonieke Google beschouwt de pagina als een duplicaat, maar u heeft geen canonieke pagina opgegeven.
  • Controleer de paginaparen en specificeer de benodigde canonical of heroverweeg de sitestructuur.
Duplicaat, Google koos andere canonieke dan gebruiker Google heeft de door jou opgegeven canonieke tekst genegeerd.
  • Er kunnen veel redenen zijn; U moet de paginagegevens zorgvuldig onderzoeken en de meest geschikte strategie kiezen (noindex, redirect, verwijdering, robots.txt, wijzigingen in de websitestructuur en interne koppelingen).
Zacht 404 De pagina ziet er ‘leeg’ of ‘niet gevonden’ uit, maar geeft de status 200 OK terug.
  • Retour 404 of 410.
  • Maak een omleiding.
  • Verbeter de inhoud.
  • Blokkeren van indexering.

De andere statussen duiden waarschijnlijk niet op problemen. Deze rapporten zijn echter ook de moeite waard om te bekijken om er zeker van te zijn dat de pagina’s niet per ongeluk zijn verwijderd, omgeleid, gecanoniseerd of geblokkeerd voor indexering.

Status Wat het betekent Wat je moet weten
Alternatieve pagina met de juiste canonieke tag Google heeft de canonieke tekst die je hebt opgegeven correct bevestigd.
  • Alles werkt zoals verwacht. Geen actie vereist. Zorg ervoor dat u de gewenste canonieke versie hebt opgegeven.
URL geblokkeerd door robots.txt Google kan de pagina niet crawlen.
  • Controleer het robots.txt bestand.
  • Sta toegang toe als u wilt dat deze wordt geïndexeerd.
URL gemarkeerd als ‘noindex’ De pagina heeft de noindex-instructie.
  • Zorg ervoor dat de noindex-tag opzettelijk is ingesteld.
  • Als de pagina belangrijk is, verwijder dan deze tag.
Niet gevonden (404) De pagina bestaat niet.
  • Als dit belangrijk is, herstelt u de pagina.
  • Als de pagina permanent wordt verwijderd, zorg er dan voor dat er geen interne links naar zijn.
Geblokkeerd wegens ongeoorloofd verzoek (401)/ Geblokkeerd wegens verboden toegang (403) De pagina is met toestemming geblokkeerd of verboden.
  • Geef toegang als de pagina moet worden geïndexeerd.
Pagina met doorverwijzing De pagina verwijst door naar een andere.
  • Controleer of de redirect bedoeld en correct is.
URL geblokkeerd vanwege ander 4xx-probleem De pagina is niet toegankelijk vanwege een andere 4xx-fout dan 404 (bijv. 403, 401, 410, enz.).
  • Controleer de HTTP-statuscode handmatig.
  • Toegangsinstellingen corrigeren.
  • Stel de juiste statuscodes of omleidingen in.
  • Sta indien nodig toegang toe voor Googlebot.

In het Helpcentrum van Google vindt u een uitgebreide beschrijving van het paginarapport, inclusief voorbeelden van problemen en een gedetailleerde uitleg van elke status.

Screaming Frog kan ook helpen bij het analyseren van pagina’s die zijn geïndexeerd of uitgesloten van de index. Om dit te doen, moet u verbinding maken met de Google Search Console API voordat u de sitecrawl start.
Om verbinding te maken, ga je naar Configuratie -> API Access -> Google Search Console. Klik op Aanmelden met Google en volg de instructies.

Source: Screaming Frog

Zodra de verbinding is gemaakt, schakelt u URL-inspectie in en kunt u ook de optie inschakelen om indexeringsinspectie te negeren voor URL’s die niet kunnen worden geïndexeerd.

API Access: Google Search Console screenshot

Source: Screaming Frog

U kunt dan de status van elke pagina zien en vergelijken volgens Search Console (de manier waarop Google deze ziet) en de werkelijke status zoals bepaald tijdens het crawlproces.

Source: Screaming Frog

Houd er rekening mee dat er slechts 2000 URL’s per dag beschikbaar zijn voor elke site, dus deze methode is meer geschikt voor kleine sites.

Controleer wat er in je sitemap.xml zit

Sitemap.xml is een XML-bestand dat crawlers van zoekmachines voorziet van een lijst met pagina’s op een site, evenals (optioneel) informatie over de laatste wijzigingsdatum, de updatefrequentie en de aanbevolen crawlprioriteit.

Het wordt meestal in de root van de site geplaatst, bijvoorbeeld: https://example.com/sitemap.xml. Sitemap.xml helpt zoekmachines om nieuwe of bijgewerkte pagina’s sneller te vinden. Bovendien is het opnemen van een pagina in dit bestand een van de signalen voor het bepalen van de canonieke versie van een pagina, zij het een zwakke.

Example of sitemap

Source: e-commerce sport store

Het sitemap.xml bestand is vooral handig voor:

  • nieuwe sites met weinig externe links;
  • grote sites met veel pagina’s;
  • sites met veel media-inhoud;
  • nieuwssites die regelmatig worden bijgewerkt.

Sitemap.xml moet alle pagina’s bevatten die u wilt indexeren.

U kunt dezelfde Screaming Frog of andere crawlers gebruiken om de pagina’s in Sitemap.xml te analyseren. In Screaming Frog kan sitemap.xml afzonderlijk worden gescand in de lijstmodus, of het kan worden opgenomen in een gewone sitescan. Om dit te doen, activeert u in Configuration -> Spider -> Crawl het scannen van XML-sitemaps en voegt u de absolute URL’s toe van de sitemaps die u wilt crawlen.

Het wordt niet aanbevolen om verschillende online services te gebruiken voor het genereren van een sitemap, omdat deze mogelijk alleen een statische sitemap genereren die niet automatisch wordt bijgewerkt. De optimale optie is om de sitemap.xml te genereren met behulp van plug-ins voor het CMS waarop de site draait, of om een aangepast script te schrijven dat de sitemap genereert volgens gespecificeerde voorwaarden en deze automatisch bijwerkt wanneer er wijzigingen aan de site worden aangebracht.

Zorg er bij het genereren van de sitemap.xml voor dat uw bestand voldoet aan het sitemap.xml protocol. Je kunt hiervoor gebruik maken van verschillende online validators, zoals https://www.xml-sitemaps.com/validate-xml-sitemap.html.

Is het nodig om alle tags in het protocol op te nemen? Niet altijd. Google houdt bijvoorbeeld alleen rekening met de tags <loc> en <lastmod>. Zorg ervoor dat de datum in de tag <lastmod> correct is. Als er pogingen worden gedaan om de tag te manipuleren, kan Google deze tag negeren.

Zorg ervoor dat er geen fouten in robots.txt

Het robots.txt bestand is de eerste plaats waar een zoekbot kijkt voordat een site wordt gecrawld. Het bepaalt welke delen van de site wel of niet kunnen worden gecrawld en als gevolg daarvan welke pagina’s door zoekmachines worden geïndexeerd. Het moet zich altijd op https://example.com/robots.txt bevinden.

Dit bestand is een hulpmiddel voor het beheren van het crawlen (niet indexeren!) van de site. Sommige pagina’s, zelfs als ze in robots.txt zijn geblokkeerd, kunnen nog steeds worden geïndexeerd (meestal als er interne of externe links naar zijn). Dergelijke pagina’s (geïndexeerd ondanks dat ze in robots.txt zijn geblokkeerd) zijn te zien in Google Search Console in het rapport “Geïndexeerd, hoewel geblokkeerd door robots.txt”.

Indexed though blocked by robots.txt

Source: Search Console

Dit is wat u zeker moet controleren met betrekking tot het robots.txt-bestand als onderdeel van een technische SEO-audit:

  1. Beschikbaarheid van het bestand

Het bestand moet op https://example.com/robots.txt toegankelijk zijn en een 200 OK-antwoordstatus geven. De afwezigheid, downloadfouten of omleidingen (301, 302, 403, 404) kunnen ervoor zorgen dat zoekmachines de crawlregels van de site niet correct begrijpen.

  1. Syntaxis en juistheid

Controleer of de bestandsstructuur voldoet aan de standaard. Voorbeeld van een basissjabloon:

robots.txt example

Source: nike.com

  1. Richtlijnen niet toestaan en toestaan

Controleer of belangrijke pagina’s niet per ongeluk worden geweigerd, bijvoorbeeld:

  • Startpagina (/)
  • Productkaarten (/product/)
  • Blog of artikelen (/blog/, /artikelen/)

Een veelgemaakte fout is het blokkeren van afbeeldingen, stijlen en scripts bij het blokkeren van beheerdersmappen. In een dergelijk geval moet worden gespecificeerd dat, hoewel de beheerdersmap is geblokkeerd, sommige soorten bestanden open moeten staan om te worden gescand. Dit gebeurt vaak op WordPress-sites wanneer de map met alle gebruikersinhoud, Disallow: /wp-content, is geblokkeerd.

In dit geval kunnen alleen bestanden van een bepaald formaat worden geopend om te scannen:

  • Toestaan: /wp-content/uploads/*.css
  • Toestaan: /wp-content/uploads/*.js
  • Toestaan: /wp-content/uploads/*.jpeg

Om uw robots.txt te valideren en de richtlijnen die u gaat toevoegen te testen, kunt u deze tool gebruiken.

  1. Compatibiliteit met andere richtlijnen controleren

Fouten treden vaak op wanneer robots.txt in strijd zijn met:

  • meta-tag: <meta name=”robots” content=”noindex”>
  • canoniek

Als een pagina bijvoorbeeld is geopend in robots.txt maar is geblokkeerd via noindex, wordt deze gecrawld, maar komt deze niet in de index. Dit is acceptabel, maar het is belangrijk dat het opzettelijk wordt gedaan.

Een veelvoorkomend probleem is ook wanneer er andere instructies voor bots in de broncode staan en een gelijktijdige blokkering van de pagina in robots.txt. Robots van zoekmachines scannen geen pagina’s die in robots.txt zijn geblokkeerd. Ze zien niet de tags die in de code zijn opgegeven, bijvoorbeeld canonicalisatie. Dat wil zeggen, zo’n canoniek zal gewoon niet worden verklaard.

Een van de belangrijkste taken van een technische audit is ervoor te zorgen dat de interne links van de site correct werken. Dit betekent dat alle interne links moeten leiden naar echte, bestaande pagina’s die open staan voor indexering, een 200 OK-statuscode moeten retourneren, geen redirects mogen bevatten en, belangrijker nog, niet mogen verwijzen naar pagina’s met 4xx/5xx-fouten. Op het eerste gezicht lijkt dit misschien een klein detail, maar in de praktijk kunnen zelfs onjuiste interne links een negatieve invloed hebben op:

  • De efficiëntie van het crawlen van websites door zoekmachines,
  • De verdeling van het interne SEO-gewicht (PageRank),
  • Gebruikerservaring.

De eerste stap in de analyse is het controleren van alle interne links op fouten. Het is vooral belangrijk om verbroken links te identificeren die leiden naar pagina’s met een 404-, 410- of andere fouten (zoals 403, 500).
Hieronder vindt u een tabel met de belangrijkste soorten fouten die kunnen optreden in interne links, hun betekenis en aanbevolen acties om ze op te lossen.

Fouttype: Wat het betekent, wat te doen
404 Pagina niet gevonden Verwijder de link of vervang deze door een werkende link
403 Toegang verboden Controleer de toegangsinstellingen
301/302 Doorsturen Werk de link bij naar de uiteindelijke URL
5xx Server fout Controleer de server of het CMS

 

Het is ook belangrijk om de diepte van de paginahiërarchie te analyseren, wat betekent dat u kunt bepalen op welk niveau en hoeveel klikken de belangrijkste inhoud zich vanaf de startpagina bevindt. Het verdient de voorkeur dat belangrijke pagina’s niet dieper zijn dan het derde niveau – dit verhoogt hun toegankelijkheid voor zowel zoekmachines als gebruikers.
Een van de belangrijkste elementen van analyse is het identificeren van “verweesde” pagina’s – pagina’s die geen interne links hebben die ernaar verwijzen. Zelfs als deze pagina’s zijn opgenomen in de sitemap, maakt het ontbreken van interne links ze minder toegankelijk.
Daarnaast is het belangrijk om ankerteksten te analyseren – de woorden en zinsdelen die links bevatten. Ze moeten relevant en zinvol zijn, aangezien ankerteksten zoekmachines helpen de context van de link te begrijpen.

Analyseer de crawlstatistieken

Analyse van crawlstatistieken is een manier om inzicht te krijgen in hoe Googlebot omgaat met een site: welke pagina’s worden gecrawld, hoe vaak en hoe dit van invloed is op SEO. Deze gegevens zijn beschikbaar in Google Search Console → Instellingen → Crawlstatistieken. In de onderstaande tabel ziet u de meest voorkomende problemen die u in dit rapport kunt vinden:

Probleem Waar moet je op letten in het rapport Mogelijke oorzaken
Sterke afname van crawling Minder kruipen per dag Toegankelijkheidsproblemen, onjuiste instellingen in robots.txt, blokkades, 5xx-fouten
Veel 4xx en 5xx fouten Fouten in URL’s Verwijderde pagina’s, verbroken links, serverproblemen
Reactietijd verlengd >1 seconde — een waarschuwingsbord Hostingproblemen, overbelasting van de server
Veel 3xx redirects Omleidingen in plaats van directe URL’s Onjuiste redirects, redirect chains, een groot aantal interne links met redirects
CSS/JS niet gecrawld Ze ontbreken in de statistieken Geblokkeerd door robots.txt

 

Bovendien kunnen serverlogboeken worden geanalyseerd. Hiermee kunt u de daadwerkelijke verzoeken van zoekbots zien (niet alleen Googlebot maar ook Bingbot, YandexBot en anderen), in plaats van alleen geaggregeerde gegevens van Google Search Console.
Dit is een geavanceerde, “ruwe” diagnostische methode die een aanzienlijke hoeveelheid tijd vergt. Om de gegevens te visualiseren, kunt u open-source tools gebruiken, zoals GoAccess of Screaming Frog Log File Analyzer.

Implementeer gestructureerde gegevens

Gestructureerde gegevens zijn een speciale opmaakindeling op een webpagina die zoekmachines helpt de inhoud van de pagina nauwkeuriger en dieper te begrijpen. Het dient als een “hint” voor Google en andere zoekmachines over wat er precies op de pagina staat – een artikel, product, recept, recensie, video, enz. Hoewel het geen officieel rangschikkingssignaal is, heeft het indirect invloed op de ranglijst door de manier waarop zoekmachines de pagina begrijpen te verbeteren.

De belangrijkste standaard of het belangrijkste protocol dat wordt gebruikt voor gestructureerde gegevens op websites is Schema.org. Er zijn andere protocollen, zoals OpenGraph, maar het wordt gebruikt voor sociale netwerken.
Schema.org is een samenwerkingsproject van Google, Microsoft, Yahoo en Yandex, opgericht om een uniforme standaard voor gestructureerde gegevens op internet te ontwikkelen en te onderhouden.
Schema.org omvat honderden entiteitstypen, waarvan de meest gebruikte in de onderstaande tabel worden vermeld:

Categorie Entiteit (@type )Doel
Inhoud en pagina’s Artikel Een artikel of nieuwsinhoud
Blogplaatsen Een blogpost
NieuwsArtikel Een nieuwsartikel voor Google Nieuws
FAQPage Een pagina met veelgestelde vragen (FAQ)
Hoe Een stap-voor-stap handleiding
Webpagina Algemene informatie over een webpagina
Producten en aanbiedingen Product Productomschrijving
Aanbieden Prijsaanbieding
Geaggregeerd aanbod Prijsklasse voor een product van verschillende verkopers
Recensies en beoordelingen Recensie Een recensie van een product of dienst
Rating Een numerieke beoordeling (vaak binnen een Review)
Geaggregeerde beoordeling Gemiddelde beoordeling op basis van meerdere beoordelingen
Organisaties en mensen Organisatie Een beschrijving van een bedrijf of merk
Lokaal bedrijf Een lokaal bedrijf met contactgegevens en planning
Persoon Een persoon (bijv. auteur van een artikel, spreker, enz.)
Gebeurtenissen Gebeurtenis Een online of offline evenement
Navigatie en structuur Paneermeel Lijst Breadcrumbs navigatie
SiteNavigationElement Belangrijkste menu-items
Multimedia VideoObject Video met metadata (voor videofragmenten)
AfbeeldingObject Afbeelding met beschrijving
Opleiding en banen Cursus Een online cursus of trainingsprogramma
Vacatures plaatsen Vacature (voor Google for Jobs)

Het wordt aanbevolen om gestructureerde gegevens in het JSON-LD-formaat te implementeren. Dit blok wordt in de <head> of <body> van het HTML-document geplaatst, maar het wordt niet getoond aan de gebruiker – het wordt gelezen door zoekbots. Alle grote zoekmachines, zoals Google, Bing en Yahoo, ondersteunen dit formaat. Een voorbeeld van JSON-LD-code wordt hieronder weergegeven:

<script type=”application/ld+json”>

{

“@context”: “https://schema.org”,

“@type”: “Artikel”,

“headline”: “Wat is JSON-LD?”,

“auteur”: {

“@type”: “Persoon”,

“naam”: “John Smith”

},

“datePublished”: “2025-12-01”

}

</script>

Volg bij het implementeren van gestructureerde gegevens het Schema.org protocol en gebruik de validator om de juistheid van de geïmplementeerde microdatatypen te controleren. Sommige soorten gestructureerde gegevens uit het Schema.org protocol kunnen ook helpen bij het weergeven van rich snippets in de zoekresultaten van Google.

Houd er rekening mee dat de vereisten van Google voor gestructureerde gegevens voor rich snippets enigszins afwijken van de Schema.org standaard. Vaak moeten er meer velden worden opgegeven dan wat het Schema.org protocol vereist. Dus als u een Rich Snippet wilt bereiken, volgt u de richtlijnen van Google voor gestructureerde gegevens. U kunt de juistheid van de microdata-implementatie controleren met behulp van de rich snippet validator.

Er zijn ook veel microdata-generatoren, maar deze kunnen alleen statische code maken die niet wordt bijgewerkt met inhoudswijzigingen op de pagina. Ervoor zorgen dat de informatie in de microdata overeenkomt met wat zichtbaar is voor gebruikers op de pagina, maakt deel uit van de vereisten van Google voor gestructureerde gegevens. Als het beleid met betrekking tot gestructureerde gegevens wordt geschonden, kan de pagina alle rich snippets verliezen en in sommige gevallen handmatige boetes krijgen. Zorg er daarom voor dat uw microdata automatisch wordt gegenereerd en automatisch wordt bijgewerkt.

Tevreden

Als onderdeel van een technische SEO-audit is het belangrijk om de basiskenmerken van de inhoud te evalueren: van de structuur van koppen en metatags tot de aanwezigheid van alt-attributen voor afbeeldingen en mogelijke dubbele pagina’s. Deze elementen hebben een directe invloed op zowel de indexering als de manier waarop zoekmachines de site zien.

Test uw website op volledige duplicaten

Volledige duplicaten treden op wanneer identieke inhoud toegankelijk is via verschillende URL’s op de site. Duplicaten kunnen de positie van uw site volledig schaden.
De meest voorkomende soorten volledige duplicaten zijn:

  • Toegankelijkheid via zowel HTTP als HTTPS
  • Toegankelijkheid met en zonder WWW
  • Toegankelijkheid met of zonder schuine streep
  • Toegankelijkheid van URL’s in hoofdletters en kleine letters
  • De pagina is toegankelijk met bestandsextensies zoals .html, .htm, .php, .aspx en zonder.
  • Parameters die de pagina-inhoud niet wijzigen, zoals UTM-tags
  • Identieke inhoud onder verschillende URL’s. Een product wordt bijvoorbeeld vermeld in twee categorieën, toegankelijk via twee verschillende URL’s. Of de productpagina die toegankelijk is met en zonder de categorie in de URL.
  • Testversies van de site (DEV-domein gebruikt voor ontwikkeling).

Als u paginaduplicaten wilt vinden die zijn gerelateerd aan URL-varianten, test u de URL’s handmatig en controleert u de serverresponscode op die URL-varianten. U kunt elke tool gebruiken om de responscodes van de server te controleren, zoals https://httpstatus.io/. Voer de URL-variaties in en controleer de toegankelijkheid.

check of full duplicates

Source: httpstatus.io/ website + test of a client’s website

Om problemen op te lossen met variaties in HTTP/HTTPS, www/without-www, met/zonder schuine streep, hoofdletters/kleine letters en de toegankelijkheid van pagina’s met extensies zoals .html, .htm, .php, .aspx en zonder, is het noodzakelijk om een 301-omleiding naar de voorkeursversie in te stellen.

Wanneer duplicaten worden gevonden vanwege de beschikbaarheid van identieke inhoud door delen van de URL toe te voegen of te verwijderen (een product is bijvoorbeeld beschikbaar in twee categorieën), is het het beste om de URL-structuur en de sitestructuur te heroverwegen. Voor UTM en andere parameters kan canonicalisatie ook een oplossing zijn. Het is echter belangrijk op te merken dat Google de canonical tag als een aanbeveling beschouwt en dat de uiteindelijke beslissing over welke URL te kiezen bij Google blijft.

Als er een testversie van de site wordt gevonden in de Google-index, moet deze worden geblokkeerd voor indexering en moet een verzoek tot verwijdering worden verzonden via Google Search Console.

Gedeeltelijke paginaduplicaten oplossen

Gedeeltelijke paginaduplicaten treden op wanneer twee of meer pagina’s op de site zeer vergelijkbare, maar niet volledig identieke inhoud bevatten. De meest voorkomende soorten gedeeltelijke duplicaten zijn:

  • Pagina’s sorteren
  • Pagina’s filteren
  • Paginering pagina’s
  • Pagina’s met vergelijkbare producten (producten verschillen bijvoorbeeld alleen per kleur)
  • Meerdere versies van de site in dezelfde taal, maar voor verschillende regio’s (bijv. drie Engelse sites voor de VS, het VK en Australië).

Natuurlijk is elke site uniek en tijdens een technische audit kunt u andere gevallen van dubbele inhoud identificeren die specifieke oplossingen vereisen. De bovenstaande voorbeelden zijn echter de meest voorkomende.

Gedeeltelijke duplicaten worden meestal gevonden tijdens het crawlen van de site door verschillende crawlers. Ze hebben herhalende parameters en kunnen dezelfde titel en H1 hebben als de hoofdcategoriepagina’s.
Om gedeeltelijke duplicaten te verwijderen, kunt u geen omleiding instellen, omdat deze pagina’s nodig zijn voor de functionaliteit van de site. Hieronder bespreken we methoden voor het omgaan met gedeeltelijke duplicaten.

Pagina’s sorteren en filteren

Deze pagina’s kunnen worden geblokkeerd voor crawlen in het robots.txt bestand, hoewel dit door Google kan worden genegeerd, vooral als links naar deze pagina’s verwijzen. Dit zal helpen om het crawlbudget te behouden.
U kunt ze ook blokkeren via de <meta name=”robots” content=”noindex, nofollow” />-richtlijn, die voorkomt dat deze pagina’s worden geïndexeerd, maar Google niet vertelt dat ze niet mogen worden gecrawld.
De beste aanpak in dit geval is om JavaScript te gebruiken om de inhoud op de pagina bij te werken wanneer de gebruiker sortering of filters toepast, zonder extra URL’s en links naar filter- of sorteerpagina’s te genereren.

Productvarianten beschikbaar op verschillende URL’s

Idealiter worden alle productvarianten gecombineerd op één pagina, waar de gebruiker de gewenste kleur of maat kan selecteren zonder de URL te wijzigen, met behulp van JavaScript. Als echter voor elke variant een aparte pagina wordt gebruikt, moet een canonieke link naar de hoofdproductpagina worden opgegeven. Zoals eerder vermeld, kan Google de canonieke instelling van de gebruiker echter negeren.

Paginering pagina’s

Pagineringspagina’s mogen niet worden geblokkeerd voor indexering. Om ervoor te zorgen dat Google de eerste pagina van de categorie als de belangrijkste pagina beschouwt:

  • Neem alleen de eerste pagina op in het sitemap.xml bestand.
  • Voeg een link toe naar de hoofdcategoriepagina op alle pagineringspagina’s.
  • Voeg paginanummers toe aan de titel en H1 van de pagineringspagina’s. Bijvoorbeeld: ‘Witte shirts – pagina 2’.

Pagina’s beschikbaar in één taal, maar voor verschillende regio’s

In dit geval moeten Hreflang-attributen worden gebruikt. Ze worden gebruikt om zoekmachines te vertellen welke taal en regionale versie van een webpagina ze aan gebruikers moeten laten zien op basis van hun taalvoorkeur en locatie.
Er zijn verschillende manieren om Hreflang-attributen te implementeren:

  • In HTTP-headers
  • Via tags in de sectie <hoofd>
  • Via tags in sitemap.xml

De eenvoudigste methode om te implementeren is door middel van tags in de sectie <hoofd>.

Er zijn de regels waaraan hreflang-attributen die zijn geïmplementeerd via tags in de sectie <hoofd> moeten voldoen:

    • Het kenmerk moet de volgende indeling hebben: <link rel=”alternate” hreflang=”lang_code_country_code” href=”url-of-page” />
    • Taal- en landcodes moeten geldig zijn. Om de geldige code voor elke taalmutatie te kiezen, zie deze pagina.
  • Elke taalversie moet zichzelf en alle andere taalversies vermelden in de hreflang-attributen. Dit betekent dat elke pagina hetzelfde aantal hreflang-attributen moet hebben
  • Links in hreflang-attributen moeten absoluut en indexeerbaar zijn.

Een voorbeeld van een code:

<link rel=”alternate” href=”https://example.com/en-us/page” hreflang=”en-us” />

<link rel=”alternate” href=”https://example.com/en-gb/page” hreflang=”en-gb” />

<link rel=”alternate” href=”https://example.com/en-us/page” hreflang=”x-default” />

Controleer titels, h1, h2s en beschrijvingen op duplicaten

Hoewel titels, beschrijvingen en H1-H6-headers verband houden met on-page SEO, kan hun analyse binnen een technische audit nuttig zijn voor het detecteren van duplicaten.

Om ze te analyseren, kunt u elke crawler gebruiken die deze tags verzamelt.

Wanneer dubbele titels, H1-H6-tags en beschrijvingen worden gevonden, analyseert u de paginagegevens en identificeert u de oorzaak van de duplicatie. Dit kan te wijten zijn aan de beschikbaarheid van de site via zowel HTTP als HTTPS, duplicatie van de hoofdcategorietags op filterpagina’s, of gewoon een menselijke fout waarbij deze tags verkeerd zijn ingevuld.

Alt-attributen voor afbeeldingen optimaliseren

Alt-attributen zijn een HTML-attribuut dat als volgt wordt gebruikt in de <img>-tag: <img src=”image.jpg” alt=” Beschrijving van afbeelding”>. Het belangrijkste doel is om een tekstbeschrijving van de inhoud van de afbeelding te geven. Deze tekst wordt weergegeven als de afbeelding niet kan worden geladen en wordt hardop voorgelezen door schermlezers om slechtziende gebruikers te helpen. Juiste, beschrijvende alt-tekst kan ervoor zorgen dat uw afbeeldingen scoren in het zoeken naar afbeeldingen en de algehele relevantie van de pagina verbeteren.

Als je een website hebt met veel visuele inhoud, dan is optimalisatie van alt-attributen een belangrijkere stap dan voor klassieke websites die afhankelijk zijn van tekstinhoud.

Veel crawlers zoals Screaming Frog, Ahrefs, SemRush, enz. analyseren alt-attributen, en daar kun je de gegevens krijgen over ontbrekende of lege alt-attributen.

U kunt meer lezen over het maken van beschrijvende alt-attributen in officiële Google-documenten.

Websitesnelheid, mobiel en gebruiksvriendelijkheid

Gebruik het HTTPs-protocol

Het gebruik van het beveiligde HTTPS-protocol is essentieel om de veiligheid van de gegevensoverdracht tussen de gebruiker en de server te waarborgen. Het verhoogt niet alleen het vertrouwen van de gebruiker, maar heeft ook een positieve invloed op SEO. Om te controleren op HTTPS, kijkt u gewoon naar de adresbalk van de browser – er zou een hangslotpictogram moeten verschijnen.
Voor een gedetailleerde analyse kunt u de SSL Labs-service gebruiken, die een volledig rapport over de status van het SSL-certificaat zal verstrekken en mogelijke problemen zal identificeren.

Het is ook belangrijk om ervoor te zorgen dat er geen gemengde inhoud is – HTTP-bronnen op HTTPS-pagina’s. Voor deze analyse kun je het HTTPS-rapport in Google Search Console gebruiken, waarin URL’s met zowel HTTP als HTTPS worden weergegeven.

https in search console

Source: Search Console

Bron: Search Console van onze klant

Verbeter Core Web Vitals

Core Web Vitals is een reeks statistieken die door Google worden voorgesteld om de kwaliteit van de gebruikerservaring op een website te beoordelen. Deze statistieken zijn gericht op laadsnelheid, interactiviteit en visuele stabiliteit van de inhoud op de pagina. Ze omvatten drie belangrijke indicatoren:

Metrische beschrijving Optimale waarde
Grootste Contentful Verf (LCP) Meet de laadtijd van het grootste zichtbare element op de pagina (bijv. afbeelding of tekst). Minder dan 2,5 seconden
Vertraging eerste invoer (FID) Meet de tijd die de pagina nodig heeft om te reageren op de eerste gebruikersinteractie (bijvoorbeeld het klikken op een knop of link). Minder dan 100 milliseconden
Cumulatieve lay-outverschuiving (CLS) Beoordeelt de visuele stabiliteit van de pagina, d.w.z. hoeveel elementen bewegen tijdens het laden van de pagina. Minder dan 0,1

 

De gegevens die van echte gebruikers zijn verzameld, kunnen worden bekeken in het Search Console-rapport “Core web vitals” (geaggregeerde gegevens) of in PageSpeed Insights (voor individuele tests). Houd er bij het werken aan Core Web Vitals rekening mee dat u de problemen moet definiëren die een grote invloed hebben op de CWV-statistieken. Bij het optimaliseren van LCP moet je bijvoorbeeld bepalen welke van de 4 aspecten (TTFB, Load Delay, Load Time of Render delay) het meest bijdraagt aan de hoge LCP-score.

In onderstaand voorbeeld is zichtbaar dat we ons niet hoeven te richten op optimalisatie van TTFB of Load Time. In plaats daarvan kunnen we al onze energie steken in het verbeteren van Load Delay en vervolgens Render Delay.

page speed example for LCP

Source: pagespeed.web.dev

Bron: https://pagespeed.web.dev/ – test van nike.com website (alleen bijvoorbeeld). Domein is wazig

Zorg ervoor dat uw website mobielvriendelijk is

Mobielvriendelijkheid is een cruciale factor geworden sinds 2018, toen Google overstapte op een mobile-first indexeringsaanpak . Dit betekent dat Google nu voornamelijk de mobiele versie van een website gebruikt voor ranking en indexering, in plaats van de desktopversie.

In Google Search Console kun je je pagina’s testen door in de URL-inspectietool op “Live URL testen” te klikken en te zien hoe Googlebot-Mobile het ziet.

Afbeeldingen comprimeren

Beeldoptimalisatie gericht op het comprimeren ervan zonder kwaliteitsverlies helpt het laden van de website te versnellen, vooral als er veel grafische inhoud op de pagina’s staat.

Online tools zoals TinyPNG of Squoosh kunnen worden gebruikt om afbeeldingen te comprimeren. Het is ook de moeite waard om te controleren of moderne afbeeldingsformaten, zoals WebP, worden gebruikt, omdat deze de bestandsgrootte aanzienlijk kunnen verkleinen.

Gebruik CDN voor internationale websites

Het gebruik van een CDN is zinvol als uw website een breed scala aan geografisch afgelegen regio’s bedient.

Een CDN (Content Delivery Network) distribueert de inhoud van de site over servers die zich dichter bij de gebruikers bevinden, waardoor de latentie tijdens het laden wordt verminderd. U kunt het CDN-gebruik controleren door HTTP-verzoekheaders te bekijken in de ontwikkelaarstools van de browser (tabblad Netwerk), waar verwijzingen naar de CDN-provider, zoals Cloudflare of Akamai, kunnen voorkomen. Er zijn ook online tools voor het testen van CDN. CDN-configuratie wordt meestal gedaan via het hostingpaneel of CMS.

Gebruik caching
Caching stelt browsers en proxyservers in staat om kopieën van bronnen op te slaan, waardoor de serverbelasting wordt verminderd en het laden bij volgende bezoeken wordt versneld. U kunt de juistheid van de caching controleren in de ontwikkelaarstools van de browser — kijk in de sectie Netwerk naar de headers Cache-Control, Expires en ETag. Google PageSpeed Insights geeft ook aanbevelingen voor caching. Het is belangrijk dat statische bronnen (afbeeldingen, scripts, stijlen) de juiste caching-instellingen hebben en dat de server de bijbehorende regels heeft geconfigureerd (bijvoorbeeld in .htaccess- of nginx-configuratie). Om caching te controleren, kunt u online services zoals GiftOfSpeed gebruiken.

Conclusie

Een technische audit van een website is geen eenmalige procedure, maar een continu proces dat regelmatige aandacht vereist voor de technische factoren die van invloed kunnen zijn op de prestaties en zichtbaarheid. Aangezien elke website uniek is, zal de specifieke focus en frequentie van controles variëren. Deze checklist voor een technische SEO-audit helpt u ervoor te zorgen dat u niets belangrijks bent vergeten.

Artikel delen
Darya Maksimava
Senor SEO Specialist, Evisions

Since 2018, Darya has worked as an SEO consultant, building data-driven strategies that combine technical SEO, on-page optimization, and link building. With experience in multiple international markets — Europe, the CIS region, and the U.S.— Darya understands how regional differences and channel synergy impact search visibility. Leveraging insights from PPC, web analytics, and broader digital marketing trends, Darya helps brands build strong, future-proof SEO foundations that deliver consistent, high-quality traffic and measurable results.

Evisions
Dit artikel wordt je aangeboden door

Evisions

Evisions is an online marketing agency specializing in helping companies achieve their business and marketing goals. With over 10 years of experience in both B2B and B2C, it provides comprehensive services in SEO, PPC, UX, copywriting, email marketing, social media and other online tools. The agency's work is not limited to local projects; it helps companies expand internationally and ensures their successful entry into new markets.

Vergelijkbare artikelen
SEO veranderd. Ben je klaar?
3 min. lezen

SEO veranderd. Ben je klaar?

Uw concurrenten winnen al op ChatGPT, Reddit en AI-zoektools terwijl u nog steeds backlinks bouwt en optimaliseert voor Google. Jongere gebruikers beginnen hun onderzoek nu op sociale platforms in plaats van traditioneel zoeken. Als uw SEO-strategie niet verder werkt dan Google, mist u een enorme verschuiving in de manier waarop mensen daadwerkelijk informatie vinden.

Katarína Šimčíková Katarína Šimčíková
Freelance I Digital Marketing Specialist, Ecommerce Bridge EU
Kwaliteit versus kwantiteit: het linkbuilding-dilemma dat SEO-experts verdeelt
12 min. lezen

Kwaliteit versus kwantiteit: het linkbuilding-dilemma dat SEO-experts verdeelt

Hoewel Google nog steeds kwalitatieve backlinks beloont, geven AI-aangedreven zoekmachines zoals Bing prioriteit aan kwantiteit en zitten de meeste bureaus vast aan het kiezen tussen twee totaal verschillende strategieën. Met een half miljard wekelijkse AI-zoekgebruikers is het debat over kwaliteit versus kwantiteit bij linkbuilding zojuist van cruciaal belang geworden voor uw SEO-succes.

Katarína Rusňáková SEO Katarína Rusňáková SEO
CEO, ONLINE TORO