
Technische SEO Checklist
Crawlen en indexeren
Het eerste waar u tijdens de technische audit naar moet kijken, is hoe uw site wordt geïndexeerd en gecrawld door zoekmachines. Immers, als de pagina’s op uw site niet kunnen worden gecrawld, worden ze (op enkele uitzonderingen na) niet geïndexeerd. Als gevolg hiervan zullen de pagina’s die niet in de index zijn vertegenwoordigd, niet deelnemen aan de ranglijst.
Doorloop het rapport Pagina-indexering in Google Search Console
De meest nauwkeurige en betrouwbare manier om de indexering van uw website te analyseren, is door het Page Indexing Report in Google Search Console te analyseren.
Bekijk het rapport Geïndexeerde pagina’s en controleer welke pagina’s in de index staan. Kijk of er pagina’s zijn met filter- of sorteeropties, of er testpagina’s of andere pagina’s zijn die u niet wilt indexeren.
Kijk ook naar pagina’s die zijn uitgesloten.
Niet alle statussen in het rapport Uitgesloten pagina’s vormen een probleem. U moet uw aandacht niet richten op alle uitgesloten pagina’s, maar alleen op die pagina’s waar het gedrag van Google niet overeenkomt met uw bedoelingen.
In de onderstaande tabel ziet u de statussen die vaak aandacht en diepere analyse vereisen:
Status | Wat het betekent | Wat je moet doen |
---|---|---|
Omleiding fout | Google kon de URL niet volgen vanwege omleidingsproblemen. |
|
Server fout | De server heeft een 5xx-fout geretourneerd. |
|
Ontdekt – niet geïndexeerd | Google is op de hoogte van de pagina, maar heeft deze nog niet gecrawld. Geeft problemen aan met het crawlbudget. |
|
Gecrawld – niet geïndexeerd | Google heeft de pagina bezocht, maar ervoor gekozen deze niet te indexeren. Geeft meestal een lage paginakwaliteit aan. |
|
Dupliceren zonder door de gebruiker geselecteerde canonieke | Google beschouwt de pagina als een duplicaat, maar u heeft geen canonieke pagina opgegeven. |
|
Duplicaat, Google koos andere canonieke dan gebruiker | Google heeft de door jou opgegeven canonieke tekst genegeerd. |
|
Zacht 404 | De pagina ziet er ‘leeg’ of ‘niet gevonden’ uit, maar geeft de status 200 OK terug. |
|
De andere statussen duiden waarschijnlijk niet op problemen. Deze rapporten zijn echter ook de moeite waard om te bekijken om er zeker van te zijn dat de pagina’s niet per ongeluk zijn verwijderd, omgeleid, gecanoniseerd of geblokkeerd voor indexering.
Status | Wat het betekent | Wat je moet weten |
---|---|---|
Alternatieve pagina met de juiste canonieke tag | Google heeft de canonieke tekst die je hebt opgegeven correct bevestigd. |
|
URL geblokkeerd door robots.txt | Google kan de pagina niet crawlen. |
|
URL gemarkeerd als ‘noindex’ | De pagina heeft de noindex-instructie. |
|
Niet gevonden (404) | De pagina bestaat niet. |
|
Geblokkeerd wegens ongeoorloofd verzoek (401)/ Geblokkeerd wegens verboden toegang (403) | De pagina is met toestemming geblokkeerd of verboden. |
|
Pagina met doorverwijzing | De pagina verwijst door naar een andere. |
|
URL geblokkeerd vanwege ander 4xx-probleem | De pagina is niet toegankelijk vanwege een andere 4xx-fout dan 404 (bijv. 403, 401, 410, enz.). |
|
In het Helpcentrum van Google vindt u een uitgebreide beschrijving van het paginarapport, inclusief voorbeelden van problemen en een gedetailleerde uitleg van elke status.
Screaming Frog kan ook helpen bij het analyseren van pagina’s die zijn geïndexeerd of uitgesloten van de index. Om dit te doen, moet u verbinding maken met de Google Search Console API voordat u de sitecrawl start.
Om verbinding te maken, ga je naar Configuratie -> API Access -> Google Search Console. Klik op Aanmelden met Google en volg de instructies.

Source: Screaming Frog
Zodra de verbinding is gemaakt, schakelt u URL-inspectie in en kunt u ook de optie inschakelen om indexeringsinspectie te negeren voor URL’s die niet kunnen worden geïndexeerd.

Source: Screaming Frog
U kunt dan de status van elke pagina zien en vergelijken volgens Search Console (de manier waarop Google deze ziet) en de werkelijke status zoals bepaald tijdens het crawlproces.

Source: Screaming Frog
Houd er rekening mee dat er slechts 2000 URL’s per dag beschikbaar zijn voor elke site, dus deze methode is meer geschikt voor kleine sites.
Controleer wat er in je sitemap.xml zit
Sitemap.xml is een XML-bestand dat crawlers van zoekmachines voorziet van een lijst met pagina’s op een site, evenals (optioneel) informatie over de laatste wijzigingsdatum, de updatefrequentie en de aanbevolen crawlprioriteit.
Het wordt meestal in de root van de site geplaatst, bijvoorbeeld: https://example.com/sitemap.xml. Sitemap.xml helpt zoekmachines om nieuwe of bijgewerkte pagina’s sneller te vinden. Bovendien is het opnemen van een pagina in dit bestand een van de signalen voor het bepalen van de canonieke versie van een pagina, zij het een zwakke.

Source: e-commerce sport store
Het sitemap.xml bestand is vooral handig voor:
- nieuwe sites met weinig externe links;
- grote sites met veel pagina’s;
- sites met veel media-inhoud;
- nieuwssites die regelmatig worden bijgewerkt.
Sitemap.xml moet alle pagina’s bevatten die u wilt indexeren.
U kunt dezelfde Screaming Frog of andere crawlers gebruiken om de pagina’s in Sitemap.xml te analyseren. In Screaming Frog kan sitemap.xml afzonderlijk worden gescand in de lijstmodus, of het kan worden opgenomen in een gewone sitescan. Om dit te doen, activeert u in Configuration -> Spider -> Crawl het scannen van XML-sitemaps en voegt u de absolute URL’s toe van de sitemaps die u wilt crawlen.
Het wordt niet aanbevolen om verschillende online services te gebruiken voor het genereren van een sitemap, omdat deze mogelijk alleen een statische sitemap genereren die niet automatisch wordt bijgewerkt. De optimale optie is om de sitemap.xml te genereren met behulp van plug-ins voor het CMS waarop de site draait, of om een aangepast script te schrijven dat de sitemap genereert volgens gespecificeerde voorwaarden en deze automatisch bijwerkt wanneer er wijzigingen aan de site worden aangebracht.
Zorg er bij het genereren van de sitemap.xml voor dat uw bestand voldoet aan het sitemap.xml protocol. Je kunt hiervoor gebruik maken van verschillende online validators, zoals https://www.xml-sitemaps.com/validate-xml-sitemap.html.
Is het nodig om alle tags in het protocol op te nemen? Niet altijd. Google houdt bijvoorbeeld alleen rekening met de tags <loc> en <lastmod>. Zorg ervoor dat de datum in de tag <lastmod> correct is. Als er pogingen worden gedaan om de tag te manipuleren, kan Google deze tag negeren.
Zorg ervoor dat er geen fouten in robots.txt
Het robots.txt bestand is de eerste plaats waar een zoekbot kijkt voordat een site wordt gecrawld. Het bepaalt welke delen van de site wel of niet kunnen worden gecrawld en als gevolg daarvan welke pagina’s door zoekmachines worden geïndexeerd. Het moet zich altijd op https://example.com/robots.txt bevinden.
Dit bestand is een hulpmiddel voor het beheren van het crawlen (niet indexeren!) van de site. Sommige pagina’s, zelfs als ze in robots.txt zijn geblokkeerd, kunnen nog steeds worden geïndexeerd (meestal als er interne of externe links naar zijn). Dergelijke pagina’s (geïndexeerd ondanks dat ze in robots.txt zijn geblokkeerd) zijn te zien in Google Search Console in het rapport “Geïndexeerd, hoewel geblokkeerd door robots.txt”.

Source: Search Console
Dit is wat u zeker moet controleren met betrekking tot het robots.txt-bestand als onderdeel van een technische SEO-audit:
- Beschikbaarheid van het bestand
Het bestand moet op https://example.com/robots.txt toegankelijk zijn en een 200 OK-antwoordstatus geven. De afwezigheid, downloadfouten of omleidingen (301, 302, 403, 404) kunnen ervoor zorgen dat zoekmachines de crawlregels van de site niet correct begrijpen.
- Syntaxis en juistheid
Controleer of de bestandsstructuur voldoet aan de standaard. Voorbeeld van een basissjabloon:
- User-agent: *
- Niet toestaan: /admin/
- Toestaan: /public/
- Sitemap: https://example.com/sitemap.xml

Source: nike.com
- Richtlijnen niet toestaan en toestaan
Controleer of belangrijke pagina’s niet per ongeluk worden geweigerd, bijvoorbeeld:
- Startpagina (/)
- Productkaarten (/product/)
- Blog of artikelen (/blog/, /artikelen/)
Een veelgemaakte fout is het blokkeren van afbeeldingen, stijlen en scripts bij het blokkeren van beheerdersmappen. In een dergelijk geval moet worden gespecificeerd dat, hoewel de beheerdersmap is geblokkeerd, sommige soorten bestanden open moeten staan om te worden gescand. Dit gebeurt vaak op WordPress-sites wanneer de map met alle gebruikersinhoud, Disallow: /wp-content, is geblokkeerd.
In dit geval kunnen alleen bestanden van een bepaald formaat worden geopend om te scannen:
- Toestaan: /wp-content/uploads/*.css
- Toestaan: /wp-content/uploads/*.js
- Toestaan: /wp-content/uploads/*.jpeg
Om uw robots.txt te valideren en de richtlijnen die u gaat toevoegen te testen, kunt u deze tool gebruiken.
- Compatibiliteit met andere richtlijnen controleren
Fouten treden vaak op wanneer robots.txt in strijd zijn met:
- meta-tag: <meta name=”robots” content=”noindex”>
- canoniek
Als een pagina bijvoorbeeld is geopend in robots.txt maar is geblokkeerd via noindex, wordt deze gecrawld, maar komt deze niet in de index. Dit is acceptabel, maar het is belangrijk dat het opzettelijk wordt gedaan.
Een veelvoorkomend probleem is ook wanneer er andere instructies voor bots in de broncode staan en een gelijktijdige blokkering van de pagina in robots.txt. Robots van zoekmachines scannen geen pagina’s die in robots.txt zijn geblokkeerd. Ze zien niet de tags die in de code zijn opgegeven, bijvoorbeeld canonicalisatie. Dat wil zeggen, zo’n canoniek zal gewoon niet worden verklaard.
Controleer uw interne links
Een van de belangrijkste taken van een technische audit is ervoor te zorgen dat de interne links van de site correct werken. Dit betekent dat alle interne links moeten leiden naar echte, bestaande pagina’s die open staan voor indexering, een 200 OK-statuscode moeten retourneren, geen redirects mogen bevatten en, belangrijker nog, niet mogen verwijzen naar pagina’s met 4xx/5xx-fouten. Op het eerste gezicht lijkt dit misschien een klein detail, maar in de praktijk kunnen zelfs onjuiste interne links een negatieve invloed hebben op:
- De efficiëntie van het crawlen van websites door zoekmachines,
- De verdeling van het interne SEO-gewicht (PageRank),
- Gebruikerservaring.
De eerste stap in de analyse is het controleren van alle interne links op fouten. Het is vooral belangrijk om verbroken links te identificeren die leiden naar pagina’s met een 404-, 410- of andere fouten (zoals 403, 500).
Hieronder vindt u een tabel met de belangrijkste soorten fouten die kunnen optreden in interne links, hun betekenis en aanbevolen acties om ze op te lossen.
Fouttype: | Wat het betekent, | wat te doen |
---|---|---|
404 | Pagina niet gevonden | Verwijder de link of vervang deze door een werkende link |
403 | Toegang verboden | Controleer de toegangsinstellingen |
301/302 | Doorsturen | Werk de link bij naar de uiteindelijke URL |
5xx | Server fout | Controleer de server of het CMS |
Het is ook belangrijk om de diepte van de paginahiërarchie te analyseren, wat betekent dat u kunt bepalen op welk niveau en hoeveel klikken de belangrijkste inhoud zich vanaf de startpagina bevindt. Het verdient de voorkeur dat belangrijke pagina’s niet dieper zijn dan het derde niveau – dit verhoogt hun toegankelijkheid voor zowel zoekmachines als gebruikers.
Een van de belangrijkste elementen van analyse is het identificeren van “verweesde” pagina’s – pagina’s die geen interne links hebben die ernaar verwijzen. Zelfs als deze pagina’s zijn opgenomen in de sitemap, maakt het ontbreken van interne links ze minder toegankelijk.
Daarnaast is het belangrijk om ankerteksten te analyseren – de woorden en zinsdelen die links bevatten. Ze moeten relevant en zinvol zijn, aangezien ankerteksten zoekmachines helpen de context van de link te begrijpen.
Analyseer de crawlstatistieken
Analyse van crawlstatistieken is een manier om inzicht te krijgen in hoe Googlebot omgaat met een site: welke pagina’s worden gecrawld, hoe vaak en hoe dit van invloed is op SEO. Deze gegevens zijn beschikbaar in Google Search Console → Instellingen → Crawlstatistieken. In de onderstaande tabel ziet u de meest voorkomende problemen die u in dit rapport kunt vinden:
Probleem | Waar moet je op letten in het rapport | Mogelijke oorzaken |
---|---|---|
Sterke afname van crawling | Minder kruipen per dag | Toegankelijkheidsproblemen, onjuiste instellingen in robots.txt, blokkades, 5xx-fouten |
Veel 4xx en 5xx fouten | Fouten in URL’s | Verwijderde pagina’s, verbroken links, serverproblemen |
Reactietijd verlengd | >1 seconde — een waarschuwingsbord | Hostingproblemen, overbelasting van de server |
Veel 3xx redirects | Omleidingen in plaats van directe URL’s | Onjuiste redirects, redirect chains, een groot aantal interne links met redirects |
CSS/JS niet gecrawld | Ze ontbreken in de statistieken | Geblokkeerd door robots.txt |
Bovendien kunnen serverlogboeken worden geanalyseerd. Hiermee kunt u de daadwerkelijke verzoeken van zoekbots zien (niet alleen Googlebot maar ook Bingbot, YandexBot en anderen), in plaats van alleen geaggregeerde gegevens van Google Search Console.
Dit is een geavanceerde, “ruwe” diagnostische methode die een aanzienlijke hoeveelheid tijd vergt. Om de gegevens te visualiseren, kunt u open-source tools gebruiken, zoals GoAccess of Screaming Frog Log File Analyzer.
Implementeer gestructureerde gegevens
Gestructureerde gegevens zijn een speciale opmaakindeling op een webpagina die zoekmachines helpt de inhoud van de pagina nauwkeuriger en dieper te begrijpen. Het dient als een “hint” voor Google en andere zoekmachines over wat er precies op de pagina staat – een artikel, product, recept, recensie, video, enz. Hoewel het geen officieel rangschikkingssignaal is, heeft het indirect invloed op de ranglijst door de manier waarop zoekmachines de pagina begrijpen te verbeteren.
De belangrijkste standaard of het belangrijkste protocol dat wordt gebruikt voor gestructureerde gegevens op websites is Schema.org. Er zijn andere protocollen, zoals OpenGraph, maar het wordt gebruikt voor sociale netwerken.
Schema.org is een samenwerkingsproject van Google, Microsoft, Yahoo en Yandex, opgericht om een uniforme standaard voor gestructureerde gegevens op internet te ontwikkelen en te onderhouden.
Schema.org omvat honderden entiteitstypen, waarvan de meest gebruikte in de onderstaande tabel worden vermeld:
Categorie | Entiteit (@type | )Doel |
---|---|---|
Inhoud en pagina’s | Artikel | Een artikel of nieuwsinhoud |
Blogplaatsen | Een blogpost | |
NieuwsArtikel | Een nieuwsartikel voor Google Nieuws | |
FAQPage | Een pagina met veelgestelde vragen (FAQ) | |
Hoe | Een stap-voor-stap handleiding | |
Webpagina | Algemene informatie over een webpagina | |
Producten en aanbiedingen | Product | Productomschrijving |
Aanbieden | Prijsaanbieding | |
Geaggregeerd aanbod | Prijsklasse voor een product van verschillende verkopers | |
Recensies en beoordelingen | Recensie | Een recensie van een product of dienst |
Rating | Een numerieke beoordeling (vaak binnen een Review) | |
Geaggregeerde beoordeling | Gemiddelde beoordeling op basis van meerdere beoordelingen | |
Organisaties en mensen | Organisatie | Een beschrijving van een bedrijf of merk |
Lokaal bedrijf | Een lokaal bedrijf met contactgegevens en planning | |
Persoon | Een persoon (bijv. auteur van een artikel, spreker, enz.) | |
Gebeurtenissen | Gebeurtenis | Een online of offline evenement |
Navigatie en structuur | Paneermeel Lijst | Breadcrumbs navigatie |
SiteNavigationElement | Belangrijkste menu-items | |
Multimedia | VideoObject | Video met metadata (voor videofragmenten) |
AfbeeldingObject | Afbeelding met beschrijving | |
Opleiding en banen | Cursus | Een online cursus of trainingsprogramma |
Vacatures plaatsen | Vacature (voor Google for Jobs) |
Het wordt aanbevolen om gestructureerde gegevens in het JSON-LD-formaat te implementeren. Dit blok wordt in de <head> of <body> van het HTML-document geplaatst, maar het wordt niet getoond aan de gebruiker – het wordt gelezen door zoekbots. Alle grote zoekmachines, zoals Google, Bing en Yahoo, ondersteunen dit formaat. Een voorbeeld van JSON-LD-code wordt hieronder weergegeven:
<script type=”application/ld+json”>
{
“@context”: “https://schema.org”,
“@type”: “Artikel”,
“headline”: “Wat is JSON-LD?”,
“auteur”: {
“@type”: “Persoon”,
“naam”: “John Smith”
},
“datePublished”: “2025-12-01”
}
</script>
Volg bij het implementeren van gestructureerde gegevens het Schema.org protocol en gebruik de validator om de juistheid van de geïmplementeerde microdatatypen te controleren. Sommige soorten gestructureerde gegevens uit het Schema.org protocol kunnen ook helpen bij het weergeven van rich snippets in de zoekresultaten van Google.
Houd er rekening mee dat de vereisten van Google voor gestructureerde gegevens voor rich snippets enigszins afwijken van de Schema.org standaard. Vaak moeten er meer velden worden opgegeven dan wat het Schema.org protocol vereist. Dus als u een Rich Snippet wilt bereiken, volgt u de richtlijnen van Google voor gestructureerde gegevens. U kunt de juistheid van de microdata-implementatie controleren met behulp van de rich snippet validator.
Er zijn ook veel microdata-generatoren, maar deze kunnen alleen statische code maken die niet wordt bijgewerkt met inhoudswijzigingen op de pagina. Ervoor zorgen dat de informatie in de microdata overeenkomt met wat zichtbaar is voor gebruikers op de pagina, maakt deel uit van de vereisten van Google voor gestructureerde gegevens. Als het beleid met betrekking tot gestructureerde gegevens wordt geschonden, kan de pagina alle rich snippets verliezen en in sommige gevallen handmatige boetes krijgen. Zorg er daarom voor dat uw microdata automatisch wordt gegenereerd en automatisch wordt bijgewerkt.
Tevreden
Als onderdeel van een technische SEO-audit is het belangrijk om de basiskenmerken van de inhoud te evalueren: van de structuur van koppen en metatags tot de aanwezigheid van alt-attributen voor afbeeldingen en mogelijke dubbele pagina’s. Deze elementen hebben een directe invloed op zowel de indexering als de manier waarop zoekmachines de site zien.
Test uw website op volledige duplicaten
Volledige duplicaten treden op wanneer identieke inhoud toegankelijk is via verschillende URL’s op de site. Duplicaten kunnen de positie van uw site volledig schaden.
De meest voorkomende soorten volledige duplicaten zijn:
- Toegankelijkheid via zowel HTTP als HTTPS
- Toegankelijkheid met en zonder WWW
- Toegankelijkheid met of zonder schuine streep
- Toegankelijkheid van URL’s in hoofdletters en kleine letters
- De pagina is toegankelijk met bestandsextensies zoals .html, .htm, .php, .aspx en zonder.
- Parameters die de pagina-inhoud niet wijzigen, zoals UTM-tags
- Identieke inhoud onder verschillende URL’s. Een product wordt bijvoorbeeld vermeld in twee categorieën, toegankelijk via twee verschillende URL’s. Of de productpagina die toegankelijk is met en zonder de categorie in de URL.
- Testversies van de site (DEV-domein gebruikt voor ontwikkeling).
Als u paginaduplicaten wilt vinden die zijn gerelateerd aan URL-varianten, test u de URL’s handmatig en controleert u de serverresponscode op die URL-varianten. U kunt elke tool gebruiken om de responscodes van de server te controleren, zoals https://httpstatus.io/. Voer de URL-variaties in en controleer de toegankelijkheid.

Source: httpstatus.io/ website + test of a client’s website
Om problemen op te lossen met variaties in HTTP/HTTPS, www/without-www, met/zonder schuine streep, hoofdletters/kleine letters en de toegankelijkheid van pagina’s met extensies zoals .html, .htm, .php, .aspx en zonder, is het noodzakelijk om een 301-omleiding naar de voorkeursversie in te stellen.
Wanneer duplicaten worden gevonden vanwege de beschikbaarheid van identieke inhoud door delen van de URL toe te voegen of te verwijderen (een product is bijvoorbeeld beschikbaar in twee categorieën), is het het beste om de URL-structuur en de sitestructuur te heroverwegen. Voor UTM en andere parameters kan canonicalisatie ook een oplossing zijn. Het is echter belangrijk op te merken dat Google de canonical tag als een aanbeveling beschouwt en dat de uiteindelijke beslissing over welke URL te kiezen bij Google blijft.
Als er een testversie van de site wordt gevonden in de Google-index, moet deze worden geblokkeerd voor indexering en moet een verzoek tot verwijdering worden verzonden via Google Search Console.
Gedeeltelijke paginaduplicaten oplossen
Gedeeltelijke paginaduplicaten treden op wanneer twee of meer pagina’s op de site zeer vergelijkbare, maar niet volledig identieke inhoud bevatten. De meest voorkomende soorten gedeeltelijke duplicaten zijn:
- Pagina’s sorteren
- Pagina’s filteren
- Paginering pagina’s
- Pagina’s met vergelijkbare producten (producten verschillen bijvoorbeeld alleen per kleur)
- Meerdere versies van de site in dezelfde taal, maar voor verschillende regio’s (bijv. drie Engelse sites voor de VS, het VK en Australië).
Natuurlijk is elke site uniek en tijdens een technische audit kunt u andere gevallen van dubbele inhoud identificeren die specifieke oplossingen vereisen. De bovenstaande voorbeelden zijn echter de meest voorkomende.
Gedeeltelijke duplicaten worden meestal gevonden tijdens het crawlen van de site door verschillende crawlers. Ze hebben herhalende parameters en kunnen dezelfde titel en H1 hebben als de hoofdcategoriepagina’s.
Om gedeeltelijke duplicaten te verwijderen, kunt u geen omleiding instellen, omdat deze pagina’s nodig zijn voor de functionaliteit van de site. Hieronder bespreken we methoden voor het omgaan met gedeeltelijke duplicaten.
Pagina’s sorteren en filteren
Deze pagina’s kunnen worden geblokkeerd voor crawlen in het robots.txt bestand, hoewel dit door Google kan worden genegeerd, vooral als links naar deze pagina’s verwijzen. Dit zal helpen om het crawlbudget te behouden.
U kunt ze ook blokkeren via de <meta name=”robots” content=”noindex, nofollow” />-richtlijn, die voorkomt dat deze pagina’s worden geïndexeerd, maar Google niet vertelt dat ze niet mogen worden gecrawld.
De beste aanpak in dit geval is om JavaScript te gebruiken om de inhoud op de pagina bij te werken wanneer de gebruiker sortering of filters toepast, zonder extra URL’s en links naar filter- of sorteerpagina’s te genereren.
Productvarianten beschikbaar op verschillende URL’s
Idealiter worden alle productvarianten gecombineerd op één pagina, waar de gebruiker de gewenste kleur of maat kan selecteren zonder de URL te wijzigen, met behulp van JavaScript. Als echter voor elke variant een aparte pagina wordt gebruikt, moet een canonieke link naar de hoofdproductpagina worden opgegeven. Zoals eerder vermeld, kan Google de canonieke instelling van de gebruiker echter negeren.
Paginering pagina’s
Pagineringspagina’s mogen niet worden geblokkeerd voor indexering. Om ervoor te zorgen dat Google de eerste pagina van de categorie als de belangrijkste pagina beschouwt:
- Neem alleen de eerste pagina op in het sitemap.xml bestand.
- Voeg een link toe naar de hoofdcategoriepagina op alle pagineringspagina’s.
- Voeg paginanummers toe aan de titel en H1 van de pagineringspagina’s. Bijvoorbeeld: ‘Witte shirts – pagina 2’.
Pagina’s beschikbaar in één taal, maar voor verschillende regio’s
In dit geval moeten Hreflang-attributen worden gebruikt. Ze worden gebruikt om zoekmachines te vertellen welke taal en regionale versie van een webpagina ze aan gebruikers moeten laten zien op basis van hun taalvoorkeur en locatie.
Er zijn verschillende manieren om Hreflang-attributen te implementeren:
- In HTTP-headers
- Via tags in de sectie <hoofd>
- Via tags in sitemap.xml
De eenvoudigste methode om te implementeren is door middel van tags in de sectie <hoofd>.
Er zijn de regels waaraan hreflang-attributen die zijn geïmplementeerd via tags in de sectie <hoofd> moeten voldoen:
-
- Het kenmerk moet de volgende indeling hebben: <link rel=”alternate” hreflang=”lang_code_country_code” href=”url-of-page” />
- Taal- en landcodes moeten geldig zijn. Om de geldige code voor elke taalmutatie te kiezen, zie deze pagina.
- Elke taalversie moet zichzelf en alle andere taalversies vermelden in de hreflang-attributen. Dit betekent dat elke pagina hetzelfde aantal hreflang-attributen moet hebben
- Links in hreflang-attributen moeten absoluut en indexeerbaar zijn.
Een voorbeeld van een code:
<link rel=”alternate” href=”https://example.com/en-us/page” hreflang=”en-us” />
<link rel=”alternate” href=”https://example.com/en-gb/page” hreflang=”en-gb” />
<link rel=”alternate” href=”https://example.com/en-us/page” hreflang=”x-default” />
Controleer titels, h1, h2s en beschrijvingen op duplicaten
Hoewel titels, beschrijvingen en H1-H6-headers verband houden met on-page SEO, kan hun analyse binnen een technische audit nuttig zijn voor het detecteren van duplicaten.
Om ze te analyseren, kunt u elke crawler gebruiken die deze tags verzamelt.
Wanneer dubbele titels, H1-H6-tags en beschrijvingen worden gevonden, analyseert u de paginagegevens en identificeert u de oorzaak van de duplicatie. Dit kan te wijten zijn aan de beschikbaarheid van de site via zowel HTTP als HTTPS, duplicatie van de hoofdcategorietags op filterpagina’s, of gewoon een menselijke fout waarbij deze tags verkeerd zijn ingevuld.
Alt-attributen voor afbeeldingen optimaliseren
Alt-attributen zijn een HTML-attribuut dat als volgt wordt gebruikt in de <img>-tag: <img src=”image.jpg” alt=” Beschrijving van afbeelding”>. Het belangrijkste doel is om een tekstbeschrijving van de inhoud van de afbeelding te geven. Deze tekst wordt weergegeven als de afbeelding niet kan worden geladen en wordt hardop voorgelezen door schermlezers om slechtziende gebruikers te helpen. Juiste, beschrijvende alt-tekst kan ervoor zorgen dat uw afbeeldingen scoren in het zoeken naar afbeeldingen en de algehele relevantie van de pagina verbeteren.
Als je een website hebt met veel visuele inhoud, dan is optimalisatie van alt-attributen een belangrijkere stap dan voor klassieke websites die afhankelijk zijn van tekstinhoud.
Veel crawlers zoals Screaming Frog, Ahrefs, SemRush, enz. analyseren alt-attributen, en daar kun je de gegevens krijgen over ontbrekende of lege alt-attributen.
U kunt meer lezen over het maken van beschrijvende alt-attributen in officiële Google-documenten.
Websitesnelheid, mobiel en gebruiksvriendelijkheid
Gebruik het HTTPs-protocol
Het gebruik van het beveiligde HTTPS-protocol is essentieel om de veiligheid van de gegevensoverdracht tussen de gebruiker en de server te waarborgen. Het verhoogt niet alleen het vertrouwen van de gebruiker, maar heeft ook een positieve invloed op SEO. Om te controleren op HTTPS, kijkt u gewoon naar de adresbalk van de browser – er zou een hangslotpictogram moeten verschijnen.
Voor een gedetailleerde analyse kunt u de SSL Labs-service gebruiken, die een volledig rapport over de status van het SSL-certificaat zal verstrekken en mogelijke problemen zal identificeren.
Het is ook belangrijk om ervoor te zorgen dat er geen gemengde inhoud is – HTTP-bronnen op HTTPS-pagina’s. Voor deze analyse kun je het HTTPS-rapport in Google Search Console gebruiken, waarin URL’s met zowel HTTP als HTTPS worden weergegeven.

Source: Search Console
Verbeter Core Web Vitals
Core Web Vitals is een reeks statistieken die door Google worden voorgesteld om de kwaliteit van de gebruikerservaring op een website te beoordelen. Deze statistieken zijn gericht op laadsnelheid, interactiviteit en visuele stabiliteit van de inhoud op de pagina. Ze omvatten drie belangrijke indicatoren:
Metrische | beschrijving | Optimale waarde |
---|---|---|
Grootste Contentful Verf (LCP) | Meet de laadtijd van het grootste zichtbare element op de pagina (bijv. afbeelding of tekst). | Minder dan 2,5 seconden |
Vertraging eerste invoer (FID) | Meet de tijd die de pagina nodig heeft om te reageren op de eerste gebruikersinteractie (bijvoorbeeld het klikken op een knop of link). | Minder dan 100 milliseconden |
Cumulatieve lay-outverschuiving (CLS) | Beoordeelt de visuele stabiliteit van de pagina, d.w.z. hoeveel elementen bewegen tijdens het laden van de pagina. | Minder dan 0,1 |
De gegevens die van echte gebruikers zijn verzameld, kunnen worden bekeken in het Search Console-rapport “Core web vitals” (geaggregeerde gegevens) of in PageSpeed Insights (voor individuele tests). Houd er bij het werken aan Core Web Vitals rekening mee dat u de problemen moet definiëren die een grote invloed hebben op de CWV-statistieken. Bij het optimaliseren van LCP moet je bijvoorbeeld bepalen welke van de 4 aspecten (TTFB, Load Delay, Load Time of Render delay) het meest bijdraagt aan de hoge LCP-score.
In onderstaand voorbeeld is zichtbaar dat we ons niet hoeven te richten op optimalisatie van TTFB of Load Time. In plaats daarvan kunnen we al onze energie steken in het verbeteren van Load Delay en vervolgens Render Delay.

Source: pagespeed.web.dev
Zorg ervoor dat uw website mobielvriendelijk is
Mobielvriendelijkheid is een cruciale factor geworden sinds 2018, toen Google overstapte op een mobile-first indexeringsaanpak . Dit betekent dat Google nu voornamelijk de mobiele versie van een website gebruikt voor ranking en indexering, in plaats van de desktopversie.
In Google Search Console kun je je pagina’s testen door in de URL-inspectietool op “Live URL testen” te klikken en te zien hoe Googlebot-Mobile het ziet.
Afbeeldingen comprimeren
Beeldoptimalisatie gericht op het comprimeren ervan zonder kwaliteitsverlies helpt het laden van de website te versnellen, vooral als er veel grafische inhoud op de pagina’s staat.
Online tools zoals TinyPNG of Squoosh kunnen worden gebruikt om afbeeldingen te comprimeren. Het is ook de moeite waard om te controleren of moderne afbeeldingsformaten, zoals WebP, worden gebruikt, omdat deze de bestandsgrootte aanzienlijk kunnen verkleinen.
Gebruik CDN voor internationale websites
Het gebruik van een CDN is zinvol als uw website een breed scala aan geografisch afgelegen regio’s bedient.
Een CDN (Content Delivery Network) distribueert de inhoud van de site over servers die zich dichter bij de gebruikers bevinden, waardoor de latentie tijdens het laden wordt verminderd. U kunt het CDN-gebruik controleren door HTTP-verzoekheaders te bekijken in de ontwikkelaarstools van de browser (tabblad Netwerk), waar verwijzingen naar de CDN-provider, zoals Cloudflare of Akamai, kunnen voorkomen. Er zijn ook online tools voor het testen van CDN. CDN-configuratie wordt meestal gedaan via het hostingpaneel of CMS.
Gebruik caching
Caching stelt browsers en proxyservers in staat om kopieën van bronnen op te slaan, waardoor de serverbelasting wordt verminderd en het laden bij volgende bezoeken wordt versneld. U kunt de juistheid van de caching controleren in de ontwikkelaarstools van de browser — kijk in de sectie Netwerk naar de headers Cache-Control, Expires en ETag. Google PageSpeed Insights geeft ook aanbevelingen voor caching. Het is belangrijk dat statische bronnen (afbeeldingen, scripts, stijlen) de juiste caching-instellingen hebben en dat de server de bijbehorende regels heeft geconfigureerd (bijvoorbeeld in .htaccess- of nginx-configuratie). Om caching te controleren, kunt u online services zoals GiftOfSpeed gebruiken.
Conclusie
Een technische audit van een website is geen eenmalige procedure, maar een continu proces dat regelmatige aandacht vereist voor de technische factoren die van invloed kunnen zijn op de prestaties en zichtbaarheid. Aangezien elke website uniek is, zal de specifieke focus en frequentie van controles variëren. Deze checklist voor een technische SEO-audit helpt u ervoor te zorgen dat u niets belangrijks bent vergeten.