Officiële SEO PowerSuite Reseller & Trainer
+31 (0)53-2340100

Website Optimalisatie Moeilijk? Echt Niet!

Maar je moet wel een goede website hebben!

En wat maakt de website een GOEDE website voor Google?

Lees snel verder en ontdek wat Google belangrijk vindt en hoe je het oplost.

Zoekwoorden, zoektermen & trefwoorden

4xx pagina's

4xx fouten duiden vaak op een probleem op de website. 

Het kan zijn dat een pagina niet meer bestaat of dat er een link op een pagina staat die niet werkt, maar bijvoorbeeld ook dat een pagina verboden toegang is.

Het resultaat is echter steeds dat een bezoeker of zoekmachine op een pagina komt die niet toegankelijk is.

Dit is slecht voor de zoekmachines omdat deze hun tijd beter kunnen besteden aan het indexeren van belangrijke webpagina's.

Maar ook slecht voor bezoekers omdat deze hun succes ervaring op de website relateren aan de kwaliteit van het product of de dienst.

Lees dus snel verder en ontdek welke fouten je tegen kunt komen en hoe je deze kunt ontdekken.

Lees meer: 4xx pagina's

5xx pagina's

5xx foutmeldingen worden verzonden als er een server fout optreedt. Het is belangrijk om deze fouten te monitoren en op te lossen omdat ze een negatieve invloed kunnen hebben op de website authoriteit volgens de zoekmachines.

De afwezigheid van pagina's met 5xx status codes garandeert niet dat gebruikers en zoekmachine robots geen problemen ondervinden met de navigatie door jouw website. Zorg ervoor dat alle pagina's beschikbaar zijn en goed laden, check jouw website voor Pagina's met 4xx status codes en zorg voor een goede 404 fouten pagina.

Lees meer: 5xx pagina's

404 Pagina

Een goede 404 pagina kan helpen om jouw bezoekers op jouw website te houden. Het moet bezoekers informeren dat de gevraagde pagina niet bestaat en moet het de bezoeker makkelijker maken om hetgene te vinden dat hij zoekt met behulp van een menu, sitemap en/of zoekformulier.

Maar nog belangrijker, de 404 fouten pagina moet een 404 status code retourneren. Dit klinkt logisch, maar dit gebeurt lang niet altijd.

Volgens Google Search Console: "Het retourneren van een status code anders dan 404 of 410 voor een niet bestaande pagina... kan problemen opleveren. Het geeft de zoekmachines door dat er een echte pagina hoort bij de URL, waardoor deze gecrawld en geïndexeerd wordt. Doordat Googlebot tijd spendeert aan niet bestaande pagina's, kan dit ten koste gaan van de indexatie en crawl frequentie van jouw website. Het is aan te bevelen om altijd een 404 (Niet gevonden) of een 410 (Verdwenen) response code te retourneren bij een pagina die niet bestaat.

robots.txt

Het robots.txt bestand wordt automatisch gecrawld door robots wanneer ze op jouw website komen. Dit bestand moet instructies voor robots bevatten, zoals welke pagina wel of niet geïndexeerd moeten worden. Als je sommige pagina wilt uitsluiten (bijv. pagina's met privé of dubbele inhoud), gebruikt dan een instructie regel in het robots.txt bestand. Voor meer informatie over zulke regels, zie https://www.robotstxt.org/robotstxt.html Hou er wel rekening mee dat instructies in het robots.txt bestand meer gelden als suggesties, dan als orders. Er is geen garantie dat sommige robots de uitgesloten pagina's niet crawlen. Als je dus geheime of gevoelige informatie hebt op jouw website, is robots.txt niet de manier om het te verbergen voor het publiek.

Sitemap

Een XML sitemap moet alle website pagina's bevatten die moeten worden geïndexeerd en moet geplaatst worden in de root directory van de webiste (bijv. https://www.site.com/sitemap.xml). Normaal gesproken versnelt dit de indexering. Iedere keer als de website wordt geupdate, moet ook de sitemap worden geupdate. Daarnaast moet de sitemap volgens bepaalde syntax regels worden opgesteld. Met de sitemap kun je voor iedere pagina een prioriteit opgeven, zodat de zoekmachines weten welke pagina's en hoe vaak ze moeten crawlen. Voor meer informatie over het maken van een .xml sitemap, zie https://www.sitemaps.org/

Een pagina kan uitgesloten zijn van indexering op verschillende manieren:

  • in een robots.txt bestand
  • mbv een Noindex X-Robots-Tag
  • mbv een Noindex Meta tag.
Elk van deze mogelijkheden is een regel HTML code die zoekmachine crawlers aangeeft hoe bepaalde pagina's moeten worden behandeld. De tag verteld crawlers dat ze de pagina niet mogen indexeren, dat ze de links moeten volgen en/of de inhoud moeten archiveren. Zorg er dus voor dat de pagina's met unieke en goede inhoud beschikbaar zijn voor indexering.

www of non-www?

Normaal gesproken zijn websites beschikbaar met en zonder "www" in de domeinnaam. Dit is een veel voorkomend probleem, waarbij anderen linken naar de website met en zonder "www". Als je dit probleem oplost voor jouw website, helpt dit te voorkomen dat er 2 versies in de zoekmachine indexen bestaan. Hoewel indexatie van beide versies geen penalty veroorzaakt, is het aan te bevelen om maar 1 versie te hebben, voornamelijk om de maximale linkwaarde van pagina's te krijgen.

Je kunt de primaire www of non-www versie zien en aanpassen in het .htaccess bestand. Je kunt het voorkeursdomein ook aangeven in Google Search Console.

http of https?

Als de HTTP en HTTPS versies van jouw website niet goed ingesteld zijn, kunnen beide versies worden geïndexeerd en dubbele inhoud problemen veroorzaken. Om deze problemen op te lossen, is het aanbevolen om 1 versie (HTTP of HTTPS, afhankelijk van de inhoud van de pagina) als prioriteit in te stellen.

Je kunt de primaire HTTP of HTTPS versie van jouw pagina's instellen mbv rel="canonical" tag, of maak een aparte robots_ssl.txt bestand met indexatie regels voor de beveiligde versie van jouw website.

302 redirects

302 redirects zijn tijdelijk en sturen dus geen linkwaarde door. Als je ze gebruikt in plaats van 301 redirects, kunnen zoekmachines de oude pagina blijven indexeren en de nieuwe pagina negeren ivm dubbele content of ze kunnen de link populariteit verdelen tussen de 2 versies wat leidt tot lagere posities. Het is dus aan te bevelen om geen 302 redirects te gebruiken als je een pagina of website permanent verhuist. Gebruik daarvoor een 301 redirect om linkwaarde te bewaren en dubbele inhoud problemen te voorkomen.

De afwezigheid van 302 redirects garandeert niet dat jouw website vrij is van redirect problemen. Om zeker te zijn dat alle redirects correct zijn ingesteld, check jouw website ook op Pagina's met meta refresh en op Pagina's met rel="canonical"

301 redirects

301 redirects zijn permanent en worden doorgaans gebruikt om problemen met dubbele content op te lossen of als URLs niet langer meer nodig zijn. Het is absoluut legitiem om 301 redirects te gebruiken en het is goed voor SEO omdat een 301 redirect linkwaarde van de oude naar de nieuwe pagina stuurt. Stuur dus oude URLs door naar nieuwe relevante pagina's.

meta refresh

Meta refresh kan in strijd zijn met Google's Kwaliteit Richtlijnen en is daarom vanuit het oogpunt van SEO niet aanbevolen. Zoals iemand van Googles vertegenwoordigers aangeeft: "In het algemeen adviseren wij om meta-refresh redirects niet te gebruiken, omdat dit verwarring kan veroorzaken bij bezoekers en zoekmachine robots. Momenteel veroorzaakt het geen problemen mbt crawlen, indexeren of positionering, maar het is wel aan te bevelen om dit aan te passen naar een permanente 301 redirect."

canonical links

Meestal worden dubbele URLs verholpen met 301 redirects. Soms, wanneer er bijvoorbeeld producten in 2 verschillende categorieën staan met 2 verschillende URLs en beide live moeten zijn, kun je beter een prioriteit aangeven dmv rel="canonical" tags. Dit moet correct ingesteld worden in de

tag van de pagina en verwijzen naar de pagina versie die goed moet scoren in de zoekmachines.

Volgens Google heeft het mobiel vriendelijk algoritme invloed op mobiele zoekopdrachten in alle talen wereldwijd en heeft het een significante impact op de posities in de zoekresultaten van Google. Het algoritme werkt per pagina - het gaat er niet om hoe mobiel vriendelijk jouw pagina's zijn (%), maar gewoon of de pagina mobiel vriendelijk is of niet. Het algoritme is gebasseerd op criteria als kleine letter typen, klikbare links, leesbare inhoud, etc.

Meerdere canonical URLs op een pagina, worden vaak veroorzaakt door SEO plugins.

In geval van meerdere rel=canonical declaraties, negeert Google waarschijnlijk alle rel=canonical hints en blijven de dubbele inhoud problemen onopgelost.

Frames

Met Frames kun je meer dan één HTML document tonen in hetzelfde scherm. Hierdoor kunnen zoekmachines belangrijke text en hyperlinks missen. Als je Frames gebruikt kunnen zoekmachines jouw pagina inhoud niet goed indexeren. Dit kan een negatieve invloed hebben op jouw zoekmachine posities.

Als er een specifieke reden is om Frames te gebruiken, overweeg dan de NOFRAMES tag waar je jouw geoptimaliseerde inhoud in kunt plaatsen. Mensen kunnen de text in deze tag bekijken wanneer de Frames niet getoond worden in hun browser (dit werkt net als het ALT attribuut van een afbeelding). In het algemeen is het aan te bevelen om Frames zoveel mogelijk te vermijden.

The validation is usually performed via the W3C Markup Validation Service. And although it's not obligatory and will not have direct SEO effect, bad code may be the cause of Google not indexing your important content properly. We recommend checking your website pages for broken code to avoid issues with search engine spiders.

The validation is usually performed via the W3C Markup Validation Service (W3C stands for World Wide Web Consortium). CSS styles are used to control the design and formatting of the page, and to separate styles from the structure, which ultimately makes the page load faster. Errors in CSS may be not that important to search engines, but they can lead to your page being incorrectly displayed to visitors, which, in turn, may affect your conversion and bounce rates. So, make sure the page is displayed as intended across all browsers (including mobile ones) important to you.

atuurlijk is er een directe relatie tussen de grootte van de pagina en de laadsnelheid. De laadsnelheid is ook een belangrijke positie factor. Grote pagina's duren langer om te laden. Probeer dus om de pagina kleiner dan 256kB te houden. Natuurlijk is dit niet altijd mogelijk. Als je bijvoorbeeld een ecommerce website hebt met een groot aantal afbeeldingen, kan dit oplopen tot meerdere kilobytes. Dit kan tot lange laadtijden leiden voor gebruikers met een langzame internet verbinding.

Als je pagina's hebt die te groot zijn, kan dit de gebruikerservaring en zoekmachine posities beïnvloeden. Daarom is het belangrijk om de grootte van de pagina's te beperken zodat ze sneller laden.

Dynamische URLs

URLs die dynamische karakters als "?", "_" en parameters gebruiken zijn niet gebruikersvriendelijk omdat ze niet beschrijvend zijn en moeilijker te onthouden. Om te zorgen dat jouw pagina's beter scoren, is het beter om beschrijvende URLs te gebruiken die zoekwoorden bevatten en geen nummers of parameters. Volgens Google Webmaster Richtlijnen moeten URLs opgeschoond zijn van dynamische karakters.

URL lengte

URLs die kleiner zijn dan 115 karakters zijn makkelijker leesbaar door gebruikers en zoekmachines en werken gebruikersvriendelijker.

Gebroken Links

Gebroken uitgaande links kunnen een slecht signaal zijn naar zoekmachines en gebruikers. Als een website veel gebroken links heeft, gaan ze ervan uit dat de website niet meer actief wordt bijgehouden. Dit heeft als gevolg dat de posities slechter worden. Hoewel 1-2 gebroken links geen straf van Google oplevert, probeer toch regelmatig jouw website te controleren op gebroken links, en zorg ervoor dat het aantal niet oploopt. Daarnaast wordt jouw website gebruikersvriendelijker als er geen links naar niet-bestaande pagina's op staan.

Pagina's met veel links

Volgens Matt Cutss (voormalig hoofd van Google's Webspam team), "... er is nog steeds een goede reden om te proberen beneden de 100 links te blijven: gebruikersvriendelijkheid. Als je meer dan 100 links per pagina toont, kan dit overstelpend werken op de gebruikers en hun een slechte gebruikerservaring geven. Een pagina kan er goed voor jou uitzien, totdat je jouw "gebruikers pet" opzet en ziet hoe het eruitziet voor een nieuwe gebruiker". Hoewel Google gebruikerservaring blijft benadrukken, kunnen teveel links ook een negatieve impact hebben op jouw posities. Het is heel simpel: hoe minder links, hoe beter de posities. Probeer dus het aantal uitgaande links (interne en externe) onder de 100 te houden.

Externe dofollow links

Simply speaking, dofollow links are links missing the rel="nofollow" attribute. Such links are followed by search engines and pass PageRank (please note that links can also be restricted from following in bulk via the nofollow tag). While there is nothing wrong with linking to other sites via dofollow links, if you link extensively to irrelevant or low-quality sites, search engines may conclude your site sells links or participates in other link schemes, and it can get penalized.

Please, revise your followed links and make sure they point to high-quality, relevant pages. It's recommended to remove any links to pages of questionable quality or accompany them with rel="nofollow". To add the nofollow attribute to a link, simply write rel="nofollow" within the <a href> tag. For instance: <a rel="nofollow" href="/example.com">Example</a>.

Gebroken afbeeldingen

While broken images on the website don't influence its search engine rankings directly, they definitely deserve being fixed for two reasons. First and foremost, broken images are a crucial factor for user experience and may result in visitors bouncing away from the site without completing their goals. And second, missing images may impede the site's crawling and indexation, wasting its crawl budget and making it hard for search engine bots to crawl some of the site's important content.

An image is considered broken if it returns a 4xx or 5xx status code, if the image URL is not specified in the tag, if its URL leads to a non-image content or if there's a DNS error detected. To fix the problem, make sure that the correct image URL is specified in the HTML code, and amend it if needed. Second, check if the image itself is still available on the server and restore it if possible. And finally, if there's no way to restore the broken image, simply replace it with another one or remove it from the content altogether.

Lege alt teksten

While search engines can't read text off images, alt attributes (also known as "alternative attributes") help the former understand what your images portray. The best practice is to create an alt text for each image, using your keywords in it when possible to help search engines better understand your pages' content and hopefully rank your site higher in search results.

Lege title tags

Als een pagina geen titel heeft, of als de title tag leeg is (in de code ziet het er zo uit:

), kunnen Google en andere zoekmachines zelf bepalen welke tekst ze tonen als jouw titel in de zoekresultaten. Dus als een pagina getoond wordt in de zoekresultaten, kan het zijn dat men er niet op klikt omdat de titel er niet aantrekkelijk uitziet. Wanneer je een webpagina maakt, is het dus belangrijk om een beschrijvende, pakkende titel te bedenken die er aantrekkelijk uitziet voor potentiële bezoekers.

Dubbele titels

Een pagina titel wordt vaak behandeld als het belangrijkste on-page element. Het is een belangrijk signaal voor de zoekmachines, omdat het vertelt waar de pagina over gaat. Het is belangrijk dat de titel jouw belangrijkste zoekwoord bevat. Daarnaast moet een titel uniek zijn, zodat zoekmachines kunnen bepalen welke pagina bij welk zoekwoord past. Pagina's met dubbele titels hebben een kleinere kans op hoge posities. Dubbele titels kunnen ook een negatieve invloed hebben op de positie van andere pagina's.

Te lange titels

Elke pagina moet een unieke title hebben die zoekwoorden bevat. Tegelijkertijd moet je de titel beknopt houden. Titels, langer dan 55 karakters, worden afgekort door zoekmachines en zien er onaantrekkelijk uit. Ook al staat jouw pagina op de eerste pagina in de zoekresultaten, dan worden de titels nog afgekort en zullen ze minder klikken krijgen dan anders.

Lege Meta descriptions

Hoewel meta descriptions geen directe invloed hebben op de zoekmachine posities, zijn ze toch belangrijk omdat ze het fragment vormen dat men ziet in de zoekresultaten. Meta descriptions moeten dus de webpagina "verkopen" en ervoor zorgen dat men erop klikt. Als de meta description leeg is, bepalen zoekmachines zelf wat ze in het fragment zetten. Vaak is dit de eerste zin op de pagina. Het resultaat kan er onaantrekkelijk en irrelevant uitzien. Daarom moet je meta descriptions schrijven voor jouw webpagina's (in ieder geval voor jouw landingspagina's) en marketing tekst toevoegen die gebruikers overhaalt om erop te klikken.

Dubbele meta descriptions

Volgens Matt Cutts is het beter om unieke meta descriptions of zelfs helemaal geen meta descriptions te hebben, dan om dubbele meta descriptions te gebruiken. Zorg er dus voor dat jouw belangrijkste pagina's unieke en geoptimaliseerde meta descriptions hebben.

Te lange Meta descriptions

Hoewel meta descriptions geen directe invloed hebben op de zoekmachine posities, zijn ze toch belangrijk omdat ze het fragment vormen dat men ziet in de zoekresultaten. Meta descriptions moeten dus de webpagina "verkopen" en ervoor zorgen dat men erop klikt. Als de meta description te lang is, worden ze afgebroken door de zoekmachines. Dit kan er onaantrekkelijk uitzien.

Gebruik maximaal 155 karakters voor meta descriptions omdat ze anders worden afgekort door de zoekmachines. Men ziet dan jouw aantrekkelijke marketing teksten niet die je hebt gebruikt om meer klikken te genereren.

© 2017 Cloud Workx - Zevenblad 23, 7623 CH Borne, Nederland | KVK 08144910 - BTW 137765149B01 - +31 (0)53-2340100