Cloud Workx > Officiële SEO PowerSuite Reseller & Trainer
+31 (0)53-2340100

Website Optimalisatie

Om goed gevonden te kunnen worden in de zoekmachines, moet je eerst zorgen dat je gevonden wordt door de zoekmachines

Bij het aanmaken van het project zijn de factoren geupdate. Heb je wijzigingen gedaan aan de website, of is het lang geleden dat de website is gescand, klik dan op Herbouwen.

Links bovenaan het scherm zie je een overzicht van het aantal fouten en waarschuwingen.

Daaronder, aan de linkerkant zie je per factor de status van de website.

Als je klikt op een factor aan de linkerkant, dan zie je aan de rechterkant meer informatie en uitleg.

In de volgende paragrafen wordt per factor uitgelegd wat het betekent en wat je moet doen om het te verbeteren.

In hoeverre je in staat bent om zelf de problemen met de factoren op te lossen is afhankelijk van jouw HTML en website kennis. Kom je er zelf niet uit, vraag het dan aan jouw webmaster of website bouwer.

Indexeerbaarheid

Om goed gevonden te worden in de zoekmachines, moet de website goed geïndexeerd kunnen worden door de zoekmachines.

Bronnen met 4xx status code

4xx fouten duiden vaak op een probleem op de website. Als je bijvoorbeeld een gebroken link op een pagina hebt en bezoekers klikken erop, kan het zijn dat ze een 4xx fout zien.

Los deze fouten snel op omdat ze een negatieve gebruikerservaring opleveren voor de bezoeker. Je kunt bijvoorbeeld een 301 redirect maken naar een gerelateerde pagina.

Bronnen met 5xx status code

5xx foutmeldingen worden verzonden als er een server fout optreedt. Het is belangrijk om deze fouten te monitoren en op te lossen omdat ze een negatieve invloed kunnen hebben op de website autoriteit volgens de zoekmachines.  

404 pagina

Een goede 404 pagina kan helpen om jouw bezoekers op jouw website te houden. Het moet bezoekers informeren dat de gevraagde pagina niet bestaat en moet het de bezoeker makkelijker maken om dat te vinden wat hij zoekt met behulp van een menu, sitemap en/of zoekformulier.

Leuke voorbeelden:  www.bol.com/404disney.nl/error-404www.intermediair.nl/404

Maar nog belangrijker, de 404 fouten pagina moet een 404 status code retourneren. Dit klinkt logisch, maar dit gebeurt lang niet altijd.

Volgens Google Webmaster Tools:

"Het retourneren van een status code anders dan 404 of 410 voor een niet bestaande pagina... kan problemen opleveren. Het geeft de zoekmachines door dat er een echte pagina hoort bij de URL, waardoor deze gecrawld en geïndexeerd wordt. Doordat Googlebot tijd spendeert aan niet bestaande pagina's, kan dit ten koste gaan van de indexatie en crawl frequentie van jouw website. Het is aan te bevelen om altijd een 404 (Niet gevonden) of een 410 (Verdwenen) response code te retourneren bij een pagina die niet bestaat.

robots.txt

Het robots.txt bestand wordt automatisch gecrawld door robots wanneer ze op jouw website komen. Dit bestand bevat instructies voor robots, zoals welke pagina wel of niet geïndexeerd moeten worden. Als je sommige pagina wilt uitsluiten (bijv. pagina's met privé of dubbele inhoud), gebruik dan een instructieregel in het robots.txt bestand.

Meer informatie over robots.txt:

https://support.google.com/webmasters/answer/6062608?hl=nl&ref_topic=6061961&vid=1-635793000901625131-4105774018

sitemap.xml

Mbv een sitemap kun je zoekmachines de weg wijzen op jouw website.

Een XML sitemap moet alle website pagina's bevatten die moeten worden geïndexeerd en moet geplaatst worden in de root directory van de webiste (bijv. https://www.site.com/sitemap.xml). Normaal gesproken versnelt dit de indexering. Iedere keer als de website wordt geupdate, moet ook de sitemap worden geupdate. Daarnaast moet de sitemap volgens bepaalde syntax regels worden opgesteld.

Met de sitemap kun je voor iedere pagina een prioriteit opgeven, zodat de zoekmachines weten welke pagina's en hoe vaak ze moeten crawlen. Voor meer informatie over het maken van een .xml sitemap, ziehttps://www.sitemaps.org/

Een sitemap is pas effectief als het geïndexeerd is door de zoekmachines. Je kunt dit checken mbv de zoekterm: site:url.

Als de sitemap nog niet geïndexeerd is, meld hem dan aan bij de zoekmachines. 

Vergeet niet om wijzigingen door te geven via de sitemap.

Uitgesloten pagina’s

Een pagina kan uitgesloten zijn van indexering op verschillende manieren:

  • in een robots.txt bestand
  • mbv een Noindex X-Robots-Tag
  • mbv een Noindex Metatag.

Elk van deze mogelijkheden is een regel HTML code die zoekmachine crawlers aangeeft hoe bepaalde pagina's moeten worden behandeld. De tag verteld crawlers dat ze de pagina niet mogen indexeren, dat ze de links moeten volgen en/of de inhoud moeten archiveren. Zorg er dus voor dat de pagina's met unieke en goede inhoud beschikbaar zijn voor indexering.

Redirects

Redirects zijn pagina’s die de bezoeker automatisch doorverwijzen naar een andere pagina. De manier waarop een pagina wordt doorverwezen bepaald of zoekmachines pagina’s indexeren en seo waarde toekennen aan de doel pagina’s

www vs non-www versies

Normaal gesproken zijn websites beschikbaar met en zonder "www" in de domeinnaam. Dit is een veel voorkomend probleem, waarbij anderen linken naar de website met en zonder "www". Als je dit probleem oplost voor jouw website, helpt dit te voorkomen dat er 2 versies in de zoekmachine indexen bestaan.

Hoewel indexatie van beide versies geen penalty veroorzaakt, is het aan te bevelen om maar 1 versie te hebben, voornamelijk om de maximale linkwaarde van pagina's te krijgen.

Je kunt de primaire www of non-www versie zien en aanpassen in het .htaccess bestand. Je kunt het voorkeursdomein ook aangeven in Google Webmaster Tools.

HTTP / HTTPS versies

Als de HTTP en HTTPS versies van jouw website niet goed ingesteld zijn, kunnen beide versies worden geïndexeerd en dubbele inhoud problemen veroorzaken. Om deze problemen op te lossen, is het aanbevolen om 1 versie (HTTP of HTTPS, afhankelijk van de inhoud van de pagina) als prioriteit in te stellen.    

Je kunt de primaire HTTP of HTTPS versie van jouw pagina's instellen mbv rel="canonical" tag, of met een apart robots_ssl.txt bestand met indexatie regels voor de beveiligde versie van jouw website.    

302 redirects

302 redirects zijn tijdelijk en sturen dus geen linkwaarde door. Als je ze gebruikt in plaats van 301 redirects, kunnen zoekmachines de oude pagina blijven indexeren en de nieuwe pagina negeren ivm dubbele content of ze kunnen de link populariteit verdelen tussen de 2 versies wat leidt tot lagere posities.

301 redirects

301 redirects zijn permanent en worden doorgaans gebruikt om problemen met dubbele content op te lossen of als URLs niet langer meer nodig zijn. Het is absoluut legitiem om 301 redirects te gebruiken en het is goed voor SEO omdat een 301 redirect linkwaarde van de oude naar de nieuwe pagina stuurt. Stuur dus oude URLs door naar nieuwe relevante pagina's.  

Pagina’s met meerdere redirects 

In sommige gevallen, door een slecht htaccess bestand of andere maatregelen, kan een pagina 2 of meer redirects krijgen. Het is aanbevolen om deze redirects te vermijden omdat ze kunnen leiden tot de volgende problemen:

  • Er is een grote kans dat de pagina niet wordt geïndexeerd door Google omdat Googlebot niet meer dan 5 redirects volgt.
  • Teveel redirects leiden tot langzamere pagina's
  • Hoge bounce rate: gebruikers willen niet wachten op een pagina die langer dan 3 seconden nodig heeft om te laden      

Meta refresh

Meta refresh kan in strijd zijn met Google's Kwaliteit Richtlijnen en is daarom vanuit het oogpunt van SEO niet aanbevolen.

Volgens Google: 

"In het algemeen adviseren wij om meta-refresh redirects niet te gebruiken, omdat dit verwarring kan veroorzaken bij bezoekers en zoekmachine robots. Momenteel veroorzaakt het geen problemen mbt crawlen, indexeren of positionering, maar het is wel aan te bevelen om dit aan te passen naar een permanente 301 redirect."     

Voorbeeld:
<meta http-equiv="refresh" content="5; url="https://example.com/">

rel=”canonical”

Meestal worden dubbele URLs verholpen met 301 redirects. Soms, wanneer er bijvoorbeeld producten in 2 verschillende categorieën staan met 2 verschillende URLs en beide live moeten zijn, kun je beter een prioriteit aangeven dmv rel="canonical" tags. Dit moet correct ingesteld worden in de <head> tag van de pagina en verwijzen naar de pagina versie die goed moet scoren in de zoekmachines.

Voorbeeld: <link rel="canonical" href="https://blog.example.com/dresses/green-dresses-are-awesome" />

Kijk voor meer informatie op Google: https://support.google.com/webmasters/answer/139066?hl=nl

Code en technische factoren

Om goed geïndexeerd te kunnen worden moet de website technisch in orde zijn.

Tijd om de website eens grondig onder de loep te nemen.

HTTPS pagina’s met gemixte inhoud problemen

Het issterk aanbevolen om beveiligde encryptie te gebruiken voor veel websites (bijvoorbeeld websites die vertrouwelijke informatie of transacties verwerken.) Vaak ondervinden webmasters problemen bij het switchen van HTTP naar HTTPS. 1 van deze problemen is gemixte inhoud - wanneer HTTPS pagina's inhoud via HTTP bevatten.

Wanneer een HTTPS pagina inhoud via HTTP bevat, dan gaat dit ten koste van de veiligheid van de hele pagina omdat het niet beveiligde gedeelte toegankelijk is voor sniffers. Om deze reden wordt deze inhoud door veel moderne browsers geblokkeerd of wordt er een "onveilige verbinding" waarschuwing weergegeven.

Volgens Google zijn er 2 typen gemixte inhoud:

actief en passief.

Passieve gemixte inhoud is inhoud die niet communiceert met de rest van de pagina en een man-in-the-middle aanval is dus beperkt tot het bewerken van deze inhoud. Passieve gemixte inhoud zijn bijvoorbeeld afbeeldingen, video en audio inhoud. Actieve gemixte inhoud communiceert wel met de rest van de pagina en stelt de aanvaller in staat om veel te doen met de pagina. Voorbeelden van actieve gemixte inhoud zijn scripts, iframes, flash bronnen en andere code die de browser kan downloaden en uitvoeren.  

Mobiel vriendelijkheid

Omdat steeds meer mensen internetten via de mobiele telefoon, is het ook steeds belangrijker dat websites mobielvriendelijk zijn.

Volgens Google heeft het mobiel vriendelijk algoritme invloed op mobiele zoekopdrachten in alle talen wereldwijd en heeft het een significante impact op de posities in de zoekresultaten van Google. Het algoritme werkt per pagina - het gaat er niet om hoe mobielvriendelijk jouw pagina's zijn (%), maar gewoon of de pagina mobielvriendelijk is of niet. Het algoritme is gebaseerd op criteria als kleine letter typen, klikbare links, leesbare inhoud, etc.  

Op https://www.google.com/webmasters/tools/mobile-friendly/?hl=nl kun je jouw webpagina testen.  

dubbele rel=”canonical”

Dubbele rel=canonical code op de pagina is een veel voorkomend probleem dat vaak veroorzaakt wordt door SEO plugins. In het geval van meerdere rel=canonical declaraties, negeert Google ze waarschijnlijk allemaal, waardoor jouw poging om dubbele inhoud problemen te voorkomen mislukt.

frames

Frames werden vroeger veelvuldig gebruikt en zijn externe html pagina’s die op de website worden weergegeven.

Met Frames kun je meer dan één HTML document tonen in hetzelfde scherm. Hierdoor kunnen zoekmachines belangrijke tekst en hyperlinks missen.

Als je Frames gebruikt kunnen zoekmachines jouw pagina inhoud niet goed indexeren. Dit kan een negatieve invloed hebben op jouw zoekmachine posities.    

W3C fouten en waarschuwingen

Zoekmachine spiders kunnen correcte code makkelijker indexeren. Daarom moet HTML code correct en vrij van fouten zijn. CSS, die het design en de lay-out van de website regelt, en ervoor zorgt dat pagina's kleiner zijn en sneller laden, moet ook foutloos zijn. Als 1 van de tags niet is afgesloten, kunnen zoekmachine spiders een hele sectie van de pagina missen met indexeren. Hierdoor wordt de pagina minder waard.    

De validatie wordt meestal gedaan via de W3C Markup Validation Service. En hoewel het niet verplicht is en niet direct een impact op SEO heeft, kan slechte code indexering problemen veroorzaken.

Het is dan ook aan te bevelen om slechte code te verbeteren om indexering problemen voor zoekmachine spiders te voorkomen.    

HTML validator: https://validator.w3.org/ 

CSS validator: https://jigsaw.w3.org/css-validator/ 

Te grote pagina’s

Als je pagina's hebt die te groot zijn, kan dit de gebruikerservaring en zoekmachine posities beïnvloeden. Daarom is het belangrijk om de grootte van de pagina's te beperken zodat ze sneller laden.    

Hoe groter de pagina, hoe lager de laadsnelheid. De laadsnelheid is ook een belangrijke positie factor.

Grote pagina's duren langer om te laden. Probeer dus om de pagina kleiner dan 256kB te houden.

Natuurlijk is dit niet altijd mogelijk. Als je bijvoorbeeld een e-commerce website hebt met een groot aantal afbeeldingen, kan dit oplopen tot meerdere kilobytes. Dit kan tot lange laadtijden leiden voor gebruikers met een langzame internetverbinding.    

URLs

URLs moeten goed leesbaar zijn en niet te lang.

Dynamische URLs

URLs die dynamische karakters als "?", "_" en parameters gebruiken zijn niet gebruiksvriendelijk omdat ze niet beschrijvend zijn en moeilijker te onthouden. Om te zorgen dat jouw pagina's beter scoren, is het beter om beschrijvende URLs te gebruiken die zoekwoorden bevatten en geen nummers of parameters.

Te lange URLs

 URLs die kleiner zijn dan 115 karakters zijn makkelijker leesbaar door gebruikers en zoekmachines en werken gebruiksvriendelijker.

Links

Links hebben een grote invloed op het SEO succes van de website.

Gebroken links

 

Gebroken uitgaande links kunnen een slecht signaal zijn naar zoekmachines en gebruikers. Als een website veel gebroken links heeft, gaan ze ervan uit dat de website niet meer actief wordt bijgehouden. Dit heeft als gevolg dat de posities slechter worden.

Daarnaast wordt jouw website gebruiksvriendelijker als er geen links naar niet-bestaande pagina's op staan.

Pagina’s met erg veel links

Volgens Matt Cutts (voormalig hoofd van Google's Webspam team), "... er is nog steeds een goede reden om te proberen beneden de 100 links te blijven: gebruiksvriendelijkheid. Als je meer dan 100 links per pagina toont, kan dit overstelpend werken op de gebruikers en hun een slechte gebruikerservaring geven. Een pagina kan er goed voor jou uitzien, totdat je jouw "gebruikers pet" opzet en ziet hoe het eruit ziet voor een nieuwe gebruiker".

Hoewel Google gebruikerservaring blijft benadrukken, kunnen teveel links ook een negatieve impact hebben op jouw posities. Het is heel simpel: hoe minder links, hoe beter de posities.

Probeer dus het aantal uitgaande links (interne en externe) onder de 100 te houden.

Dofollow externe links

 Simpel gezegd zijn dofollow links, links zonder het rel="nofollow" attribuut. Zulke links worden gevolgd door de zoekmachines en geven PageRank door (let op dat links ook worden uitgesloten van volgen dmv de nofollow <meta> tag).

Hoewel er niets mis is met het linken naar andere websites mbv dofollow links, kunnen zoekmachines concluderen dat jouw website links verkoopt of deelneemt in andere link constructies en daardoor jouw website straffen.    

Afbeeldingen

Afbeeldingen zijn belangrijk om bezoekers op de pagina’s te houden en bieden een kans om extra beschrijvende zoekwoorden te gebruiken op de pagina.

Gebroken afbeeldingen

Hoewel gebroken afbeeldingen op de website, niet direct gelinkt zijn aan zoekmachine posities, moeten ze wel worden opgelost.

Ze zijn namelijk een belangrijke factor voor user experience en kunnen leiden tot bezoekers die weggaan, zonder dat ze gevonden hebben waar ze voor kwamen. Daarnaast kan het ten koste gaan van het zoekmachine crawl budget, waardoor belangrijke inhoud gemist kan worden tijdens het crawlen door de zoekmachines.    

Lege alt tekst

 Omdat zoekmachines geen tekst uit afbeeldingen kunnen lezen, kunnen alt attributen de zoekmachines helpen om de inhoud te begrijpen.

Maak een alt tekst voor elke afbeelding, en gebruik zoekwoorden indien mogelijk om zo de zoekmachines te helpen, de pagina inhoud beter te begrijpen en betere posities in de zoekresultaten te krijgen.    

On-page

Pagina inhoud moet uniek, bondig en informatief zijn. Dit onderdeel checkt of de belangrijke pagina onderdelen bestaan, gevuld zijn en of ze uniek zijn.

Lege title tags

Als een pagina geen titel heeft, of als de title tag leeg is (in de code ziet het er zo uit: <title></title>), kunnen Google en andere zoekmachines zelf bepalen welke tekst ze tonen als jouw titel in de zoekresultaten. Dus als een pagina getoond wordt in de zoekresultaten, kan het zijn dat men er niet op klikt omdat de titel er niet aantrekkelijk uitziet.

Wanneer je een webpagina maakt, is het dus belangrijk om een beschrijvende, pakkende titel te bedenken die er aantrekkelijk uitziet voor potentiële bezoekers.

Dubbele titels

Een pagina titel wordt vaak behandeld als het belangrijkste on-page element. Het is een belangrijk signaal voor de zoekmachines, omdat het vertelt waar de pagina over gaat. Het is belangrijk dat de titel jouw belangrijkste zoekwoord bevat. Daarnaast moet een titel uniek zijn, zodat zoekmachines kunnen bepalen welke pagina bij welk zoekwoord past. Pagina's met dubbele titels hebben een kleinere kans op hoge posities. Dubbele titels kunnen ook een negatieve invloed hebben op de positie van andere pagina's.

Te lange titels

Elke pagina moet een unieke title hebben die zoekwoorden bevat. Tegelijkertijd moet je de titel beknopt houden. Titels, langer dan 55 karakters, worden afgekort door zoekmachines en zien er onaantrekkelijk uit. Ook al staat jouw pagina op de eerste pagina in de zoekresultaten, dan worden de titels nog afgekort en zullen ze minder klikken krijgen dan anders.

Lege Meta description

Hoewel meta descriptions geen directe invloed hebben op de zoekmachine posities, zijn ze toch belangrijk omdat ze het fragment vormen dat men ziet in de zoekresultaten. Meta descriptions moeten dus de webpagina "verkopen" en ervoor zorgen dat men erop klikt.

Als de meta description leeg is, bepalen zoekmachines zelf wat ze in het fragment zetten. Vaak is dit de eerste zin op de pagina. Het resultaat kan er onaantrekkelijk en irrelevant uitzien.

Daarom moet je meta descriptions schrijven voor jouw webpagina's (in ieder geval voor jouw landingspagina's) en marketing tekst toevoegen die gebruikers overhaalt om erop te klikken.

Dubbele meta descriptions

Volgens Matt Cutts is het beter om unieke meta descriptions of zelfs helemaal geen meta descriptions te hebben, dan om dubbele meta descriptions te gebruiken.

Zorg er dus voor dat jouw belangrijkste pagina's unieke en geoptimaliseerde meta descriptions hebben.

Te lange Meta descriptions

Als de meta description te lang is, worden ze afgebroken door de zoekmachines. Dit kan er onaantrekkelijk uitzien.

Download SEO PowerSuite Gratis

Ongeldige invoer
Ongeldige invoer
Ongeldige invoer
© 2019 Cloud Workx - Zevenblad 23, 7623 CH Borne, Nederland | KVK 08144910 +31 (0)53-2340100