Weet je nog niet welke dienst het beste bij jou past? Vraag dan vrijblijvend een strategische brainstormsessie aan!
We geven om elkaar, om anderen, om de resultaten van klanten.
In deel 1 zijn de basis-instellingen van Google Webmaster Tools besproken. En in deel 2 hebben we een begin gemaakt met het uitleggen van alle opties binnen Google Webmaster Tools. Daar gaan we in deel 3 verder op in. We houden hierbij Search Traffic (zoekverkeer), Google Index en Crawlen aan.
In dit overzicht zie je wat je de vorderingen zijn op het gebied van CTR (doorklikpercentage, vooral handig als je veel met descriptions aan het testen bent) en positie. En dat in combinatie met verschillende zoekopdrachten en (mobiele) apparaten.
Welke websites linken naar welk gedeelte van je site? En welke anchor text wordt er gebruikt (het stukje tekst dat gelinkt staat)?
Bekijk hier alle interne linkjes die je op je site hebt opgenomen. Let op: interne links zijn enorm belangrijk en handig om alle content op de website geïndexeerd te krijgen.
Zijn er handmatige acties door Google gevonden die op spam/misleiding duiden? Dan is dat hier te vinden. Als je jezelf aan de regels houdt en geen gekke dingen doet qua SEO, dan hoef je jezelf zeker geen zorgen te maken.
Alleen van belang voor sites die ook in het buitenland zichtbaar moeten zijn: gebruik je hreflang codes hiervoor of niet? Maak hier op de juiste manier gebruik van. Bekijk het complete artikel van Google over hreflang gebruik.
Is je website mobiel-vriendelijk? Hier vind je het antwoord. Een andere handige tool hiervoor is: https://www.google.com/webmasters/tools/mobile-friendly/
Het Google Index gedeelte bestaat uit 3 elementen:
Hier zie je hoeveel URL’s van je site zijn geïndexeerd. Kijk vooral onder het kopje ‘geavanceerd’ om te zien of er rare dingen zijn. Zo ja: zoom er dan dieper op in. Stel dat je meerdere URL’s ziet staan die zijn geblokkeerd door je robots.txt bestand, dan is het handig om dit bestand door te nemen op juistheid.
Hier zie je welke bronnen op je site geblokkeerd zijn voor indexatie van Google. Dit is belangrijk om te weten. Uiteraard wil je dat je websitecontent zo goed mogelijk geïndexeerd wordt in Google.
Wees hier ontzettend voorzichtig! Wij raden eigenlijk altijd aan om het robots.txt bestand te gebruiken als je bepaalde URL’s uit de zoekresultaten wilt hebben. Dan heb je de beste regie. Mochten er URL’s van je site veranderen, dan kun je dit instellen met 301-redirects.
Het menu van Crawlen bestaat uit verschillende submenu’s:
Bovenaan zie je dat er o.a. gekeken wordt naar DNS fouten (hebben te maken met de server) en naar het robots.txt bestand. Dit bestand kan je uploaden op je server en daarin Google informatie geven over wat wel en niet geïndexeerd mag worden.
Daaronder zie je of er eventuele URL fouten zijn. Bijvoorbeeld een link die naar een 404-pagina leidt. Wat handig is binnen Google Webmaster Tools, is dat het systeem direct laat zien op welk apparaat, welke fout ontstaat. Dit is enorm handig als je de fout wilt oplossen. Klik nu onderaan op een URL met foutmelding. Je ziet dan wat de foutmelding is, waar je dit kan oplossen en zodra je het hebt opgelost, kan je dat gelijk aangeven.
Ook hier laat Google Webmaster Tools de cijfers van de laatste 90 dagen zien. Er wordt onderscheid gemaakt naar 3 onderdelen: per dag gecrawlde pagina’s, per dag gecrawlde kilobytes en de tijd voor het downloaden van een pagina. En die laatste is het belangrijkst. De snelheid van je website telt niet alleen mee voor je vindbaarheid in Google, maar bepaalt ook of je sitebezoekers op je site blijven of niet.
Door de site te ‘fetchen als Google’, zie je hoe Google je webpagina bekijkt en ziet. Hierbij heb je 2 opties:
Via deze methode kun je testen of Google je site ziet zoals het hoort. Op het moment dat er na het ophalen bijvoorbeeld staat dat Google de pagina ‘gedeeltelijk’ ziet, dan kun je doorklikken om te zien waar het fout gaat. En dit uiteraard oplossen.
Daarnaast kun je via deze tool URL’s indienen bij Google. Dit is geen garantie dat je direct wordt opgenomen in de zoekresultaten. Maar het bevordert dit proces wel.
Met de Robots.txt tester is te zien of je robots.txt bestand goed werkt of dat het bepaalde inhoud blokkeert voor de crawlbots van Google. Het robots.txt bestand is een bestand waarmee je aan de zoekmachines kan vertellen wat er wel en niet geïndexeerd mag worden op je site.
Een sitemap is een makkelijke manier om aan Google te laten zien welke pagina’s er allemaal op je website staan. Er zijn verschillende type sitemaps. De meest reguliere is de XML Sitemap. Je voegt je sitemap toe door rechtsboven op de rode knop ‘Sitemap toevoegen/testen’ te klikken. Google Webmaster Tools laat direct zien of er problemen zijn of niet. Indien wel, kun je op het probleem klikken voor meer informatie.
Let op: het is goed mogelijk dat je een verschil hebt tussen verzonden URL’s en geïndexeerde URL’s. Dat heeft meerdere oorzaken. Zo kan het zo zijn dat bepaalde pagina’s op je site géén inkomende links hebben waardoor ze niet geïndexeerd worden.
Veel bedrijven die aan online marketing activiteiten doen, zoals adverteren en emailing, gebruiken hier campagne parameters voor. Daarmee is het makkelijker om de campagne te analyseren. Echter, deze URL’s met campagne parameter worden door Google geïndexeerd. Door in dit gedeelte van Google Webmaster Tools een aantal instellingen op te geven, voorkom je dat. Let wel op: je moet goed weten wat je doet om te voorkomen dat bepaalde pagina’s helemaal uit de zoekresultaten verdwijnen!
Mandy Nijhof
31 mei 2023
Ender Ozcam
24 mei 2023
Frank van Dijk
11 mei 2023