Aangemaakte reacties
-
AuteurBerichten
-
22 januari 2016 om 9:03 pm In reactie op: Wisselende SERP resultaten afhankelijk van ipadres? #28525
Bij het zoeken via de wifi kan Google de zoekresultaten op locatie personaliseren op basis van je IP-adres. Bij 3G kan Google dat in principe ook, maar dan is de methode anders: dan gaat het op basis van afstanden tot zendmasten. Dit verschil kan ook de zoekresultaten doen variëren.
Serp Mojo zal de resultaten checken op basis van de connectie die je op dat moment hebt met je mobiel. Dat kan dus op basis van IP (wifi) of op basis van zendmasten (3G) zijn.
Hou er verder rekening mee dat serp checkers meestal ook lokale zoekresultaten (dus resultaten bij de maps) meenemen. Als je in de ene situatie wel een map krijgt en in de andere niet, kan dat dus zomaar enorme verschillen geven in de gemeten rankings.
Ik zie dat de profielpagina’s nu wel opgepakt worden. Bijvoorbeeld http://sportentrainer.nl/profiel/trainer/alex-treuren-1993/ staat netjes in de cache van google.
Althans, ‘netjes’ is niet het juiste woord: de homepage staat in de cache van de alex treuren pagina. Hoe komt dat? Welnu, dat komt door de volgende regel in de head-sectie van de alex treuren pagina:
Door die regel zeg je tegen google dat niet de betreffende pagina, maar de /profiel/-pagina de canonieke (hoofd-)pagina is. Je gebruikt die code bij dubbele content situaties. Nu redirect die /profiel/-pagina vervolgens naar de homepage. Daarom wordt de homepage geïndexeerd bij de alex treuren pagina. Een rommeltje dus….
Oplossing: haal die hele canonical-regel weg (of verwijs de canonical naar de pagina zelf). Dan komt het helemaal goed…
Geen van je profiel-pagina’s wordt door Google geïndexeerd. Ik denk dat dat komt door de href constructies die je toepast op http://sportentrainer.nl/bekijksportaanbod/, om de profielpagina’s aan te roepen. De ankertekst van de href blijkt een stuk code met div, image, h5, etc. Dat is geen valid html, waardoor het onvoorspelbaar wordt wat de Google crawler doet. Ik vermoed dat Google de links daarom niet volgt en daarmee de profielpagina’s niet indexeert.
Zie ook 1e antwoord in deze discussie: https://moz.com/community/q/is-using-a-href-in-div-ok
Er zitten sowieso erg veel fouten in de pagina: https://validator.w3.org/nu/?doc=http%3A%2F%2Fsportentrainer.nl%2Fbekijksportaanbod%2F
Het kan allebei. Het nadeel van de eerste is dat wanneer een product onder meerdere categorieën hangt, je dus meerdere URL’s met dezelfde content krijgt, wat je vervolgens moet oplossen met de rel=canonical. Op zich is dat SEO-technisch gezien prima, maar in de implementatie ook wel wat complexer. Daarom neig ik steeds vaker naar de tweede oplossing.
Als het kan de laatste.
@Feet Vaak is er angst om aan de website te sleutelen omdat de site al op belangrijke zoekwoorden goed scoort. Ik raad je aan je daardoor niet te laten stoppen, en er gewoon op een intelligente manier verder aan te bouwen. Schrik niet van schommelingen na aanpassingen aan de site.
Voor je hoofdkeyword is het goed als er pagina’s komen over gerelateerde zoekwoorden. Als het op dit moment je homepage is waarop je hoofdzoekwoord goed scoort, zou ik op de homepage wel unieke tekst (rond je hoofdzoekwoord) houden als je overstapt naar een dynamische homepage.
Privacy issues spelen wel bij Google Analytics, maar bij mijn weten niet bij de Search Console. Maar als ik hier fout zit, hoor ik dat graag!
Beide tools (KWfinder en Moz) werken op basis van de moeilijkheid van de top10-zoekresultaten op betreffend zoekwoord. KWfinder gebruikt daarbij getallen van MajesticSEO (trustflow, citationflow) en Moz gebruikt hun eigen getallen (MozTrust, MozAutority, etc.). KWfinder gebruikt daarbij ook PageRank (PR) en een aantal sociale signalen (FB likes, Google +1’s). Juist op dat punt lijkt me KWfinder wat slechter: PR is al twee jaar niet meer geüpdatet en Google maakt geen gebruik maakt van sociale signalen als FB likes. Ik zou dus Moz gebruiken.
Ik heb het even bij mijn eigen site bekeken, en zie daar inderdaad hetzelfde: als ik in de individuele klikken optel is dat een stuk lager dan het ‘Totaal aantal klikken’ dat de search console aangeeft. Overigens geldt dit ook voor het aantal vertoningen.
Dit zou impliceren dat (als we van de juistheid van het ‘Totaal aantal klikken’ cq ‘vertoningen’ uitgaan) niet alle zoekopdrachten die tot klikken/vertoningen hebben geleid, worden weergegeven. Maar bevredigend is dit antwoord niet, daar ook zoekopdrachten met slechts één klik/vertoning worden getoond. Als ik kijk naar de zoekopdrachten die in search console worden getoond, vermoed ik echter dat er wel degelijk zoekopdrachten worden weggelaten, namelijk de long-long-tail.
Dag Lisa, fijn dat het boek je verder heeft geholpen.
Als alle zoekwoorden een hoge concurrentie hebben (ik neem aan dat je doelt op de concurrentie in de zoekwoordplanner, en je het dus hebt over de AdWords-concurrentie), dan zou ik mij niet op voorhand laten afschrikken. AdWords- en organische-concurrentie zijn immers niet hetzelfde. Maar goed, als je niet verwacht, gegeven je tijd en middelen, organisch te kunnen concurreren, dan zou je kunnen onderzoeken of er ook interessante zoekwoorden in de long-tail te vinden zijn.
21 december 2015 om 1:03 pm In reactie op: geen/te weinig bezoekers; ajax op www.huisje-met.nl #28489Op vele punten gaat het inderdaad mis met je (op zichzelf mooie) site. Het is echter ondoenlijk die hier allemaal op te sommen. Lees daarom: https://www.seoguru.nl/seo-blog/sorteren-filteren-bladeren/. Dan zullen de meeste basale problemen in ieder geval duidelijk worden. Succes!
Je moet een 301-redirect leggen van alle oude URL’s naar de overeenkomstige nieuwe URL’s. Het makkelijkste is dus de situatie dat oude URL’s (op domeinnaam na) identiek zijn aan de nieuwe. Dan kan je (via de .htaccess) via regular expressions e.e.a. in één regel definiëren. Indien URL’s echter veranderen, dan zal je ze één voor één moeten definiëren. Als het aantal URL’s heel groot is, pak dan in ieder geval de belangrijkste pagina’s, d.w.z.:
1. de pagina’s die de minste muisklikken hebben vanaf de homepage.
2. de pagina’s die de meeste inkomende links krijgen.
Als je geen goede overeenkomstige URL kan vinden in de nieuwe site, leg de 301 dan naar de pagina die er zoveel mogelijk op lijkt of naar een pagina één stap hoger in de structuur óf naar de homepage.21 december 2015 om 12:48 pm In reactie op: Hreflang op US, terwijl UK belangrijkste doelgroep is, verstandig om aan te passen? #24464Als je je niet op een beperkt aantal landen of talen richt, zou ik helemaal geen gebruik maken van de hreflang. Als de site zich alleen richt op de UK, dan is het wel handig de hreflang in te zetten (uiteraard met UK en geen US).
2 december 2015 om 10:24 am In reactie op: .name domeinen doorverwijzen (301) naar je website? #28476En wanneer je allemaal willekeurige .nl domeinen laat doorverwijzen naar (pagina’s) op je website?
Worden deze zogenaamde “lege” domein namen wel gevonden/opgepakt door google?Als er geen links liggen naar die ‘lege domeinen’ dan zal Google die domeinen niet zien.
Heb je een Google+ pagina aangemaakt en gekoppeld aan je site? Zorg dat je daar het juiste adres aangeeft. Dit kan je doen via de Google dienst ‘Google Mijn Bedrijf‘
Verder zou je kunnen overwegen de bedrijfs/adresinfo op de site te coderen via schema.org/JSON-LD/Organization. Hier meer info van Google.
-
AuteurBerichten
Gerelateerde berichten:
- Google Analytics alternatieven 23 december 2024 Hi allemaal, ik ben op zoek naar alternatieven voor GA4 om organische omzet te meten. Hebben jullie aanbevelingen? Dankjewel!