Aangemaakte reacties
-
AuteurBerichten
-
DA is een begrip van Moz en niet van Google. Sterker: Google zegt helemaal niet met zoiets als een Domein Autoriteit te werken. Bij de keuze die je voorlegt zou ik daarom gaan voor relevantie.
Googlebot haalt alles vanaf de hashtag (#) weg uit de URL. Feitelijk is er dus maar één URL, namelijk https://mijnsite/food-events/eventnaam/. Daarmee is er -vanuit Googlebot bezien-, ondanks de vele verschillende links, maar één pagina. Googlebot zal die pagina daarmee ook maar één keer uitlezen. Het gaat dus niet ten kosten van het crawlbudget die iedere site krijgt.
Jouw robots.txt-regel zet de gehele site inderdaad dicht, omdat in de robots.txt een hashtag wordt beschouwd als een comment. Feitelijks staat er nu dus:
Disallow: */
En hiermee staat de hele site op disallow. Je kan dat hier testen: https://technicalseo.com/tools/robots-txt/
Hier meer info over het gebruik van de hashtag in de robots.txt:
https://developers.google.com/search/docs/advanced/robots/robots_txt#syntaxDe relatie met de Google maps API ken ik verder niet.
19 oktober 2021 om 3:18 pm In reactie op: Nieuwe website: Hoe om te gaan met afbeeldingen indexering? #40668- Tekst rond afbeeldingen hetzelfde, vooral caption (regel onder afbeelding)
- Inhoud en kwaliteit afbeelding hetzelfde of beter
- Interne linkstructuur niet te veel afwijkend (i.v.m. PR pagina en daarmee afbeelding)
- Positie afbeelding op pagina gelijk
- URL afbeelding gelijk (met zoekterm idealiter in naam bestand)
Google heeft daar geen enkel probleem mee. Organiseer je mappen zoals je dat zelf ’t prettigst vindt.
12 augustus 2021 om 5:12 pm In reactie op: Search Console: gevonden – momenteel niet geïndexeerd? #40636Dag WZ,
Ik heb het even nagekeken, maar bij bijna alle sites die ik onder handen heb (en dat zijn er heel wat) wordt deze melding in de Google Search Console vertoond.
Verder lees ik in de Engelstalige toelichting op deze melding: “The page was found by Google, but not crawled yet. Typically, Google wanted to crawl the URL but this was expected to overload the site; therefore Google rescheduled the crawl. This is why the last crawl date is empty on the report.”
Dat is dus iets anders dan dat de site overbelast was. Ze verwachtten dat de site overbelast kon raken.
Je moet weten dat iedere site een bepaald crawlbudget heeft, d.w.z. een bepaalde hoeveelheid tijd die Google uittrekt om de site te crawlen. Het crawlbudget wordt bepaald door de links naar je site. Veel/krachtige links naar de site betekent een hoger budget. Tijdens het inlezen van een pagina ontdekt Google allemaal links op die pagina. Die worden achterin de wachtrij geplaatst, om later uit te lezen en daarmee te indexeren. Als er veel links op de pagina’s staan en het crawlbudget is klein, dan hou je een lange wachtrij over, die later alsnog ingelezen en dus geïndexeerd kan worden. En ik vermoed dat die overgebleven lijst een belangrijke basis vormt voor de melding ‘gevonden – momenteel niet geïndexeerd’.
Ik zou er dus niet van schrikken.
Als je vermoed dat de site te traag is, dan kan je dat ’t beste checken via Google Pagespeed Insights.
Ps. ‘autoriteit’ heeft niet te maken met de snelheid van de site. Autoriteit wordt berekend o.b.v. de backlinks.
Dag Isabel,
Je posities in Google hebben niet direct iets te maken met de omgeving (het CMS) waarin de site is gebouwd. Het gaat om de output ervan. Dan moet je denken aan de URL’s, de meta-title en meta-description, de uitvoering van de kop (meestal in een H1), meta-canonicals, hreflang’s, redirects, etc. etc. Als beide CMS-en op html-niveau dezelfde output geven dan verandert er ook niets aan je posities.
Maar meestal veranderen dergelijk zaken wél, of in ieder geval gedeeltelijk. Dat kan dan dus wél effecten geven op je posities.
Het omschakelen tussen CMS-en is meestal veel gedoe en er kan veel fout gaan. De grootste problemen ontstaan meestal doordat URL’s veranderen. Als dat bij jou niet het geval is, is er al veel tijd gewonnen.
Ik zeg het niet vaak in dit forum, maar omdat ik via dit forumbericht niet alle mogelijke fouten op een rijtje kan zetten raad ik je aan een goede SEO-expert te laten meekijken met de omzetting.
En lees ook de documentatie van Google hieromtrent:
https://developers.google.com/search/docs/advanced/crawling/what-is-site-move
Bij duplicate content situaties (zoals bij jou) indexeert Google normaal gesproken één van de pagina’s (met dubbele content). De anderen vallen uit de index. Dat is jammer, want die andere pagina’s hebben misschien ook backlinks en dus pagerank wat je zodoende kwijt raakt. De manier om krachten van al die dubbele content pagina’s te bundelen in één pagina is de toepassing van de rel=canonical.
Hier meer info van Google over de rel=canonical.
Als je in de pagina’s van je subdomein-shops de rel=canonical opneemt naar de overeenkomstige pagina’s in je hoofddomein-shop wordt de kracht gebundeld in het hoofddomein en zal Google alleen nog pagina’s van het hoofddomein gaan tonen. De vraag is dan wel waarom je de subdomein-shops nog zou aanhouden.
Probleem 1
Heb even de zoekresultaten bekeken (vanuit Antwerpen) en zie -boven jouw zoekresultaat dat nu op 3e positie staat- vier advertenties en een ‘Mensen vragen ook’-blok. Een CTR van 5% is weinig, maar daardoor mogelijk wel te verklaren. Verder moet je je beseffen dat de zoekvolumes zoals die worden aangegeven in de zoekwoordplanner méérdere woorden kunnen omvatten, bijvoorbeeld ook ‘websites laten maken’ (meervoud). Bij die zoekterm sta je nu op positie 4. Misschien ook spreken title/description niet zo tot de verbeelding van de zoeker. Je presenteert je aldaar als ‘jonge hond’ (ik hoop dat die uitdrukking in belgië ook bestaat, betekent: snelle jongen) en misschien willen de zoekers in meerderheid wel een wat meer gevestigd bedrijf. Ik weet het niet. Ga overigens niet te veel prutsen aan je Title, want dat kan stevige effecten op de rankings. Maar de Description kan sowieso wat langer.Probleem 2
10% conversie op je contactpagina lijkt mij niet bijzonder laag.Pagina’s krijgen hun scorend vermogen door de (zichtbare!) links die ernaar verwijzen. Dat betreft backlinks vanaf andere sites, maar ook interne links. Die interne links zijn voor Google nu feitelijk afwezig. Als er bovendien geen backlinks heen liggen, dan het scorend vermogen van de pagina minimaal, ook al zou Google de pagina kennen via de sitemap.
Wat je bij jouw site ziet, zie je bij heel veel sites. Filterpagina’s (landelijke badkamers) zijn niet bereikbaar via een gewone hyperlink (op html-niveau een ‘a href’). Filterpagina’s verschijnen doordat er een checkbox wordt aangevinkt.
Googlebot gaat echter geen checkbox aanvinken, die ontdekt pagina’s via de gewone ahref-hyperlinks. Daardoor is je ‘landelijke badkamers’-pagina niet zichtbaar voor Google en kan die dus ook niet gevonden worden op de woorden waarop je die pagina hebt geoptimaliseerd.
Dit kan je checken door -in de chrome browser- voor de url het woord ‘cache:’ in te type. Dan verschijnt er een 404-pagina.
15 april 2021 om 4:27 pm In reactie op: Permalinks in de wordpress URL: first level of second level #40548Niet de diepte van de URL is bepalend voor de kracht die een pagina krijgt, maar het aantal muisklikken die de pagina vanaf de homepage (die normaal gesproken de sterkste pagina van de site is) ligt.
Lees dit: https://www.seoguru.nl/seo-blog/seo-sitearchitectuur/
Er lijkt zoiets te bestaan als een ‘TrustRank’, waarbij uitgaande links (dus links vanaf de eigen site naar externe sites) naar ‘onbetrouwbare’ sites zoveel mogelijk beperkt moet worden voor een hoge trust (van de eigen site). Een uitgaande link naar een site zonder SSL-certificaat zou dan in theorie een site kunnen zijn met een relatief lage trust.
Als een dergelijk mechanisme al bestaat, dan zou dit alleen een negatief effect kunnen hebben als een relatief groot aandeel van de uitgaande links naar sites zonder SSL-certificaten ligt. Als het slechts om een relatief beperkt aantal links gaat waarvoor dit geldt, zou ik mij totaal geen zorgen maken.
Nee, dat zou ik niet doen. Ook voor de vindbaarheid van de afbeeldingen wil je een vaste alt-tekst. Probeer een zuiver pad te vinden. Focus op kwaliteit.
Ik vermoed noch voordelig, noch nadelig. Het is niet ongebruikelijk dat bepaalde lijsten op iedere pagina terugkomen. Dus het zal niet nadelig uitpakken. Voordeel is er ook niet, omdat Google prima doorheeft dat het dezelfde lijsten betreft ook al zijn ze anders geordend.
Beide oplossingen zijn goed. Cruciaal is dat je gebruik maakt van de hreflang-metainstructie om Google duidelijk te maken op welk land/taal de pagina gericht is en onder welke URL’s de equivalenten in de andere landen/talen te vinden zijn.
https://developers.google.com/search/docs/advanced/crawling/localized-versions
-
AuteurBerichten