SEO training-, kennis- en adviescentrum › SEO forum › SEO vragen en discussies › Krijg sitemaps niet goed geïndexeerd
- Dit onderwerp is leeg.
-
AuteurBerichten
-
-
23 oktober 2012 om 6:09 pm #23342
Voor een website, Bluray database, heb ik voor het eerst gebruik gemaakt van een “sitemap index”. Een sitemap genaamd sitemap.xml met linkjes naar mijn andere sitemaps. Alleen denk ik dat hierdoor mijn sitemaps niet goed geïndexeerd worden, kan dit kloppen?
In Google webmasters staat het volgende: 2.818 URL’s verzonden – 54 URL’s geïndexeerd.
In webmasters heb ik alle sitemaps toegevoegd. Zie ook onderstaande screenshot.
Opvallend is vooral dat /sitemap.xml totaal 1.409 items heeft. Dat is /sitemap-overig.xml en /sitemap-films.xml opgeteld. Daarnaast begrijp ik niet waarom niet alle items geïndexeerd worden.
Even wat feiten: Er zijn geen problemen met de URLs (404s e.d.). De site is vrij nieuw maar dit probleem doet zich al enkele weken voor. De site of sitemap word niet geblokkeerd. En misschien wel het raarst van allemaal.. het heeft een periode gewerkt (zie grafiek).
-
24 oktober 2012 om 12:29 pm #27582
Met een sitemap doe je suggesties aan zoekmachines. Het is geen hard feit dat als je een sitemap hebt dat je pagina’s ook geindexeerd worden.
Daarom kan dit probleem verschillende oorzaken hebben. Bijvoorbeeld doordat te veel pagina’s op elkaar lijken. Of doordat Google niet geïnteresseerd is in dat deel van de site.
Ze hebben bijvoorbeeld algoritmes om te beoordelen waar de verschillende secties van een site overgaan en als ze niet kunnen beoordelen wat het onderwerp is van elke pagina laten ze het links liggen.
Daarnaast beoordelen ze hoe verschillend die content is ten opzichte van bestaande content. Als het bijvoorbeeld “duplicate content” is zal Google het ook links laten liggen.
Wat verder belangrijk is, is hoeveel fouten er door Google gevonden worden. Ik heb hier niet naar gekeken, maar als een sitemap of de links in de sitemap veel foutmeldingen genereren stopt Google met op de sitemap te vertrouwen op je sitemap (en laat deze weer links liggen).
Verder zag ik dat je een heel erg uitgeklede variant gebruikt van een sitemap. Het officiele sitemaps protocol vind je hier: http://www.sitemaps.org/protocol.html
Ik denk overigens dat het probleem ligt bij de duplicate content. Ik heb een zoekopdracht gedaan op een paragraaf van één van je film pagina’s. Die tekst komt 2100 keer naar boven in Google.
Een van de grootste bioscoopsuccessen aller tijden brengt de ultieme confrontatie, wanneer krachtige buitenaardse wezens een invasie starten tegen de mensheid. Het spektakel begint als reusachtige ruimteschepen naderen. Verbazing slaat om in terreur als de schepen enorme vernietigende vuurstralen op steden over de gehele wereld richten. De hoop op overleven ligt nu in de handen van standvastige doordouwers, die samenspannen voor een laatste aanval tegen de indringers, alvorens de hele mensheid vernietigd wordt. Link naar zoekopdracht
-
24 oktober 2012 om 6:01 pm #27583
Hi Paul,
Bedankt voor de uitgebreide reactie. Duplicate content is nog een groot probleem voor de website maar moet geen reden zijn om de pagina’s helemaal op te nemen, toch? Dat die niet gaat ranken op deze manier had ik al wel bedacht.
Zo ver ik weet heb ik momenteel geen 404’s of andere errors op deze site (niets via free versie van Screaming Frog of Webmasters). Opbouw van de sitemap is inderdaad wel erg kaal maar ik gebruik wel alle verplichten attributen. Ik denk niet dat het toevoegen van lastmod of changefreq dit probleem oplost.
Zou het kunnen liggen aan de sitemap index? Dit is de eerste keer dat ik deze gebruik en zoals in de screenshot te zien klopt het “verzonden” aantal niet helemaal.
-
25 oktober 2012 om 9:02 am #23343
Uit je scherm afdruk blijkt dat Google de sitemap structuur in ieder geval oppakt. Google toont immers alle items van je sitemap (1400). Wat je overigens niet hoeft te doen is alle sitemaps toevoegen. Je hebt ze immers al in je sitemap.xml staan. Je kunt dus die sitemap-films en sitemap-overig verwijderen van WMT. Je meldt alleen sitemap.xml aan en die andere 2 worden dan automatisch gevonden en komen in WMT een niveau dieper te liggen.
Het probleem ligt denk ik toch ergens anders en niet bij je sitemap. Je krijgt inderdaad slechts 28 pagina’s terug als je een site:bluraydatabase.nl doet. En 24 als je in de folder film kijkt. Daarnaast is je domein vrij jong (juni 2012 geregistreerd).
Ook heb je een erg platte hiërarchie. Je hebt één folder /films/ en al je films staan daar in. Het lijkt er ook op dat Google enkel naar de eerste /films/ pagina kijkt. Vandaar het lage aantal geindexeerde pagina’s. Pagina 2, 3, enz worden niet gevonden in Google.
Ik denk dat je het moet zoeken in meer unieke content en een duidelijkere structuur.
Daarnaast lijkt het me slim om je log files te bestuderen. Welke pagina’s worden door Googlebot bezocht en met welke frequentie? Daaruit kan je afleiden wat Google belangrijk vind.
-
-
AuteurBerichten
Gerelateerde berichten:
- Het gaat niet om kwaliteit, maar kwantiteit 12 februari 2023 10 Links in grote blogs op de meest hoogwaardige sites met een DA van 50+ vs 10 links op schimmige copycat sites van startpagina =…
- Niet op Google zichtbaar en vraag over Google Search Console 2 februari 2022 Beste allemaal Ik ben bezig met een website en ik loop tegen het volgende aan. Er word momenteel maar een pagina op google getoond, de…
Je moet ingelogd zijn om een antwoord op dit onderwerp te kunnen geven.