Aangemaakte reacties
-
AuteurBerichten
-
Er is geen harde regel voor het aantal zoekwoorden in een URL, maar op basis van ervaring adviseer ik niet meer dan 5 a 6 zoekwoorden in de URL op te nemen (woorden met weinig betekenis als ‘de’, ‘het’ en ‘een’ reken ik dan niet mee). Maar meestal zal het ook niet nodig zijn om zoveel zoekwoorden te gebruiken om de inhoud van de pagina te beschrijven. Het is zoals Gebruiker2500 aangeeft: gebruik de URL om de bezoeker te laten weten wat de inhoud van de pagina is en niet om de zoekmachine te ‘manipuleren’.
Ik wil je ook de raad meegeven om niet te veel te focussen op de zoekwoorden in de URL. De lengte van de URL speelt namelijk ook een rol. Google vindt pagina’s met een korte URL vaak belangrijker dan pagina’s met een lange URL. Dat is ook wel logisch, want de pagina’s met een korte URL’s zitten meestal hoger in de hiërarchie van de websitestructuur. Probeer de structuur daarom niet te diep te maken en houd de URL kort. Een voordeel van een korte URL is ook dat hij in zijn geheel zichtbaar is in de zoekresultaten. Daar heb je meer aan om bezoekers te overtuigen dan een lange URL met veel zoekwoorden, die maar deels getoond wordt in de URL.
Dat kan af en toe voorkomen. Google geeft zelf aan dat ze in sommige gevallen een alternatieve paginatitel tonen. Dat is het geval als:
1. de echte titel is erg kort
2. veel pagina’s in de site hebben dezelfde titel
3. de echte titel bevat erg veel zoekwoordenAls ik op jouw site kijk, lijkt in ieder geval optie 2 van toepassing. Mijn advies is te zorgen dat elke pagina een unieke titel heeft.
Heb je een voorbeeld van een site waar het probleem zich voordoet?
(neem eventueel een link via een url shortener op als je de echte url liever niet publiceert)Mogelijk ziet Google de pagina’s in een site als dublicate content (kopieën) en besluiten ze er één te laten zien in de zoekresultaten.
Met je naam in je profiel heb ik gezocht naar de sites die je bedoeld. Daarbij kwam ik een site tegen, waarbij de paginatitel (title) en metatag Description voor alle pagina’s hetzelfde was. De pagina’s zelf bevatten geen kopjes (h1 t/m h6) en relatief weinig tekst. Vaak als Google geen title tegenkomt, pakt hij de eerste kop als title, maar omdat er geen kop in de pagina staat, lukt dit niet. Mogelijk ziet Google de pagina’s daarom als kopieën (elke pagina heeft dezelfde titel)?
Het is een gok of het helpt, maar het kan in ieder geval geen kwaad elke pagina een unieke titel en description heeft. Ook zou je soms iets meer tekst op een pagina kunnen zetten (meer dan 1 paragraaf) met een kopje of subkopjes.
Hopelijk helpt dat.
In de pagina staat in de HTML code: (bovenin tussen en </head).
Je geeft zoekrobots daarmee opdracht de pagina niet te indexeren. Het is waarschijnlijk een standaard instelling die je nog moet aanpassen. Als je hem aanpast naar zal de pagina wel geïndexeerd worden.
Google Webmaster Tools (GWT) toont ook de dode links, die Google in het verleden tegenkwam. De meldingen in GWT kun je niet verwijderen. Na verloop van tijd verdwijnen de meldingen vanzelf als Google de dode links niet meer tegenkomt. Een melding in GWT betekent overigens niet dat de niet bestaande pagina ook in de zoekindex van Google staat.
Mijn advies: gebruikt een tool als Xenu Link Sleuth om te controleren of de site nog dode links bevat. Als dat uitwijst dat alle links in orde zijn, hoef je verder eigenlijk niets te doen. Je site is dan in orde en dat zou voldoende moeten zijn om je baas te overtuigen. De meldingen in GWT verdwijnen vanzelf, maar dat kan soms best lang duren.
Wat de beste keuze is, hangt van een aantal zaken af:
Voor de plek van de merknaam in de titel, hangt het er van af of je een sterke, bekende merknaam hebt. Is dat het geval, dan valt het te overwegen deze voorop in de titel te zetten. In de zoekresultaten valt de merknaam dan beter op, waardoor mensen eerder naar je site doorklikken. Achteraan in de titel kan dan overigens ook, het is ook een kwestie van smaak. Is je merknaam minder bekend, dan zou ik hem sowieso achteraan zetten.
Voor de afweging om enkelvoud of meervoud in de titel te gebruiken, moet je op het volgende letten:
– wat is gebruikelijk voor je product? Als het gezochte artikel meestal uit meer dan 1 exemplaar bestaat, gebruikt men meestal meervoud in de zoekopdracht. Je kunt dan ook beter meervoud in de titel gebruiken. Bijvoorbeeld: mensen zoeken vaker naar ‘zwarten velgen’ voor een auto, dan naar een ‘zwarte velg’, omdat je er meestal meer dan 1 nodig hebt.
– wil men aanbieders vergelijken of het product direct kopen? Mensen die verschillende aanbieders willen vergelijken, gebruiken vaak meervoud. Mensen die direct een aankoop willen doen, gebruiken waarschijnlijk eerder enkelvoud.Het hangt van jouw type pagina af wat het meest relevant is. Het kan helpen door de varianten in een zoekopdracht uit te proberen. Aan het type resultaten, zie je dan vaak wel of jouw pagina daar bij past. Zie je bij de meervoud-variant bijvoorbeeld alleen maar vergelijkingssites, terwijl jij dat niet bent, dan is de kans klein dat je een hoge positie krijgt als je meervoud gebruikt.
Op mijn site, staan nog andere invalshoeken waar je rekening mee kunt houden: Invalshoeken voor zoekwoorden onderzoek.
Succes!
1 februari 2011 om 6:31 pm In reactie op: Overzichtspagina, en antwoorden kort +uitgebreid op andere pagina. Wat te doen. #22208Het is niet nodig een noindex te gebruiken voor de overzichtspagina. Sterker nog, Google raadt het af content uit te sluiten van indexatie als deze dubbele inhoud bevat. Het is in dit geval het beste Google zelf te laten bepalen of de overzichtspagina (vragen.html) in de index thuishoort of niet. Het levert geen strafpunten op als je site dergelijke stukjes content dubbel heeft. Je hoeft je er geen zorgen over te maken.
In principe is 1x aan Google doorgeven genoeg. Als je dat al via de Webmaster Tools hebt gedaan, hoef je hem niet meer in de robots.txt te zetten. Maar het kan natuurlijk wel zijn dat een andere zoekmachine hem in de robots.txt tegenkomt. Dat zou dan nog een reden kunnen zijn hem daar toch te noemen.
De stelling dat Google straffen uitdeelt voor dubbele content is niet helemaal juist (zie bijv. http://www.toprankblog.com/2010/10/duplicate-content-seschi10/). Het kan wel zijn dat wanneer twee of meer pagina’s (vrijwel) dezelfde inhoud hebben, er maar één in de index wordt opgenomen. Zo’n filter lijkt in de praktijk natuurlijk erg op een straf, want je pagina is niet meer zichtbaar, maar strikt genomen is het geen ‘penalty’.
Teksten overnemen van fabrikanten met slechts een paar minimale aanpassingen zal waarschijnlijk wel als duplicate content gezien worden. Als de pagina alleen deze ene tekst van de fabrikant bevat, kan dat tot gevolg hebben dat de pagina niet in de index terechtkomt. Als je de content aanvult met eigen, unieke content kun je dat voorkomen.
Het herhalen van stukken tekst in de footer van de pagina heet boilerplate. Dat wordt zeker als duplicate content gezien. Het zal meestal geen invloed hebben op je positie in de zoekresultaten (ook geen positieve invloed!). Google negeert het gewoon.
Dat is niet echt aan te raden. Het zorgt er mogelijk voor dat je pagina’s niet of nauwelijks zichtbaar zijn in de zoekresultaten.
Je kunt de URL’s beter zo kort mogelijk houden. Beperk het aantal directories in de URL (1 of 2) en zet niet meer dan 6 zoekwoorden in de URL. Als een URL erg veel zoekwoorden bevat zal een zoekmachine het mogelijk als spam zien.
Er zie een Google Place pagina voor Cleaners. Volgens die pagina is de vermelding ‘door de eigenaar geverifieerd. Je ziet de pagina bijvoorbeeld als je in Google maps zoekt op Cleaners en dan doorklikt naar ‘meer informatie’. Dat wijst er op dat de aanmelding gelukt is en opnieuw aanmelden niet meer nodig is.
De pagina is er, dus het probleem is waarschijnlijk vooral dat hij niet getoond wordt bij relevante lokale zoekopdrachten? Waarschijnlijk helpt het als je het veld Categorieën invult in de pagina. Als ik het goed zie, zijn er nog geen categorieën aangegeven die relevant zijn voor het bedrijf.
Mijn ervaring met nofollow links is, dat ze invloed hebben op de positie in de zoekresultaten, maar slechts voor eventjes. Een nofollow link in de juiste site kan een kleine boost geven aan een pagina, maar na één of twee weken is het effect weer verdwenen. Waarschijnlijk maakt het ook wel uit, waar in de pagina de link staat. Een nofollow link in een commentaartekst zal minder zwaar meewegen, omdat die vaak misbruikt worden voor ‘comment spamming’.
De wiskunde achter de methode gaat me wat te ver, maar ongeveer snap ik wel wat de methode inhoudt. LDA gaat er van uit dat een document bestaat uit een mix van verschillende onderwerpen. Niet elk onderwerp is even sterk vertegenwoordigd in het document. Elk onderwerp heeft een bepaald gewicht in het document. Het gewicht van het hoofdonderwerp is het groots en die van subonderwerpen wat kleiner.
Elk onderwerp op zijn beurt bestaat uit een mix van verschillende woorden. Die mix is niet geheel toevallig. De woorden die bij een bepaald onderwerp horen (een vocabulaire) volgen een kansberekening. In een onderwerp over tweedehands auto’s is de kans dat het woord ‘bovag’ of ‘garantie’ voorkomt, bijvoorbeeld groter dan de kans dat deze woorden voorkomen in een recept van een gerecht.
LDA schat met behulp van wiskundige formules de gewichten van de onderwerpen in een document en de kansverdeling van woorden die bij het onderwerp horen. De onderwerpen zelf zijn ‘latent’ aanwezig. Je krijgt een lijstje met woorden die bij elkaar horen met een kansverdeling. Daaruit moet je zelf afleiden welk onderwerp deze woorden beschrijven.
Zoekmachines kunnen met methoden als LDA beter inschatten over welke onderwerpen een pagina gaat. Het totale woordgebruik in de pagina telt daarbij mee. Zoekwoorddichtheid is niet meer belangrijk. Je moet meerdere woorden uit het vocabulaire in je pagina hebben en ook nog zoveel mogelijk in de juiste verdeling.
Ja, zoekmachines kunnen (onder bepaalde voorwaarden) ook informatie uit databases vinden. Zie het artikel: Informatie uit databases vindbaar maken.
Ik begrijp dat je juist wilt voorkomen dat deze informatie gevonden wordt? Dat kan door de informatie op te vragen met een POST opdracht. Zoekmachines proberen alleen informatie in databases te indexeren als deze via GET wordt opgevraagd.
Verder is het verstandig in de pagina’s, die de database genereert, in de metatag Robots een noindex opdracht te geven:
(spaties weghalen, die staan er in omdat HTML code anders uit het commentaar gefilterd wordt)
-
AuteurBerichten
Gerelateerde berichten:
- Niet op Google zichtbaar en vraag over Google Search Console 2 februari 2022 Beste allemaal Ik ben bezig met een website en ik loop tegen het volgende aan. Er word momenteel maar een pagina op google getoond, de…