Aangemaakte reacties
-
AuteurBerichten
-
Of beter: neem in het artikel altijd een verwijzing op naar je eigen site. Daarmee wordt jij de autoriteit over betreffend artikel. Maar eerst zelf publiceren is daarnaast ook een goede manier.
Dergelijke directories in het Nederlands kan je vinden als je zoekt op bv. “artikel directory”.
Goede vraag!
Het antwoord is simpel: Google is goed in staat te achterhalen wat de bron van de informatie is. Indien je iets kopieert vanaf een andere site weet Google dat je een kopie gebruikt, en zal jouw informatie niet laten scoren. Indien je een eigen persbericht lanceert, zal Google weten dat het van jou is en alleen de variant zoals die op jouw site aanwezig is, eventueel laten scoren.
Hoe bepaalt Google wat de bron van de informatie is? In de eerste plaats is dat het moment waarop de informatie wordt gepubliceerd. Als jij de eerste bent, ben je per definitie de bron. Maar Google kan jouw bronwebsite later hebben gevonden dan bijvoorbeeld de nieuwssite waar je persbericht wordt overgenomen. Als er vanuit het persbericht verwijzingen liggen naar jouw site, is het Google duidelijk dat jouw site de bron is. Want dat is het tweede criterium om de bron te bepalen: naar welke pagina liggen de meeste en belangrijkste verwijzingen?
Voorzichtigheid is inderdaad geboden met outbounds. Zorg daarom voor een goede redactie van je uitgaande verwijzingen. Dit maakt dat het vertrouwen van Google in je site kan groeien. En vertrouwen is steeds meer het sleutelwoord in SEO.
Ok, dan begreep ik het inderdaad verkeerd. Roland lijkt het beter te hebben begrepen.
Er worden dus webpagina’s gegenereerd op basis van de bedrijfsgegevens in de database, oa. resulterend in verwijzingen naar websites van betreffende bedrijven. Ik begrijp dat die webpagina’s alleen bereikbaar zijn via een zoekopdracht.
Allereerst is het maar zeer de vraag of Google dergelijke pagina’s vindt. Waarschijnlijk niet, tenzij er verwijzingen naar die gegenereerde pagina’s worden gelegd, bijvoorbeeld vanaf andere sites. Dat is theoretisch in ieder geval wel mogelijk.
Vervolgens is het de vraag of het “negatief is voor SEO” is als Google die pagina’s zou vinden en indexeren. U lijkt daar huiverig voor te zijn. Mijn antwoord is dat het de natuur van het Internet is dat sites naar elkaar verwijzen. Een verwijzing kan daarbij worden gezien als een stem. U gaat dan dus stemmen op die bedrijfssites.
Google waardeert het als een site zorgvuldig omgaat met zijn uitgaande verwijzingen. Het vertrouwen van Google in uw site zal dalen als u bijvoorbeeld (veel) gaat verwijzen naar onbetrouwbare sites. We kennen ze: poker, porno, pillen, bijvoorbeeld.
Omdat u waarschijnlijk niet alle bedrijfssites kunt controleren, is er het volgende devies: neem automatisch de rel=”nofollow” op bij de uit de database gegenereerde verwijzingen (hyperlinks) naar de bedrijfssites. Dan ligt er wel een verwijzing, maar stemt u niet op de site. Meer info over deze rel=”nofollow”: nofollow – Wikipedia, the free encyclopedia
Ik begrijp dat er gegevens in de database staan waarvan men niet wil dat die door Google worden gezien. In dat geval is mijn antwoord dat mijnheer/mevrouw niet bang hoeft te zijn dat Google in de database komt als er geen webpagina’s op basis van die gegevens worden gegenereerd. Google kan de inhoud namelijk pas zien als er een webpagina van wordt gemaakt. Of begrijp ik iets verkeerd?
Leuk!
Wordt wat lastig openbaar communiceren met een link waar alleen ik inzage in heb. Ik ga deze discussie sluiten.
Het wordt handiger voor ons als je de betreffende URL even doorgeeft. Nu is het onmogelijk iets zinnigs te zeggen.
Dag Tim,
Als ik naar je scores kijk, zie ik dat het merendeel van de impressies (3600) hoger dan pagina drie staat. Waar precies, is dus onduidelijk. Maar waar het zoekresultaat ook staat, er wordt wel 3600 keer naar toe gebladerd. Omdat dit een significant aantal is kan dat inderdaad niet hoger zijn dan positie 500 (pagina 50).
Blijkbaar wordt de site ook regelmatig niet vertoond (binnen de eerste 500 zoekresultaten). Wellicht is het zo dat op het moment dat jij e.e.a. hebt onderzocht de website niet te vinden was, maar op andere momenten wel degelijk te vinden is.
Hoe hoog is het zoekvolume van betreffend zoekwoord? Dit is te vinden binnen het hulpprogramma voor zoekwoorden van AdWords (optie ‘exact’).
De enige “layers” die ik kan bedenken m.b.t. SEO is de techniek om de belangrijke content die bijvoorbeeld relatief laag op het scherm staat, hoog in de html-code (en daarmee in de Google-cache) te krijgen. Zo’n jaar of vijf geleden was deze techniek nogal populair in SEO kringen. Ik geloof niet dat die tegenwoordig nog veel gebruikt wordt. Het is een grijs gebied. Het is wel zo dat de eerste alinea in de content relatief belangrijk is. Daar zullen je belangrijke zoekwoorden dus in terug moeten komen.
Ik ben een voorstander van een combinatie van én tools én handmatige werkzaamheden. In mijn optiek en ervaring is het onmogelijk een werkelijk goede SEO analyse te maken met alleen tools. Tools kunnen in principe goed en snel de handmatige werkzaamheden ondersteunen door allerlei data en statistieken boven tafel te krijgen en houden. Maar hoe kan een tool bijvoorbeeld iets zinnigs zeggen over de website-structuur? Daarvoor moeten we echt handmatig aan de slag. Tools zijn handig maar niet slim.
Ik raad je af met dergelijke link-uitwisselingsprogramma’s in zee te gaan. Ik verwacht geen voordeel, eerder nadeel. De kans is namelijk groot dat je via dergelijke programma’s ook verwijzingen vanaf je site gaat krijgen naar sites die door Google als onbetrouwbaar zijn aangemerkt. Als je verwijzingen gaat krijgen naar zogenaamde achterbuurten op het Internet is er een goede kans dat je zelf op een goed moment ook aangemerkt gaat worden als onderdeel van zo’n achterbuurt. En dat is het laatste wat je wilt. Je moet juist zorgen het vertrouwen (trust) van de zoekmachines te winnen.
Ik kan me ook niet voorstellen dat dat de reden is.
Misschien heeft het te maken met de “Mayday Update” van Google. Dat zou een verklaring kunnen zijn indien de wijzigingen sinds begin mei plaatsvonden en het de dalingen de long-tail keywords betreft.
Meer info: YouTube – Can you give us an update on rankings for long-tail searches?
Succes!
Ps. even gegoogled op “SEO Hema”. Onze discussie staat nr.1. :rolleyes:
@Sybren
SEO-technisch ziet het er inderdaad niet optimaal uit.Paar opmerkingen:
* Inderdaad zeer veel links. Op de homepage bijna 400. Google geeft aan dat 100 links per pagina veilig is, daarboven zijn we afhankelijk van hun goodwill. De goodwill wordt overigens groter naarmate de pagerank groter is. En die is vijf, dus redelijk.* Title homepage is inderdaad heel suf. Achterliggende pagina’s zijn op dat punt beter.
* Homepage heeft ook inderdaad geen description, achterliggende pagina’s wel. Waar ze wel aanwezig zijn, zijn ze echter nagenoeg identiek aan de title. En dat is natuurlijk niet goed. De description moet juist iets toevoegen aan de title, zodanig dat de kans groter wordt dat zoekers gaan klikken op het resultaat.
* De H1 is wel aanwezig, maar heeft in ieder geval op de homepage een zeer slechte inhoud, op achterliggende pagina’s zit er een image in de H1, maar is in ieder geval dat alt-tag van de image gevuld met een goed zoekwoord.
* En nog een beginnersfout: op de pagina’s is de Home-button gelinkt aan http://www.hema.nl/nl-NL/home.aspx. Hiermee ontstaan er meerdere homepages, met dubbele content. Alles zou simpelweg moeten verwijzen naar http://www.hema.nl.
En in je reactie op je vraag: een grotere hoeveelheid zoekwoorden maakt het zoekwoord-onderzoek in de kern niet anders. Het is alleen meer werk. In ieder geval zou ik er voor zorgen dat de shorttail zoekwoorden goed verwerkt zijn binnen de categorie en subcategorie-pagina’s. Dat is in ieder geval een goed en overzichtelijk begin.
-
AuteurBerichten