Aangemaakte reacties
-
AuteurBerichten
-
Ik limiteer het meestal op twee. Soms worden het er drie:
Is SEO Dood? | SEO blog | SEO guru
Nog nooit problemen ondervonden.
Voordat je een bestaande website gaat optimaliseren ga je eerst kijken met welke zoekwoorden je wilt scoren.
Welke zoekwoorden leveren de hoogste conversie op? Dit is allemaal te controleren via google analytics en adwords. ?Exact!
Als je voor een klant een juiste zoekwoorden analyse wilt maken en natuurlijk de woorden met de hoogste conversie, kun je dit ook controleren als er geen doel conversies zijn ingesteld?
Waar kijken jullie naar?
Als er geen doelen zijn gedefinieerd kan je bij Google Analytics wel kijken welke zoekwoorden rechtstreeks hebben geleid tot welke pagina (via ‘instapzoekwoorden’), maar kan je volgens mij niet herleiden welke zoekwoorden (via een aantal stappen) hebben geleid tot je bedankpagina. Ik zorg er dus altijd voor dat er doelen zijn gedefinieerd. Dan kan je via Verkeersbronnen-Zoekwoorden-Doelconversie prachtig van alle zoekwoorden zien wat per doel de conversie is.
21 november 2008 om 3:05 pm In reactie op: Google Webmasterhulpprogramma: Foutje in ‘Meest uitgevoerde zoekopdrachten’? #21162Ha!
20 november 2008 om 6:08 pm In reactie op: Google Webmasterhulpprogramma: Foutje in ‘Meest uitgevoerde zoekopdrachten’? #24637Ach, zo hebben we allemaal onze dagen… 😉
Je mag er vanuit gaan dat Google zoveel gegevens gebruikt als ze maar kan vinden. Ik heb daar al eens eerder over geschreven: Onbekende ranking-factoren organische zoekresultaten Google | SEO blog | SEO guru
Maar dat een kort inzakkende periode van (officiële) verkopen meteen zo’n ingrijpend effect heeft, kan ik me nauwelijks voorstellen. En al helemaal niet als het e-commerce gegevens betreft. Vanuit het belang van Google bezien zou je namelijk kunnen zeggen dat ze de bedrijven die via de organische zoekresultaten veel verkopen, het liefst zo laag mogelijk positioneren. Dan gaan ze hun AdWords-budgetten namelijk verhogen. Je zou dus eigenlijk -als er al een ecommerce invloed is, wat ik overigens niet denk- een omgekeerd effect verwachten: nu ze minder verkopen heeft Google er minder problemen mee als ze omhoog gaan.
20 november 2008 om 5:54 pm In reactie op: Google Webmasterhulpprogramma: Foutje in ‘Meest uitgevoerde zoekopdrachten’? #24640Hallo Bas,
Bij mij werkt het ook niet en ik lees verschillende berichten op het Internet dat het bij anderen ook niet werkt. Ik heb ook geen idee wat hier de reden van kan zijn.
Dat overzicht is voor wat betreft de Open Source CMS-en gemaakt door Traffic Builders. Kijk maar onder deze link.
Ik ken dat artikel, maar denk dat er aanzienlijk meer te zeggen is over zoekmachine vriendelijke CMSen. Vandaag ben ik begonnen (deel 1) met een serie artikelen over SEO-CMSen:
SEO CMS: het ideale model | SEO blog | SEO guru
De resultaten van de discussie die we nu voeren over WordPress versus betaalde CMS-en zullen in een volgend deel van de serie worden verwerkt.
Maar in ieder geval dank voor de link. Ik hou mij aanbevolen voor nog meer goede artikelen over SEO CMS.
Ik denk dat we in het licht van je betoog moeten zeggen:
gratis open source waar iedereen aan kan meeontwikkelen versus betaalde closed source.
Maar om niet af te drijven van de oorspronkelijke topic kunnen we ons beter blijven richten op WordPress versus betaalde CMS-en.
, maar alleen iets over het feit, dat de broncode toegankelijk is. Zoals ook de motorkap van een auto normaliter niet is dichtgelast.
Goed punt! Ik heb een te beperkte definitie van Open Source toegepast. Open Source betekent niet automatisch dat iedereen maar kan meesleutelen, maar ook dat de code zichtbaar is voor iedereen.
Ik doel dus op Open Source software voor zover anderen kunnen gaan meehelpen met de ontwikkeling ervan (daarom noemde ik ook ‘prosumers’). Dan heb ik het dus niet over stemcomputers, etc.
Goed dat we dat nu even scherp hebben.
Wat is het grote voordeel van betaalde Content management systemen boven wordpress, als wordpress goed is geconfigureerd en seo geoptimaliseerd is?
Mvg
Luc
Dat is een hele goede vraag, Luc. Jouw vraag is voor mij in ieder geval ook een vraag. M’n weblog is ook een WordPress blog, en dat werkt namelijk goed.
Ten grondslag aan deze vraag ligt een meer algemene discussie, namelijk: is het slimmer om met gratis, open source software (zoals WordPress) te werken of is betaalde, ‘closed’ software misschien (soms) toch beter? Ik heb mij deze vraag ook gesteld bij het opstarten van dit forum. Je hebt de open source software phpBB aan de ene kant en de betaalde vBulletin aan de andere. Ook heb ik nog even gedacht aan een Forum-plugin voor WordPress. Ik heb op dit punt besloten om als test eens met betaalde software te gaan werken. Ja, waarom?
De voordelen van open source software zijn namelijk duidelijk:
* gratis (inclusief de meeste plugins);
* echt web2.0, d.w.z. past perfect bij de prosumer-gedachte van het Internet: consumenten worden ook producenten (nl. door het feit dat ze zelf de source kunnen aanpassen of uitbreiden en die openbaar beschikbaar kunnen stellen). Dit geeft een enorme impuls aan de ontwikkelingen.Ik heb het gevoel dat de keerzijde van deze ontwikkeling ook langzaam maar zeker zichtbaar wordt. Stel dat je een plugin (of soms -zoals bij FireFox- ‘addon’ genoemd) gebruikt die op een gegeven moment niet meer onderhouden wordt? Dan zit je met een probleem. Die gedachte had ik bij WordPress-forum-plugin. Dat is een hartstikke mooi ding, maar de ontwikkelaar ervan heeft zo ongeveer een dagtaak om het goed te onderhouden, vragen te beantwoorden, etc. Hou lang houdt hij dat vol, als daar geen inkomsten tegenover staan?
Dit was voor mij de belangrijkste overweging om (soms) te kiezen voor betaalde software. Ik vind het een prettige gedachte te weten dat er mensen betaald worden om de software goed te kunnen onderhouden. Dat vergroot de overlevingskans van de software aanzienlijk.
Dus nadelen van open source software zijn wat mij betreft:
* minder garantie op duurzaam onderhoud van de software en de uitbreidingen erop;
* er is niemand werkelijk verantwoordelijk voor fouten.En dan nog een ander punt:
* wat is de kwaliteit van de open source software? Iedereen kan programmeren, maar het ontwikkelen van werkelijk goede en robuuste software is nog een heel ander verhaal. Denk in dit verband bijvoorbeeld aan beveiligingszaken. Centraal geleide ontwikkeling van software is nog geen garantie, maar maakt de kans wel groter dat e.e.a. goed in elkaar zit.Dit zijn even mijn gedachten nu. Ik zou heel graag meer plussen en minnen vernemen omtrent open versus gesloten source software in het algemeen en WordPress versus betaalde CMS-en in het bijzonder. Dan zal ik de reacties inventariseren en publiceren.
Met domeinnamen een ander domein omhoog proberen te halen heeft inderdaad geen zin, tenzij er onder alle domeinen een goede en serieuze site hangt.
De 301-redirect wordt door Google geaccepteerd, sterker: wordt aanbevolen als de url van een pagina verandert. In jouw geval zou ik beide pagina’s via een 301-redirect verwijzen naar de onderwerp-pagina.
Ik heb na het bericht van Jeroen de NOODP toegevoegd aan mijn index-pagina en inderdaad wordt de meta-description nu in Google getoond bij (ook) de zoekopdracht ‘seoguru’ en dus niet meer de DMOZ-beschrijving.
I love it when a plan comes together…
Sitelinks zijn inderdaad leuk om te hebben. Je legt beslag op een groter onderdeel van het zoekresultaten-scherm, en het straalt autoriteit uit. Je krijgt gewoon meer kliks.
Meestal hebben websites sitelinks als gezocht wordt op hun bedrijfsnaam. Dan moeten er niet verschillende bedrijven of produkten zijn met die naam. Als er geen misverstand kan bestaan over de website waarnaar de zoeker op zoek is, voldoe je aan deze eerste voorwaarde voor sitelinks. Zoekende op ‘seoguru’ (vanuit Nederland) levert daarom de seoguru-site met sitelinks. Veel bedrijven hebben sitelinks op hun bedrijfsnaam.
Maar interessanter zijn de sitelinks bij algemene zoekopdrachten. In dat geval moet je (volgens het geautomatiseerde oordeel van Google) absolute autoriteit zijn op die zoekopdracht. Dat seoguru sitelinks heeft op ‘zoekmachine optimalisatie’, beschouw ik dan ook maar als een mega-compliment van Google.
Twee: Google moet wel de verschillende onderdelen van de website kunnen ontdekken om die als sitelinks te kunnen presenteren. Dat kan Google alleen als er een duidelijke, natuurlijke navigatiestructuur is. Bovendien moeten de verschillende onderdelen ook (zo veel mogelijk) verwijzingen hebben vanaf andere sites. Althans, zo is de theorie. Ik zie echter dat Google bij SEOguru sitelinks toont waar nauwelijks naar verwezen wordt. Daarom mijn iets aangepaste theorie: zorg dat er in ieder geval drie (want dat is het minimaal aantal sitelinks) onderdelen in de website bestaan waar voldoende vaak naar wordt verwezen. Dat aantal hoeft echt niet in de duizenden te lopen. Denk (in Nederland) aan (iets in de orde van) honderd (echte) links. Een website die alleen verwijzingen heeft naar de index-pagina, maakt in mijn optiek weinig kans. Als daar overigens tegenvoorbeelden van bestaan, verneem ik die graag.
Interessant in dit verband is de website http://www.netters.nl. Kijk maar eens naar de sitelinks als je zoekt op ‘netters’. Dan is niet hun navigatiestructuur bepalend voor de sitelinks, maar zijn verschillende artikelen dat. Vermoedelijk zijn dat artikelen waar relatief veel naar wordt verwezen.
De hoeveelheid verkeer lijkt me niet bepalend voor het al dan niet krijgen van sitelinks, omdat Google dat alleen kan meten als er Google Analytics is geïnstalleerd.
Dan moeten we concluderen dat het inanchor-commando niet helemaal betrouwbaar is. Ik zie in de zoekresultaten op jouw zoekquery meer sites die eco-nova niet in een anchor hebben. Bv. (op pag2): miwe.de
Van black hat lijkt me geen sprake.
-
AuteurBerichten