Aangemaakte reacties
-
AuteurBerichten
-
O ja, de trackbacks.
Sites die jouw wordpress blog pingen dat ze een link naar jouw site hebben opgenomen moet je modereren. Deze trackbacks ‘allow’ ik alleen als het een serieuze en niet-geautomatiseerde verwijzing betreft. En bovendien het liefst van een site die minimaal net iets groter (in termen van autoriteit) is dan de site van jezelf. Maar je kan die optie ook standaard uitzetten.
Op mijn website is mijn seo blog ook in WordPress gebouwd (en dat werkt perfect). Standaard (zoals ook in de Codex te lezen is) wordt Ping-o-Matic gebruikt. Vele sites (waaronder Google) worden op de hoogte gebracht van het feit dat je een nieuw bericht hebt geplaatst. Ze komen dan nagenoeg onmiddellijk langs om hun ding te doen met je bericht. Als ik een nieuw bericht plaats heeft Google dat binnen het uur geindexeerd en is het terug te vinden in de zoekresultaten. En dat komt niet door mijn sitemap.xml, want die heb ik niet…
Andere diensten die gepinged zijn via Ping-o-Matic zullen een link opnemen naar je bericht of zelfs de gehele tekst overnemen op hun site. Alles dus afhankelijk van de betreffende dienst.
Je hoeft je geen zorgen te maken over de situatie dat er opeens (mogelijk) veel linkjes naar je site ontstaan, in tegendeel. Dat is alleen maar mooi. Hoewel de linkjes nooit erg veel waarde zullen hebben, juist omdat ze geautomatiseerd plaatsvinden.
Ook als je content ergens anders verschijnt zal Google begrijpen dat het bericht op jouw website de bron is, dus dat is ook al geen probleem.
Lekker later pingen dus!
In aanvulling op voorgaande discussie kan ik nog opmerken dat gedurende de ontwikkelfase van de website de volgende deliverables kunnen worden overlegd aan de opdrachtgever, danwel door de webontwikkelaar zelf danwel door een seo bureau dat actief participeert in de ontwikkeling:
1. zoekwoord-analyse (Google hulpprogramma voor zoekwoorden evt. in combinatie met analytics-gegevens van organisch en AdWords) en nulmeting huidige posities en urls op de via de analyse bepaalde, interessante zoekwoorden.
2. concurrentie-analyse (meestal bekijk ik een set van algemene parameters voor de belangrijkste concurrenten)
3. ontwerp site-architectuur (zie: Ontwerp juiste sitearchitectuur voor de ontwikkeling van zoekmachine vriendelijke websites | SEO blog | SEO guru)
4. technische verantwoording (welke technische keuzes zijn gemaakt bij bouw website met oog op seo?)
5. Uitgevoerde linkbuilding-activiteitenVoor al deze zaken kan je een vast bedrag in rekening brengen. Je ziet veel webontwikkelaars die claimen ‘seo vriendelijke sites’ op te leveren, maar het is volstrekt onduidelijk wat men daar voor doet. Als je in staat bent te communiceren wat je precies doet, zijn bedrijven bereid daar extra geld voor uit te trekken.
Na de bouw van de website kan je verder ook een service-contract afsluiten waarin je bv. maandelijks tijd inruimt voor de volgende werkzaamheden:
A. Rapporteren ontwikkelingen rankings op de tijdens de zoekwoord-analye bepaalde zoekwoorden (waar de nulmeting over is gemaakt).
B. Aanvullende SEO adviezen op basis van achterblijvende zoekwoorden
C. Monitoren Analytics met bij voorkeur ook AdWords-resultaten om renderende zoekwoorden te identificeren. Indien die zoekwoorden organisch nog niet hoog scoren kan de advisering gericht zijn op de verbetering van de posities van (ook) dié zoekwoorden.
D. Rapporteren backlinks n.a.v. linkbuilding activiteiten
E. Monitoren terugmeldingen vanuit Google Webmaster Tools (bedrijven willen dat zelf meestal niet monitoren)Precies dit hele verhaal werk ik uit in mijn seo training voor webontwikkelaars.
In antwoord op je vraag moet ook nog worden gemeld dat het niet alleen lastig is posities te beloven, maar dat Google zelfs stelt dat dat nooit mag worden gedaan door SEO-bureaus: “Wees op uw hoede voor SEO’s die pretenderen u een bepaalde positie in de zoekresultaten te kunnen garanderen. ” (Search Engine Optimizers (SEO) – Webmasterhulpprogramma’s van Google Help)
En met Taco wil ik je vragen ons op de hoogte te houden van je vorderingen, succes!
Dat zou ik niet doen, ik zou een link toevoegen bij het portfolio maar dan met een rel=”nofollow”. Zo zorg je er voor dat de pagerank op je eigen website blijft.
Zoals al door Annemieke aangegeven klopt deze uitspraak dus niet. Via de nofollow hou je de pagerank niet in je eigen website. In jargon: pagerank sculpting bestaat niet. Nu kan je in mijn optiek de pagerank-lek wel beperken door alle verwijzingen op één (portfolio) pagina op te nemen. Ik heb daar twee jaar geleden iets over gepubliceerd en klopt volgens mij nog steeds: Winst in PageRank door goede websitestructuur | SEO blog | SEO guru
Daarnaast kun jij niet continu in de gaten houden wat je klanten doen, er zouden dus klanten kunnen zijn die hun website zo verprutsen dat ze een google ban krijgen (extreme situatie), dan staat jou link naar deze website wel open en link je dus naar slechte websites.
Inderdaad wel een wat extreme situatie. Ik zou me daar dus niet al te veel zorgen over maken, tenzij je specialisme ligt in het maken van websites voor dubieuze partijen.
Daarnaast ga je dan linkjes over en weer geven en lijkt het een soort linkruil.
Is waar, maar niet met het primaire doel om hoog te scoren. Primair is het doel vanuit jouw website (portfolio) te laten zien voor wie je opdrachten hebt uitgevoerd en vanuit de website van de klant te laten zien wie die mooie website heeft gebouwd. Allemaal legale en informatieve mededelingen.
Om de discussie nog even af te ronden denk ik dat Taco inderdaad de juiste oplossing heeft gegeven.
De situatie van Jorrit is de precies waar de rel=”canonical” uitkomst lijkt te bieden: voor bezoekers moeten het twee gescheiden pagina’s blijven, maar voor zoekmachines feitelijk één. Eerder in een discussie binnen dit forum had ik (nota bene) verwezen naar een video waarin Google uitlegt dat bij de rel=canonical de pagerank ook netjes wordt doorgegeven naar de canonieke pagina: Official Google Webmaster Central Blog: Duplicate content and multiple site issues. Dus net als bij de 301-redirect.
Goed om deze oplossing nog eens extra in onze hoofden te prenten…
Gewoon standaard een net linkje op de homepage van iedere door jullie gerealiseerde website. Je zal daar wel afspraken over moeten maken met je klanten.
Goedemorgen heren. Ik meen dat het geen enkel probleem is als de websitebouwer op de door hem/haar gerealiseerde websites (ik begrijp dat het daarom gaat) een soort “made by” link plaatst naar de eigen site. Dat zie je voortdurend en is in mijn optiek geheel witte seo. Ik zou dan niet alleen maar zoekwoorden in de linktekst plaatsen, maar ook de naam van je bedrijf. Bv: “BestMedia webdesign”. rel=nofollow is dan ook niet nodig omdat het geen betaalde link is.
Dan begreep ik het goed…
Je kan wel een 301-redirect leggen waardoor de kans groot wordt dat je positie 6-pagina hoger gaat scoren. Maar je zal dan met die andere pagina (positie 9) wegvallen uit de rankings.
Maar waarom wil je dat alleen googlebot dat ziet? M.a.w. waarom laat je je bezoekers ook niet gewoon redirecten van de ene naar de andere pagina? Of nog anders gezegd, als de sites identiek zijn, waarom 301-redirect je de ene site niet gewoon naar de andere?
Het lijkt er op dat je geluk hebt, dat Google de dubbele content nog niet heeft herkend.
Als je alleen voor Googlebot een redirect zou maken van de ene naar de andere site zal Google alleen nog de andere indexeren.
Maar het is tegen de richtlijnen van Google om Googlebot iets anders te tonen dan wat bezoekers te zien krijgen.
Verder begrijp ik niet goed wat je doel is van het combineren van pagerank, terwijl je tegelijkertijd -begrijp ik- blij bent met het feit dat Google de twee gelijke sites als verschillende sites rankt.
Tja…
Even nadenken over de Google API.
Tot aug. vorig jaar had je de Google SOAP Search API key waarmee je volgens mij ongelimiteerd queries op de Google-database kon uitvoeren (mits je een zeker tijdinterval tussen de queries aanhield), maar die is vervallen: Google Code Blog: A well earned retirement for the SOAP Search API. Daar voor in de plaats is er de Google Ajax Search API gekomen:Google AJAX Search API – Google Code.
Ik weet eigenlijk niet hoe de beperking ligt bij de AJAX API. De Ajax API geeft wel minder resultaten per query: maximaal 64 (Google AJAX APIs | Google Groups).
Een tool als link assistant werkt ook met deze AJAX API key. Als gebruiker kan je namelijk de key in de applicatie invoeren. Of je dezefde resultaten krijgt als je klanten hangt af van op welk datacentrum van Google de applicatie zijn queries uitvoert. De kans is groot dat dit een ander datacentrum is dan jij of je klanten.
Er zijn ook webbased rank-diensten (http://www.seorankmonitor.com, http://www.rankinspector.com, etc) waarbij de rankings worden opgehaald vanaf hun eigen servers. Ik weet eigenlijk niet of die van de AJAX API gebruik maken of gewoon de opgemaakte zoekresultaten inlezen en parsen. Ook bij die vorm kan je er niet vanuit gaan dat de resultaten hetzelfde zijn als bij jou of je klanten, om dezelfde reden als hiervoor.
Ik ga er zelf altijd vanuit dat de resultaten die ik terugkrijg van mijn software (al dan niet webbased) “ongeveer” goed zullen zijn. In de praktijk is dat zeker niet altijd het geval maar zijn de verschillen bijna nooit meer dan +/- 5 posities. Wat op zichzelf natuurlijk nog best veel is. Meestal ben ik echter meer geinteresseerd in relatieve ontwikkelingen dan in absolute posities. Dan zijn de tools wel weer goed bruikbaar.
Voorgaande staat nog los van het feit dat gebruikers vaak zijn ingelogd of webhistory enabled hebben, waardoor de zoekresultaten gepersonaliseerd zijn en je dan per definitie niet kan zien wat zij zien.
Maar lastige materie is het wel…
Dag Mark. Als je website nieuwe url’s krijgt (een nieuwe extensie is ook een nieuwe url) dan moet je dat aan Google aangeven via een 301-redirect. Dat betekent dat de url’s definitief zijn verhuisd, hetgeen in jouw situatie het geval zal zijn. In mijn ebook, waarvan ik heb begrepen dat je die nu aan het lezen bent, staat daar meer over geschreven. Of op de site: 301-Redirect | SEO guru
Als je dat goed doet zouden de effecten op je rankings beperkt moeten blijven.
Succes!
Nee, zo zou ik dat niet doen.
De vervolgpagina’s zijn immers geen duplicate content van de eerste. Je neemt de canonical tag alleen op als de pagina een werkelijke duplicaat is van de canonieke (=bron) pagina. Je kan dan beter gewoon zorgen dat de vervolgpagina’s niet worden geindexeerd via de meta-robots tag (noindex).
Doel je op een werkelijk dynamisch, dus veranderend, IP-adres? Of heb je het feitelijk over shared hosting, dus meerdere sites onder één IP? Dit laatste is geen enkel probleem voor seo, de meeste sites draaien op een shared server (zoals ook onderhavige site). Alleen als er verschillende discutabele sites onder hetzelfde IP-nr draaien zou ik waakzaam worden, en de provider vragen of je op een andere server geplaatst kan worden. En in dat verband is de video die Kevin van Cutts aandraagt interessant: ook de verplaatsing naar een andere server is geen probleem voor seo.
Ja, je vraag is een zeer fundamentele en belangrijke.
Mijn advieswerk is primair gericht op webontwikkelaars, dus op de vraag hoe een website (met tekst, videos, afbeeldingen, etc) zo zoekmachine vriendelijk mogelijk kan worden opgezet. Door de jaren heen ben ik continu bezig geweest om structuur en logica aan te brengen in de wijze waarop seo-advisering in mijn optiek zou moeten plaatsvinden.
Ik heb daartoe een zeven-stappen methode bedacht die ik de “SEOguru-methode” heb genoemd. Deze methode is een houvast voor de webontwikkelaar en geeft bij iedere stap aan wat er precies op het gebied van SEO met de opdrachtgever kan worden gecommuniceerd gedurende de ontwikkeling van de website. Dit zijn de stappen:
Zoekwoord analyse
Concurrentie analyse
Site architectuur
Techniek website
Content
Linkbuilding
OnderhoudDeze methode is basis voor mijn advieswerk, coachings, analyses van bestaande websites en ook mijn training voor webontwikkelaars.
Je vraag betreft echter de concrete aanpak richting een klant. Als ik een verzoek om een offerte krijg bel ik de betreffende persoon altijd zo snel mogelijk terug en probeer goed te begrijpen waar precies zijn/haar behoeftes liggen. Als deze al een website heeft en eens wil sparren omtrent mogelijke verbeteringen (met het oog op seo), dan bied ik een coaching aan. Vaak ook hebben ze meerdere websites onder handen en willen ze in algemene zin meer kennis bemachtigen over seo. In dat geval is een training logischer.
Ik zit dus met name op kennisoverdracht, ik probeer mijn klanten in principe niet aan mij te binden. Ik probeer ze zo effectief mogelijk aan de benodigde kennis te helpen opdat ze zelf, dus zonder mij, weer verder kunnen. Dat is mijn businessmodel. Alleen de webontwikkelaars die in mijn ogen een goed seo-kennis niveau hebben wil ik profileren, d.w.z. écht op mij nemen.
Dit is dus een wat ander model dan de meeste zoekmachine-marketing bureaus die bedrijven gedurende langere trajecten ondersteunen bij het realiseren van zo goed mogelijke rendementen vanuit de zoekmachines, zoals GoalGorilla en TrafficBuilders. Ik probeer mijn klanten meer van mij te bevrijden, zoals een goede guru betaamt. Beide modellen hebben hun eigen voordelen.
Thanks!
We lijken het world-wide eens.
-
AuteurBerichten
Gerelateerde berichten:
- Startpagina links 1 oktober 2022 Goedemiddag, Ik heb een vraag over het verkrijgen van startpagina links. Deze kan je vaak via de desbetreffende partijen aankopen of je kan een linkje…